Vertrouw ChatGPT niet om wiskunde te doen

Vertrouw ChatGPT niet om wiskunde te doen
Justin Duino / How-To Geek

Het is van cruciaal belang om alles wat afkomstig is van ChatGPT, Bing Chat, Google Bard of een andere chatbot op feiten te controleren. Geloof het of niet, dat geldt vooral voor wiskunde. Ga er niet vanuit dat ChatGPT kan rekenen. Moderne AI-chatbots zijn beter in creatief schrijven dan in tellen en rekenen.

Chatbots zijn geen rekenmachines

Zoals altijd is snelle engineering belangrijk bij het werken met een AI. U wilt veel informatie geven en uw tekstprompt zorgvuldig opstellen om een ​​goed antwoord te krijgen.

Maar zelfs als je een onberispelijk stukje logica krijgt als reactie, zou je er middenin kunnen turen en beseffen dat ChatGPT een fout heeft gemaakt in de trant van 1+1=3. ChatGPT heeft echter ook vaak de verkeerde logica – en het is ook niet goed in tellen.

Een groot taalmodel vragen om als rekenmachine te fungeren, is als een rekenmachine vragen een toneelstuk te schrijven: wat had je verwacht? Daar is het niet voor.

Onze belangrijkste boodschap hier: het is van cruciaal belang om het werk van een AI dubbel of driemaal te controleren. Dat geldt voor meer dan alleen wiskunde.

Hier zijn enkele voorbeelden van ChatGPT die plat op zijn gezicht valt. We hebben voor dit artikel de gratis ChatGPT op basis van gpt-3.5-turbo gebruikt, evenals Bing Chat, dat is gebaseerd op GPT 4. Dus hoewel ChatGPT Plus met GPT 4 het beter zal doen dan de gratis versie van ChatGPT, zul je ervaren deze problemen zelfs met een eersteklas AI-chatbot.

ChatGPT kan niet tellen

ChatGPT en Bing lijken niet betrouwbaar voor het tellen van lijsten met items. Het lijkt een basistaak, maar reken er niet op dat u een betrouwbaar antwoord krijgt.

We hebben ChatGPT voorzien van een kolom met getallen en gevraagd om het voorkomen van een van de getallen te tellen. (Je hoeft niet zelf te tellen: het juiste antwoord is dat het getal 100 14 keer voorkomt.)

ChatGPT 3.5 faalt bij het tellen van een lijst.

Zelfs als u ChatGPT corrigeert en het zich verontschuldigt en een nieuw antwoord aanbiedt, krijgt u niet noodzakelijkerwijs een correct antwoord.

ChatGPT gedraagt ​​zich vaak als een persoon die verwoed probeert een fout te verdoezelen en u een antwoord te geven – welk antwoord dan ook – om u van zijn rug te krijgen. Het is eigenlijk heel levensecht!

Zoals gewoonlijk is een van de grote problemen hoe zeker ChatGPT is van al zijn antwoorden, zelfs als het machinegeweer verschillende antwoorden op je afvuurt.

ChatGPT kan herhaaldelijk niet tellen.

We hebben GPT 4 geprobeerd via Bing Chat van Microsoft en ondervonden een soortgelijk probleem. Bing besloot wat Python-code te schrijven om dit lastige probleem op te lossen, maar kreeg ook niet het juiste antwoord. (Bing heeft de code niet daadwerkelijk uitgevoerd.)

Bing Chat kan niet tellen.

ChatGPT worstelt met wiskundige logicaproblemen

Als je ChatGPT een wiskundig ‘woordprobleem’ geeft, zie je vaak vreemde wendingen in de logica waardoor je niet het juiste antwoord krijgt

We hebben ChatGPT voorzien van een op fruit gebaseerd wiskundig probleem dat weerspiegelt wat iemand zou kunnen vragen als ze zouden proberen een beleggingsportefeuille opnieuw in evenwicht te brengen door een bijdrage toe te wijzen aan verschillende fondsen – of misschien door gewoon veel fruit te kopen en vast te houden aan een op fruit gebaseerde portefeuille voor de hongerige investeerder.

Een op woorden gebaseerd wiskundig probleem voor ChatGPT.

ChatGPT begint goed, maar ontspoort al snel in logica die nergens op slaat en geen correct antwoord geeft.

ChatGPT's logisch incorrecte reactie op het probleem.

Je hoeft niet elke draai en draai te volgen om te beseffen dat het uiteindelijke antwoord onjuist is.

Het laatste deel van het onjuiste antwoord van ChatGPT.

ChatGPT graaft vaak in en maakt ook ruzie met u over de antwoorden. (Nogmaals, dat is heel menselijk gedrag.)

In dit geval voerde ChatGPT aan dat hey, het gaf je niet het juiste antwoord, maar het bracht je dichter bij de gewenste verhouding dan voorheen! Dat is best grappig.

ChatGPT erkent dat het antwoord fout was, maar maakt er ruzie over.

Voor de goede orde, Bing Chat van Microsoft op basis van GPT 4 worstelde ook met dit probleem, wat ons een duidelijk onjuist antwoord gaf. Ook hier ontspoort de logica van GPT 4 snel.

Bing Chat geeft een verward antwoord.

We raden aan niet te proberen elke draai en draai van de logica te volgen – het is duidelijk dat het antwoord onjuist is.

Het laatste deel van het onjuiste antwoord van Bing.

Toen we erop wezen dat het antwoord van Bing onjuist was, bleef het in cirkels met ons discussiëren en het verkeerde antwoord na het verkeerde antwoord aanbieden.

Bing Chat erkende dat zijn reactie onjuist was.

ChatGPT kan ook niet betrouwbaar rekenen

Het is vermeldenswaard dat ChatGPT soms wordt meegesleept en ook basisberekeningen verkeerd vermeldt. We hebben logische antwoorden gezien op problemen met onjuiste rekenkunde, vergelijkbaar met 1+1=3 in het midden van het goed beredeneerde antwoord.

Zorg ervoor dat u alles controleert, dubbelcheckt en driedubbelcheckt wat u van ChatGPT en andere AI-chatbots krijgt.

Nieuwste artikelen

spot_img

Related Stories

Leave A Reply

Vul alstublieft uw commentaar in!
Vul hier uw naam in