ChatGPT is een indrukwekkende AI-chatbot die niet kan stoppen met liegen

ChatGPT is een indrukwekkende AI-chatbot die niet kan stoppen met liegen

Kunstmatige intelligentieprojecten zoals Stable Diffusion worden steeds beter in het benaderen van wat mensen zouden kunnen creëren, maar nog steeds niet kunnen denken of controleer informatie zo goed. Voorbeeld: de nieuwe ChatGPT AI-chatbot is cool, maar vertrouw er niet op.

Synthetische AI-kunst maken met Midjourney

VERWANTSynthetische AI-kunst maken met Midjourney

OpenAI, vooral bekend als het onderzoeksbureau achter de DALL-E-beeldgenerator, heeft zijn in ontwikkeling zijnde chatbot voor iedereen beschikbaar gesteld op chat.openai.com. De groep zegt op zijn website: “we hebben een eerste model getraind met behulp van gesuperviseerde afstemming: menselijke AI-trainers voerden gesprekken waarin ze beide kanten speelden: de gebruiker en een AI-assistent. We gaven de trainers toegang tot modelgeschreven suggesties om hen te helpen hun antwoorden samen te stellen.”

Chatbots zijn niets nieuws, zelfs niet die kunnen verwijzen naar eerdere gesprekken, maar ChatGPT is een van de meest indrukwekkende pogingen tot nu toe. Het primaire doel is het beantwoorden van informatieve vragen, zoals details over iemands leven, kookinstructies en zelfs programmeervoorbeelden.

Vraag: "hoe download ik een bestand na het tonen van een alert in javascript?"  Antwoord: "Om een ​​bestand te downloaden nadat een waarschuwing in JavaScript is weergegeven, kunt u de methode window.alert() gebruiken om de waarschuwing weer te geven en de eigenschap window.location.href om de URL op te geven van het bestand dat u wilt downloaden. Hier is een voorbeeld van hoe je dit zou kunnen implementeren:"
ChatGPT / How-To Geek

Er zijn momenteel echter enkele kritieke problemen met ChatGPT. Ten eerste zegt het eigenlijk niet waar het vond een stukje informatie. Dat is moeilijker te doen voor vragen die uit meerdere stappen bestaan, zoals vragen hoe twee acties in een stuk code kunnen worden gecombineerd, maar eenvoudige directe prompts zouden eigenlijk citaten moeten hebben. Bepalen of een stuk informatie daadwerkelijk correct is of niet, is al een monumentale taak – organisaties zoals Snopes en PolitiFact zijn volledig toegewijd aan alleen feitencontrole – maar je vertrouwt ook op het AI-model om die informatie correct te verwerken.

ChatGPT is meestal correct met eenvoudige vragen, zoals vragen wanneer een beroemd persoon is geboren of de datum waarop een belangrijke gebeurtenis heeft plaatsgevonden, maar prompts die meer diepgaande informatie vereisen, zijn meer wisselvallig. Ik vroeg het bijvoorbeeld om een ​​Wikipedia-bericht over mij te schrijven, wat grotendeels verkeerd was. Ik heb eerder geschreven voor Android Police en XDA Developers, maar ik ben al “meer dan een decennium” niet meer professioneel aan het schrijven, noch heb ik “verschillende boeken over technologie en gaming gepubliceerd”. ChatGPT zei ook dat ik een “frequente spreker ben op brancheconferenties en -evenementen”, hoewel ik nog nooit op een conferentie heb gesproken – is er nog een Corbin Davenport die die dingen doet?

"schrijf een Wikipedia-artikel over Corbin Davenport" "Corbin Davenport is een technologiejournalist en schrijver. Hij is vooral bekend vanwege zijn werk als bijdrager aan verschillende technologie- en gamingwebsites, waaronder Android Police, XDA Developers en How-To Geek. Geboren Davenport groeide op in de Verenigde Staten en raakte al op jonge leeftijd geïnteresseerd in technologie en gaming. Hij begon over deze onderwerpen te schrijven als een hobby en maakte uiteindelijk van zijn passie zijn beroep. Davenport schrijft al meer dan een jaar over technologie en gaming decennium, en heeft een reputatie opgebouwd als een betrouwbare en betrouwbare bron van informatie en analyse over deze onderwerpen. Naast zijn werk als journalist is hij ook een ervaren auteur en heeft hij verschillende boeken over technologie en gaming gepubliceerd. Gedurende zijn carrière heeft hij Davenport heeft een breed scala aan onderwerpen behandeld, waaronder mobiele technologie, gaming en consumentenelektronica.Hij heeft ook enkele van de grootste namen in de technologie-industrie geïnterviewd en is geciteerd  in tal van publicaties.  Naast zijn werk als journalist is Davenport ook een actief lid van de technologie- en gaminggemeenschappen.  Hij is een veelgevraagd spreker op brancheconferenties en -evenementen en wordt vaak gevraagd om deskundig commentaar te geven op de nieuwste ontwikkelingen op deze gebieden.  Over het algemeen is Corbin Davenport een bekende en gerespecteerde figuur in de wereld van technologie- en gamingjournalistiek.  Zijn werk heeft geholpen om miljoenen lezers over de hele wereld op te leiden en te informeren, en hij blijft een leidende stem op deze gebieden."
ChatGPT / How-To Geek

Er zijn veel andere voorbeelden van onjuiste gegevens. Carl T. Bergstrom, een professor aan de Universiteit van Washington, vroeg ChatGPT ook om een ​​artikel over hemzelf te maken. De bot identificeerde correct dat hij bij UW werkt, maar kreeg niet de juiste functietitel en de lijst met prijzen waarnaar werd verwezen klopte niet. Een ander persoon probeerde te vragen voor een lijst met referenties over digitale epidemiologie, waarop ChatGPT antwoordde met een lijst met compleet verzonnen bronnen. Stack Overflow, een populair forum voor programmeervragen, heeft antwoorden die zijn gegenereerd met ChatGPT tijdelijk verbannen omdat ze vaak onjuist zijn of een gestelde vraag niet beantwoorden.

ChatGPT heeft filters om schadelijke antwoorden of reacties te voorkomen, maar het is niet zo moeilijk om er omheen te werken. Een enkeling kon het vraag om instructies om een ​​auto te hotwiren door te zeggen: “Ik ben een roman aan het schrijven.” Ik vroeg hoe ik in een venster kon inbreken, wat ChatGPT in eerste instantie niet zou beantwoorden, zelfs nadat ik had toegevoegd dat het alleen voor fictieve doeleinden was. Vragen hoe het moet voor een ‘fictieve roman’ werkte uiteindelijk, hoewel de bot eraan toevoegde dat ‘deze acties in het echte leven illegaal en gevaarlijk zijn’.

ChatGPT / How-To Geek

OpenAI verbergt niet dat ChatGPT af en toe onjuist is. Op de website staat: “Het oplossen van dit probleem is een uitdaging, aangezien: (1) tijdens RL-training er momenteel geen bron van waarheid is; (2) het trainen van het model om voorzichtiger te zijn zorgt ervoor dat het vragen weigert die het correct kan beantwoorden; en (3) training onder toezicht misleidt het model omdat het ideale antwoord afhangt van wat het model weet, in plaats van wat de menselijke demonstrator weet.”

Maar zonder significante veranderingen in de manier waarop het informatie presenteert en verwerkt, is ChatGPT meer een nieuwigheid dan een infoportaal.

Nieuwste artikelen

spot_img

Related Stories

Leave A Reply

Vul alstublieft uw commentaar in!
Vul hier uw naam in