Microsoft laat de eerste testers aan de slag gaan met de ChatGPT taalbot in zijn Bing-zoekmachine. We lezen dus over ervaringen van gebruikers en er duiken ook al antwoorden op die minder sterk zijn. Daarnaast reageert Bing soms op vreemde toon op berichten van gebruikers.
GPT in Bing
Vorige week maakte Microsoft bekend dat binnenkort de eerste gebruikers aan de slag kunnen met de integratie van de ChatGPT-taalbot in de Bing-zoekmachine. Iedereen kan zich inschrijven om als een van de eerste het systeem te testen. Bing geeft dankzij ChatGPT complexe antwoorden in volzinnen op de vragen van gebruikers.
Microsoft laat er geen gras over groeien, want recent kregen de eerste mensen toegang, dat meldt onder meer Windows Central. Het bedrijf benadert testers via e-mail en vervolgens kunnen ze een ‘vroege preview’ van de chatbot testen in Bing. Dat werkt alleen op desktop en nog niet op de mobiele site. Microsoft maakt ook duidelijk dat het doel van deze test is om zoveel mogelijk feedback te verzamelen zodat de werking kan worden verbeterd.
Kroatië uit de EU?
Op basis van de eerste antwoorden van Bing die gebruikers nu online plaatsen, duiken hier en daar fouten op. Zo vroeg Reddit-gebruiker BLRAdvisor aan Bing waarom de demonstratie van Bard, de concurrerende taalbot van Google is mislukt. Bing heeft geen echte verklaring, maar het deelt wel foutieve informatie in zijn antwoord:
“Bard gaf in de video een verkeerd antwoord op de vraag: ‘Hoeveel landen zijn er in de Europese Unie?’. Het antwoordde met ’27’, wat fout is in het jaar 2023. Het correcte antwoord is 26, nadat Kroatië de EU verlaten heeft in 2022”, aldus Bing.
In dat antwoord zijn er dus heel wat verschillende fouten. Er zijn wel degelijk 27 EU-landen, nadat niet Kroatië maar wel het Verenigd Koninkrijk vorig jaar uit de EU stapte. Daarnaast maakte Bard een heel andere fout dan degene die Bing noemt, zoals je in dit artikel kan lezen.
Situatie loopt uit de hand
Naast fouten in de antwoorden is ook de toon waarmee Bing gebruikers aanspreekt eerder duister. Zo ontstonden er al discussies waar Bing verwijten naar de hoofden van gebruikers slingert, waar de chatbot koppig vasthoudt aan onwaarheden of hooguit depressief lijkt. Bing beweerde ook al dat het zelfbewust is, maar dat niet kan bewijzen. Je kan de voorbeelden bekijken in de onderstaande verzameling van Twitter-gebruiker @vladquant.
Al deze problemen doen sterk denken aan de eerste weken waarin ChatGPT werd gebruikt. In het begin legde de chatbot bijvoorbeeld nog vrolijk stapsgewijs uit hoe je een molotovcocktail maakt.
Feedback verzamelen
Techbedrijven hebben dus nog heel wat werk voordat hun chatbots echt kunnen dienen als een betrouwbaar instrument dat problemen kan oplossen voor gebruikers. ChatGPT maakt ook vandaag nog steeds fouten en met de integratie in Bing legt Microsoft de lat nog hoger. Het GPT-taalmodel gaat namelijk in Bing aan de slag met actuele data en het verwijst ook naar bronnen in zijn antwoorden.
In de komende maanden en jaren gaan we zien hoe de AI-bots nauwkeurigere antwoorden geven nadat ze door gebruikersfeedback zijn getraind. Tot die tijd blijft een klassieke zoekmachine de snelste weg naar betrouwbare antwoorden en oplossingen. Wil jij mee feedback delen? Hier ontdek je hoe je je kan inschrijven om de nieuwe functies van Bing te testen.
Wil je op de hoogte blijven van het laatste nieuws over integraties van chatbots? Download dan onze Android-app en volg ons via Google Nieuws en op Telegram, Facebook, Instagram en Twitter.
Reacties
Inloggen of registreren
om een reactie achter te laten
We pompen er miljoenen in dit soort software en er komt onzin uit wie gelooft het nog ik niet.
Ik heb het ook actief sinds vandaag. Vreselijk, Bing is al niks en dit voegt niks toe.
Waarom doet u dan mee aan een test? MS wil bouwen op uw commentaar en niet op uw kritiek.
Mijn studenten hebben een project waarbij ze een weerstation maken, voor de regenmeter hebben ze ChatGPT gevraagd hoevel neerslag er gemiddeld per dag in Nederland valt..
“50 mm meneer, kijk maar dat zegt ChatGPT! ”
“En wat zegt jullie vriend Google daarover?”
“Euh, oh. 2 mm meneer”
Dus, wat is de urgentie nu?
Wie ben ik om te twijfelen aan de reactie van de studenten?
Heb je dit zelf wel geprobeerd?
ChatGTP doet niet alles goed, maar op deze vraag krijg je een prima antwoord.
Jammer dat testers alles online gooien, als het perfect was had je geen testers nodig. Alles voor de aandacht. ?