Nieuw: de Huawei Watch D2 nu met FreeBuds 5i t.w.v. €99,99 cadeau!

ChatGPT kan dankzij GPT-4 nu ook op afbeeldingen reageren met tekst

Jelle Passchier
Jelle Passchier
16 maart 2023, 10:46
3 min leestijd
ChatGPT kan dankzij GPT-4 nu ook op afbeeldingen reageren met tekst

Lees verder na de advertentie.

Er is een nieuwe versie van het GPT-taalmodel van OpenAI genaamd GPT-4. In het algemeen is de versie subtiel verbeterd ten opzichte van zijn voorganger, al zijn er ook een aantal nieuwe functies. In dit artikel sommen we er een aantal voor je op. 

GPT-4 nieuwste GPT-taalmodel

OpenAI heeft de nieuwste versie van zijn GPT-taalmodel – GPT-4 – aan. Dit liet het bedrijf weten in een nieuwsbericht. Volgens het bedrijf zijn de verschillen met GPT-3.5 subtiel, ze melden er onder andere het volgende over: ”In een informeel gesprek kan het onderscheid tussen GPT-3.5 en GPT-4 subtiel zijn. Het verschil komt naar voren wanneer de complexiteit van de taak een voldoende drempel bereikt – GPT-4 is betrouwbaarder, creatiever en in staat om veel genuanceerdere instructies te verwerken dan GPT-3.5”. 

1. Afbeeldingen en tekst als output

Toch is er wel één grote extra aan GPT-4. Het kan namelijk afbeeldingen en tekst als input nemen en op basis hiervan tekst als output produceren. Een voorbeeld hiervan tonen ze ook, in dit voorbeeld zien we dat een gebruiker van GPT-4 wil weten wat er ongewoon is aan een bepaald beeld. Hiervoor uploadt de gebruiker een beeld van een man die aan het strijken is op een taxi. GPT-4 weet te omschrijven wat er niet klopt en meldt dat het toch vrij ongebruikelijk is dat een man kleding strijkt op een strijkplank op een rijdende taxi doet. 

2. Meer tekst verwerken

In vergelijking met GPT-3.5 kan versie vier veel meer tekst verwerken in zijn kortetermijngeheugen. Zo kan het bijvoorbeeld meer tekst opnemen van de gebruiker en ook meer en langere antwoorden genereren waarbij het ook in één keer met meer details kan komen. Daarbij moeten de antwoorden ook beter worden omdat het nu in staat is om in één keer ook grote wetenschappelijke artikelen door te pluizen en hier zijn antwoorden op te baseren. In simpele bewoording kon GPT-3.5 iets meer dan 3.000 woorden verwerken, GPT-4 kan ongeveer 25.000 woorden verwerken. 

3. Lekker Bingen

Microsoft, één van de bedrijven achter OpenAI, heeft toegegeven dat GPT-4 de versie is die de chatervaring van Bing aandrijft. Deze werkt nog altijd niet even goed en het heeft zelfs mensen bedreigd. Maar het bedrijf geeft aan dat het nog altijd leert en het steeds beter moet gaan worden. Meer over de chatbot in Bing lees je in onderstaande artikelen. 

4. Helpen van mensen met visuele beperking 

De app Be My Eyes krijgt een virtuele vrijwilliger. Be My Eyes is een gratis app die ervoor wil zorgen dat de wereld toegankelijker wordt voor mensen met een visuele beperking. De app verbindt hen onder andere met vrijwilligers die hun kunnen helpen bepaalde problemen op te lossen. Dit gebeurt via een live videogesprek waarmee een vrijwilliger die persoon instructies kan geven. 

In de nieuwste versie van deze app wordt GPT-4 geïntegreerd. Hierdoor kunnen gebruikers in de app bijvoorbeeld afbeeldingen sturen naar een virtuele vrijwilliger die wordt aangedreven door AI. Deze ‘vrijwilliger’ kan antwoorden op basis van deze afbeeldingen geven en visuele assistentie hierbij bieden. Als voorbeeld wordt er gegeven dat iemand die slecht kan zien, een foto van de binnenkant van een sportschool stuurt. Diegene is opzoek naar de loopband en kan op basis van de foto vragen waar deze zich bevindt. De virtuele vrijwilliger brengt deze persoon er vervolgens in verschillende stappen heen. 

Nog altijd niet perfect

OpenAI meldt nog altijd dat het GPT-taalmodel verre van perfect is. Het geven van antwoorden op duizenden verschillende vragen die het krijgt, is nog altijd een zeer complex proces. De algoritmes worden wel steeds beter, maar het is nog zeker niet perfect. Hierdoor zal het GPT-taalmodel nog altijd met verkeerde antwoorden komen en dingen verzinnen. OpenAI meldt dan ook dat GPT-4 ”prestaties op menselijk niveau vertoont”, maar nog niet zo bekwaam is in vergelijking met mensen in real-live scenario’s en conversaties. 

Wat vind jij van het GPT-taalmodel en chatbots? Laat het weten in de comments onder dit artikel. 

Op de hoogte blijven?

Volg Androidworld nu ook op WhatsApp

Download de nieuwe Androidworld-app!