Wij hebben de AI Glasses van Google al geprobeerd

Sven Rietkerk
Sven Rietkerk
2 maart 2026, 15:00
3 min leestijd

Het moet de volgende grote hype en ontwikkeling worden van wearables, slimme brillen. De eerste stappen heeft Meta al gezet met de Ray-Ban-brillen en Xreal heeft brillen die werken als tweede scherm. Google toonde eerder al hun visie op deze wearable en tijdens MWC mocht ik vast een prototype proberen.

Lees verder na de advertentie.

Het draait om Gemini

Google heeft op MWC een prototype beschikbaar van de bril, waardoor mijn demo vooral een eerste kennismaking met de techniek was. De bril heeft in het glas een schermpje ingebouwd en dat werkt als een laag over de werkelijkheid. Standaard zag het weer en tijd onderin mijn zichtveld staan, maar daarnaast merkte ik eigenlijk niets bijzonders aan de bril.

Dat verandert zodra je op de zijkant tikt. Het draait natuurlijk allemaal om Gemini en met de tik start je de AI van Google. Het icoontje van Gemini verschijnt in je zichtveld en vervolgens kun je vragen stellen. In het geval van mijn demo stond er een toepasselijke plaat, Barcelona van Freddy Mercury en Montserrat Caballé, opgesteld. Net als bij Gemini op je smartphone of in je browser vertelt de AI dan keurig wat leuke feitjes over het nummer. Het enige verschil met het huidige AI van Google is dat ik er geen telefoon voor in mijn hand hoef te houden. Bovendien kun je een vervolgopdracht geven. Dus als je het nummer direct wil afspelen, dan kan dat. Overigens is het geluid van de bril opvallend goed: en dat voor een prototype.

Prototype Google AI Glasses

Lees verder na de advertentie.

Navigeren met AI Glasses

Zoals we vorig jaar tijdens Google I/O al zagen, wordt het ook mogelijk om te navigeren met de bril. Daarbij krijg je in de hoek van je zichtveld te zien wanneer de volgende afslag is. Een beetje zoals de bovenste groene streep tijdens het normaal navigeren met maps. De echte toevoeging van de bril is de weergave wanneer je naar beneden kijkt. Je ziet dan op de grond doorzichtig de route voor je voeten verschijnen. Weet je even niet of je links of rechts moet afslaan, dan kijk je gewoon even naar beneden. In ons geval konden we een foto van Camp Nou scannen en vervolgens zeggen dat ik daarheen wil lopen.

Een andere optie die Google vandaag in de bril laat zien is de optie om foto’s te maken en te bewerken met Nano Banana. In de bril zitten namelijk camera’s verwerkt die net als bij de Meta-bril mee kunnen kijken. Geef jij de opdracht om een foto te maken, dan doet de bril dat en kun je die foto eventueel direct bewerken met de afbeeldinggenerator van Google. De mogelijkheid om live te vertalen zit ook in de bril, maar die demo hebben wij niet gekregen.

Lees verder na de advertentie.

Nog geen releasedatum

Tijdens de demo werd mij nadrukkelijk gezegd dat het nog om een prototype gaat. Het is nog niet bekend wanneer deze bril op de markt komt. Sowieso is het maar de vraag of we in Nederland de bril in de eerste releaseperiode wel kunnen krijgen. Vaak lopen wij gigantisch achter met dit soort technologie. Kijk bijvoorbeeld naar de Meta Ray-Ban die hier pas recent beschikbaar is geworden. Ook is het nog niet bekend wat de AI Glasses gaan kosten.

Wat vind jij van het idee van deze Google AI Glasses? Deel jouw mening in de reacties!

Op de hoogte blijven?

Volg Androidworld nu ook op WhatsApp

Download de nieuwe Androidworld-app!