Kunstmatige intelligentie kan een hele hoop gemak met zich meebrengen; inspiratie voor de volgende vakantie, maaltijden plannen of een duidelijk overzicht maken van ontelbaar veel pdf-bestanden. Toch komen er steeds meer waarschuwingen voorbij van onderzoekers die nieuwe manieren vinden waarop de slimme chatbots zijn te hacken. Dat gaat van een Google Agenda-uitnodiging tot aan een plaatje dat je argeloos met de chatbot deelt.
Lees verder na de advertentie.
Gemini en ChatGPT voor de gek houden
Een afspraak via Gemini in Google Agenda zetten, is ontzettend snel gedaan. Je deelt de tijd, datum en locatie met de kunstmatige intelligentie en Gemini doet de rest. Toch schuilt er een gevaar in deze manier van plannen. Begin augustus 2025 kregen hackers het voor elkaar om via een Google Agenda-uitnodiging op afstand toegang te krijgen tot slimme apparaten in huis. Het slachtoffer geeft daar uiteraard geen toestemming voor. Deze manier van hacken wordt Prompt Injection genoemd.
Recentelijk lukte onderzoekers van The Trail of Bits iets vergelijkbaars in ChatGPT. Deze versie is nog een stuk slinkser omdat het afbeeldingen gebruikt. In de afbeelding verstoppen hackers een verborgen tekst met allerlei opdrachten. De onderzoekers gebruikten deze manier om de agenda van een slachtoffer uit te lezen en die te sturen naar het e-mailadres van de hacker. Op het oog is er niks mis met de afbeelding, maar wanneer je deze op de manier leest zoals ChatGPT dat doet, verschijnt de verborgen boodschap.
Lees verder na de advertentie.
De manier die hackers gebruiken lijkt een beetje op verborgen teksten zoeken met een UV-lamp. Tekst die met bepaalde inkt is geschreven verschijnt dan, net zoals de tekst verschijnt wanneer de afbeelding wordt gelezen door ChatGPT of Gemini. Deze manier gaat natuurlijk nog niet zo ver als het hacken van een smart home, maar het laat wel zien dat er ook kwaadaardige opdrachten worden uitgevoerd door AI.
Waar moet je op letten?
Gelukkig zijn er maatregelen die je als gebruiker kunt nemen. Het is belangrijk om voorzichtig te zijn met welke informatie je een AI laat verwerken. Let altijd op de bron van een afbeelding, bestand of agenda-uitnodiging. Gebruik alleen afbeeldingen en bestanden waarvan je zelf de bron vertrouwt.
Google is zelf uiteraard ook op de hoogte van deze techniek en probeert gebruikers van Gemini actief te beschermen tegen prompt injection. Dat doet het bedrijf door verdachte of risicovolle content te detecteren en te blokkeren. Wanneer er signalen zijn dat een prompt kwaadaardig kan zijn, filtert of weigert Gemini bepaalde antwoorden. Soms betekent dit dat helemaal geen content wordt gebruikt om een reactie te genereren of dat alleen de veilige delen van een document of e-mail worden verwerkt.
Gebruikers krijgen ook waarschuwingen te zien wanneer een prompt of bestand mogelijk schadelijk is. Zo kan Gemini bijvoorbeeld weigeren een e-mail samen te vatten als daarin verborgen kwaadaardige instructies staan. Met deze aanpak wil Google automatisch te waarschuwen voor onveilige inhoud.
Lees verder na de advertentie.
Gebruik jij vaak ChatGPT of Gemini? Waar let jij op wanneer je informatie met AI deelt? Laat het weten in de reacties!

Reacties
Inloggen of registreren
om een reactie achter te laten