Het Europees Parlement en de Raad zijn eruit: er is een voorlopig akkoord bereikt over hoe de AI-wetgeving, AI Act geheten, eruit moet komen te zien. Het idee is dat de EU regels gaat stellen aan het gebruik van AI, waaraan de makers van AI-systemen moeten voldoen. Denk aan Google en OpenAI bijvoorbeeld. Niet wereldwijd, maar daar zullen ze als ze iets willen in de EU wel aan moeten voldoen. Op die manier blijft de maatschappij veiliger, denkt men. Het kan ver gaan: sommige AI-mogelijkheden worden straks volledig in de ban gedaan.
AI Act
Het is onduidelijk wat het akkoord precies behelst, maar in een persbericht laat de EU weten dat de medewetgevers erkennen dat bepaalde toepassingen van AI een potentiële bedreiging vormen voor de rechten van burgers en de democratie. Ze zijn overeengekomen om een verbod in te stellen op:
- biometrische categoriseringssystemen die gebruik maken van gevoelige kenmerken (bijv. politieke, religieuze, filosofische overtuigingen, seksuele geaardheid, ras);
- het ongericht schrapen van gezichtsbeelden van het internet of CCTV-beelden om gezichtsherkenningsdatabases te creëren;
- emotieherkenning op de werkplek en in onderwijsinstellingen
- sociaal scoren op basis van sociaal gedrag of persoonlijke kenmerken;
- AI die wordt gebruikt om misbruik te maken van de kwetsbaarheid van mensen (vanwege hun leeftijd, handicap, sociale of economische situatie).
Uitzonderingen
De EU schrijft: “De onderhandelaars zijn het eens geworden over een reeks waarborgen en enge uitzonderingen voor het gebruik van biometrische identificatiesystemen (RBI) in openbaar toegankelijke ruimten voor rechtshandhavingsdoeleinden, met voorafgaande toestemming van de rechter en voor strikt gedefinieerde lijsten van misdrijven. “Post-remote” RBI zou strikt gebruikt worden bij het gericht zoeken naar een persoon die veroordeeld is of verdacht wordt van een ernstig misdrijf. Bijvoorbeeld bij gerichte opsporing van slachtoffers, preventie van terroristische dreiging en specifieke misdrijven zoals verkrachting of moord.”
Burgers krijgen bovendien het recht om klachten in te dienen over AI-systemen en uitleg te krijgen over beslissingen op basis van AI-systemen met een hoog risico die gevolgen hebben voor hun rechten, stelt de EU. “Om rekening te houden met het brede scala aan taken dat AI-systemen kunnen uitvoeren en de snelle uitbreiding van de mogelijkheden ervan, is overeengekomen dat AI-systemen voor algemene doeleinden (GPAI) en de GPAI-modellen waarop ze zijn gebaseerd, moeten voldoen aan transparantie-eisen zoals oorspronkelijk voorgesteld door het Parlement. Dit houdt onder meer in dat er technische documentatie moet worden opgesteld, dat de EU-wetgeving inzake auteursrecht moet worden nageleefd en dat er gedetailleerde samenvattingen moeten worden verspreid over de inhoud die voor training wordt gebruikt.”
Hoge boetes
Daarnaast blijft de EU zich bewust van de grote techbedrijven en kleinere MKB’ers: “Europarlementariërs willen ervoor zorgen dat bedrijven, met name het MKB, AI-oplossingen kunnen ontwikkelen zonder onnodige druk van industriële reuzen die de waardeketen beheersen. Daartoe bevordert het akkoord zogenaamde regulatory sandboxes en real-world-testing, opgezet door nationale autoriteiten om innovatieve AI te ontwikkelen en te trainen voordat het op de markt komt.” Houden bedrijven zich niet aan al het bovenstaande, dan hangen er boetes boven het hoofd van 35 miljoen euro of 7 procent van de wereldwijde omzet tot 7,5 miljoen. Of 1,5 procent van de omzet, maar dat hangt af van de overtreding en hoe groot een bedrijf is.
Reacties
Inloggen of registreren
om een reactie achter te laten
Heel goed dat deze EU regelgeving er komt.
Heel apart dat deze regelgeving nodig is. Bedrijven leveren diensten en producten waar mensen blij van worden. AI maakt het aantrekkelijk dat bedrijven die op geen enkel terrein met moraal of fatsoen diensten of producten leveren,, gegevens misbruiken om ons als consument uit te melken en nog meer om de tuin te leiden.
Mooi artikel maar ik vraag me af, of de monsterlijke, megalomane wortels van het kwaad zich daar iets aan gelegen laten.
Aanvullend op deze wetgeving zou moeten gelden, dat bedrijven die diensten betrekken bij bedrijven die AI misbruiken ook flink aangepakt kunnen worden.