Vormt AI een bedreiging?
Kunstmatige intelligentie (AI) is een vorm van automatisatie. Elke keer als je aan je Assistent vraagt om je slimme Hue-lampen aan te zetten zonder dat je zelf de Hue-app opent, volg je een slimmer en meer geautomatiseerd proces. In feite zijn slimme verlichting net als de oude gloeilamp al een vorm van automatisatie, want vroeger zou de mens zelf vuur maken of een kaars doen branden voor licht.
“Zonder automatisatie en het streven ernaar zou je nu niet de job doen die je vandaag doet”, dat zegt Cassie Kozyrkov, chief decision engineer bij Google. “Jouw functietitel, zou die logisch klinken in de oren van jagers en voedselverzamelaars duizenden jaren geleden? Waarschijnlijk niet.” Toch stelt Kozyrkov dat er een grote angst blijft bestaan dat AI dat steeds intelligenter wordt, de mens gaat voorbijstreven. ” AI is een hulpmiddel en onze tools zijn vandaag al slimmer dan de mens. Zelfs jouw rekenmachine streeft het menselijke brein voorbij.”
Het beeld dat veel mensen over AI hebben is niet verbonden met automatisatie, maar wel met science-fiction beweert Google.
AI is een student
Volgens Google is AI onlosmakelijk verbonden met de mensen die de software ontwikkelen, en daarom maakt Kozyrkov zich niet in het minst zorgen om de mogelijk gevaren van AI. Ze maakt zich eerder zorgen om de manier waarop mensen AI gebruiken, want elke tool moet je met de nodige verantwoordelijkheid behandelen.
Cassie Kozyrkov op The Next Web Conference
De manier waarop ingenieurs de neurale netwerken van hun software trainen, vergelijkt Google met het begeleiden van een student. Mensen verantwoord leren omgaan met AI is daarom prioriteit voor Google, zoals een professor een verantwoordelijkheid draagt ten opzichte van zijn studenten. Google leert ons daarom ook vandaag al om beleefd te spreken tegen Assistent. Met deze vier andere manieren gaat Google als een goede leerkracht om met zijn AI.
1. Zorg voor relevante handboeken
Leerkrachten kiezen zelf de handboeken uit waarmee ze werken, maar een handboek bevat daarom niet de objectieve waarheid. “Je kan informatie niet zomaar voor feiten aannemen omdat het in een boek staat”, dat vertelt Kozyrkov. “Hetzelfde geldt voor de datasets waarmee we via neurale netwerken onze AI trainen, want ook die zijn door een subjectief iemand samengesteld.” Docenten bepalen wat voor leerstof de studenten te verwerken krijgen en die verantwoordelijkheid ligt ook in de handen van ingenieurs bij bedrijven als Google.
2. Vraag verschillende meningen
Google ziet het als zijn taak om op zoveel mogelijk verschillende manieren vooringenomen meningen uit zijn slimme software te weren. Daarom wil het bedrijf ingenieurs niet in hun eentje beslissingen maken over de manieren waarop machine learning plaatsvindt. Machine learning is het proces waarbij software data analyseert om zichzelf te verrijken. “Het is daarom verstandig om te vragen naar meerder meningen bij het nemen van beslissingen”, stelt Cassie Kozyrkov. “Net zoals ook een professor ook bij collega’s om een tweede mening vraagt.”
3. Voorzie goede examens
Kunstmatige intelligentie wordt geavanceerder dankzij machine learing en op die manier kan software dus op een erg zelfstandige manier meer geschikt worden in het uitvoeren van de taak waarvoor ze bestemd is. De chief decision engineer maakt weer een handige vergelijking met het onderwijs, waarbij docenten weinig tot geen vat hebben over de manier waarop hun studenten leren.
Op Google I/O werd de nieuwe generatie van Google Assistent voorgesteld, en hier zien we Assistent helpen bij het versturen van een e-mail
“Toch heb je wel controle in de manier waarop je de kwaliteiten van AI test, als een examen dat je opstelt en laat uitvoeren”, verklaart Kozyrkov. Voor Google is het belangrijk dat slimme software de nodige testen doorstaat alvorens ze voor een verantwoordelijke taak wordt ingezet. “Mensen maken fouten en dat geldt ook voor machines, maar het is aan ingenieurs om de kwaliteiten en tekortkomingen te ontdekken”, vindt Kozyrkov.
4. Zorg voor vangnetten
Zoals Kozyrkov stelt, zal AI falen, net zoals mensen fouten maken. Ook nadat AI aan grondige testen is onderworpen, zullen er nog steeds problemen ontstaan als AI in gebruik is. Een eenvoudig voorbeeld hiervan is wanneer je een vraag stelt aan Assistent die de algoritmes niet kunnen beantwoorden. In dat geval kan de Assistent vragen om de vraag te herhalen of ze op een andere manier te stellen. Zo zorgen de ingenieurs achter Assistent ervoor dat Google bijvoorbeeld geen fout antwoord geeft op jouw vraag, of een weinig relevant antwoord voorschoteld.
Google Assistent speelt een centrale rol in Googles strategie en claimt nu ook een plekje in de auto
Kozyrkov besluit dus dat AI een hulpmiddel is waarbij mensen de touwtjes op een verantwoordelijke manier in handen horen te houden. Het is volgens haar belangrijk dat gebruikers de mensen achter de slimme software blijven zien, en zich niet laten leiden door sciencefiction verhalen. Praat jij al beleefd tegen je Google Assistent of tegen Alexa? Laat het ons weten in de reacties onderaan dit artikel.
Reacties
Inloggen of registreren
om een reactie achter te laten
P. S. Beleefd tegen me google assistent, je moet eens horen wat ze tegen mij zegt.
Als je überhaupt bang bent voor een App op je telefoon, je kan ze wissen, uitzetten, enz. Ten tweede zolang je niet verteld wie je vermoord heb en waneer of waar het moordwapen ligt, geen naaktfoto’s neemt of je moet je graag blootgeven, wat kan er gebeuren? Je bepaald zelf of je het erop zet of niet….
Ik heb alleen maar angsten ?? als ’t gaat om Google. Ik denk aan commerciële uitbuiting, robots van Google, militaire samenwerking! ???