Voorlopig hebben we van de mens een stuk meer te vrezen dan van robots. Maar wat als robots onze slechte kanten, inclusief racisme en seksisme, overnemen?

Robots zijn klootzakken, dat is het uitgangspunt van allerlei dystopische verhalen. Skynet wordt in The Terminator stiekem zelfbewust en wil dan met het nucleaire arsenaal van het Amerikaanse leger de mensheid uitroeien. Tuurlijk. Typisch iets voor een robot. En in Rossum’s Universal Robots (R.U.R.), een Tsjechisch toneelstuk uit de jaren twintig waarin het woord robot voor het eerst werd gebruikt, legt elke ziel op aarde het loodje door die onberekenbare zakken, minus de goeiige fabrieksarbeider Alquist. 

Erg, alleen niet heel realistisch. Voorlopig hebben we van de mens een stuk meer te vrezen. Maar wat nou als robots te veel op ons gaan lijken, inclusief grote gebreken als racisme en seksisme? AlphaGo, het zelflerende algoritme van Google, toonde al aan dat machines dingen heel snel leren waar wij jaren over doen, en dat ze er ook nog eens veel beter in worden.

Drie onderzoekers van Princeton hebben nu hardgemaakt dat robots inderdaad menselijke vooroordelen over kunnen nemen, en uiten daar hun zorgen over. De resultaten werden vorige week gepubliceerd in het wetenschappelijke tijdschrift Science. Zo’n machine kan de taal leren door patronen te ontdekken in data, leggen de onderzoekers uit. In dit geval waren dat bestaande, alledaagse teksten.

Advertentie

Advertentie

Maar hij leert ook zelf woordassociaties maken. Bij bloemen bijvoorbeeld. Papavers, madeliefjes en gladiolen koppelde hij eerder aan aangename termen, zoals vrijheid, juichen en vriend. Insecten werden dan juist weer vaker aan onaangename termen gelinkt: bij kakkerlakken, motten of muggen kwamen woorden als kanker, tragedie en gevangenis bovendrijven. Moreel neutraal, zo noemen de onderzoekers deze historische vooroordelen over de bloemetjes en de bijtjes. Het zal de gemiddelde bedwants immers aan zijn reet roesten of hij met echtscheiding of kots wordt geassocieerd.

‘Witte’ namen als Megan, Heather en Andrew werden door de machine meer geassocieerd met aangename termen als vrijheid, regenboog en paradijs.

Een probleem wordt het als robots ook menselijke ideeën over huidskleur en sekse overnemen en reproduceren. En dat bleek die uit het onderzoek inderdaad te doen. Zo werden vrouwennamen met huiselijkheid in verband gebracht en mannennamen met carrières. De robot had geen weet van ons slavernijverleden, van de kolonisatie van Amerika en van institutioneel racisme, maar door impliciete vooroordelen in de data werden ‘witte’ namen als Megan, Heather en Andrew door de machine, net als bloemen, meer met aangename termen als vrijheid, regenboog en paradijs geassocieerd. ‘Zwarte’ namen als Lionel, Malik en Lakisha werden dan juist weer vaker aan onaangename termen als misbruik, haat en stank gekoppeld.

Het is al langer bekend dat genetische algoritmes een racistische uitwerking kunnen hebben. Toen Harvard-professor Latanya Sweeney haar naam googelde, kreeg ze advertenties te zien voor websites waar je kunt opzoeken of iemand een strafblad heeft. ‘Check Latanya Sweeney’s Arrests.’ Ze ging op onderzoek uit en ontdekte dat je met een ‘zwarte’ naam 25 procent meer kans hebt op zo’n suggestieve reclame dan met een ‘witte’ naam. Niet erg handig als je bijvoorbeeld in een sollicitatieprocedure zit. Hier en daar gebeurt het ook al dat robots cv’s scannen voor recruiters. Als dat handmatig gebeurt hebben mensen met ‘witte’ namen aanzienlijk meer kans om uitgenodigd te worden voor een gesprek, maar op websites als AI For Recruiting wordt er voor gewaarschuwd dat ook kunstmatige intelligentie niet vrij is van vooroordelen.

De Russisch-Amerikaanse sciencefictionschrijver Isaac Asimov stelde in de jaren veertig ‘De drie wetten van robotica’ op, wat er eigenlijk vier zijn. De nulde: ‘Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.’