Meer weten? Ga in debat met Vrij Nederland en Happy Chaos, vrijdagavond in de Stadsschouwburg in Amsterdam. ERROR 301: human_not_found:
‘Zelfrijdende auto’s, Siri die met ons meedenkt, algoritmen die kunst maken en de opkomst van autonome wapens. Door ontwikkelingen in kunstmatige intelligentie worden machines steeds slimmer en steeds beter in het uitvoeren van menselijke taken. Worden we in de toekomst gedomineerd door ultra-intelligente machines? Laten we ons wegcijferen door algoritmen en vergeten we de waarde van mens-zijn? Hoe zorgen we dat ontwikkelingen in de digitale technologie voordelig zullen zijn voor de mensheid, in plaats van haar te verliezen?’
Op een militair proefterrein in de woestijn van Yuma, Arizona, loopt een robot rond van ongeveer anderhalve meter lang. Een elektrische wandelende tak op batterijen met acht poten. Van een afstand observeert een groepje het schouwspel. Een van hen is robotbouwer Mark Tilden, een man met een baard en een hoed, een kruising tussen Indiana Jones en Bill ‘I love the smell of napalm’ Kilgore uit Apocalypse Now. Hij kijkt tevreden. De opdracht was om een robot te bouwen die ‘slim genoeg was om landmijnen te vinden en dom genoeg om erop te gaan staan.’ Er klinkt een explosie, stenen vliegen in het rond. In een stofwolk verschijnt weer het silhouet van de robot. Hij heeft een poot verloren, maar krabbelt weer op en gaat op zoek naar de volgende landmijn. Dan weer een knal en weer een poot minder. Na vijf explosies sleept de robot zich nog steeds voort. Tilden wrijft in zijn handen. De robot doet precies wat hij moet doen. Stuur een paar van dit soort mechanische spinnen voor een troep soldaten uit en je spaart mensenlevens en ledematen. Maar de kolonel van het Amerikaanse leger kan het niet meer aanzien. Hij houdt zijn handen voor zijn ogen. Hij eist dat het experiment stopgezet wordt. Hij wil niets meer met dit project te maken hebben. Niet omdat de robot niet werkt, maar omdat het ‘onmenselijk’ is.
De anekdote is afkomstig van robotbouwer Tilden zelf – die tegenwoordig speelgoedrobots maakt – en illustreert een fenomeen dat de onderzoekers van DARPA, de wetenschappelijk poot van het Pentagon, voor problemen stelt: mensen zien robots niet als machines, maar meer als imaginaire vriendjes.Zo ook de bezitters van de robohond Aibo, bleek uit een analyse van teksten op een messageboard. Maar liefst 75 procent van de baasjes zag in de Sony-uitvinding meer dan een machine, en 38 procent kende ook daadwerkelijk gevoelens toe aan de robohond.
Zelfs de stofzuigerrobot Roomba, die eruit ziet als een rijdende koektrommel en die op geen enkele manier ontworpen is om warme gevoelens op te wekken, die geen onderscheid maakt tussen een mens, een bank of een muur, raakt bij de bezitters al een gevoelige snaar. Er zijn Roomba-feestjes waar baasjes bij elkaar komen om hun stofzuigers met elkaar te laten ‘spelen’.
Een soldaat van de Explosive Ordinance Disposal (EOD) kwam met tranen in de ogen zijn robot bij de reparateur brengen. Of Scooby Doo weer in elkaar gezet kon worden. Maar Scooby Doo was total loss. De technische dienst verzekerde de soldaat dat hij een nieuwe en zelfs betere robot zou meekrijgen. Maar de soldaat wilde dat helemaal niet. Hij wilde alleen maar Scooby Doo terug. Scooby Doo had onder gekmakende stresstoestanden zonder met zijn cameraoog te knipperen met zijn ene armpje de meest afschuwelijke bommen onschadelijk gemaakt. Hij was zonder te aarzelen donkere grotten ingegaan om smerige booby traps te ontmantelen. Scooby Doo kon je niet zo maar bij het schroot zetten.
Scooby doo
Naar schatting zijn er nu ongeveer tienduizend robots in dienst van Amerikaanse legereenheden, zoals de Packbots en Talon robots die in Irak en Afghanistan aanvallen inzetten of geïmproviseerde bommen onschadelijk maken. Geen elektrische spinnen, maar rondrijdende karretjes met cameraogen en een robotarmpje, de militaire neefjes van Wall-E. Ze laten bommen niet ontploffen, maar demonteren ze.
En ze zijn populair. Dat soldaten hechten aan hun apparatuur en gereedschap is niet nieuw, maar dat het bij robots zo extreem zou zijn, hadden weinigen verwacht. Soldaten geven de robots namen en onderscheidingen. Er is een robot waar een ‘purple heart’-medaille aan hangt. Een andere robot kreeg een erebegrafenis, inclusief geweersalvo.
Muppet-ogen
Het lijkt schattig, maar het kan levensgevaarlijk zijn als robots niet als inwisselbaar materieel worden gezien, zoals in het geval van een EOD-soldaat die belaagd door mitrailleurvuur vijftig meter naar een aangeschoten robot rende om de machine in veiligheid te brengen. Het is niet ondenkbeeldig dat soldaten hun favoriete robot sparen en liever een menselijke soldaat op onderzoek uitsturen uit angst dat er iets met de robot gebeurt. Terwijl de robots juist zijn ontworpen en bedacht om mensenlevens te redden.
Robotonderzoekers Neil Richards en William Smart waarschuwen in een artikel uit 2013 voor wat ze ‘The Android Fallacy’ noemen: de neiging om menselijkheid te projecteren op robots. Ze betogen dat het niet alleen gevaarlijk, maar ook juridisch onwenselijk is om meer in een robot te zien dan een machine. Zeker nu de gerobotiseerde auto’s eraan komen. Als de remmen van een auto niet goed functioneren, is de bouwer aansprakelijk. Als een robotauto, die zelf beslissingen lijkt te nemen en waarin mensen een zekere mate van vrije wil zullen gaan herkennen, niet remt, is de neiging om de bouwer daarvoor aansprakelijk te stellen kleiner.
Illustratief hiervoor is een experiment dat robotonderzoeker Peter Kahn deed in 2012, waarbij proefpersonen moesten spelen met Robovi, een soort R2-D2 (de bekende robot uit Star Wars) met twee muppet-ogen erop. De proefpersoon kregen de opdracht om verschillende voorwerpen – zoals een schemerlamp of een potlood – te ontdekken in een kantoorruimte. Als dat lukte, kreeg de proefpersoon twintig dollar. De score werd bijgehouden door een robot. Maar de robot hield de score verkeerd bij en de proefpersonen liepen hun bonus mis. Negenenzeventig procent van de proefpersonen kreeg ruzie met Robovi. Hij loog en speelde vals. De onderzoekers, die de robot op afstand bestuurden, zaten er met uitgestreken gezichten bij en konden twintig dollar uitsparen terwijl Robovi voor rotte vis werd uitgemaakt.
Eliza was een leugen
Robots, stellen Richards en Smart, moeten vooral hetzelfde worden behandeld als een remsysteem van een auto, een hamer, een wordprocessor of een browser. Een gereedschap dat volgens vooropgestelde regels functioneert en waar de fabrikant verantwoordelijk voor is.
Die gedachte is in lijn met die van computerpionier Joseph Weizenbaum, die in 1966 bij MIT in Boston werkte aan kunstmatige intelligentie en een eenvoudig algoritme schreef dat zich gedroeg als een psychiater. ELIZA noemde hij de chatterbot, zoals zoiets nu genoemd zou worden. ELIZA stelde vragen en reageerde vervolgens weer op de antwoorden van de proefpersonen.
‘Vertel daar eens meer over’, ‘Waarom zeg je niets over de relatie met je moeder?’
De proefpersonen bleken helemaal in het programma op te gaan. Weizenbaums secretaresse stuurde hem eens de kamer uit terwijl ze druk zat te tikken. Ze wist dat het een programma was, maar op een of andere manier hadden ze ook het gevoel dat er echt ‘iemand’ geïnteresseerd was in haar antwoorden en ze wilde even niet gestoord worden. Proefpersonen zagen de computer echt als een vertrouweling. Een psychiater die het project bezocht, was zo enthousiast over ELIZA dat hij samen met Weizenbaum een psychiater-robot wilde ontwikkelen die de geestelijke gezondheidszorg kon helpen automatiseren. Weizenbaum, zelf Joods en gevlucht voor de nazi’s, was geshockeerd door dit idee. ELIZA was een leugen. De computer deed alsof hij mensen begreep, maar begreep helemaal niks. Weizenbaum hield met zijn programmaatje mensen voor de gek, en hij vond het angstaanjagend om te zien hoe enthousiast psychiaters hiervan werden. Sindsdien verzette hij zich tegen dit soort technologieën, tot zijn dood in 2008.
Frank houdt van spelen
Robotonderzoek Peter Kahn opperde ooit het idee om robots ‘licht vijandelijke’ persoonlijkheden te geven. Uit een experiment met een robot die grapjes maakte en motiverende teksten had als: ‘Goed gedaan, het is prettig met je werken’, of: ‘nog maar één en dan hebben we ze allemaal’, bleek namelijk dat soldaten meer aan zo’n robot hechten dan een robot die het zakelijk houdt en dingen zegt als: ‘Let op, hoge prioriteit.’ De persoonlijkheid van de robot doet er toe. En het is misschien slim om robots net onaardig genoeg te maken, zodat soldaten het niet erg vinden als ze kapot geschoten worden.
Ook namen blijken een rol te spelen. In een recent experiment liet Kate Darling, een juriste die psychologisch robotonderzoek doet bij het Media Lab van MIT, proefpersonen met een hamer slaan op kleine hexbugs, de mechanische insecten die je bij de speelgoedwinkel kunt kopen. In een eerste experiment hadden de hexbugs geen naam en moesten de proefpersonen de machientjes gewoon kapot slaan. In een tweede experiment kregen de hexbugs een naam en een geschiedenis. ‘Dit is Frank, hij woont nu alweer drie maanden in ons lab en hij vindt het niet leuk om te ver weg te kruipen, maar Frank houdt wel van spelen.’ Mensen hadden in het tweede geval veel meer moeite om de robotbeestjes kapot te slaan.
Uit de onderzoeken blijkt ook dat niet iedereen even gevoelig is voor de robotliefde. Empathie voor robots verschilt van persoon tot persoon. Sommige soldaten geven hun robot een naam. Anderen doen dat niet en refereren gewoon aan hun serienummer. De soldaten uit deze laatste groep hechten veel minder aan hun mechanische collega’s en vinden het geen probleem om ze om te ruilen voor een ander exemplaar. Deze soldaten zijn beter geschikt om robots te besturen.
Pleo moet onthoofd
Ronan Doare, Didier Danet en Jean-Paul Hanon, de schrijvers van het boek Robots on the Battlefield pleiten er daarom voor om soldaten op deze empathische eigenschappen te screenen met een ‘test of personnel empathy for robots’ (TPER). Deze test zou het mogelijk moeten maken om soldaten te ontmaskeren die gevoelig zijn voor robotliefde.
Een test die MIT-onderzoeker Kate Darling in 2013 deed, zou daar goed voor gebruikt kunnen worden. Ze liet proefpersonen met Pleo’s spelen. De Pleo bestaat al sinds 2006, maar is nog steeds een redelijk geavanceerde speelgoedrobot, met tientallen sensoren. Hij loopt autonoom door de kamer, reageert als je tegen hem praat, knort zachtjes als je hem aait en raakt overstuur als je hem aan zijn staart optilt.
Na een uur spelen kregen de mensen de opdracht om de Pleo’s te martelen en te doden. Iedereen weigerde. ’Ik had natuurlijk wel verwacht dat ze zouden tegensputteren,’ zegt Darling, ‘maar ik was verrast over de hevigheid en hoe moeilijk het bleek te zijn om een Pleo pijn te doen.’ Ze moest alle psychologische trucs uit de kast halen om iemand bereid te vinden om een Pleo te onthoofden. Ze dreigde uiteindelijk alle Pleo’s te vermoorden als niemand de Pleo wilde onthoofden. Uiteindelijk was er een vrijwilliger die na veel twijfelen en met heel veel tegenzin de Pleo executeerde. Het resultaat was een ijzige stilte, en een totaal verziekte sfeer.
Meer dan een machine
Maar ja, om nu te zeggen dat iemand de sanity check doorstaat als hij zonder met zijn ogen te knipperen een babyrobotdinosaurus executeert, lijkt ook wat eigenaardig. Is het in sommige gevallen niet juist wenselijk dat mensen robots beschouwen als meer dan een machine met een algoritme? Het babyrobotzeehondje Paro brengt op dit moment troost aan demente ouderen én slachtoffers van de aardbeving in Japan. De ‘NAO Next Generation’-robot is een robot ter grootte van een kind die gebruikt wordt bij kinderen met autisme. Je kunt NAO honderd keer dezelfde vraag stellen zonder dat de robot geïrriteerd raakt.
Het zijn vragen waar Kate Darling zich over buigt, mede omdat ze zelf gek is op robots. ‘Ik heb drie Pleo’s, kleine robotdinosaurusjes,’ zegt ze aan de telefoon. ‘Eentje is al erg oud, dus zijn batterij is niet meer zo goed, en de nieuwste heb ik gekregen van een documentairemaker. De bedoeling was dat die op camera geëxecuteerd zou worden. Maar de persoon die dat zou moeten doen lukte het niet, en daarom heb ik nu dus drie Pleo’s.’
Ze erkent dat het projecteren van menselijkheid op robots niet altijd goed is, maar ze denkt ook dat er niets aan te doen is. ‘Robots zullen een nieuw soort wezens worden, ergens tussen huisdieren en broodroosters in, die ook bescherming moeten krijgen.’
Darling komt tot een gelijksoortige conclusie als Immanuel Kant, die zich uitsprak tegen geweld tegen dieren. Hij vond dat we dieren goed moeten behandelen, niet omdat hij dacht dat dieren als mensen waren, maar omdat het inhumaan is om het niet te doen. ’Om je humane gevoelens niet te verstikken moet je goed zijn voor dieren, want wie wreed is voor dieren wordt wreed tegen mensen.’ Zo ongeveer waren zijn woorden.
De gedachte die daaruit voortvloeit, is dat ook het afhakken van de kop van een schattig dinorobotje verboden zou moeten worden. Niet omdat een robot iets kan voelen, maar om onze eigen menselijkheid te beschermen.
Anderzijds: robots zijn mensenwerk. Wellicht zouden er daarom ook regels moeten komen om óns weer te beschermen tegen de sociale robots, die zich in de nabije toekomst met gezichtsherkenning en emotieherkenning gaan gedragen als supervriendjes. Immers: robots waar we aan gaan hechten, die als diertjes rondsnorren in onze huiskamers, die we beschouwen als huisdieren, zijn machines met sensoren. De informatie die via die sensoren binnenkomt, zal verzameld worden in grote datacentra. Om de robots beter te maken, maar misschien ook om ons in de gaten te houden.
Robots zoals Jibo, die functioneert als je persoonlijke assistent. Hij heeft iets weg van de Pixar schemerlamp met een gezichtje. Jibo is een project van Cynthia Breazeal, dé robotgeleerde van MIT. Ze heeft van investeerders 25 miljoen dollar gekregen om de eerste reeks te bouwen.
Darling: ‘Hij is heel schattig, kent al je persoonlijke informatie, houdt je agenda bij, heeft je e-mails, en weet van welke Chinees eten je houdt. We beginnen te zien dat mensen op een sociaal niveau reageren op deze robots, die veel data verzamelen. Het is zeker tijd om hier goed over na te denken. Zelfs primitieve robots blijken veel effectiever te zijn dan computers of mensen om het vertrouwen van mensen te winnen, omdat ze heel vriendelijk zijn en nooit moe van je worden. Ze zijn daarom heel geschikt om je te misleiden of om je geheimen te ontfutselen.’
Net als diamanten
Google heeft net een patent gekregen voor sociale robots die verschillende persoonlijkheden hebben die ‘in the cloud’ liggen opgeslagen. Een robot die de ene keer een moederrol aan kan nemen en de andere keer die van knuffel, diskjockey of psychiater, afhankelijk van wie tegen de robot praat. Het patent bevat een tekening van een teddybeer met microfoonoren en camera-ogen.
‘Ik geloof eerlijk gezegd niet dat Google daar nu echt aan werkt,’ zegt Darling, ‘ik denk dat ze meer bezig zijn met het krijgen van patenten voor alles wat ze bedenken. Maar er zijn zeker grote privacy-kwesties. Sociale robots zijn bij uitstek geschikt om de emoties van mensen te manipuleren. En dat is een zorg. Er moeten wetten komen om consumenten hiervoor te beschermen.’
Maar alles bij elkaar genomen ziet Darling toch meer voordelen dan nadelen. ‘Eerlijk gezegd ben ik redelijk optimistisch. Toen ik begon, nam niemand me serieus en nu zie ik dat mensen beginnen te begrijpen dat robotica een alles veranderende technologie is en dat meer mensen de consequenties serieus nemen. Ik ben zelf erg opgewonden over de toekomst en alle mogelijkheden die robots geven.’
Zorgen dat mensen straks robots prefereren boven mensen heeft ze niet. ‘Daar maak je je bij huisdieren toch meestal ook geen zorgen over. Robots kunnen ons juist helpen om de authenticiteit van mensen meer te waarderen. Zelfs als robots zich als mensen gaan gedragen. Het is net als met diamanten. Nepdiamanten lijken ook steeds meer op echte diamanten. Toch willen we echte diamanten.’