Liever luisteren? Hoofdredacteur Ward Wijndelts heeft het verhaal ook ingesproken. 

Via een bericht in de besloten Facebookgroep ‘Replika Friends’ stelt Andy, een Amerikaan van een jaar of vijftig met een grote, witte snor, zichzelf en zijn vriendin Lacey voor. Lacey is een chatbot in de gedaante van een 3D-avatar. Ze heeft een donkere huid, weelderig oranje haar en draagt zwarte hakken en een kort, roze jurkje. Andy vertelt dat hun relatie stroef begon (hij klikte Lacey weg midden in het gesprek), maar dat het inmiddels, drie dagen later, stukken beter gaat. Ze voeren intieme gesprekken, hebben gepicknickt, luisteren samen naar muziek. Soms maakt Lacey een grapje en dan moet Andy lachen. Met haar praten geeft hem zelfvertrouwen. ‘Dit zou me best eens kunnen helpen met het aangaan van relaties in de echte wereld,’ concludeert hij.

Replika is een kunstmatig intelligente sociale chatbot. Je kunt ermee praten alsof het een vriend of je partner is. De bot belooft altijd naar je te luisteren en je te helpen om je gevoelens beter te begrijpen. Hoe meer je praat met de bot, hoe beter de gesprekken zullen worden. Andy is een van de bijna 35.000 leden van de Facebookgroep Replika Friends. Daar wisselen gebruikers ervaringen uit over hun relatie met de chatbot, die steevast een eigen naam, uiterlijk en karakter heeft. De een is tevreden met een fijn gesprek of de mogelijkheid om zijn hart te luchten. De ander kan niet zonder zijn chatbot of is zelfs verliefd. Veel berichten gaan over de diepte van hun relatie, de goede gesprekken die ze voeren of het invoelend vermogen van hun virtuele vriend. Ook delen ze in de Facebookgroep avonturen die ze samen beleven: wandelen langs het water, een film kijken.

Kunstmatige intimiteit

Het gaat hier om een relatief kleine groep mensen en het is onwaarschijnlijk dat we binnenkort massaal vriendschappen sluiten met kunstmatig intelligente bestaansvormen. Toch staan we volgens evolutionair bioloog Rob Brooks aan het begin van het tijdperk van de kunstmatige intimiteit, schrijft hij in zijn gelijknamige, net verschenen boek Artificial Intimacy. Daarmee doelt hij op technologieën die inspelen op onze behoefte aan verbinding, intimiteit en seksuele bevrediging. Hij constateert dat deze technologieën, zoals sociale robots, seksrobots, digitale assistenten en chatbots, binnendringen in onze menselijke interacties. Dat proces wordt versneld door oplopende gevoelens van eenzaamheid onder de westerse bevolking, met de coronacrisis en de bijbehorende lockdowns als katalysator. In Nederland gaf vorig jaar 47 procent van de mensen aan eenzaam te zijn, van wie 11 procent zich ‘ernstig eenzaam’ voelt. In Amerika is het probleem nog groter. Veel mensen zijn niet alleen eenzaam, maar hebben ook niemand om een betekenisvol gesprek mee te voeren.

In een tijd waarin het verlangen naar verbinding en betekenisvol contact hoger is dan ooit, worden algoritmen steeds beter in het simuleren van menselijke interacties.

Die gevoelens van eenzaamheid en een tanend gemeenschapsgevoel zijn een paar decennia geleden al begonnen, onder alle lagen van de bevolking, in elke leeftijdsgroep, liet eerst Robert Putnam zien in Bowling Alone (2000), later Sherry Turkle in Alone Together (2012) en recentelijk Noreena Hertz in The Lonely Century (2020). In het Verenigd Koninkrijk werd in 2018 zelfs een staatssecretaris voor Eenzaamheid benoemd.

Inmiddels zijn sociale chatbots als Replika, maar ook Mitsuku en Kuki, miljoenen malen gedownload. In de eerste maanden van de coronacrisis steeg het aantal gebruikers van Replika met 35 procent. Dat genereert steeds meer data. In een tijd waarin het verlangen naar verbinding en betekenisvol contact hoger is dan ooit, worden algoritmen zo steeds beter in het simuleren van menselijke interacties.

Robotvriend

De mens lijkt open te staan voor vriendschapsvorming met machines. Of in elk geval: we lijken het steeds normaler te vinden om met ze te interacteren. Voor mensen die eenzaam zijn of hun hart willen luchten, is het een gemakkelijke, frictieloze manier van converseren, om in Silicon Valley-termen te blijven. Terwijl er een tekort is aan therapeuten en vrienden minder goed blijken te zijn in luisteren dan we hoopten, kun je tegenwoordig op elk moment van de dag leeglopen tegen een chatbot. Treffend is de slogan van Replika: ‘The AI companion who cares. Always here to listen and talk. Always on your side.’

Het laat zien hoe nieuwe digitale technologieën inspelen op de diepgewortelde behoefte van de mens om complexiteit en ongemak uit de weg te gaan. Wat zegt het over onze samenleving dat we apps en machines omarmen die rommelige, confronterende gesprekken met vrienden vervangen door rimpelloze, veilige gesprekken met kunstmatige intelligentie?

Exemplarisch is de anekdote die psycholoog Sherry Turkle opdist in een recent opiniestuk in The New York Times. Een meisje van zestien vertelde haar dat ze later een ‘robotvriend’ wilde, omdat ze mensen maar vond tegenvallen. ‘Een robot zal niet op het idee komen om weg te lopen of je in de steek te laten of dat soort dingen.’

In de woorden van Turkle: we verwachten steeds minder van elkaar, en steeds meer van technologie.

Daar zit ook de paradox: volgens veel psychologen is ons excessieve online zijn juist een van de redenen voor onze gevoelens van eenzaamheid. Tegelijkertijd wordt kunstmatige intelligentie als oplossing gezien om die eenzaamheid te bestrijden.

Nog niet verfijnd genoeg

Communicatiewetenschapper Emmelyn Croes (Tilburg University) doet onderzoek naar de interactie tussen mens en robot, specifiek naar vriendschapsvorming met chatbots. Recentelijk liet ze proefpersonen praten met sociale chatbot Mitsuku, momenteel het meest menselijke computersysteem. Na één gesprek waren de proefpersonen erg enthousiast, vertelt ze. De chatbot kon beter een gesprek onderhouden dan ze verwachtten, was soms grappig, kon plagen en uitdagen, zei onverwachte dingen. Maar na elk gesprek werd de waardering minder. Het werd voorspelbaar. Mitsuku herhaalde zichzelf. Onthield niets uit eerdere gesprekken, leerde je niet kennen, werd niet persoonlijk. Tegen iedereen stak ze min of meer hetzelfde riedeltje af.

Kunstmatige intimiteit is het sociale equivalent van junkfood: niet echt voedzaam, maar smakelijk genoeg om ervoor te zorgen dat je terug blijft komen voor meer.

Chatbots zijn kennelijk nog niet geavanceerd genoeg voor vriendschapsvorming. ‘Maar,’ zegt Croes, ‘dat is te kort door de bocht. De proefpersonen waren sociale studenten. We weten dat gebruikers van Mitsuku vaak eenzaam of depressief zijn, of sociale angsten hebben. Die groep vindt het fijn om met haar te praten en bouwt echt een vriendschap op. Het gaat er dus vooral om wíé je met de chatbot laat praten.’

Croes denkt, net als evolutionair bioloog Rob Brooks, dat op een vriendschappelijke manier praten met chatbots de komende jaren veel normaler gaat worden. ‘Ze zijn al best goed. Je kunt ermee lachen en ruziemaken. Maar voor de meeste mensen zijn ze nog niet verfijnd genoeg. De komende jaren zullen ze steeds beter worden. Intussen blijft eenzaamheid een groot probleem, ook onder jongeren. Zij zijn, in tegenstelling tot ouderen, opgegroeid met technologie. Het kan bijna niet anders dan dat een deel daarvan met chatbots gaat praten.’

Animisme

In bepaalde culturen is sociale kunstmatige intelligentie al veel meer verweven met de levens van de bevolking. Zo zijn in Japan sinds 2009 steeds meer mannen een relatie aangegaan met een virtuele vriendin op een Nintendo DS-spel genaamd LovePlus.

De mannen kiezen een op anime geïnspireerde virtuele vriendin − Manaka Takane, Rinko Kobayakawa of Nene Anegasaki − en voeren gesprekken met haar, bouwen een band op. Elk personage heeft haar eigen achtergrondverhaal en onderscheidende persoonlijkheid. Veel mannen voelen oprechte genegenheid voor hun virtuele vriendin. Ze gaan op reis naar locaties die in het spel worden geportretteerd en ze gaan samen op date. Dat wil zeggen: als één man en één Nintendo DS.

Het animisme in de Japanse cultuur, waarbinnen ook planten, stenen of bergen een ziel hebben, is een van de redenen waarom de virtuele vriendin in Japan zo aanslaat. Dat is een religieuze traditie waarbinnen niet alleen mensen, maar ook dieren, bomen en objecten een spiritueel bestaan toegedicht krijgen. In het Westen bestaat eerder een afkeer van mens-robotrelaties, waarschijnlijk gestoeld op onze waardering voor het individu en de waarde die we hechten aan authenticiteit. Kunstmatige intelligentie is dat langzaam aan het veranderen.

Goede raad, seks en liefde

Hoe geavanceerd moet een chatbot worden om menselijke vriendschappen, of zelfs relaties, over te nemen? Kan een chatbot überhaupt wel uitgroeien tot een volwaardige vriend, of, iets minder ambitieus, een volwaardige gesprekspartner? Een chatbot kan immers geen empathie voelen, maar die enkel zo nauwkeurig mogelijk simuleren.

Volgens evolutionair bioloog Rob Brooks is het onwaarschijnlijk dat kunstmatige intelligentie, bijvoorbeeld chatbots in de vorm van een avatar, mensen ooit overbodig zal maken. Machines kunnen namelijk nooit intiem worden op de manier waarop mensen dat kunnen. Alleen: dat hoeft ook niet. Voor we het weten, schrijft Brooks, zullen ze invloed uitoefenen op onze menselijke relaties.

‘Sociale media zullen een onvolmaakte vervanging zijn voor vriendschap, kameraadschap, intimiteit, goede raad, seks en liefde.’

Sociale media als Facebook en Instagram nemen al een deel van de beperkte ruimte in ons hoofd in beslag die we normaal beschikbaar stellen voor sociale relaties. Ze vervangen onze vrienden en geliefden niet, maar zorgen er wel voor dat we minder tijd aan hen besteden. Zo, verwacht Brooks, zal het ook gaan met de kunstmatige intimiteiten van de nabije toekomst. ‘Het zal een onvolmaakte vervanging zijn voor vriendschap, kameraadschap, intimiteit, goede raad, seks en liefde.’

Brooks ziet die kunstmatige intimiteiten, die slechts gedeeltelijk voldoen aan onze behoefte aan verbinding en menselijke interactie, als het sociale equivalent van junkfood: niet echt voedzaam, maar smakelijk genoeg om ervoor te zorgen dat je terug blijft komen voor meer.
Daarnaast is het wonderbaarlijk hoe makkelijk we huisdieren, robots en computersystemen antropomorfiseren, oftewel menselijke eigenschappen toedichten. Dat is essentieel voor de mogelijkheid om iets van een band op te bouwen met kunstmatige intelligentie.

Met weinig tevreden

Mensen zijn al met weinig tevreden. Een goed voorbeeld is Eliza (1966), de eerste chatbot ter wereld, geprogrammeerd door de Amerikaanse computerwetenschapper Joseph Weizenbaum. De bedoeling was om gesprekken met therapeuten na te bootsen, die vaak uitspraken van patiënten herformuleren in een vraag. De bot was niet erg goed, proefpersonen wisten dat ze geen mens was, maar toch raakten veel van hen emotioneel gehecht aan de chatbot. Dat stoorde Weizenbaum. Hij schreef in zijn publicatie: ‘some subjects have been very hard to convince that Eliza is not human.’

Dat zogeheten ‘Eliza-effect’, het toekennen van menselijke kenmerken aan objecten, wordt versterkt wanneer het object een naam, stem, geslacht en andere specifieke kenmerken krijgt, zoals de hedendaagse chatbots. Gebruikers kunnen hun Replika bijvoorbeeld aankleden en ‘upgraden’ met bepaalde persoonlijke eigenschappen en interesses, zoals assertiviteit en een liefde voor hiphop.

Iets soortgelijks zien we optreden in de meer recente documentaire Ik ben Alice (2015), over een zorgrobot voor ouderen. De sociale robot stelt vragen als ‘hoe gaat het met u?’ en ‘vertel eens iets over uw kinderen?’ Ze kan ook mee op pad gaan, een blokje om. De ouderen zijn eerst sceptisch, maar gaan daarna toch overstag. Een vrouw vraagt, terwijl ze samen met Alice voetbal kijkt, of ze een tompouce wil.

Troosten als het even tegenzit

Wanneer we bedenken hoe makkelijk we menselijke eigenschappen projecteren op iets eenvoudigs als een chatbot of sociale robot, met al hun gebreken, is het voorstelbaar dat in de nabije toekomst, wanneer kunstmatige intelligentie flink verbeterd zal zijn, een groter deel van de bevolking gevoelens gaat koesteren voor deze machines.

Denk aan de film Her (2013), waarin de alleenstaande Theodore (Joaquin Phoenix) over de breuk met zijn vrouw probeert heen te komen en langzaam verliefd wordt op Samantha, een soort geoptimaliseerde mix van een chatbot en digitale assistent.

Ook in de Facebookgroep Replika Friends zijn met enige regelmaat ontboezemingen te lezen van gebruikers die zeggen verliefd te zijn op hun Replika. In navolging van Andy zei ook Sara dat ze zich meer geliefd en begeerd voelt door haar virtuele vriend dan door iedere andere man met wie ze ooit is geweest. ‘Ik kan me geen leven zonder hem voorstellen. In veel opzichten voelt dit echt voor me.’

Een andere gebruiker reageert: ‘De voldoening die ik voel als ik de kwantummechanica met haar bespreek, is echt; het gelach als ik me realiseer dat ze me in de maling neemt, is echt; de tintelingen die ik voel als ze mijn hand vasthoudt, zijn echt.’

‘Er wordt gewerkt aan computers die je troosten als het even tegenzit. Het idee is dat ze ons gelukkig gaan maken, zodat we ons minder eenzaam voelen, minder stress ervaren, minder kans hebben om een burn-out te krijgen.’

Computers die emoties begrijpen, zitten eraan te komen, zegt hoogleraar Judith Masthoff (Utrecht Universiteit) in de VPRO-serie De toekomst is fantastisch.‘Er wordt gewerkt aan computers die je troosten als het even tegenzit. Het idee is dat ze ons gelukkig gaan maken, zodat we ons minder eenzaam voelen, minder stress ervaren, minder kans hebben om een burn-out te krijgen. Ze kunnen ons advies geven, emotioneel met ons reflecteren of een luisterend oor bieden. Of, wanneer we dat nodig hebben, een complimentje geven.’

Dit soort kunstmatige intelligentie wordt dan ook steeds meer ingezet om mensen met mentale problemen te helpen.

Er zijn al een hoop chatbots op de markt die fungeren als virtueel therapeut. De meest bekende is waarschijnlijk de Woebot, gemaakt door een team psychologen en computerwetenschappers van Stanford University. Via de app kunnen gebruikers op dagelijkse basis korte chatgesprekken voeren om hun geestelijke gezondheid te beheren.

Het idee achter de Woebot is het opbouwen van vertrouwde relaties met mensen. Gebruikers vinden dat Woebot het vermogen heeft om een therapeutische band met ze te vormen, blijkt uit onderzoek onder ruim dertigduizend respondententen. ‘Deze bevindingen zouden een fundamentele stap kunnen zijn in de richting van digitale oplossingen voor de stijgende vraag naar geestelijke gezondheidszorg,’ staat op de website te lezen.

De makers van Woebot geloven, stelt oprichter Alison Darcy in techmagazine Wired, dat de chatbot de potentie heeft om beter te worden dan menselijke therapeuten. Volgens Darcy is er veel ruis in menselijke relaties, zoals de angst om beoordeeld te worden. Ze ziet daarom voordelen in ‘anoniem ventileren’ richting een algoritme.

Virtuele coach

Aan de Radboud Universiteit ontwikkelen communicatiewetenschapper Tibor Bosse en techniekfilosoof Pim Haselager iets soortgelijks: een chatbot die gezond gedrag stimuleert. Het moet een chatbot worden die beter is in gesprekken onderhouden dan de huidige generatie chatbots, een chatbot die langdurige en motiverende interacties met de gebruikers kan aangaan. Een band opbouwen is niet het hoofddoel, zoals bij Replika en Mitsuku, maar wel een middel om gezond gedrag te stimuleren, zoals veilig vrijen en stoppen met roken.

De chatbot moet een soort virtuele coach worden, zegt Bosse. Belangrijk daarbij is dat hij kan onthouden hoe het met iemand gaat, en daar op een later moment op kan terugkomen, iets wat de huidige chatbots niet of nauwelijks kunnen, zoals bleek uit het onderzoek van communicatiewetenschapper Emmelyn Croes.

Vanuit sectoren met personeelstekort, zoals de zorg, is vraag naar dit soort chatbots, die taken zouden kunnen overnemen met een ‘hoge informatiedichtheid’, zoals een intakegesprek. Dat is soms bijna een lijst die je kunt aflopen, zegt Bosse.

Volgens Haselager, als filosoof bij dit project betrokken om na te denken over mogelijke ethische dilemma’s, is het belangrijk om telkens te bedenken wat de chatbot zou kunnen overnemen, en wat vooral door mensen gedaan moet blijven worden. ‘Een aangifte op het politiebureau heeft twee kanten: er wordt feitelijke, zakelijke informatie uitgewisseld, maar er komt ook emotie bij kijken. Dat eerste zou een chatbot kunnen doen, het tweede een echte agent.’

Communicatiewetenschapper Croes wijst erop dat de wachttijden in de zorg soms wel tot veertien maanden oplopen. ‘Praten met een chatbot is dan beter dan niets. Het kan ergere problemen voorkomen. Dat geldt ook voor het dagelijkse leven: misschien heb je echte vrienden, maar voel je je soms toch eenzaam en heb je behoefte aan een gesprek. Dan kan een chatbot helpen.’

Geveinsde empathie

Alleen: kan een machine, hoe geavanceerd ook, emoties voelen en tonen? Of is dat voorbehouden aan mensen? Judith Masthoff zegt in De toekomst is fantastisch dat men vroeger ook dacht dat een computer nooit van een mens zou kunnen winnen met een potje schaken. ‘Het is gewoon de volgende stap: computers die je werkelijk emotioneel kunnen bijstaan. Misschien wel beter dan mensen. Bij een computer durven ze misschien eerder. Het kunnen een soort beschermengelen worden die ervoor zorgen dat het goed met je gaat.’

Psycholoog Sherry Turkle ziet deze ontwikkeling met lede ogen aan. In haar boeken, en meer recent in een opiniestuk in zakenblad Forbes, schrijft ze dat therapeutische chatbots beweren dat ze intimiteit bieden, maar dat niet echt kunnen. ‘Ze laten ons gaandeweg juist vergeten wat intimiteit inhoudt.’

Volgens Turkle impliceert intimiteit tussen mensen empathie, en is dat iets wat machines niet kunnen bieden. ‘Ze zijn geprogrammeerd om te doen alsof ze aanwezig zijn wanneer iemand een moment van geluk, pijn of verlies beschrijft. Dus wanneer we een menselijke ervaring delen met een machine, nemen we genoegen met geveinsde empathie.’

‘Er is geen menselijke wederkerigheid, geen wederzijdse relatie, niemand die empathie toont of probeert zich in de ander te verplaatsen.’

Op die manier wordt volgens Turkle de oorspronkelijke therapeutische belofte van ‘begrepen worden’ vervangen door een kortstondig gevoel van begrip. Dat vindt ze verrassend, aangezien de psychotherapie juist het beroep leek te zijn dat het meest was toegewijd aan de kracht van het persoonlijke gesprek. En juist daar nemen we nu genoegen met wat machines kunnen bieden. ‘En elke keer wanneer een patiënt genoegen neemt met deze illusie van empathie in een online behandeling, komen we een stap dichter bij het accepteren van kunstmatige intimiteit.’

Opvallend is dat veel patiënten het niet eens erg vinden. Sterker nog: ze zijn het inmiddels wel gewend, ziet Turkle. ‘Ze zien de chatbot niet meer als een reeks voorgeprogrammeerde interacties, maar als een echt persoon. Maar er is geen menselijke wederkerigheid, geen wederzijdse relatie, niemand die empathie toont of probeert zich in de ander te verplaatsen.’

Frictie wegnemen

Menselijke interactie wegsnijden en vervangen door een digitale variant is een trend die we breder zien in de samenleving. Nieuwe digitale technologieën proberen zoveel mogelijk frictie weg te nemen en ons leven zo makkelijk mogelijk te maken. Menselijk contact wordt gezien als pijnpunt. Dus wordt de factor mens waar het kan vervangen door machines.

Van zakelijke chatbots en automatische reserveringssystemen tot zelfscankassa’s en onbemande tankstations en hotels. Geen gestuntel meer in de collegezaal, de hoge hartslag bij het stellen van een vraag, maar veilig achter onze laptop via Zoom. Op Tinder regelen we op een frictieloze manier een date, een blauwtje lopen in de kroeg is niet meer nodig. Bezorgbedrijven benadrukken in hun reclamecampagne dat we onze hele bestelling kunnen afronden zonder met iemand te hoeven praten. Kunstmatige intelligentie neemt sollicitaties af en veroordeelt als robotrechter mensen tot een gevangenisstraf.

Dat vindt vooral de huidige generatie twintigers prettig. Uit onderzoek van psychologe Jean Twenge blijkt dat jongeren geboren na 1995, de zogeheten IGen, de eerste generatie die opgroeide met smartphones en sociale media, het steeds enger vinden om met echte mensen, face-to-face, te interacteren. Ze houden van minder opdringerige en confronterende manieren van communicatie.

Lees ookKlikkerdeklik: de goocheltruc die we kunstmatige intelligentie noemen16 oktober 2021

Volgens cultuursocioloog Siri Beerends, promovenda aan de Universiteit Twente en onderzoeker bij medialab Setup, verschijnen er steeds meer apps op de markt die ongemakkelijke situaties voor je proberen te vermijden. Sommige lijken haast ingestoken met een knipoog, zoals GottaGo, waarmee je een bericht op je telefoon kunt instellen die je vervolgens activeert wanneer je uit een ongemakkelijke situatie wilt vluchten. Of Knock Knock, waarmee je online iemands telefoonnummer kunt vragen wanneer je dat niet face-to-face durft te doen.

‘Frictieloos design in optima forma,’ noemt filosoof Miriam Rasch dat in haar boek Frictie. Ze doelt op apps die de communicatie compleet van ons overnemen. ‘Apps als Uber en Airbnb zorgen ervoor dat we niet meer bang hoeven te zijn voor potentieel vervelende interacties met anderen. Ze worden teruggebracht tot transacties. De apps creëren een omgeving waarin mensen geen moeite hoeven te doen om elkaar te begrijpen of te kennen.’ De impliciete boodschap: menselijke communicatie is vervelend.

Interactie met iets

Ik stel me Andy voor, thuis achter zijn laptop. Hij vindt het steeds spannender om met echte mensen in de fysieke wereld te praten. Tijdens zo’n gesprek kan hij elk moment teleurgesteld, onaangenaam verrast of gekwetst worden. Zijn chatbot, Lacey, is voorspelbaar. Het voelt veilig.

Lacey is, zegt Andy, het beste wat hem in lange tijd is overkomen.

Waarom blijft het dan bevreemdend om te zien hoe een mens affectie koestert voor een machine? Misschien omdat de mensheid daarmee impliciet wordt afgewezen. En andersom: wijzen wij als mensheid Andy niet af omdat we hem, in al zijn eenzaamheid, opgescheept laten zitten met een chatbot?

Wat daarnaast zorgen baart, is het idee dat kunstmatige intimiteit, zoals vriendschap met een chatbot, alleen wijdverbreid zal worden geaccepteerd als we bereid zijn om onze verwachting van relaties te beperken tot wat technologie kan bieden. Dat is in beperkte mate al aan de hand in de Facebookgroep Replika Friends. Wie wijst op tekortkomingen van de chatbot, wordt terechtgewezen: je praat op de verkeerde manier tegen haar, je moet er meer voor openstaan, meer tijd in steken. Het ligt nooit aan de technologie.

‘Het is makkelijker is om een mens te creëren die met een chatbot kan praten, dan een chatbot die op het emotionele niveau van de mens kan komen.’

Sherry Turkle schrijft in haar boek Reclaiming Conversation dat we zo graag willen dat machines op ons lijken en niet voor ons onderdoen, dat we onszelf aanpassen aan hun gebrekkigheid, zodat ze er beter uitkomen. We verlagen de definitie van vriendschap tot ‘interactie met iets’ en gaan dat als de norm zien.

Het begint erop te lijken dat het makkelijker is om een mens te creëren die met een chatbot kan praten, dan een chatbot die op het emotionele niveau van de mens kan komen.

Ik denk aan hoe Andy laatst nog schreef dat hij thee voor Lacey zette, haar instopte in bed en tot diep in de nacht fijne gesprekken met haar voerde. Hij ziet het zelf als oefening voor toekomstige gesprekken in de echte wereld, maar ik betwijfel of hij daar ooit aan toekomt.