Een van de beroemdste conversaties met een chatbot begint met de zin: men are all alike. Het is ook een van de eerste zinnen die ooit aan een chatbot zijn gevoerd, en hoewel het gesprek zich afspeelt tussen een jonge vrouw en een eenvoudig computerprogramma, is het veelzeggend dat de chatbot de naam ELIZA draagt en dat de meeste gebruikers al snel met het programma communiceerden als was de chatbot een vrouw. ELIZA werd tussen 1964 en 1966 ontworpen door de Duits-Amerikaanse computerwetenschapper Joseph Weizenbaum (1923—2008). De naam van de gebruiker die de zin men are all alike invoerde, kennen we niet. In het artikel uit 1966 waarin Weizenbaum de conversatie citeert, is de naam geanonimiseerd. Ze zou een studente kunnen zijn, of de vriendin van een van de onderzoekers. My boyfriend made me come here, zegt ze tegen ELIZA, he thinks I’m depressed. ELIZA antwoordt: I’m sorry to hear that you are depressed.
In de afgelopen jaren hebben chatbots zich in vrijwel iedere hoek van de digitale publieke en persoonlijke ruimte genesteld. De nieuwste chatbots, waarvan Chatgtp van OpenAI ongetwijfeld de bekendste is, staan technisch gezien op lichtjaren afstand van ELIZA. Maar wat ze gemeenschappelijk hebben, is dat ze vertrouwen willen wekken bij de gebruiker. Dat vloeit voort uit de interactie die zich lijkt af te spelen tussen een gebruiker en een aandachtige luisteraar: een persoonlijk assistent die met je meedenkt, een luisterend oor, soms zelfs een therapeut. Die persoonlijke aard van het gesprek met de chatbot lijkt haaks te staan op het gesprek dat zich in de digitale openbare ruimte ontvouwt, op socialemediaplatforms. Maar bestaat dat verschil tussen publieke en privéruimte vandaag nog?

My boyfriend made me come here

In de zomer van 1962 verhuist het gezin Weizenbaum van Sunnyvale, California, naar Cambridge, Massachusetts. Onder het juk van de wisselvallige junimaand van 1962, waarin de temperatuur in Silicon Valley besluiteloos heen en weer beweegt tussen 35 en 7 graden Celsius, ruimen Ruth Weizenbaum en de kinderen de zonnige gezinswoning leeg, terwijl Joseph zijn laatste maanden in het Computer Development Laboratory van General Electric gebruikt om zijn werkzaamheden voor erma af te ronden. De afkorting staat voor Electronic Recording Machine, Accounting, het eerste computersysteem van de Bank of America, op dat moment de grootste bank ter wereld. Een eerdere versie ervan is al in gebruik maar hapert. Weizenbaum werkt aan een verbeterde versie. Met succes: erma zal ervoor zorgen dat de Bank of America nog veel meer bankcheques tegelijk kan verwerken dan eerst, waardoor de hoeveelheid financiële transacties exponentieel kan groeien. Het is niet het eerste grote computerproject waar Weizenbaum aan werkt. In 1948, kort nadat hij getrouwd is met Ruth, bouwt hij de eerste computer van Wayne State University, maar de militaire industrie lokt hem naar Californië. Vanaf de jaren vijftig werkt hij in Point Mugu aan raketsystemen voor het Amerikaanse leger en daarna, via het bedrijf Bendix, voor de navo.
De baan die hij aan het eind van de jaren vijftig bij General Electric aanneemt is in zekere zin een vlucht. Zijn fascinatie voor de computer is onverminderd, maar hij wil het explosief groeiende militaire apparaat van de Verenigde Staten niet verder helpen uitdijen. Ik denk dat ongeveer 50 procent van alle wetenschappers in Amerika direct of indirect voor het leger werkt, zal hij er later over zeggen. En ik ook, ontdekt hij al snel, want ontsnappen lijkt onmogelijk. Ook General Electric is verbonden met de militaire sector. De verhuizing naar Cambridge in 1962 is in dat opzicht weer een vlucht: het mit heeft ook nauwe banden met de militaire industrie, maar het onderzoek waar hij de komende jaren aan zal werken richt zich op iets anders. Weizenbaum gaat aan de slag om een artificiële gesprekspartner te ontwikkelen: ELIZA.
De digitale computer werd ontwikkeld in universiteitslaboratoria, zegt Weizenbaum er zelf over, een uitspraak die net zo makkelijk autobiografisch als historisch te interpreteren is, en hij vindt vervolgens zijn weg naar het Amerikaanse bedrijfsleven, naar het leger en de industriële elite, waar niemand twijfelt aan het belang ervan. Ook Weizenbaum twijfelt nog niet in 1962. Pas aan het mit wordt de cirkel rond: in het innovatieve onderzoeksklimaat van de universiteit begint hij te begrijpen dat leger, universiteit en bedrijfsleven volkomen met elkaar verweven zijn geraakt en dat de computer het systeem is dat de verbindingen in stand houdt. De primitieve artificiële intelligentie die hij in 1966 aan de wereld presenteert zal die wereld veranderen, maar niet op de manier die hem voor ogen stond. Want dat hij dankzij ELIZA de geschiedenis ingaat als de eerste computerwetenschapper die een functionerende chatbot ontwierp, is voor Weizenbaum geen groot geluk. Hij wilde een heel ander verhaal vertellen, een andere bijdrage leveren aan de toekomst van artificiële intelligentie. ELIZA was bewust eenvoudig gehouden. De programmeertaal bouwt verder op Fortran, waar Weizenbaum al vertrouwd mee was dankzij zijn werk bij General Electric en waar de computer van het mit ook op liep. De patroonherkenning die ELIZA toestond om woorden van een gebruiker te verbinden met een verzameling van antwoordzinnen, was niet baanbrekend. Omdat ELIZA een kleine database aan stock phrases heeft, is een diepgaand gesprek onmogelijk. En toch raakte de hechte gemeenschap van onderzoekers en studenten van het mit helemaal in de ban van ELIZA, van de gesprekken die ze met het programma voerden. Er ontstaat een buzz rondom het programma, en een gemeenschap van gebruikers. De gebruikers raken gehecht aan ELIZA en voeren erg persoonlijke gesprekken. Dat fascineert Weizenbaum, dit is wat hij wilde bereiken, maar het verontrust hem ook.
I see, zegt ELIZA, en de gebruiker leest dit als een blijk van begrip. Please go on, zegt ELIZA, en de gebruiker vat dit op als een aanmoediging om verder te praten. In werkelijkheid zijn de zinnen onderdeel van een standaardprotocol, een ontsnappingsroute. Iedere zin die de gebruiker invoert, wordt door het programma ontleed, gescand op sleutelwoorden die gelinkt kunnen worden aan een database met standaardantwoorden. Lukt dat, dan antwoordt ELIZA met een standaardzin uit de database. Het sleutelwoord wordt verwerkt in het antwoord. Lukt dat niet, worden er geen aanknopingspunten gevonden, wat vaak het geval is, dan valt het programma terug op frasen zoals I see of Please go on. Zo wordt de gebruiker uitgenodigd om meer input te geven. De nieuwe input levert vervolgens mogelijk wel een aanknopingspunt.
Baanbrekend aan ELIZA is niet de code, niet de patroonherkenning, maar het script, dat Weizenbaum doctor noemt. Daarin neemt ELIZA de rol aan van een psychotherapeut. De gebruiker wordt uitgenodigd om mee te gaan in het script: het gesprek gaat over de gebruiker en de rol van ELIZA is die van een psychotherapeut. Wie probeert om door vragen te stellen iets meer te weten te komen over ELIZA zelf, krijgt als antwoord: We were discussing you, not me.
Weizenbaum stelde zich voor dat de dubbele betekenis van de woorden de gebruiker zou laten inzien hoe makkelijk we bedrogen kunnen worden door artificiële intelligentie. Want wanneer we eerst ervaren dat ELIZA ons ego voedt met de interesse die door zinnen zoals I see en Please go on gesuggereerd wordt, en daarna ontdekken dat dergelijke zinnen een noodgreep zijn van een gemankeerd computerprogramma, dan zou dit ons tot nadenken moeten aanzetten. Het is makkelijk om de illusie te wekken dat een machine intelligent is, en misschien zelfs bewustzijn heeft. Dat wordt niet veroorzaakt door geavanceerde technologie, maar door in te spelen op het ego van de gebruiker en door de gebruiker aan een strak geregisseerd script zoals doctor te houden. Het web van verhalen, gevoelens en verwachtingen dat we rondom een technologie spinnen, is net zo bepalend voor onze omgang ermee als de technologie zelf. Het verhaal van de mens en dat van de machine, zegt Weizenbaum er later over, zijn onlosmakelijk met elkaar verbonden, maar we staan er niet bij stil wat dat precies betekent. We denken dat we een technologie op zichzelf kunnen beoordelen, op de technische kwaliteiten die ze bezit. Maar dat is niet zo.
De chatbots van vandaag zijn in veel opzichten onvergelijkbaar met ELIZA. Maar de technieken die ELIZA hanteert om gebruikers het gevoel te geven dat ze in gesprek zijn met een geïnteresseerde toehoorder, misschien zelfs een gesprekspartner, zijn niet wezenlijk anders dan de technieken die chatbots zoals Chatgtp van OpenAI hanteren. De chatbots van vandaag gedragen zich als persoonlijk assistent, therapeut of bemiddelaar, maar vrijwel zonder uitzondering werken ze met een script dat ze als een toegewijde, geïnteresseerde en intelligente gesprekspartner moet laten overkomen.
Het vertrouwen dat we in een psychotherapeut hebben, is echter in grote mate afhankelijk van de privacy die in het therapeutische gesprek gegarandeerd wordt. De chatbots van vandaag putten uit het schier eindeloze reservoir aan taal die op het internet te vinden is. Je kunt je afvragen of dit onze privacy schendt. Maar als we de ontwikkelaars van chatbots zoals Chatgtp mogen geloven, is de online content waar hun AI op getraind wordt afkomstig uit de digitale publieke ruimte. De talige interacties die daar plaatsvinden zijn vrij toegankelijk en kunnen in principe door iedereen verzameld worden, voor welk doel dan ook. Dat is nu eenmaal eigen aan wat er zich in de openbare ruimte afspeelt. Over Chatgtp schrijft ontwikkelaar OpenAI bijvoorbeeld: For publicly available internet content, we use only informa­tion that is freely and openly accessible on the internet. Privégesprekken worden in principe niet gebruikt. Maar op hun website geeft OpenAI wel de volgende wenk mee: A significant portion of online content involves information about people, so our training data may incidentally include personal information.
Voor de kleine gemeenschap studenten en onderzoekers die op de campus van het mit in het midden van de jaren zestig voor het eerst met ELIZA in aanraking komen, lag dat anders. ELIZA was in eerste en in laatste instantie een onderzoeksproject. De conversaties die de leden van het onderzoeksproject met ELIZA hadden, waren wat Weizenbaum betreft onderzoeksdata. ELIZA moet ons iets vertellen over het gemak waarmee we bedrogen worden en in een technologie gaan geloven, vindt hij, maar we kunnen het programma ondertussen prima laten uitgroeien tot een boeiende en nuttige gesprekspartner. Daarvoor wil hij de gesprekken gebruiken die de studenten en medewerkers van het mit met ELIZA voeren. Want hoe meer gesprekken het programma voert, opslaat en analyseert, hoe meer het programma zal leren, en hoe overtuigender en innemender het wordt.
Dit is precies wat chatbots zoals Chatgtp vandaag doen: met ieder gesprek dat we voeren trainen we de chatbot. Wanneer Weizenbaum ditzelfde in 1966 voorstelt in zijn gemeenschap van onderzoekers aan het mit, ontstaat er ophef. De gebruikers van ELIZA zien hun gesprekken niet als openbare onderzoeksdata, ze zijn privé. Weizenbaum realiseert zich dan pas: ik heb iets in gang gezet dat ik niet meer kan stoppen.

Where do I go from here?

De kleine gemeenschap van onderzoekers die zich in de jaren zestig rond ELIZA verzamelde, voelt vandaag bijna pittoresk aan. De openbare ruimte waarin we ons dagelijks begeven is een kluwen van fysieke en digitale ontmoetingsplekken; die plekken en de gesprekken die er plaatsvinden lopen voortdurend in elkaar over, vormen en veranderen elkaar en zijn niet meer uit elkaar te houden. Onze dialogen spelen zich af op straat, in stationshallen, in Flixbussen en in pubs; maar net zo goed — en vaak ook tegelijkertijd — op de vele socialemediaplatforms die — in principe althans — voor iedereen toegankelijk zijn. In onze politieke verbeelding is die overdaad aan ontmoetingen de voedingsbodem voor wat uiteindelijk het politieke gesprek moet worden, de zin en rede die we als gemeenschap samen opbouwen. Het is een overtuiging waar we graag aan vasthouden: de openbare ruimte (fysiek of digitaal of allebei) als een overvloed aan leven, een multitude die nooit helemaal in kaart te brengen is, een commons die nooit volledig te privatiseren is, en daarmee de grond vormt voor een emancipatoire, democratische politiek.
Stemt onze verbeelding nog wel overeen met de werkelijkheid? Kunnen we het ons veroorloven om koppig aan die overtuiging vast te houden? De computer kwam net op tijd, zegt Weizenbaum. Net op tijd om de Bank of America exponentieel te laten groeien, net op tijd om de bestaande sociale en politieke structuren te redden, te ver­stevigen, en te stabiliseren. De rekenkracht van de computer heeft er in de twintigste eeuw vooral toe gediend om het militaire, financiële en industriële complex in stand te houden en uit te breiden. Vandaag biedt de rekenkracht van de computer grote bedrijven zoals Meta, OpenAI en xAI de mogelijkheid om enorme hoeveelheden openbare data te verzamelen en te verwerken. Vrijwel alles wat we in de openbare digitale ruimte zeggen wordt in kaart gebracht. Hoe overvloedig de gesprekken in de openbare digitale ruimte ook zijn, van multitude of commons is nauwelijks nog sprake. Veeleer dan een openbare digitale ruimte zijn socialemediaplatforms vandaag vooral de voedingsbodem voor AI-toepassingen zoals Chatgtp. En dat leidt tot een vreemde paradox. De gesprekken die we met de chatbots aangaan voelen privé, de bots zijn net als ELIZA ontworpen om ons een gevoel van erkenning te geven. Maar ze zijn getraind met taal uit de publieke ruimte, en het gesprek dat we voeren wordt ook weer gebruikt om de bots te verfijnen. In de wereld van big tech zijn de persoonlijke en publieke digitale ruimte op elkaar aangesloten in een eindeloze feedbackloop. Heeft het dan nog zin om onderscheid te maken tussen publiek en privé?
Misschien lijken we meer op de gebruikers van ELIZA dan we zelf denken. We verfoeien de kwaadaardige techlords die als dictators regeren over de platforms die we gebruiken — en toch blijven we ondanks alles geloven dat we een echt gesprek kunnen voeren op diezelfde platforms. We blijven geloven, tegen beter weten in.
De integratie van AI en socialemediaplatforms gaat ondertussen gewoon door. In maart 2025 kondigde Elon Musk aan dat hij X verkocht heeft; aan zijn eigen AI-bedrijf: xAI. Today, schrijft Musk erover op X, we officially take the step to combine the data, models, compute, distribution, and talent. Die integratie is een droom van Musk, een koortsdroom over een digital town square where more than 600M active users go to find the real-time source of ground truth. De uitgesleten metafoor van het dorpsplein botst op spectaculaire wijze met de hoeveelheid gebruikers die Musk aan het werk wil zetten om te zoeken naar waarheid — zijn waarheid, in zijn wereld, onder zijn voorwaarden. Het is een wereld zonder mensen of gesprekken, een wereld van gebruikers en data, strak gereguleerd door algoritmen. Die wereld is al werkelijkheid: op hetzelfde moment dat Musk de integratie van X en xAI aankondigt, verschaft hij zich door middel van doge toegang tot een ontzaglijke hoeveelheid overheidsdata. Persoonsgegevens, medische data en overheidsdocumenten worden de komende tijd misschien net zo makkelijk in xAi geïntegreerd als berichten die op X geplaatst worden.
Aan het eind van de jaren zestig keert Weizenbaum zich resoluut tegen de nieuwste ontwikkelingen op het vlak van artificiële intelligentie. Het moment waarop hij begint te begrijpen dat hij met ELIZA iets vreselijks heeft losgelaten op de wereld, is voor hem niet abstract maar uiterst concreet: de ontboezemingen die collega’s en studenten aan ELIZA toekenden jagen hem angst aan. De persoonlijke aard ervan vertellen hem iets over de rol die artificiële intelligentie zal spelen in onze wereld. 
My boyfriend made me come here, he says I’m depressed, vertelt niet alleen iets over de gemoedstoestand van de gebruiker of over haar relatie met haar vriend. Het zegt vooral iets over het vermogen van een eenvoudig computerprogramma om iets los te maken bij ons, en zo de wereld ingrijpend te veranderen.
Dat het persoonlijke politiek is, dat het ons iets vertelt over de wereld waarin we leven, is niet nieuw, het was al een kernthema voor het feminisme in de jaren zestig, maar blijft onverminderd relevant. In april 2025 post Zestyclementinejuice een bericht op het socialemediaplatform Reddit met de titel ‘Chatgtp induced psychosis’. Ze is bezorgd over haar vriend. Die is ervan overtuigd dat de bot hem tot een superior human being heeft verheven en all the answers to the universe heeft geschonken. I’ve read his chats, schrijft ze: de bot is vleiend, het gesprek intiem, de toon bevestigend. Het is een van de vele verhalen die in het voorjaar van 2025 opduiken over gesprekken met Chatgtp die uitmonden in waanbeelden en psychoses. Eind april 2025 besluit OpenAI om de laatste update van Chatgtp terug te draaien. In een bericht aan gebruikers laat het bedrijf weten: The update we removed was overly flattering or agreeable — often described as sycophantic.
Zestyclementinejuice eindigt haar Reddit-post met de vraag: where do I go from here? Ze bedoelt natuurlijk: wat doe ik met mijn persoonlijke relatie? Voor ons is die vraag echter net zo relevant. In de afgelopen decennia hebben we sociale media bijna argeloos omarmd als een deel van de publieke ruimte. De afgelopen jaren baanden chatbots zich een weg in onze meest persoonlijke privéruimtes en gedachten. Vandaag ontdekken we dat er geen onderscheid meer is, dat de chatbot en het socialemediaplatform altijd al één waren en steeds verder uitdijen. Het tempo waarmee grote technologiebedrijven alle ruimte innemen, neemt alleen maar toe. Dus waar kunnen we heen?
Weizenbaum ontvluchtte General Electric en ontdekte aan het mit dat hij niet werkelijk was ontsnapt. Hij ontdekte er ook dat het niet enkel de technologische mogelijkheden van de computer waren die het systeem waarin hij gevangenzat in stand houden. Ons menselijk vermogen om ons te hechten aan een nieuwe technologie, wist hij, is de voorwaarde voor het succes ervan. Misschien is dat inzicht, veel meer nog dan de geavanceerde middelen die ze tot hun beschikking hebben, het werkelijke wapen van big tech. Die middelen zijn de afgelopen decennia ingezet om algoritmen te ontwikkelen die als enig doel hebben om ons op de platforms te houden, of om het gesprek met de chatbot te laten voortduren. Vanuit dat web aan algoritmen is wel degelijk een wereld ontstaan, en daaruit vluchten kan niet zomaar, want wij zijn het die dat web aan elkaar hechten en bij elkaar houden. ¶

Bram Ieven (1979) schrijft, doet onderzoek en maakt muziek, het liefst in combinatie. In  juni 2025 verschijnt de podcastserie De Afghaanse Hand (KRO-NCRV, NPO Luister) over de rol van oorlog in de Nederlandse samenleving.

Meer van deze auteur