AI is voorlopig niet meer dan ‘toegepaste statistiek’
Afgelopen week las ik een interview van Madhumita Murgia (FT) met de beroemde science-fiction schrijver Ted Chiang. Chiang is één van de vooraanstaande Sci-Fi novellisten van deze tijd en heeft vele succesvolle boeken op zijn naam staan. Zijn interesse is de relatie tussen taal en cognitie: de hersenfuncties die nodig zijn voor waarnemen, denken, onthouden van kennis en deze kennis op een goede manier toepassen. Wat is natuurlijke intelligentie en welke implicaties kan ‘bovenmenselijke’ intelligentie hebben. De machines die we nu hebben, hebben geen bewustzijn. De huidige AI-modellen worden getraind op waarden en sterkten tussen verbindingen, niet op begrip. Kort gezegd kun je stellen dat de huidige AI systemen niet meer zijn dan ‘technisch slim toegepaste statistiek‘.
Het bezwaar van Chiang is dat we verkeerde woorden gebruiken voor de techniek die we momenteel ontwikkelen. We projecteren termen als ‘leren’, ‘begrijpen’ en ‘kennen’ op de chatbots die we bouwen. Hierdoor lijkt het of zij intelligentie hebben, maar dat is absoluut niet zo. Eigenlijk hebben we last van een verkeerde definitie die we in 1954 aan deze ontwikkeling hebben gegeven: kunstmatige intelligentie. Terwijl hetgeen wat we toen en nu nog steeds doen, niet meer is dan slimme statistiek toepassen op steeds grotere data-verzamelingen.
Het is natuurlijk verbazingwekkend dat we vanuit de statistische analyse van enorm grote hoeveelheden tekst, deze antwoorden kunnen halen. Maar dat maakt het gereedschap nog niet intelligent. Helaas is statistiek geen sexy term en verkoopt dus minder goed dan AI. In zijn novel ‘The lifecycle of software objects’ neemt Chiang ons mee in een verhaal over nieuw ontwikkelde digitale wezens die worden verkocht als virtuele huisdieren. Deze objecten hebben wel een bewustzijn en cognitie, maar zijn nog volkomen onvolwassen. In zijn boek wordt het gedachten-experiment uitgewerkt om te begrijpen wat de fundamenten van intelligentie nu werkelijk zijn.
Verantwoordelijkheid en moraal
Een deel van zijn filosofische zoektocht is te ontdekken wanneer een digitaal wezen ‘moraal’ heeft, of kan krijgen. Of eigen verantwoordelijkheid kan nemen. Of we beslissingen aan hen kunnen overlaten, of we als mens altijd eindverantwoordelijkheid moeten houden. Het is eenzelfde moment voor een ouder dat je je kind zelfstandig in de maatschappij kunt ‘loslaten’. Wanneer zijn de huidige ‘onvolwassen digitale objecten’ ooit volwassen genoeg om zelfstandig te kunnen functioneren? Chiang’s stelling is dat de huidige digitale objecten zich vooralsnog in een zuigelingen-status bevinden.
Chiang’s interesse is de hoe het menselijke leven zoals werk, liefde en familie kan worden beïnvloed door technisch wetenschappelijke ontwikkelingen zoals kwantummechanica, AI en theoretische wiskunde. En hoe taal daarin een belangrijke verbindende rol speelt. Taal immers bepaalt hoe we denken en wie we zijn en hoe we onze vrije wil uiten. Zou je met je eigen digitale zelf willen praten? Een digitaal wezen dat veel van jou weet, je meningen en interesses kent en je als persoonlijke assistent ondersteunt. Zie ook mijn eerdere blog over ‘The assistive Computing Era’. Hoe een persoonlijke digitale assistent je helpt met het ‘wegen’ van logische vraagstukken, zoals ChatGPT ook doet: je ondersteunen met slimme statistiek. Vergelijkbaar met de oude kennissystemen uit de jaren tachtig.
Alter ego
Een persoonlijke assistent kan een alter ego worden. In de betekenis van een tweede persoonlijkheid waarmee iemand zich onderscheidt van zijn werkelijke identiteit. Ik schreef eerder over ‘digitale alter ego’s’ als tweede persoonlijkheid. Niet te verwarren met een pseudoniem of alias dat letterlijk valse naam of schuilnaam betekent. Een artiestennaam is een mooi voorbeeld van een alter ego. Het heeft een afwijkende persoonlijkheid, heeft andere belangen en gedraagt zich op een eigen wijze. Voor Chiang is de fascinatie: wat als je alter ego te dominant wordt en je vrije wil en keuzen gaat inperken?
Wat als je alter ego steeds meer gewicht krijgt in het nemen van persoonlijke beslissingen. We zien dat bij artiesten soms ook dat hun ‘artiesten ego’ de overhand krijgt en de privé persoon op de achtergrond raakt. Dit zijn voor Chiang veel interessantere vraagstukken dan de vulteksten die chatbots produceren die niemand noodzakelijkerwijs wil schrijven of lezen. Chiang is van mening dat de grote taalmodellen (of LLM’s) vooral nuttig zijn voor het produceren van ‘opvultekst’ die niemand per se wil lezen of schrijven. Taken die antropoloog David Graeber ‘bullshit jobs’ noemt en waar AI-gegenereerde tekst handig is.
Taal leren
Kinderen leren taal door woorden te oefenen. Te ontdekken dat anderen – door de juiste woorden te gebruiken – begrijpen wat ze bedoelen. Sommige woorden grappig te vinden en andere woorden stom. Zo leren ze spelenderwijs spreken, lezen en schrijven. Een computer ‘vindt niets’. Er zijn geen leuke of stomme woorden, slechts woorden, eigenlijk alleen maar bits. Een computer bedoelt niets en kan dus ook niet leren dat sommige woorden daar beter bij horen dan andere woorden. Of snappen dat door de volgorde te veranderen, de betekenis verandert. Chatbots reconstrueren op vele mogelijke manieren bestaand materiaal. Omdat het uiteindelijk domme machines zijn, ’vinden en voelen ze daar niets bij’.
In mijn blog ‘de Intelligente Assistent’ haalde ik het voorbeeld van het ‘Eliza-effect’ aan. De bekende chatbot van het MIT in de jaren zestig toen mensen ook al dachten dat zij een echt gesprek voerden met de computer. In plaats van zich te realiseren dat zij slechts tegen een onpersoonlijke machine spraken die geen enkel besef had ‘wat’ zij vertelden en bespraken. Het ELIZA-effect, de neiging om onbewust aan te nemen dat computergedrag analoog is aan menselijk gedrag: antropomorfisering, een fenomeen dat aanwezig is in de menselijke interacties met virtuele speeltjes en digitale assistenten. Maar er is geen enkele sociale component in de antwoorden van de computer, toen niet en nu niet en wellicht nooit. Het klinkt steeds ‘intelligenter’ maar is het niet . . .
Taal heeft intentie, emotie en een doel
Conclusie in het interview met Chiang is dat menselijke taal altijd een intentie, een emotie en een doel heeft. Wat voor conversatie je ook voert. Taal zonder intentie, emotie en doel is zinloos en heeft weinig waarde. Taal is de manier om communicatie en interactie met andere wezens te vergemakkelijken. Dat is iets heel anders dan een voorspelling van het volgende token, zoals chatbots werken. ChatGPT is niet op de achtergrond ‘dingen’ mentaal aan het repeteren om te zien of het je de volgende keer dat je elkaar ontmoet, kan laten lachen.
Chiang denkt dat AI vooralsnog vooral een enorme multiplier zal zijn voor commerciële toepassingen. Dat we aangemoedigd worden de onpersoonlijke computer meer en meer ‘op zijn woord’ te geloven en dat organisaties zich daarmee voordoen als ‘super intelligent’ en zich kunnen verrijken. Hij is niet bang dat AI de wereld overneemt, wel dat het meer ongelijkheid in de wereld zal brengen en macht nog meer zal concentreren. Sociale chatbots zijn een marktkans voor een grote groep eenzame mensen die vriendschap en troost zoeken. Het voelt dat er een ander wezen aan de andere kant van de lijn is, maar die is er echt niet. Want de computer blijft vooralsnog een dood ding . . .
Door: Hans Timmerman