03 december 2024

Accountability in AI

In een eerdere blog ‘AI de allesomvattende toekomstbelofte?’ was ik al kritisch over de uitkomsten die alle nieuwe, mooie AI-gereedschappen ons aanreiken. Door de slimme taalmodellen kunnen we ‘opeens’ als mens heel makkelijk met de computer converseren. Dat kon natuurlijk al decennia lang, maar daarvoor moest je wel gedegen programmeerkennis hebben. Daarnaast hebben moderne AI-systemen zich uitgebreid kunnen ‘in-leren’ op een veelheid van informatie die publiek aanwezig is op het internet. Veel meer, dan wij als mens ooit kunnen bevatten. Dus AI maakt het heel makkelijk vragen te stellen aan een kennissysteem dat oneindig veel meer informatie heeft dan jij of ik. Maar toch blijft het uiteindelijk een statistisch zoek-algoritme dat de best mogelijke antwoorden geeft. Maar ‘het beste’ antwoord is juridisch gezien niet het absolute en enig juiste antwoord. De toeslagenaffaire heeft dat wel aangetoond.

Accountability in AI image

Verantwoording en aansprakelijkheid van AI-besluiten

Hoewel AI een fantastisch ondersteunend gereedschap is voor vele activiteiten, is en blijft een AI-systeem een ‘domme’ computer waarmee we makkelijk kunnen converseren. Niet meer in machinetaal maar gewoon in menselijke conversatie. Het is een kennissysteem opgebouwd uit algoritmes die statistisch de meest logische antwoorden geven op verzamelde informatie. Maar een AI-systeem zal nooit verantwoording (kunnen) afleggen. Dat zal altijd ‘een mens’ moeten doen. Een concrete ondersteunende maatregelen voor zinvolle AI-verantwoording is de prestaties en impact van de systemen consequent te beoordelen en hierover te rapporteren. Een AI-audit systeem dat aangeeft hoeveel ‘non-kwaliteit’ het systeem levert.

Het IEEE artikelAI-auditing: The Broken Bus on the Road to AI Accountability’ beschrijft dat slechts een subset van alle AI-audit studies zich vertaalt naar serieuze verantwoordingsresultaten. De maatschappelijke verwachtingen van AI nemen steeds verder toe, maar de gevolgen van potentieel verkeerd genomen besluiten – op basis van met AI gecreëerde informatie – kan onomkeerbare gevolgen hebben voor de (geestelijke) gezondheid, personeelsverplaatsing en economische, regelgevende en wetshandhavingsuitdagingen. Vooral openbare diensten en gereguleerde instellingen moeten zorgen voor verantwoorde AI om bevooroordeelde of onjuiste besluitvorming te voorkomen. AI kan nooit aansprakelijk zijn voor een besluit, dat is uiteindelijk de mens die het AI-advies overneemt, uitvaardigt en/of uitvoert.

Beperkingen van AI-modellen

AI-modellen, zoals grote taalmodellen, kunnen slechts antwoorden genereren op basis van statistische waarschijnlijkheden en trainingsdata. Dit introduceert inherente onzekerheid en kans op fouten, vooral bij complexe (juridische) vraagstukken. Hoe complexer wetgeving is (geworden), hoe lastiger AI-modellen hier uiteindelijk – juridisch houdbare – beslissingen over kunnen nemen. Nog los van de daarmee verband houdende ethische en onomkeerbare consequenties van deze beslissingen. Immers, de bias die elk AI-systeem nu eenmaal heeft, kan snel leiden tot discriminatie of ongelijke behandeling.

Wanneer AI beslissingen neemt, blijft de vraag wie verantwoordelijk is voor fouten of schade: de gebruiker, ontwikkelaar, het algoritme of de persoon die het besluit uitvaardigt. Of de bestuurder die dit goedkeurde. Deze discussie is niet nieuw en al uitputtend beschreven in vele artikelen over de zelfrijdende auto. Het Rathenau Instituut heeft aan de ethiek van AI al diverse artikelen gewijd. Al in 2016 verscheen het boek van Cathy O’Neil met de mooie dubbelzinnige titel ‘Weapons of Math Destruction’, waarin zij de gevaren van bias in AI-modellen uitgebreid beschreef. Ze stelt dat deze wiskundige gereedschappen drie belangrijke kenmerken delen: ze zijn ondoorzichtig, ongereguleerd en moeilijk te betwisten.

Weapons of Math Destruction

WMD’s, of Weapons of Math Destruction, zijn wiskundige algoritmen die geselecteerde menselijke eigenschappen gebruiken om mogelijke antwoorden te kwantificeren, wat kan resulteren in schadelijke effecten en de instandhouding van vooroordelen tegen bepaalde groepen mensen. Omdat ze enorm schaalbaar zijn, worden inherente vooroordelen snel versterkt om steeds grotere populaties te beïnvloeden. We zien dat ook vaak in de ‘echo-kamers’ van de – ook op algoritmen gebaseerde – social media: berichten die (achteraf) aantoonbaar onwaar zijn, kunnen vooruitlopende op die ontkrachting al onomkeerbare maatschappelijke gevolgen hebben.

De toeslagenaffaire toont helaas aan dat het achteraf corrigeren en herstellen van verkeerde besluiten, menselijkerwijs bijna onmogelijk is. Dat het niet eens AI-gebaseerde systemen hoeven te zijn, maar dat gebrekkige automatisering en niet actuele software tot dezelfde gevolgen kunnen leiden, is de WIA-affaire bij het UWV. Ook hier was sprake van complexe wetgeving die overlappend was, terwijl de medewerkers uit vele verschillende, niet gekoppelde, niet actuele applicaties de gegevens moesten verzamelen en over en weer moesten intypen. De mens werkend als een gedwongen AI-model dat uiteindelijk een niet-verifieerbare uitkomst opleverde die niet meer te herkennen en terug te leiden fouten bevatte.

De computer zegt NEE

We kennen de voorbeelden dat de computer ‘NEE’ zei omdat de software niet in staat was een specifieke vraag te beoordelen. Omdat de computer geen 100% bevestiging op de vraag kon geven en het antwoord ‘ik weet het niet zeker’ niet bestond, werd het antwoord dus ‘Nee’. Dit is het grote probleem als kennissystemen worden gebruikt door minder deskundigen. Zij kunnen niet zeker beoordelen of een uitkomst (voldoende) logisch en redelijk is. Hoe kun je medewerkers – of breder gezegd organisaties – verantwoordelijk maken voor besluiten waarvan ze de inhoudelijke kennis niet meer in huis hebben en hun besluiten inhoudelijk niet meer kunnen uitleggen en onderbouwen. Dat wordt al snel juridisch drijfzand...

Daarom is de ontwikkeling van AI-auditing zo belangrijk. Een zero-trust instelling dat de computer altijd fout is, tenzij ondubbelzinnig kan worden aangetoond dat de computer echt gelijk heeft. Dus niet de computer zegt ‘Nee’ maar de mens zegt ‘Nee’ zolang er geen inhoudelijk bewijs of certificaat – inclusief aansprakelijke personen – is dat de uitkomst juist en juridisch houdbaar is. Dus in feite de zaak omdraaien en niet vanuit de organisatie denken, maar juist vanuit de burger of ondernemer. Niet van binnen naar buiten denken, maar juist van buiten naar binnen. De ambtenaar is fout, totdat deze heeft aangetoond dat dit het enige juiste besluit is dat kan worden genomen. Welke AI-gereedschappen hij of zij hiervoor ook heeft gebruikt.

Accountable, zonder of met gebruik van AI

Eigenlijk is de uitkomst dat iedere persoon uiteindelijk zelf verantwoordelijk blijft voor de door hem of haar genomen besluiten, of deze nu wel of niet gegeven of onderbouwd zijn door de gebruikte gereedschappen. En deze verantwoordelijkheid kun je alleen maar dragen als via audits overtuigend is vastgesteld dat het gebruik van deze gereedschappen goede en juridisch houdbare besluiten mogelijk maken. De praktijk zal zijn dat dit alleen maar mogelijk is als de onderliggende wetgeving zelf rechtlijnig en simpel genoeg is. Juridische kennissystemen bestaan en zijn betrouwbaar als we het over eenvoudige, rechtlijnige wetgeving hebben. Zonder uitzonderingen, zonder overlappende bepalingen en zonder aanzicht des persoons.

Door: Hans Timmerman (foto)

DSD 28/11/2024 t/m 26/12/2024 BN + BW Lenovo Channel Campagne vierkant
DSD 28/11/2024 t/m 26/12/2024 BN + BW

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!