Gartner: AI gaat om mensen en hun gedrag

Gartner: AI gaat om mensen en hun gedrag

Gartner: AI gaat om mensen en hun gedrag

Bij smarter AIis het uitgangspunt dat AI nu eigenlijk nog steeds dom is. We noemen het wel intelligence.

Pieter den Hamer, Frank Buytendijk en Jorge Heizenberg, Gartner

20-06-2021 | door: Marco van der Hoeven

Gartner: AI gaat om mensen en hun gedrag

Het enorme effect dat AI kan hebben op organisaties leidt tot veel vragen. Dat merken analisten bij onderzoeksbureau Gartner ook, die alle aspecten rond data en AI intensief volgen. Voor The Future of Business Technology spraken we daarom met drie analisten die AI in hun portefeuille hebben: Pieter den Hamer, Frank Buytendijk en Jorgen Heizenberg.

Pieter den Hamer onderscheidtdrie actuele trends op het gebied van AI: Smarter AI, More Responsible AI en Scalable AI. Hij legt uit: “Bij smarter AIis het uitgangspunt dat AI nu eigenlijk nog steeds dom is. We noemen het wel ‘intelligence’, maar eigenlijk gaat het niet verder dan het doen van een aantal voorspellingen op basis van de analyse en categorisatie van grote hoeveelheden data.”

“Maar het gaat daarbij eigenlijk altijd alleen maar over één onderwerpje. Dat is op zich natuurlijk wel waardevol, maar echt intelligent is het niet. We zouden met z’n allen toch graag willen dat AI wat generalistischer en robuuster wordt, en hopelijk ook wat minder data nodig heeft. Een ècht intelligent persoon heeft immers ook aan een half woord genoeg. Die heeft namelijk iets wat je ‘gezond verstand’ noemt. Hoe mooi zou het zijn als AI daar ook over zou kunnen beschikken.”

Transparantie
“Bij more responsible AI gaat het over ethiek, over de vraag: hoe kunnen we ervoor zorgen dat we AI op een transparante en verantwoorde manier gebruiken? Dan heb je het over privacy en het voorkomen van bias en discriminatie. En de ethiekdiscussie gaat verder dan alleen privacy en profilering. De vraag welke impact de inzet van AI op de werkgelegenheid gaat hebben is bijvoorbeeld ook een ethisch vraagstuk. En hoe kwetsbaar maken we ons als maatschappij bij de verdere inzet van AI ten opzichte van hackers en vijandige naties?”

“Scalable AIgaat om de vraag hoe we uit de experimentele- en proof-of-concept-fase kunnen raken. Hoe kunnen we de stap zetten die het mogelijk maakt om AI echt breder toe te passen? En wie die vraag probeert te beantwoorden krijgt enerzijds te maken met culturele- en change management-aspecten, maar anderzijds ook met de staat van de techniek.”

“Het integreren van experiment bedachte algoritmes met operationele bedrijfsapplicaties blijkt bijvoorbeeld nog niet zo eenvoudig. En zodra je AI-oplossingen op grotere schaal gaat uitrollen worden er natuurlijk ook weer hogere eisen gesteld aan performance en monitoring.”

Discussie
Frank Buytendijk, die zich veel bezighoudt met de ethische kant van AI, vervolgt: “Ik heb nog niet eerder meegemaakt dat de discussie over de ethische aspecten van de toepassing al zo intensief gevoerd wordt tijdens de ontwikkeling en implementatie van een nieuwe technologie. Ik vind dat heel positief. Bij de invoer van social media en mobiele telefoons is er nooit een brede maatschappelijke discussie gevoerd over de impact ervan op de communicatie tussen mensen. Die discussie kwam pas jaren later op gang, toen de gevolgen al zichtbaar waren. Nu, bij de invoer van AI, wordt die ethische discussie vaak aangezwengeld door de ontwikkelaars zelf. Dat is uniek.”

“Mijn optimisme op dit gebied wordt overigens lang niet altijd begrepen, want er gaat immers nog heel veel mis. Maar dat heeft te maken met mijn overtuiging dat de discussie die nu gevoerd wordt zal leiden tot de volgende fase van implementatie van AI. Bij de invoer van een nieuwe technologie heb je namelijk altijd te maken met een aantal fases, die sowieso doorlopen moeten worden.”

“Zo moet je in de beginfase accepteren dat er nog veel misgaat en dat je nog veel moet leren. Met AI zitten we nog volop in die leerfase. In de daaropvolgende fase moet je reguleren. Dan leer je van de constante conflicten tussen de toezichthouder en de markt. Die conflicten ontlokken uitspraken en zo wordt er een jurisprudentie opgebouwd. In de derde fase wordt het verantwoordelijk gebruik van een technologie in die technologie zelf ingebouwd. In die fase bestaan er best practices.

Mensheid
“Er zijn op dit moment al meer dan honderd bedrijven die hun AI-principes gepubliceerd hebben. En het is interessant om te zien dat ongeacht de branche of regio van die bedrijven, die principes eigenlijk allemaal geformuleerd zijn rond dezelfde thema’s. Iedereen is het er wel over eens dat AI human centric moet zijn. De toepassing ervan moet de mensheid verder brengen. In het verlengde hiervan zie je ‘maatschappelijke relevantie’ ook steeds als thema terugkomen.”

“Daarnaast is men het erover eens dat de uitkomsten van AI ‘fair’ moeten zijn. Transparantie en uitlegbaarheid worden dan genoemd als derde thema, om die fairness te kunnen bewijzen.
Het vierde thema is ‘security’ en ‘safety’. Bij virtuele AI gaat dat onder meer om privacy, maar bij robotisering gaat het natuurlijk vaak ook om fysieke veiligheid. En tenslotte is men het erover eens dat de ‘accountability’ op orde moet zijn. Het moet duidelijk zijn wie wat moet doen als er iets fout gaat.”

Responsible AI
“Vanuit Gartner volgen we de ontwikkelingen op het gebied van responsible AI al geruime tijd op de voet en recent zien we daar wel een omslag in. Waar men voorheen vooral bezig was met de vraag ‘waarom zijn de ethische aspecten belangrijk?’, is men nu vooral bezig met het vinden van antwoorden op de vraag ‘hoe gaan we er nou voor zorgen dat we daadwerkelijk verantwoord met deze techniek om kunnen gaan?’

“Er zijn meerdere manieren om die ‘hoe-vraag’ te beantwoorden. De meest voorkomende -maar foute- manier is: schrijf je principes op, zet ze op de website en denk vervolgens dat je klaar bent. Dat gaat niet werken. Maar wat evenmin werkt is alle principes, werkwijzen en impact heel nauwgezet uit te schrijven in een vuistdik beleidsstuk. Niemand heeft namelijk ooit zo’n document serieus gelezen. Ethiek leent zich niet voor een uitputtende behandeling.”

Dilemma’s
Maar hoe moet je het dan wel aanpakken? “Wij adviseren om de gedefinieerde principes te vertalen in onderliggende dilemma’s. Neem bijvoorbeeld het gedefinieerde principe dat AI ‘fair’, ofwel ‘eerlijk’ ingezet moet worden. Als je dat wilt concretiseren zul je eerst moeten bepalen wat eerlijk is. Is het bijvoorbeeld eerlijk om iedereen gelijk te behandelen, of is het eerlijk om iedereen afhankelijk van zijn situatie te behandelen? Dat is allebei eerlijk, maar wel elkaars tegenovergestelde.”

“Dergelijke dilemma’s moet je vervolgens afstemmen met de stakeholders, om te bepalen welke definities je hanteert. ‘Transparantie’ is ook een goed voorbeeld. Je kunt wel hebben gedefinieerd dat je algoritmes transparant moeten zijn om de ‘fairness’ ervan te kunnen bewijzen, maar geldt dat dan ook voor je fraude-algoritmes? En betekent transparantie van je algoritmes ook dat je er geen IP voor kunt claimen?”

Bottom-up
“Bij het oplossen van dergelijke dilemma’s is het belangrijk om je te realiseren dat AI een bottom-up fenomeen is. De techniek is er nu eenmaal en we moeten leren er mee om te gaan. En de algoritmes zelf worden ook steeds slimmer, omdat zij voortdurend bij leren. En een bottom-up fenomeen, moet je niet top-down willen tackelen.”

“Dus geef het lijstje met de dilemma’s niet aan de directie met de vraag even de antwoorden te geven, maar discussieer ze uit met het team van de werkvloer. Vertaal de dilemma’s in heel herkenbare praktijk-casussen en probeer zo de antwoorden te vinden. Op die manier bouw je ook impliciet institutionele kennis op over de dilemma’s en hoe ermee om te gaan in de praktijk.”

Adoptie
Jorgen Heizenberg vult aan: “Waar het in de kern bij de invoer en adoptie van nieuwe technologie altijd om gaat is ‘menselijk gedrag’. Dat geldt ook voor AI. De techniek is er wel en de data ook. Data kunnen we tegenwoordig zelfs synthetisch creëren. Maar het gedrag van de mens blijft de meest grillige component.”

“Mensen nemen gemiddeld 35.000 beslissingen per dag. Veel daarvan volstrekt onbewust, overigens. En we zijn ook nog lang niet zo ver dat we echt begrijpen wat er in dit opzicht allemaal in ons brein omgaat. En juist daarom blijft het willen automatiseren van onze intelligentie mogelijk heel gevaarlijk. Daar moeten we ons goed bewust van zijn.”

“Een volgende stap is dat de mens zich ook daadwerkelijk gaat gedragen als een homo analyticus, een mens die zich bewust is van het feit dat elke beslissing die hij neemt gebaseerd is op een combinatie van feiten, impulsen en driften. Als je je dat beseft, begrijp je ook waarom het zo belangrijk is om de casussen die je gebruikt bij het oplossen van dilemma’s te bespreken met een zo divers mogelijke groep.”

Gedragsverandering
Hij vervolgt: “Het begint met de bewustwording van de noodzaak tot gedragsverandering. Iemand verandert zijn gedrag immers pas als hij zich ervan bewust is dat zijn huidige gedrag niet goed is. Een tweede stap is het creëren van een visie. Bepaal als organisatie wat je zou willen doen met AI. Vervolgens zul je dan moeten nadenken over de vraag waar je op dit moment staat, om zo het transitieplan te bepalen. Daar hoort weer training bij.”

“Bij het opstellen van dit transitieplan gaat het vaak mis. Er is vaak te veel focus op techniek, en te weinig aandacht voor soft skills. Dat wordt veelal vermeden, omdat je bij het aanraken van de soft skills vaak in de allergiezone van mensen terecht komt. En eigenlijk is dat juist goed; want dan raak je de kern van de te bewerkstelligen verandering.”

Pieter den Hamer: “Bedrijven ervaren vaak dezelfde hindernissen. Die hebben enerzijds te maken met veranderbereidheid, of juist het gebrek daaraan, maar anderzijds ook met onvoldoende antwoord op de vraag: “waar kunnen we AI nou toepassen in ons bedrijf?”

“Een andere hindernis bij de uitrol van AI is het datamanagement, dat vaak niet goed op orde blijkt te zijn, En de beschikbaarheid van dat is natuurlijk wel voorwaardelijk voor AI. Want AI zonder data is blind. Het verbeteren van datakwaliteit wordt doorgaans niet als de meest aantrekkelijke activiteit gezien, maar het is wel een inspanning die beloond wordt bij de inzet en uitrol van AI.”

Samenwerking
“Een derde hindernis bij de implementatie van AI gaat over samenwerking en technische integratie. AI-toepassingen worden vaak embed in andere technische oplossingen, zoals een bedrijfsapplicatie of een website. De AI-ontwikkelaar moet daarom niet in zijn ivoren toren blijven zitten, maar juist ook andere mensen erbij betrekken. En dat embedden van AI geldt ook op het gebied van bedrijfsprocessen.”

“Daarmee zijn we terug bij dat menselijk gedrag. De mensen die een rol spelen in het proces waarin AI een plek krijgt, zullen echt meegenomen moeten worden in het hoe en waarom. De multidisciplinaire samenwerking die nodig is om AI succesvol te maken geldt niet voor niets als een best practice op dit gebied. De kennis van data scientists enerzijds en business-owners en domein-experts anderzijds vult elkaar uitstekend aan. Er is samenwerking nodig om van AI een succes te maken.”

Auteur: Marco van der Hoeven

Terug naar nieuws overzicht
Future of Business Technology