Data vergiftiging is bedreiging van integriteit AI-technologieën
Naar aanleiding van onderzoek van NewsGuard, waaruit blijkt dat enorme hoeveelheden Russische propaganda — 3.600.000 artikelen in 2024 — zijn gebruikt om westerse AI-systemen te beïnvloeden, waarschuwt Pierre Delcher, hoofd van het Threat Research Team bij HarfangLab, voor de integriteit van AI en de gevolgen voor kritieke sectoren die afhankelijk zijn van nauwkeurige besluitvorming.

De huidige geopolitieke situatie dwingt ons om te anticiperen op en ons voor te bereiden op een breed scala aan cyberrisico's. Conflicten zijn niet langer beperkt tot de militaire sfeer; ze spelen zich af op meerdere fronten. Tegelijkertijd brengt de toenemende verspreiding van AI nieuwe soorten cyber risico's met zich mee.
“De opkomst van AI-gestuurde technologieën en hun afhankelijkheid van online data introduceert een nieuwe bedreiging: data poisoning, of “bronvergiftiging”. Bij deze techniek injecteren aanvallers valse of kwaadaardige informatie in potentiële datasetbronnen om AI-systemen te manipuleren. Deze techniek zou een belangrijk hulpmiddel kunnen zijn voor informatie-operaties op de lange termijn, waarmee tegenstanders openbare verhalen kunnen beïnvloeden, processen voor feitencontrole kunnen verstoren en het vertrouwen in door AI gegenereerde output kunnen ondermijnen”, zegt Pierre Delcher, hoofd van het Threat Research Team bij HarfangLab.
Data poisoning maakt gebruik van de afhankelijkheid van AI-modellen van open-source datasets die van het internet worden geschraapt. Aanvallers kunnen deze datasets manipuleren door openbare inhoud te plaatsen en te versterken. Onderzoekers hebben aangetoond dat het vergiftigen van slechts 0,01% van de trainingsgegevens het gedrag van grote taalmodellen (LLM's) aanzienlijk kan veranderen. Deze goedkope methode en de grote impact ervan maken het een aantrekkelijke tactiek voor tegenstanders.
Russische propaganda
Onlangs bevestigde een onderzoek van NewsGuard het gebruik van deze methode op chatbots met kunstmatige intelligentie, zoals ChatGPT, Copilot of chatbots die door Microsoft zijn ontwikkeld, met als doel gerelateerde Russische propaganda te verspreiden en de werkelijkheid te beïnvloeden. Een in Moskou gevestigd desinformatienetwerk met de naam “Pravda” - het Russische woord voor “waarheid” - overspoelt opzettelijk zoekresultaten en webcrawlers met valse beweringen, om op die manier de manier waarop grote taalmodellen nieuws en informatie verwerken en presenteren te verstoren.
“Dergelijke aanvallen bedreigen niet alleen de integriteit van AI-technologieën, maar ook kritieke sectoren die afhankelijk zijn van nauwkeurige besluitvorming. Nu AI steeds autonomer wordt en een integraal onderdeel vormt van het publieke discours en operaties, moeten organisaties prioriteit geven aan het beveiligen van trainingsdatasets en het implementeren van robuuste validatiemechanismen", waarschuwt Delcher.
Desinformatie
“Deze acties zijn gericht op het verspreiden van desinformatie en het destabiliseren van de publieke opinie op de lange termijn. We zien nu al nieuwssites die volledig door AI worden aangedreven; stel je de schaal voor die dit over vijf of tien jaar zou kunnen bereiken. Wat als de schoolboeken van morgen, deels geschreven met AI, desinformatie bevatten, omdat de eigenaren van de chatbots er niet in zijn geslaagd om alle sporen van desinformatiecampagnes te verwijderen?”
“Deze aanvallen maakten deel uit van wat we voorzagen in ons 2025 threatscape-rapport. Nu ze gedocumenteerd zijn, kunnen we er alleen maar aan herinneren hoe belangrijk het is om mensen bewust te blijven maken van hoe ze informatie moeten consumeren en om aandacht te besteden aan “niet vertrouwen wat je ziet”. Als je een chatbot om feiten en informatie vraagt, vraag dan om de bronnen en ik raad aan om informatie altijd te controleren met aanvullende bronnen. Omdat het steeds moeilijker zal worden om desinformatie van informatie te onderscheiden, is het belangrijker dan ooit om mensen voor te lichten over hoe ze internet moeten gebruiken”, besluit Delcher.