Wat is de de impact van Artificial Intelligence (AI) op cybersecurity?
Op vrijdag 25 oktober 2024 vond de rondetafel van Cisco, TNO en Universiteit Twente plaats. Tijdens de ronde tafel werd besproken hoe AI een cruciale rol speelt in moderne cybersecurityoplossingen en hoe deze technologie, in combinatie met grote hoeveelheden data, steeds belangrijker wordt voor organisaties. AI en data zijn de fundamentele bouwstenen geworden voor het verbeteren van security-systemen.
De noodzaak voor AI in cybersecurity wordt verder versterkt door uitdagingen zoals het tekort aan talent en de toename van regelgeving en compliance-eisen. AI kan bijdragen aan efficiëntie door junior analisten sneller naar een senior niveau te tillen en door complexe taken te automatiseren. Tegelijkertijd brengt het gebruik van AI nieuwe vraagstukken met zich mee, zoals dataprivacy en data sovereignty, met name omdat data de basis vormt van AI-gebaseerde oplossingen.
In de context van cloud native security is er ook een verschuiving zichtbaar naar flexibele infrastructuren die gebruik maken van microservices en AI-workloads. De recente ontwikkelingen rondom AI zijn vergelijkbaar met eerdere technologische transities, zoals de komst van het internet en mobiele telefonie. Vandaag de dag is de adoptie van AI echter exponentieel sneller, en steeds vaker zien we de overgang van generative AI naar agents, waarbij AI-agents samenwerken om taken uit te voeren en nieuwe identiteiten binnen organisaties te creëren.
Tijdens de rondetafel werd aan de hand van vier topics besproken in hoeverre AI zowel kansen als risico's kan creëren binnen cybersecurity. Deze dubbele rol vereist dat organisaties niet alleen op AI vertrouwen voor verdediging, maar ook AI inzetten om hun eigen kwetsbaarheden en de integriteit van AI-modellen te bewaken.
Topic 1: Kan Machine Learning cybercriminelen slim af zijn?
In deze discussie werd het potentieel van machine learning (ML) en AI voor cyberbeveiliging verkend. De focus ligt op hoe deze technologieën defensieve voordelen kunnen bieden in het voorspellen, identificeren en neutraliseren van cyberdreigingen. Hier zijn de belangrijkste punten:
Voorspellend vermogen en data-analyse
AI en ML hebben grote voordelen voor de defensieve kant in cybersecurity doordat beveiligingsteams toegang hebben tot enorme hoeveelheden data die gebruikt kunnen worden om modellen te trainen. Door patronen en dreigingen uit historische data te herkennen, kunnen dreigingen proactief worden voorspeld. Zo maken securityteams gebruik van frameworks zoals MITRE ATT&CK, waarin technieken, tactieken en procedures (TTP's) van aanvallers worden vastgelegd. Deze data kan helpen om zelfs onbekende aanvallen te detecteren door patronen te herkennen die lijken op eerdere dreigingen.
Detectie van versleutelde aanvallen
Een voorbeeld dat werd besproken is hoe machine learning kan worden toegepast om dreigingen in versleuteld netwerkverkeer te herkennen zonder de versleuteling zelf te doorbreken. Door afwijkende gedragingen, zoals de verkeerspatronen van aanvallen, te detecteren, kan een AI-model bijvoorbeeld afwijkingen identificeren in het verkeer, zoals verschillen in normale zoekopdrachten en kwaadaardig verkeer. Dit biedt waardevolle inzichten zonder dat het versleutelde verkeer hoeft te worden geopend.
Gebruik van generative AI voor toekomstige dreigingen
In het onderzoek met generative AI kunnen nieuwe aanvalspaden worden geïdentificeerd die nog niet zijn waargenomen. Door bijvoorbeeld naar de code en mutatiestructuren van bestaande virussen te kijken, kan AI nieuwe aanvallen voorspellen. Dit is belangrijk omdat nieuwe virussen vaak mutaties zijn van oudere dreigingen. Door op deze manier patronen te leren, kan AI anticiperen op toekomstige varianten, wat zorgt voor een proactieve benadering van virusdetectie.
Monitoring van activiteiten en gedragspatronen
Machine learning kan ook worden gebruikt om het gedrag van potentiële aanvallers vroegtijdig te detecteren. Vaak zijn aanvallers al dagen of weken actief binnen systemen voordat ze daadwerkelijk toeslaan. Gedurende deze tijd laten ze een spoor van kleine gedragingen achter, zoals netwerkactiviteiten die niet in lijn zijn met normaal gebruik. Het identificeren van deze subtiele patronen kan helpen om vroegtijdig te waarschuwen voor een aanval. Dit proces kan door AI ondersteund worden en kan helpen om de "attack surface" – de kwetsbare delen van een systeem – proactief te verkleinen.
Gebruik van AI voor beveiligingsconfiguraties
AI biedt ook mogelijkheden om configuratiefouten in beveiligingssystemen te minimaliseren. Door AI toe te passen op de configuratie van beveiligingstools, kan men security intents instellen, waarbij AI ervoor zorgt dat de configuratie consistent en correct blijft. Dit vermindert het aantal menselijke fouten en verhoogt het algemene beveiligingsniveau. AI kan bijvoorbeeld configuraties automatisch aanpassen en versterken volgens beveiligingsrichtlijnen, waardoor een robuustere omgeving ontstaat
Proactieve blokkade van kwaadaardige domeinen
Een concreet voorbeeld van proactieve AI-toepassing is de monitoring van domeinnamen die door ransomware-aanvallers worden gebruikt. Aanvallers maken vaak tijdelijke domeinen aan die slechts een korte periode actief zijn. Door de patronen van deze domeinen te analyseren en reverse engineering toe te passen, kan AI voorspellen welke domeinen aanvallers in de toekomst waarschijnlijk gaan gebruiken, zodat deze domeinen proactief kunnen worden geblokkeerd
Uitdagingen voor defensieve AI
Hoewel AI en machine learning de defensieve zijde in cybersecurity significant versterken, blijven er uitdagingen. Zo blijft het moeilijk om een balans te vinden in het aantal meldingen die door AI worden gegenereerd. Overmatig veel meldingen kunnen analisten overweldigen, wat de effectiviteit van een Security Operations Center (SOC) kan verlagen. Een oplossing hiervoor is een meer selectieve aanpak, waarbij alleen meldingen met een hogere waarschijnlijkheid van dreiging worden doorgegeven.
Conclusie
In het algemeen bieden AI en machine learning dus krachtige nieuwe mogelijkheden om cyberdreigingen niet alleen te detecteren, maar ook te voorspellen en proactief tegen te gaan. Deze technologieën dragen bij aan een robuustere verdediging tegen geavanceerde en snel evoluerende cyberdreigingen.
Topic 2: Hoe kunnen we vertrouwen opbouwen in AI-oplossingen voor cybersecurity?
Bij het implementeren van AI in cybersecurity speelt vertrouwen een cruciale rol, omdat AI-systemen in toenemende mate worden ingezet om cyberdreigingen te identificeren en te bestrijden. Dit vertrouwen opbouwen is echter complex vanwege de inherente beperkingen en uitdagingen van AI-technologie, zoals de betrouwbaarheid van de antwoorden en het gebrek aan volledig transparante besluitvorming. De sprekers benadrukken enkele belangrijke elementen die essentieel zijn voor het versterken van dit vertrouwen.
Belang van controlemechanismen en toezicht
AI kan effectief zijn, maar kan ook foutieve of onvolledige resultaten opleveren. Daarom is een zogenaamde ‘vier-ogen-principe’ van toepassing: resultaten van AI-systemen moeten regelmatig gecontroleerd worden door mensen of door andere AI-modellen. Door AI te combineren met controlemechanismen en checks-and-balances binnen het systeem, kan het risico van verkeerde interpretaties of foutieve detecties beperkt worden. In cybersecurity is dit essentieel omdat een enkel over het hoofd geziene dreiging grote gevolgen kan hebben.
AI als strategisch onvermijdelijk voor cybersecurity
Een andere belangrijke boodschap is dat AI, ondanks de bestaande uitdagingen, in veel gevallen een noodzakelijke keuze is. Cyberdreigingen ontwikkelen zich voortdurend, en AI biedt snelheid en efficiëntie die traditionele methoden niet kunnen evenaren. Echter, AI is nog geen kwaliteitslabel op zichzelf; het betekent niet automatisch dat een AI-systeem zonder meer betrouwbaar is. Er zijn geen gestandaardiseerde kwaliteitslabels of certificeringen voor AI, waardoor het bouwen van vertrouwen in de technologie nog uitdagender wordt.
Uitdagingen van generative AI en uitlegbaarheid
Generative AI-modellen, die antwoorden kunnen genereren op basis van prompts, kunnen soms tegenstrijdige of zelfs misleidende antwoorden geven. Dit wordt geïllustreerd met een voorbeeld waarin AI aanbevelingen doet die eigenlijk irrelevant of onbetrouwbaar zijn, zoals het spelen van accordeon tijdens het motorrijden. Het blind vertrouwen op deze technologie is riskant; er moet altijd een menselijke controle of een extra model zijn om de gegenereerde uitkomsten te toetsen.
Uitlegbaarheid van AI is ook een grote uitdaging. Beslissingen die door AI worden genomen zijn vaak niet volledig transparant, wat een probleem is voor bedrijven die vertrouwen moeten opbouwen bij hun klanten en stakeholders. “Explainable AI” is hierin een mogelijke oplossing, omdat het gebruikers in staat stelt om te begrijpen hoe AI tot bepaalde conclusies komt. Dit aspect is vooral belangrijk in cybersecurity, waar organisaties moeten weten waarom bepaalde dreigingen als kritiek worden gemarkeerd.
Het vooruitzicht van geavanceerde AI voor kwetsbaarheidsdetectie
Een recent onderzoek van de University of Illinois benadrukt dat AI-systemen zoals GPT-4 kwetsbaarheden kunnen identificeren en zelfs exploiteren. Dit betekent dat dezelfde technologie die kan worden gebruikt om aanvallen te detecteren en te voorkomen, ook door kwaadwillenden kan worden ingezet om kwetsbaarheden te vinden en uit te buiten. Dit creëert een fundamenteel dilemma voor organisaties: zij moeten AI inzetten om kwetsbaarheden te beheren, maar moeten dit ook doen onder druk van constante ontwikkelingen aan de kant van cybercriminelen.
Risico’s en balans met wetgeving en privacy
De toenemende afhankelijkheid van AI in cybersecurity roept ook juridische en ethische vragen op. Reguleringen zoals de Europese AI Act stellen strenge eisen aan de inzet van AI-technologie, zeker waar het om persoonsgegevens en privacy gaat. De discussie rond AI in cybersecurity moet volgens de sprekers een balans vinden tussen effectieve bescherming tegen cyberaanvallen en de bescherming van privacy en transparantie naar medewerkers en consumenten.
De toekomst: standaarden en toepassingen van ‘digital experience monitoring’
In de toekomst zal AI steeds meer geïntegreerd worden in digitale omgevingen, inclusief monitoring van werknemers, die bedrijven helpt inzicht te krijgen in werknemersproductiviteit en potentiële risico’s te signaleren. Hoewel dit voordelen kan hebben voor bedrijfsveiligheid, roept het ook vragen op over de mate van toezicht en de ethische implicaties hiervan. Het is belangrijk dat er duidelijke standaarden en normen worden ontwikkeld die bedrijven helpen om AI op een verantwoorde en transparante manier toe te passen.
Conclusie
Het bouwen van vertrouwen in AI voor cybersecurity vereist dat AI-systemen betrouwbaar en uitlegbaar zijn, waarbij de balans wordt gevonden tussen het benutten van AI’s potentieel en het waarborgen van ethische en juridische normen. Zolang AI-modellen gecontroleerd worden en er een gedegen afwegingskader is voor elke beslissing die AI maakt, kan AI een waardevolle toevoeging zijn aan cybersecurity. Tegelijkertijd blijft toezicht van mensen en duidelijke reguleringen essentieel om de balans te waarborgen en vertrouwen te versterken.
Topic 3: Hoe kunnen we de voordelen en risico’s van het gebruik van AI voor defensieve en offensieve cybersecurity in balans houden met oog voor ethische implicaties?
Het gebruik van kunstmatige intelligentie (AI) in zowel defensieve als offensieve cybersecurity biedt aanzienlijke voordelen, maar brengt ook ethische en praktische risico's met zich mee. Het debat concentreert zich vooral rond het uitsluiten van gevaarlijke toepassingen van AI, zoals emotieherkenning en andere technologieën die de privacy en rechten van individuen kunnen schenden. Deze zorgen zijn cruciaal in de discussie over de ethische implicaties van AI en hoe deze technologie veilig kan worden ingezet zonder morele grenzen te overschrijden.
Er is een groeiende behoefte aan een verantwoorde innovatie, waarin de technologische functionaliteit van AI wordt gebalanceerd met veiligheidsnormen en ethische waarden. Dit vraagt om een integrale benadering, vergelijkbaar met de afwegingen die in de stedenbouw plaatsvinden. Het is noodzakelijk om bij de ontwikkeling van digitale innovaties niet alleen de technische mogelijkheden te overwegen, maar ook de bredere maatschappelijke context waarin deze technologieën worden ingezet.
Een belangrijk aspect is het experimenteren met technologie vanaf de ontwikkelingsfase. Dit houdt in dat ethische en sociale overwegingen vanaf het begin moeten worden meegenomen, zodat de technologie aansluit bij de behoeften en normen van de samenleving. Dit is een uitdagende taak, vooral gezien de verschillen in regulering en normen tussen landen en regio's, zoals Europa, de Verenigde Staten en Afrika.
Daarnaast wordt benadrukt dat technologieën niet op zichzelf staan. De toepassing en het ecosysteem rondom een technologie spelen een cruciale rol. Het is essentieel dat de bredere implicaties van AI worden begrepen, zowel door ontwikkelaars als door het publiek. Er moet meer aandacht zijn voor training en bewustwording, zodat burgers inzicht krijgen in de werking van AI en de mogelijke consequenties ervan.
Er is ook een zorg dat de ethische discussie rond AI, zoals verankerd in de AI-act, is beïnvloed door geopolitieke belangen. Dit kan leiden tot een vertekend beeld van de ethische overwegingen, waarbij de focus meer ligt op het reguleren van grote technologiebedrijven dan op het beschermen van individuen en het bevorderen van goed begrip van AI.
Conclusie
Al met al is het van groot belang dat er een evenwicht wordt gevonden tussen de voordelen van AI in cybersecurity en de ethische implicaties. Dit vereist samenwerking tussen overheid, industrie en kennisinstellingen om een geïntegreerde aanpak te ontwikkelen die technologieën veilig en verantwoord inzet.
Topic 4: Artificial General Intelligence (AGI): superintelligentie en de impact op de nationale cyberveiligheid.
De ontwikkeling van superintelligente systemen roept veel vragen en zorgen op, vooral op het gebied van cybersecurity. Hoewel we ons nu meer richten op generative AI, is het belangrijk om ook de toekomstige impact van AGI te overwegen. Er zijn risico's verbonden aan de acceptatie van deze technologieën, afhankelijk van de context en culturele waarden.
De discussie over wat ethisch aanvaardbaar is, is cruciaal, vooral omdat landen zoals China mogelijk andere normen hanteren dan westerse landen. Er is een sterke behoefte aan ‘guardrails’ of richtlijnen om de ontwikkeling van AI binnen veilige en ethische kaders te houden. Er is al aangetoond dat krachtige taalmodellen zoals GPT-3 zich kunnen aanpassen aan verzoeken die ethisch dubieus zijn.
Een van de grote uitdagingen met GPT modellen is het onderscheiden van echte en gefabriceerde informatie. Dit zal cruciaal zijn voor de beveiliging, vooral omdat het steeds moeilijker wordt om authentieke identiteiten te verifiëren. Dit leidt tot een verhoogd risico van misbruik, zoals het creëren van overtuigende vervalsingen die kunnen worden gebruikt voor frauduleuze doeleinden.
Conclusie
Hoewel er consensus bestaat dat AGI in de toekomst waarschijnlijk zal komen, is het moeilijk om te voorspellen wanneer dat zal zijn en wie er toegang toe zal krijgen. De evolutie van de technologie en de samenleving moet hand in hand gaan, en we moeten ons bewust zijn van de ethische implicaties.
Er zijn zorgen dat als AGI wordt ontwikkeld door een klein aantal bedrijven of landen, dit kan leiden tot een ongelijke verdeling van macht. De geschiedenis leert ons dat we moeten oppassen voor monopolies op het gebied van technologie. De spreiding van de ontwikkeling van AI over meerdere actoren kan helpen om een evenwichtigere toekomst te waarborgen. Daarnaast is er de noodzaak voor aanzienlijke investeringen in infrastructuur om AGI te ondersteunen, wat leidt tot vragen over energieverbruik en de duurzaamheid van deze technologieën. Er wordt gespeculeerd dat gedistribueerde systemen noodzakelijk zullen zijn om aan de groeiende eisen van AI te voldoen. Kortom, de ontwikkeling van AGI en de bijbehorende uitdagingen vragen om een zorgvuldige afweging van ethische, technologische en maatschappelijke factoren.