CrowdStrike lanceert AI Red Team Services voor AI-systemen en -modellen
CrowdStrike lanceert zijn nieuwe AI Red Team Services. De diensten zijn gericht op het opsporen en inperken van kwetsbaarheden in AI-systemen en -modellen.
AI Red Team Services is gepresenteerd op Fal.Con Europe. Nu steeds meer bedrijven AI inzetten ontstaan ook nieuwe risico's zoals manipulatie van modellen, vervuiling van data en lekken van gevoelige informatie. Wanneer AI-systemen zoals LLM's worden aangevallen, kunnen de gevolgen zijn dat vertrouwelijke gegevens uitlekken, modellen minder goed functioneren en de kans op manipulatie door kwaadwillenden toeneemt.
Veiligheidsanalyses en red team-oefeningen
De CrowdStrike AI Red Team Services bieden organisaties veiligheidsanalyses van AI-systemen en integraties. Deze beoordelingen richten zich op het vinden van kwetsbaarheden die kunnen leiden tot datalekken, ongewenste code-uitvoering of manipulatie van applicaties. Via red team-oefeningen, penetratietests en andere analyses helpt CrowdStrike bedrijven om hun AI-beveiliging op niveau te houden. Ook zijn aanvalssimulaties beschikbaar, waarbij aanvallen worden specifiek afgestemd op AI-systemen.
“AI revolutioneert industrieën, maar creëert tegelijkertijd nieuwe kansen voor cyberaanvallen,” zegt Tom Etheridge, Chief Global Services Officer bij CrowdStrike. “CrowdStrike loopt voorop in het beschermen van organisaties die nieuwe technologieën omarmen en innovatie stimuleren. Onze nieuwe AI Red Team Services identificeren potentiële aanvalsvectoren en helpen deze te neutraliseren voordat aanvallers kunnen toeslaan, zodat AI-systemen veilig en veerkrachtig blijven tegen geavanceerde aanvallen.”