Wouter Hoeffnagel - 28 september 2023

Gartner: AI vereist nieuwe vormen van trust, risk en security management

Organisaties die de transparantie, het vertrouwen en de veiligheid van kunstmatige intelligentie (AI) operationaliseren, zien hun AI-modellen tegen 2026 met 50% verbeteren wat betreft adoptie, bedrijfsdoelstellingen en gebruikersacceptatie.

Gartner: AI vereist nieuwe vormen van trust, risk en security management image

“CISO's kunnen AI hun organisatie niet laten controleren. AI vereist nieuwe vormen van trust, risk en security management (TRiSM) die conventionele controles niet bieden. Chief Information Security Officers (CISO's) moeten AI TRiSM verdedigen om de AI-resultaten te verbeteren, door bijvoorbeeld de snelheid van AI-model-naar-productie te verhogen, beter bestuur mogelijk te maken of het AI-modelportfolio te rationaliseren, wat tot 80% van de foutieve en onwettige informatie", aldus Mark Horvath, VP Analyst bij Gartner op de Gartner Security & Risk Management Summit in Londen.

AI brengt niet alleen aanzienlijke datarisico's met zich mee, aangezien gevoelige datasets vaak worden gebruikt om AI-modellen te trainen. Denk ook aan de nauwkeurigheid van de modelresultaten en de kwaliteit van de datasets, die in de loop van tijd kan variëren. Dit kan van negatieve invloed zijn op het AI-model.

De implementatie van AI TRiSM stelt organisaties in staat te begrijpen wat hun AI-modellen doen, hoe goed ze aansluiten bij de oorspronkelijke bedoelingen en wat er kan worden verwacht in termen van prestaties en bedrijfswaarde.

AI TRiSM is een teamsport

AI TRiSM kan niet door één enkele bedrijfseenheid worden geleid. “Het vraagt om educatie en samenwerking tussen teams”, zegt Jeremy D’Hoinne, VP Analyst bij Gartner. “CISO’s moeten een duidelijk inzicht hebben in hun AI-verantwoordelijkheden binnen de bredere toegewijde AI-teams, waaronder personeel van de juridische, compliance-, IT- en data-analyseteams.”

Zonder een robuust AI TRiSM-programma kunnen AI-modellen tegenwerken dat het bedrijf door onder meer onverwachte risico's te introduceren. Deze kunnen leiden tot ongunstige modelresultaten, privacyschendingen, aanzienlijke reputatieschade en andere negatieve gevolgen.

Prioriteiten voor AI-risicobeheer

Omdat AI kan worden gezien als elke andere toepassing, moeten CISO's mogelijk de verwachtingen binnen en buiten het team opnieuw kalibreren. Zodra de verwachtingen zijn gesteld, adviseert Gartner CISO's en hun teams de volgende vijf AI-risicobeheeracties ondernemen:

  • Leg de mate van blootstelling vast door de AI die in de organisatie wordt gebruikt te inventariseren en zorg voor het juiste niveau van uitlegbaarheid.
  • Stimuleer het bewustzijn van het personeel in de hele organisatie door een formele AI-risicoeducatiecampagne te leiden.
  • Ondersteun de betrouwbaarheid, betrouwbaarheid en veiligheid van modellen door risicobeheer op te nemen in modelbewerkingen.
  • Elimineer de blootstelling van interne en gedeelde AI-gegevens door gegevensbeschermings- en privacyprogramma's in te voeren.
  • Neem specifieke AI-beveiligingsmaatregelen tegen vijandige aanvallen om weerstand en veerkracht te garanderen.

Leer hoe u menselijke risico's kunt beheersen om een veiligheidsbewuste organisatie op te bouwen in het gratis Gartner e-boek '4 Ways to Achieve Secure Employee Behaviors'.

Lenovo Channel Campagne vierkant Algosec 14/11/2024 t/m 28/11/2024 BW
Gamma Benelux 19/11/2024 t/m 29/11/2024 BW + BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!