Veilig gebruik van generatieve AI in gereguleerde sectoren
Generatieve AI is volgens onderzoek van MIT Technology Review door 88% van alle organisaties geïmplementeerd. Maar hoe zit het met gebruik van AI in gereguleerde sectoren zoals de financiële dienstverlening, de levensmiddelenindustrie, telecom en gezondheidszorg? Kevin Jonkergouw (foto), Regional VP Benelux bij Databricks, gaat in onderstaande blog er nader op in.
In deze sectoren kan regelgeving innovatie met nieuwe technologieën bemoeilijken. Dat betekent echter niet dat deze organisaties niet kunnen profiteren van AI. Het is mogelijk, mits de juiste voorzorgsmaatregelen worden genomen.
Zorgen over AI-gebruik
Iedere revolutionaire technologie brengt zorgen met zich mee, en AI is daarop geen uitzondering. Bekende kwesties zijn onder andere auteursrechten, foutieve informatie en datalekken. Dit kan leiden tot terughoudendheid bij sommige teams, wat op termijn de concurrentiepositie kan schaden.
Met de juiste processen en procedures kunnen veel van deze zorgen echter worden weggenomen. Daarbij zijn een robuust datafundament en solide governance cruciaal voor een vertrouwde AI-strategie in gereguleerde sectoren.
Gereguleerd vs. ongereguleerd
AI-innovaties zijn tot nu toe vooral afkomstig uit ongereguleerde sectoren, zoals de creatieve industrie. Hier zijn veel innovatieve hulpmiddelen opgekomen die zijn vrijgegeven voor het publiek, zoals het gebruik van chatbots om afbeeldingen of muziek te creëren, en meer recentelijk met de release van Sora – een AI-applicatie die video’s van 60 seconden kan maken op basis van een simpele prompt.
Voor bedrijven in sterk gereguleerde sectoren, zoals finance of gezondheidszorg, geldt een andere werkelijkheid. Ze zijn terughoudender om AI snel te implementeren vanwege onzekerheid rondom regelgeving en zorgen over databeveiliging. Over de hele wereld zijn beleidsmakers bezig met de mogelijke risico’s en gevaren die gepaard gaan met de ontwikkelingen van AI, en afhankelijk van het land kijken ze er net wat anders tegenaan. Hierdoor ontbreekt het nog steeds aan een duidelijke, gedefinieerde en universele benadering van AI-regelgeving.
Minder risico met kleinere taalmodellen
Een effectieve manier om AI veilig toe te passen, is door kleinere taalmodellen (LLM’s) te gebruiken. Grotere taalmodellen brengen risico’s met zich mee doordat ze heel veel data van het internet scrapen, inclusief mogelijk irrelevante of gevoelige informatie. Dit kan niet alleen leiden tot slechte resultaten, maar het kan een organisatie ook blootstellen aan mogelijke juridische gevolgen en security-incidenten.
Kleinere LLM's, gebaseerd op de eigen gegevens van een organisatie, beperken deze risico’s en bieden een veiligere manier om AI te onderzoeken. Ze hebben specifieke gebruikersscenario’s en worden getraind met een veel kleinere dataset op basis van de eigen gegevens van een organisatie. Door de modellen intern te houden, hoeven organisaties bovendien geen gegevens te delen met derden. Dit verlaagt de risico’s drastisch en stelt organisaties in staat om met vertrouwen te experimenteren met generatieve AI.
Centralisatie en controle
Om kleine modellen effectief te gebruiken, is een sterke datacultuur binnen de organisatie nodig. Dat betekent dat alle medewerkers, ongeacht hun technische vaardigheden, data zouden moeten begrijpen en gebruiken voor innovatie en besluitvorming. Daarmee vermindert ook afhankelijkheid van externe partijen.
Een gecentraliseerde data governance is daarbij essentieel, vooral met het oog op toekomstige compliance-vereisten. Centrale oplossingen voor datamonitoring maken het AI-gebruik efficiënter en veiliger, en zorgen ervoor dat organisaties klaar zijn voor de evolutie van AI en regelgeving.
Terwijl AI zich verder ontwikkelt, moeten organisaties in gereguleerde sectoren intern focussen op beheersbare aspecten. Door het verstrekken van middelen en het opstellen van robuust databeleid, kunnen bedrijven AI veilig toepassen in overeenstemming met regelgeving.