Zeven AI voorspellingen voor bedrijven in 2024
Experts van datacloudbedrijf Snowflake voorspellen hoe het gebruik van AI in het bedrijfsleven zich in de loop van 2024 zal ontwikkelen. Verwacht wordt dat AI de productiviteit verhoogt en het creëren van innovatieve oplossingen makkelijker maakt.
1. Kleinere taalmodellen zullen hyper-customized inzichten bieden
Kleinere taalmodellen worden de standaard. Er zullen nog steeds enkele grote spelers zijn, maar over het algemeen verfijnen de meeste leveranciers kleinere modellen, gericht op specifieke branches en use cases. In de toekomst zullen er miljoenen kleinere taalmodellen zijn die op bedrijfs- of afdelingsniveau werken en hyper-customized inzichten bieden op basis van de medewerker, behoefte of vraag. Kleinere taalmodellen vragen minder tijd en middelen om te onderhouden, kunnen worden gebruikt binnen de bestaande securityperimeters van een bedrijf en zijn vaak sneller en nauwkeuriger. Dit komt doordat ze zijn geoptimaliseerd voor een beperkte set taken in vergelijking met de modellen die tot nu toe de meeste aandacht kregen.
2. Het maken van "Generatieve AI-apps" zoals chatbots inzetten voor dagelijkse taken
Large Language Models (LLM’s) zijn niet alleen een superkrachtige nieuwe vorm van AI, maar ook ongelooflijk makkelijk te gebruiken. Het recente rapport “State of LLM Apps 2023” analyseerde hoe 13.433 ontwikkelaars meer dan 21.000 generatieve AI-apps maakten in slechts een paar maanden tijd. Ongeveer 74% van die apps werd gebouwd met OpenAI. Met behulp van een eenvoudige API ontstond een golf van innovatie in de open-sourcegemeenschap. Nu brengen grote data- en rekenplatforms deze eenvoudige API's naar grote organisaties. Als we vooruitkijken naar 2024, verwachten we dat dezelfde mate van creativiteit, gedurfde experimenten en nieuwe toepassingen binnen de zakelijke sector een vlucht zal nemen. Generatieve AI wordt een drijvende kracht in het bedrijfsleven, waardoor AI-toepassingen een vast onderdeel worden van de dagelijkse bedrijfsvoering en taken.
3. Het hallucinatieprobleem wordt grotendeels opgelost
In 2023 werden hallucinaties door LLM’s gezien als een grote belemmering. Als generatieve AI-modellen dingen kunnen verzinnen, hoe kun je ze dan vertrouwen? Toch voorspellen we dat verschillende technische ontwikkelingen het probleem van hallucinaties zullen elimineren. Een van deze innovaties is Retrieval Augmented Generation (RAG), waarbij de LLM eerst wordt gevoed met echte, contextueel relevante informatie voordat het een gebruikersvraag voorgeschoteld krijgt. Het is aangetoond dat deze techniek, die nog maar net bestaat, hallucinaties drastisch vermindert en daarom de gemoederen al behoorlijk bezighoudt. Volgens het rapport “State of LLM Apps 2023” maakt 20% van de apps gebruik van vector retrieval - een belangrijk onderdeel van RAG. In het komende jaar gaat RAG, samen met beter getrainde modellen, het hallucinatieprobleem snel oplossen - wat de weg vrijmaakt voor een wijdverspreid gebruik van generatieve AI binnen zakelijke workflows.
4. AI wordt je beste collega
Een van de meest interessante manieren om de productiviteit op het werk te verhogen, is het inzetten van AI-assistenten die werknemers helpen efficiënt en effectief te worden - en te blijven. In de toekomst verwachten we dat AI-assistenten zijn afgestemd op specifieke afdelingen en rollen om werknemers hierin de weg te wijzen, maar ook gekoppeld zijn aan de individuele persoonlijkheid van werknemers. Naarmate organisaties volwassener worden, kunnen AI-agents getraind worden om deze processen nogmaals toe te passen. Wanneer er een nieuwe medewerker wordt aangenomen, krijgt deze vanaf het begin de volledige schat aan kennis. Als we nog een stap verder gaan, zullen deze AI-assistenten gaan bijdragen aan de kennis van grotere ondernemingen. Door bijvoorbeeld nieuwe documentatie en grondige feedback van bestaande werknemers tot zich te nemen en het internet af te speuren naar nieuwe manieren om processen te optimaliseren, worden deze AI-assistenten de meest behulpzame collega.
5. AI zal uiteindelijk securityteams helpen
Cybercriminelen zullen profiteren van de wijdverspreide inzet van geavanceerde AI-tools nog voordat hun doelwitten AI gebruiken in hun eigen verdediging. Veel bedrijven zijn voorzichtig met het invoeren en gebruiken van nieuwe technologieën. Als de inzet niet goed gebeurt, kan dit leiden tot hoge kosten, voldoen bedrijven wellicht niet meer aan wet- en regelgeving en is reputatieschade mogelijk. Maar cybercriminelen wachten niet. Zo gebruiken zij bijvoorbeeld generatieve AI om de vaak slecht geschreven phishing mails te optimaliseren waardoor ze nog succesvoller worden. Uiteindelijk zal er een balans komen en werken ook de securityteams met meer vertrouwen met generatieve AI.
6. De toeleveringsketen van AI-data wordt een doelwit voor aanvallen
AI ontwikkelt zich snel en niemand zal ongevoelig blijven voor de reikwijdte en het potentieel ervan. De vooruitgang van AI vormt een uitdaging voor securityteams. Misbruik van AI kan leiden tot de mogelijke kwetsbaarheid van data op de lange termijn, omdat onjuiste of bevooroordeelde data kunnen worden geïnjecteerd in LLM's. Een politieke propagandacampagne kan bijvoorbeeld valse inhoud melden over een conflict in een land, de integriteit van een verkiezing of een politieke kandidaat. Onjuiste informatie over een markt kan het vermogen om een goede bedrijfsstrategie op te stellen onderuithalen. Vandaag de dag werken securityteams aan het oplossen van dit soort problemen. Nieuwe vormen van beveiliging worden gevonden voor nieuwe AI-tools, maar de beste verdediging is een best practice die al langere tijd bestaat: verzeker je jezelf ervan dat de partners en leveranciers waarmee je werkt betrouwbaar zijn.
7. Ontwikkelaars, datawetenschappers en -ingenieurs gaan nieuwe uitdagingen aan
Generatieve AI zal ook de productiviteit van ontwikkelaars verhogen door het makkelijker te maken om een deel van hun code te genereren. Zo hebben ontwikkelaars meer tijd voor creatief denken en het oplossen van problemen om innovatie te stimuleren. Data-engineers gaan zich bezighouden met hoe ze een AI-model kunnen integreren en verbinden met datastromen die zijn ontworpen om waarde-extractie te automatiseren. Tot slot zullen datawetenschappers moeten leren samenwerken met externe leveranciers. Zij zullen verantwoordelijk zijn voor het vinden van de juiste aanbieders van AI-modellen om mee samen te werken, het bepalen hoe een LLM gevoed kan worden met de juiste context, het minimaliseren van hallucinaties of LLM's correct vragen te laten beantwoorden door het vastleggen van procedures rond context en metadata.