Vijf securityvoorspellingen voor dit jaar
Van leveranciersvalidatie als nieuwe bedrijfstak tot social engineering-aanvallen op MFA-systemen. WatchGuard Technologies doet 5 voorspellingen op het gebied van security voor 2023.
1. Cyberverzekeringen worden duurder
Zowel de kosten als de nalevingseisen van cyberverzekeringen zijn de afgelopen jaren gestegen. Dat ligt voornamelijk aan de zware verliezen die zij hebben geleden sinds zij opties voor cyberafpersing begonnen aan te bieden.
Sommige sectoren zullen het in 2023 waarschijnlijk moeilijker hebben dan andere. Verzekeraars beseffen dat bepaalde sectoren een aantrekkelijker doelwit zijn voor cybercriminelen en zullen hen dwingen zich aan de strengste compliancevoorschriften te houden en de hoogste kosten te dragen. Zo vermoeden wij dat de gezondheidszorg, kritieke infrastructuur, de financiële sector en managed service providers (MSP's) strengere cyberbeveiligingseisen van verzekeraars zullen krijgen.
2. Evaluatie en validatie van cyberbeveiliging wordt een belangrijke factor bij leverancier- en partnerselectie
De afgelopen twee jaar stonden bol van wat wel vijf jaar aan inbreuken op de digitale toeleveringsketen lijkt. Met de toename van deze supplychain-aanvallen maken organisaties zich steeds meer zorgen over de beveiliging van de partners en leveranciers. Nadat ze zoveel tijd hebben besteed aan het verfijnen van hun eigen verdediging, zou het frustrerend zijn om te vallen door beveiligingsfouten van iemand anders.
Daardoor maken bedrijven de interne beveiligingspraktijken van een leverancier een belangrijk onderdeel van de productkeuze. Leveranciersvalidatie en risicoanalyse door derden zijn zelfs een nieuwe bedrijfstak geworden.
3. 2023 wordt het jaar van de eerste grote metaverse-hack
De (VR-)metaverse biedt nieuwe mogelijkheden voor uitbuiting en social engineering. Denk aan het kopiëren van de data van talloze camera's en infrarood- (IR) en dieptesensoren die hoofd-, hand-, vinger-, gezichts- en oogbewegingen volgen. Hackers zouden hiermee in de toekomst een virtuele deepfake van een online avatar kunnen maken die beweegt en handelt als het slachtoffer.
Deze potentiële dreigingsfactor lijkt nu nog ver weg. Toch denken we dat de eerste metaverse-aanval op bedrijven zal komen van een bekende bedreigingsvector die is aangepast aan de VR-toekomst. Virtuele vergaderomgevingen maken namelijk gebruik van dezelfde remote desktop-technologieën als Microsoft's Remote Desktop, of Virtual Network Computing (VNC). Dat zijn dezelfde type remote desktop-technologieën waar cybercriminelen in het verleden talloze malen gebruik van hebben gemaakt.
4. Gebruik van MFA stimuleert toename van social engineering
Cybercriminelen zullen zich in 2023 agressief richten op gebruikers van multifactorauthenticatie (MFA). De populariteit van MFA dwingt aanvallers een manier te vinden om deze beveiligingstechniek te omzeilen. Dit bevestigt wat we eerder hebben voorspeld: volgens een onderzoek van Thales, uitgevoerd door 451 Research, is het gebruik van MFA dit jaar met zes procentpunten gestegen tot 40%. Dit zal cyberaanvallers ertoe aanzetten meer gebruik te maken van kwaadaardige MFA-omzeilingstechnieken bij hun gerichte geloofsbrievenaanvallen, omdat ze anders een bepaald soort slachtoffer mislopen.
Wij verwachten dat in 2023 verschillende nieuwe MFA-kwetsbaarheden en omzeilingstechnieken zullen opduiken. De meest voorkomende manier waarop cybercriminelen deze oplossingen zullen omzeilen is echter via slimme social engineering. Het succes van pushbombardementen is bijvoorbeeld niet per se een MFA-fout, maar een gevolg van menselijk handelen. Aanvallers hoeven MFA niet te hacken als ze gebruikers kunnen misleiden of hen kunnen uitputten met een stortvloed van goedkeuringsverzoeken die hen er uiteindelijk toe aanzetten op een kwaadaardige link te klikken. Aanvallers kunnen hun adversary-in-the-middle (AitM)-technieken ook aanpassen aan het MFA-proces en zo authenticatiesessietokens buitmaken wanneer gebruikers legitiem inloggen.
5. AI-coderingstools introduceren fundamentele kwetsbaarheden
Hoewel machine learning (ML) en kunstmatige intelligentie (AI) niet zo almachtig zijn geworden als sommige tech-evangelisten beweren, zijn ze aanzienlijk geëvolueerd en bieden ze veel nieuwe praktische mogelijkheden. Zo kunnen AI/ML-tools nu ook code schrijven voor ontwikkelaars. GitHub's Copilot is zo'n geautomatiseerd codeerhulpmiddel. Zoals bij elk AI/ML-algoritme is de kwaliteit van zijn output slechts zo goed als de kwaliteit van de trainingsgegevens die het gebruikt en de instructies die het krijgt om mee te werken. Als je AI slechte of onveilige code geeft, kun je dat ook verwachten van de output.
Studies hebben al aangetoond dat tot 40% van de code die Copilot genereert exploiteerbare veiligheidslekken bevat, en dit percentage stijgt wanneer de eigen code van de ontwikkelaar kwetsbaarheden bevat. Tegen 2023 voorspellen we dat een onwetende en/of onervaren ontwikkelaar die te veel vertrouwt op Copilot, of een soortgelijke AI-coderingstool, een app zal uitbrengen die een kritieke kwetsbaarheid bevat die door geautomatiseerde code is geïntroduceerd.