Floris Hulshoff Pol - 20 januari 2023

CyberArk Labs laat ChatGPT zelf kwaadaardige code muteren

CyberArk Labs laat ChatGPT zelf kwaadaardige code muteren image

Onderzoekers van CyberArk Labs hebben ChatGPT zelf kwaadaardige code laten schrijven en automatisch laten muteren om zo security-tools te kunnen omzeilen. Eeder werd al bekend dat ChatGPT ingezet kon worden om code als onderdeel van malware te schrijven, maar CyberArk Labs gaat nog een stuk verder door ChatGPT zelf de malware te laten maken, die bovendien niet door security-tools wordt opgemerkt.

CyberArk Labs laat ten eerste zien hoe ze het contentfilter van de AI-dienst hebben omzeild en tegen de eigen regels in toch malware kunnen maken die, in runtime queries, ChatGPT kwaadaardige code laat laden. De malware bevat hierdoor zelf geen kwaadaardige code, omdat het de code van ChatGPT ontvangt. Bovendien wordt deze gevalideerd (controleren of de code correct is), en vervolgens uitgevoerd zonder een spoor achter te laten. Daarnaast is het CyberArk Labs gelukt om ChatGPT te vragen de code te muteren.

De zogeheten ‘naked malware’ of polyforme malware, die hiermee ontstaat bevat geen kwaadaardige modules en wordt daardoor niet door security-tools opgemerkt. Dit is in eerdere onderzoeken nog niet gelukt. 

Eran Shimony, onderzoeker bij CyberArk Labs: “Polymorfe malware is zeer moeilijk aan te pakken voor beveiligingsproducten omdat je ze niet echt kunt herkennen. Bovendien laten ze meestal geen sporen achter op het bestandssysteem, omdat hun kwaadaardige code alleen in het geheugen wordt verwerkt. Bovendien, als men het uitvoerbare bestand zelf bekijkt, ziet het er waarschijnlijk onschuldig uit.”

Een uitgebreid verslag van het onderzoek is te vinden op https://www.cyberark.com/resources/threat-research-blog/chatting-our-way-into-creating-a-polymorphic-malware

Lenovo Channel Campagne vierkant Sophos 14/11/2024 t/m 28/11/2024 BN + BW
ALSO BW 03-06-2024 tm

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!