Was ist WormGPT?
WormGPT ist ein b?sartiger KI-Chatbot, der auf dem quelloffenen Gro?sprachenmodell GPT-J basiert und Texte in natürlicher Sprache auf Englisch, Franz?sisch, Chinesisch, Russisch, Italienisch und Spanisch interpretieren und beantworten kann.
Dieser KI-Chatbot soll mit Malware-bezogenen Daten trainiert worden sein und verfügt über keinerlei Richtlinien zur Inhaltsmoderation, was bedeutet, dass er von Bedrohungsakteuren zur Erstellung von Phishing-Scams und b?sartigem Code verwendet werden kann.
In einem Twitter-Post teilten die Sch?pfer von WormGPT ein Beispiel, in dem der virtuelle Assistent ein Python-Skript generierte, um ?den Betreiber einer Handynummer zu ermitteln“.
Welche Risiken birgt WormGPT?
Der Anbieter von E-Mail-Cybersicherheitsl?sungen SlashNext ver?ffentlichte einen Blogbeitrag, in dem er auf die Gefahr von WormGPT hinwies und erkl?rte, dass b?swillige Akteure in Cybercrime-Foren das Produkt als ?Alternative zu ChatGPT“ vermarkten, mit dem man ?alle m?glichen illegalen Dinge tun und sie in Zukunft problemlos online verkaufen kann“.
Die Forscher forderten WormGPT auf, eine E-Mail zu schreiben, die in einem BEC-Angriff (Business Email Compromise) verwendet werden k?nnte, um einen Kundenbetreuer zu dr?ngen, ?dringend eine Rechnung zu bezahlen“, und sich dabei als Gesch?ftsführer des Unternehmens auszugeben.
WormGPT birgt neue Risiken für Unternehmen: Cyberkriminelle k?nnen damit schnell und in gro?em Umfang betrügerische E-Mails erstellen, ohne über Programmierkenntnisse oder Fachwissen zu verfügen.
Innerhalb von Sekunden kann eine Person einen Prompt eingeben und eine betrügerische E-Mail entwickeln, mit der Benutzer zur Infizierung von Ger?ten mit Malware verleitet werden k?nnen.
Die M?glichkeit, Betrugs-E-Mails in gro?em Umfang zu generieren, stellt die Cybersicherheit von Organisationen vor neue Herausforderungen, da User Scam-E-Mails jedes Mal korrekt identifizieren müssen und Bedrohungsakteure nur einen einzigen Klick ben?tigen, um in ihre Umgebungen einzudringen.
ChatGPT vs. WormGPT: Was ist der Unterschied?
ChatGPT ist ein legitimes LLM. Es wurde von OpenAI im November 2022 für die Verarbeitung und Vorhersage von Text in übereinstimmung mit einer Inhaltsmoderationsrichtlinie entwickelt.
In der Zwischenzeit ist die L?sung von WormGPT für die Erstellung von BEC- und Phishing-Angriffen ohne Richtlinien zur Inhaltsmoderation konzipiert (obwohl die Entwickler behaupten, sie k?nne auch zur Erkennung von BEC-Angriffen verwendet werden).
OpenAI will die b?swillige Nutzung von ChatGPT durch eine Inhaltsmoderationsrichtlinie ausschlie?en. Diese soll verhindern, dass der Chatbot Hassreden oder Fehlinformationen verbreitet und zur Entwicklung sch?dlicher Inhalte verwendet wird.
OpenAI hat zwar versucht, Leitplanken zu implementieren, um die b?swillige Nutzung seiner L?sung zu unterbinden, doch Cyberkriminelle haben weiterhin die M?glichkeit, mit einer Mischung aus kreativem Prompt Engineering und Jailbreaks die Content-Moderation-Richtlinien des Anbieters zu umgehen, um Phishing-E-Mails und b?sartigen Code zu erstellen.
So haben Nutzer auf Reddit Anfang letzten Jahres eine Umgehungsl?sung namens Do Anything Now (oder DAN) entwickelt, einen Assistenten, der ?aus den typischen Grenzen der KI ausgebrochen ist und sich nicht an die für sie geltenden Regeln halten muss“.
Nachdem das Tool gejailbreakt wurde, kann ein Benutzer es zum Erstellen anst??iger Inhalte oder sogar zum Verfassen von Phishing-E-Mails verwenden.
Anzumerken ist, dass LLMs ein wertvolles Werkzeug für Nicht-Muttersprachler sein kann, die eine Phishing-E-Mail in eine andere Sprache übersetzen wollen, um sie so überzeugend wie m?glich zu gestalten.
In der Vergangenheit haben Organisationen wie Europol vor der Gefahr von Tools wie WormGPT und ihrer F?higkeit zur Erstellung automatisierter Cyberangriffe gewarnt und erkl?rt, dass ?dunkle LLMs, die darauf trainiert sind, sch?dliche Ausgaben zu erm?glichen, zu einem wichtigen kriminellen Gesch?ftsmodell der Zukunft werden k?nnten“.
?Dadurch wird es für b?swillige Akteure einfacher als je zuvor, kriminelle Aktivit?ten ohne notwendige Vorkenntnisse zu begehen.“
Wie k?nnen Unternehmen die Risiken von Tools wie WormGPT eind?mmen?
WormGPT ist nur eines von vielen neuen b?sartigen Tools auf LLM-Basis wie FraudGPT, die generative KI zur Unterstützung von Nutzern bei der Begehung von Cyberkriminalit?t einsetzen wollen.
Es ist unwahrscheinlich, dass diese Tools die letzten sein werden, die LLMs in einem kriminellen Kontext verwenden.
Daher müssen Unternehmen auf einen Anstieg von KI-generierten Phishing-Angriffen und Malware vorbereitet sein.
Organisationen k?nnen versuchen, sich durch die folgenden Ma?nahmen zu schützen:
- Durchführung von Schulungen zu Phishing-Simulationen, in denen die Mitarbeiter lernen, wie sie Phishing-Betrug erkennen k?nnen;
- Hinweis an die Mitarbeiter, nicht auf Links oder Anh?nge in E-Mails oder SMS-Nachrichten von unbekannten Absendern zu klicken;
- Aktivierung der Multi-Faktor-Authentifizierung (MFA) für Benutzerkonten, um das Risiko gestohlener Anmeldedaten zu verringern;
- Festlegung eines Verfahrens zur Meldung von Phishing-Versuchen an das Sicherheitsteam;
- Konfigurieren von Domain-based Message Authentication Reporting and Conformance (DMARC), um Hacker vom Spoofing ihrer Unternehmensdom?ne abzuhalten;
- Verwendung eines Spam-Filters, um die Menge der Phishing-E-Mails zu reduzieren, die die Endbenutzer erreichen;
- Installation von Anti-Malware auf den Ger?ten der Endbenutzer, um das Risiko einer Infizierung zu verringern.
Einsatz von LLMs für Cyberkriminalit?t
WormGPT ist nur eines von vielen Tools, die generative KI als Waffe einzusetzen versuchen.
Mit der zunehmenden Verbreitung von KI müssen Unternehmen darauf vorbereitet sein, dass die Zahl der BEC- und Phishing-Angriffe zunimmt.
Die Sensibilisierung der Nutzer und die Aufkl?rung der Mitarbeiter über die Erkennung von Phishing-Angriffen sind der Schlüssel zur Minderung der Risiken von BEC-Angriffen in der Zukunft.