Medien und häufige innovative Veröffentlichungen treiben den raschen Aufstieg der generativen KI (Künstliche Intelligenz) ChatGPT in der Industrie aggressiv voran.

Doch abgesehen von ihrem innovativen Aspekt haben Cyberkriminelle diese generativen KI-Modelle schon vor ihrem Aufstieg aktiv für verschiedene illegale Zwecke ausgenutzt.

Cybersicherheitsanalysten von Trend Micro, Europol und UNICRI haben gemeinsam die Ausbeutung krimineller KI untersucht und den Bericht „Bösartige Verwendung und Missbrauch von Künstlicher Intelligenz“ eine Woche nach dem Debüt von GPT-3 im Jahr 2020 veröffentlicht.

Die Einführung von KI-Modellen wie GPT-3 und ChatGPT hat die Tech-Branche aufgewirbelt und eine Welle von LLMs (large language models) und Tools generiert, die mit oder in Ergänzung zu OpenAI konkurrieren und sich auf Verbesserungs- und Angriffsstrategien konzentrieren.

Hacker missbrauchen ChatGPT

Cybersicherheitsanalysten haben kürzlich die Vielzahl von Gesprächen über ChatGPT sowohl für Entwickler als auch für Bedrohungsakteure bemerkt, was die aktive Nachfrage und das breite Spektrum an Fähigkeiten zeigt.

Bedrohungsakteure beschleunigen ihre Codierung mit ChatGPT, indem sie das Modell bitten, spezifische Funktionen zu generieren, und dann den vom KI-Modell generierten Code in Malware integrieren.

ChatGPT ist ausgezeichnet darin, überzeugenden Text zu erstellen, der von Cyberkriminellen bei Spam und Phishing ausgenutzt wird. Diese bieten maßgeschneiderte ChatGPT-Schnittstellen zur Erstellung von irreführenden E-Mails an.

Forscher haben GoMailPro entdeckt, ein von Cyberkriminellen genutztes Tool zum Versenden von Spam, das angeblich ChatGPT zur Erstellung von Spam-E-Mails integriert hat, wie vom Autor am 17. April 2023 angekündigt wurde.

Ab Juni 2023 bieten mehrere Bedrohungsakteure in unterirdischen Foren KI-Modelle mit krimineller Ausrichtung an, die folgende Fähigkeiten besitzen:

Anonymität bewältigen Zensur umgehen Generierung von bösartigem Code Während die Legitimität variiert, stellt dies eine Herausforderung dar, echte LLMs von ChatGPT-basierten Wrapper-Modellen zu unterscheiden, die möglicherweise für Betrügereien verwendet werden.

Bösartige KI-Modelle

Neben Evil-GPT, WormGPT, FraudGPT, XXXGPT und Wolf GPT fanden Sicherheitsanalysten kürzlich auch folgende Modelle mit ihren entsprechenden Preisen am 27. Juli 2023:

FraudGPT: 90 US-Dollar/Monat

DarkBARD: 100 US-Dollar/Monat

DarkBERT: 110 US-Dollar/Monat

DarkGPT: 200 US-Dollar/lebenslange Lizenz

Bedrohungsakteure nutzen KI auch für Deepfakes, um Gesichter in Videos auszutauschen, um für Erpressung, gefälschte Nachrichten oder bessere Social Engineering zu täuschen.

Die Nutzung von KI für illegale Zwecke durch Bedrohungsakteure steht noch in den Anfängen; kurz gesagt, ist sie nicht so bahnbrechend wie in anderen Bereichen.

Diese Modelle beschleunigen den Einstieg in die Cyberkriminalität, wobei Betrügereien mit echten Tools verschmelzen. Prominente Modelle wie ChatGPT könnten sogar den Bedrohungsakteuren bei der Unterscheidung legitimer KI-Dienste behilflich sein.