Eine Untersuchung von Group-IB hat enthüllt, dass von Januar bis Oktober 2023 über 225.000 Datensätze mit kompromittierten Zugangsdaten für OpenAI’s ChatGPT auf Untergrundmärkten angeboten wurden. Diese Zugangsdaten stammen aus Logdateien von Schadsoftware wie LummaC2, Raccoon und RedLine.

Trotz eines leichten Rückgangs infizierter Geräte im späten Sommer, verzeichnete man zwischen August und September einen signifikanten Anstieg an Infektionen. In diesem Zeitraum wurden über 130.000 einzigartige Hosts, die Zugriff auf OpenAI ChatGPT hatten, kompromittiert, was einem Anstieg von 36% gegenüber den ersten fünf Monaten des Jahres 2023 entspricht.

Laut Group-IB ist dieser Anstieg der zum Verkauf stehenden ChatGPT-Zugangsdaten auf die allgemein zunehmende Anzahl von Hosts zurückzuführen, die mit Informationsschadsoftware infiziert wurden und deren Daten anschließend auf Märkten oder in User Credential Lists (UCLs) verkauft werden.

Dieser Trend fällt mit Erkenntnissen von Microsoft und OpenAI zusammen, die besagen, dass Akteure aus Staaten wie Russland, Nordkorea, Iran und China mit Künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) experimentieren, um ihre Cyberangriffe zu ergänzen.

Group-IB betont, dass LLMs von Angreifern genutzt werden könnten, um neue Taktiken zu entwickeln, überzeugende Betrugs- und Phishing-Angriffe zu erstellen und ihre operationelle Produktivität zu verbessern. Die Technologie könnte auch die Aufklärung beschleunigen, Hacking-Toolkits ausführen und betrügerische Robocalls tätigen.

Der Missbrauch gültiger Zugangsdaten durch Bedrohungsakteure hat sich als eine der wichtigsten Zugangstechniken herausgestellt, vor allem durch die leichte Verfügbarkeit solcher Informationen durch Malware, die Zugangsdaten stiehlt.

Diese Entwicklungen unterstreichen die Herausforderungen, mit denen sich die Verteidiger im Bereich Identitäts- und Zugriffsmanagement konfrontiert sehen, insbesondere angesichts des Anstiegs von Informationsdiebstählen und des Missbrauchs gültiger Kontozugänge.