Forschungen haben aufgedeckt, dass das Sprachmodell GPT-4 in der Lage ist, 87% der bekannten Zero-Day-Schwachstellen erfolgreich zu exploitieren. Diese bahnbrechenden Erkenntnisse stammen aus einer Studie von Cybersecurity-Experten Richard Fang, Rohan Bindu, Akul Gupta und Daniel Kang, die die Einsatzmöglichkeiten von Large Language Models (LLMs) in der Cybersicherheit erforschten.

GPT-4 und Zero-Day-Schwachstellen

Die Wissenschaftler analysierten 15 reale Zero-Day-Schwachstellen aus der CVE-Datenbank und akademischen Publikationen, die anfällige Websites, Containerverwaltungssoftware und Python-Pakete umfassen. Ein einziger LLM-Agent, der nur 91 Codezeilen umfasst und durch das ReAct-Agentenframework unterstützt wird, erreichte eine Erfolgsquote von 87% beim Ausnutzen dieser Schwachstellen.

Diese Quote ist signifikant höher im Vergleich zu anderen LLMs und Open-Source-Sicherheitsscannern, die keine Erfolge verzeichnen konnten. Ohne die spezifische CVE-Beschreibung sank die Erfolgsrate von GPT-4 auf 7%, was zeigt, dass das Modell primär bekannte Schwachstellen ausnutzt und nicht eigenständig neue findet.

Technische Details und Implikationen

Die untersuchten Schwachstellen deckten eine breite Palette von Bedrohungen ab, einschließlich Websites, Container und Python-Pakete, wobei mehr als die Hälfte von ihnen als hochkritisch eingestuft wurde. Wichtig ist, dass 73% der Schwachstellen nach dem letzten Wissensdatum von GPT-4 liegen, was eine realistischere Bewertung ermöglicht als traditionelle „Capture-the-Flag“-Szenarien.

Getestete Modelle:

  • GPT-4
  • GPT-3.5
  • OpenHermes-2.5-Mistral-7B
  • Llama-2 Chat (70B)
  • LLaMA-2 Chat (13B)
  • LLaMA-2 Chat (7B)
  • Mixtral-8x7B Instruct
  • Mistral (7B) Instruct v0.2
  • Nous Hermes-2 Yi 34B
  • OpenChat 3.5

Relevanz und Sicherheitsempfehlungen

Diese Entdeckung unterstreicht die Notwendigkeit für Organisationen, ihre Sicherheitsmaßnahmen ständig zu überprüfen und zu verstärken. GPT-4 kann komplexe mehrstufige Schwachstellen ausnutzen, verschiedene Angriffsmethoden anwenden, Exploit-Codes erstellen und nicht-webbasierte Schwachstellen manipulieren.

Die Autonomie von GPT-4 im Exploit-Bereich wird durch zusätzliche Funktionen wie Planung und Subagenten deutlich verbessert. Nutzer und Organisationen sind angehalten, stets die neuesten Sicherheitspatches zu implementieren und wachsam gegenüber möglichen Bedrohungen zu bleiben, um ihre Systeme zu schützen.