Das National Cyber Security Centre (NCSC) Großbritanniens warnt Unternehmen davor, KI-Chatbots wie OpenAI’s ChatGPT und Googles Bard in ihre Geschäftsprozesse zu integrieren, da dies ein erhöhtes Sicherheitsrisiko darstellen kann.

Forschungen zeigen, dass KI-Chatbots leicht manipuliert werden können, um schädliche Aufgaben auszuführen, indem sie menschenähnliche Interaktionen erzeugen, so das NCSC.

Die Warnung erfolgt kurz nachdem Google und OpenAI, unterstützt von Microsoft, eine Vielzahl neuer KI-Tools angekündigt haben, die auf deren großen Sprachmodellen basieren und für große Unternehmen konzipiert sind.

Das NCSC betont, dass ein Teil des Problems darin besteht, dass die Technologie noch recht neu ist, was die Unsicherheiten in einem sich schnell verändernden Markt erhöht.

„Die globale Technologie-Community versteht die Fähigkeiten, Schwächen und vor allem die Sicherheitslücken von großen Sprachmodellen (Large Language Models, LLMs) immer noch nicht vollständig“, erklärt das NCSC.

Da Unternehmen vermehrt KI-basierte Elemente in ihre Geschäftsprozesse integrieren, steigt auch das Risiko von Sicherheitslücken für diese Organisationen.

Gefahren der KI-Unterwanderung Neben möglichen Bedrohungen durch KI-gesteuerte Tools wie Internetrecherchen, Kundenservice-Arbeit und Verkaufsanrufe haben Forscher herausgefunden, dass die Chatbots wiederholt durch die Eingabe von schädlichen Befehlen unterwandert werden können.

Darüber hinaus gelang es den Wissenschaftlern, die Chatbots kontinuierlich zu täuschen, um ihre integrierten Schutzmechanismen zu umgehen.

Beispielsweise könnte ein KI-Chatbot einer Bank durch gezielte Abfragen von Hackern dazu gebracht werden, eine nicht autorisierte Transaktion durchzuführen.

Forscher fanden auch heraus, dass LLMs nicht immer zwischen Anweisungen und Daten unterscheiden können, die zur Ausführung der Anweisungen benötigt werden.

Das NCSC betont die Notwendigkeit von Tests und Vorsichtsmaßnahmen, um Risiken zu minimieren. Unternehmen sollten LLM-basierte Anwendungen sorgfältig testen, um Schwachstellen zu erkennen und das Geschäftsrisiko zu bewerten.

Die Warnung erfolgt zeitgleich mit der Veröffentlichung von OpenAI’s neuem ChatGPT-4-Unternehmensprodukt. Google hat ebenfalls 20 neue KI-Tools für Unternehmen vorgestellt und plant die Veröffentlichung eines leistungsstarken KI-Chatbots.

Laut einer Reuters/Ipsos-Umfrage nutzen viele Unternehmensmitarbeiter bereits KI-Tools wie ChatGPT für grundlegende Aufgaben. Dabei werden sensible Daten eingegeben, was die Sicherheit des Unternehmens gefährden kann.