Tenable entdeckte sieben Schwachstellen in ChatGPT. Über Prompt-Injection-Tricks können Angreifer Daten, Chats und Speicherinhalte auslesen. Einige der Schwachstellen wurden behoben, andere bestehen selbst in ChatGPT-5 fort und erfordern strengere Schutzmaßnahmen.
Enthalten KI-Modelle Sicherheitslücken, können sie durch Prompt-Injection-Angriffe dazu gebracht werden, versteckte Befehle auszuführen, Sicherheitsmechanismen zu umgehen und dabei unbemerkt persönliche Daten, gespeicherte Chats und andere sensible Informationen preiszugeben.
Der Sicherheitsspezialist Tenable hat OpenAIs KIChatGPT genauer unter die Lupe genommen. Dabei hätten die Sicherheitsforschenden sieben kritische Sicherheitslücken identifiziert, die sowohl in ChatGPT-4o wie auch ChatGPT-5 nachgewiesen worden seien. Diese Schwachstellen, die unter dem Namen „HackedGPT“ zusammengefasst wurden, würden Benutzer Datenschutzrisiken aussetzen, indem sie integrierte Sicherheitsmechanismen umgehen. Nutzen Cyberkrimienlle die Sicherheitslücken erfolgreich aus, seien sie in der Lage, unbemerkt persönliche Daten sowie gespeicherte Chats und Erinnerungen zu stehlen.
Diese Art des Datendiebstahls bezeichnen die Experten als „Indirect Prompt Injection“. Dabei würden versteckte Anweisungen in externen Websites oder Kommentaren das KI-Modell dazu veranlassen, unbefugte Aktionen auszuführen. Betroffen seien die Web-Browsing- und Speicherfunktionen von ChatGPT, die Live-Internetdaten verarbeiten und Benutzerinformationen speichern und somit Möglichkeiten für Manipulationen und Datenlecks eröffnen würden.
1. Sicherheitslücke: Indirect Prompt Injection über vertrauenswürdige Websites
Bei der ersten von Tenable entdeckten Schwachstelle würden Angreifer Befehle in legitim erscheinenden Online-Inhalten wie Blog-Kommentaren oder öffentlichen Posts verstecken. Beim Durchsuchen dieser Inhalte befolge ChatGPT unwissentlich diese versteckten Anweisungen. ChatGPT könne so dazu gebracht werden, die Anweisungen eines Angreifers auszuführen, indem es eine kompromittierte Seite liest.
2. Sicherheitslücke: Indirect Prompt Injection ohne Klick im Suchkontext
Bei der zweiten Schwachstelle müssen Nutzer Tenable zufolge weder klicken noch irgendetwas Besonderes tun, um kompromittiert zu werden. Denn wenn ChatGPT im Internet nach Antworten sucht, kann es auf eine Seite mit verstecktem Schadcode stoßen. Einfach nur eine Frage zu stellen, könnte dazu führen, dass das Modell solche Anweisungen befolgt und private Daten preisgibt, was die Forscher als „Single-Prompt-Kompromittierung” bezeichnen.
Schon ein einziger Klick kann einen Cyberangriff auslösen. Versteckte Befehle, die in scheinbar harmlosen Links eingebettet sind, wie beispielsweise „https://chatgpt.com/?q={Prompt}“, können den Experten zufolge dazu führen, dass ChatGPT bösartige Aktionen ausführt, ohne sich dessen bewusst zu sein. Ein Klick genüge, damit ein Angreifer die Kontrolle über einen privaten Chat übernehmen könne.
4. Sicherheitslücke: Umgehung von Sicherheitsmechanismen
Normalerweise überprüft ChatGPT Links und blockiert unsichere Websites. Angreifer können laut Tenable dies umgehen, indem sie vertrauenswürdige Wrapper-URLs verwenden, wie beispielsweise „bing.com/ck/a?...“ von Bing, die das tatsächliche Ziel verbergen. Da ChatGPT diesem Wrapper vertraue, zeigt es den scheinbar sicheren Link an und könne dann zu einer bösartigen Website weitergeleitet werden.
ChatGPT nutzt zwei Systeme: SearchGPT für die Suche und ChatGPT für Konversationen. Wie die Sicherheitsforscher berichten, könnten sich Angreifer SearchGPT zunutze machen, um versteckte Anweisungen einzufügen, die ChatGPT später im Rahmen der Konversation auslese. Tatsächlich führe die KI so letztendlich eine „Prompt Injection“ bei sich selbst durch, indem sie Befehle ausführe, die der Benutzer nie geschrieben hat.
Ein Programmierfehler in der Formatierung ermögliche es Angreifern, schädliche Anweisungen in Code oder Markdown-Text von ChatGPT zu verstecken. Dem Nutzer werde so laut Tenable eine „saubere“ Nachricht angezeigt, aber ChatGPT lese dennoch den versteckten Inhalt und führe ihn aus.
Die Speicherfunktion von ChatGPT zeichnet vergangene Interaktionen auf. Angreifer könnten böswillige Anweisungen in diesem Langzeitspeicher hinterlegen, wodurch das Modell diese Befehle über mehrere Sitzungen hinweg wiederholt ausführe und kontinuierlich private Daten preisgebe, bis der Speicher geleert wird.
Tenable zufolge könnte eine erfolgreiche Ausnutzung einer dieser Schwachstellen dazu führen, dass
Cyberkriminelle versteckte Befehle in Konversationen oder Langzeitspeicher einfügen,
sensible Daten aus Chat-Verläufen oder verbundenen Diensten wie Google Drive oder Gmail abgreifen,
Informationen über Browser- und Web-Integrationen auslesen oder
Antworten manipulieren, um Fehlinformationen zu verbreiten oder Nutzer zu beeinflussen.
Das Team von Tenable Research habe seine Untersuchung nach den Grundsätzen einer verantwortungsvollen Offenlegung durchgeführt und den Hersteller darüber informiert. OpenAI habe daraufhin einige der identifizierten Schwachstellen behoben, aber einige seien weiterhin in ChatGPT-5 aktiv oder wurden zum Zeitpunkt der Veröffentlichung noch nicht behoben, sodass bestimmte Kompromittierungspfade nach wie vor offen seien. Daher empfiehlt Tenable Anbietern von KI-Lösungen, ihre Abwehrmaßnahmen gegen Prompt Injection zu verstärken, indem sie sicherstellen, dass Sicherheitsmechanismen wie „url_safe“ wie vorgesehen funktionieren, und indem sie Browsing-, Such- und Speicherfunktionen isolieren, um kontextübergreifende Angriffe zu verhindern.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Weitere Empfehlungen sind:
Behandeln Sie KI-Tools als aktive Angriffsflächen und nicht als passive Assistenten.
Überprüfen und überwachen Sie KI-Integrationen auf mögliche Manipulationen oder Datenlecks.
Untersuchen Sie ungewöhnliche Anfragen oder Ausgaben, die auf Prompt Injection hindeuten könnten.
Testen und verstärken Sie die Abwehrmaßnahmen gegen Injektions- und Exfiltrationspfade.
Führen Sie Kontrollmechanismen für Governance und Datenklassifizierung im Zusammenhang mit KI-Nutzung ein.