Gefahren durch Künstliche Intelligenz KI als digitaler Sandkasten für Kriminelle

Von Natalie Forell 7 min Lesedauer

Anbieter zum Thema

Wer KI einsetzt, sollte sich fragen: Wer zieht wirklich die Fäden? Ohne ausreichende Sicherheitsmaßnahmen wie etwa Zero Trust stehen Kriminellen die Türen offen, um die KI zu beeinflussen und für ihre Zwecke zu missbrauchen.

KI ist in aller Munde, aber auch in vielen Händen: Cyberkriminelle greifen immer häufiger auf KI zurück und erstellen mit LLMs täuschend echte Phishing-Mails oder Deepfakes.(Bild:  Midjourney / KI-generiert)
KI ist in aller Munde, aber auch in vielen Händen: Cyberkriminelle greifen immer häufiger auf KI zurück und erstellen mit LLMs täuschend echte Phishing-Mails oder Deepfakes.
(Bild: Midjourney / KI-generiert)

Je intelligenter unsere Technik wird, desto mehr stellt sich die Frage: Wer hat eigentlich die Kontrolle? Künstliche Intelligenz selbst hat keine bösen Absichten – sie tut, was ihr beigebracht wird. Und genau hier ist der Haken. Das Problem sind nicht die Maschinen, sondern die Menschen, die sie missbrauchen. Ob nun Datenvergiftung, Cloud-Schwachstellen oder bösartige KI-gestützte Angriffe – die Gefahren in der Cyberwelt wachsen. Bei einer Umfrage von Capgemini haben 97 Prozent der befragten Organisationen Sicherheitsverstöße oder -probleme im Zusammenhang mit generativer KI angegeben. Ganze 67 Prozent befürchten außerdem die „Vergiftung von Daten“ sowie den Verlust sensibler Daten, die für das Training von Gen-AI-Modellen verwendet wurden. Zu den Problemen zählen auch Halluzinationen sowie die Ausgabe unangemessener oder schädlicher Inhalte. Eine gefährliche Angriffsmethode auf KI-Anwendungen ist die sogenannte Prompt Injection. Dabei manipulieren Angreifer gezielt die Eingaben, die an ein KI-System gegeben werden – etwa durch scheinbar harmlose Befehle, die im Hintergrund unerwünschte Aktionen auslösen. Das System interpretiert manipulierte Eingaben als reguläre Anweisungen. Dadurch gibt die KI vertrauliche Informationen preis, trifft fehlerhafte Entscheidungen und kann für Betrugszwecke missbraucht werden. Diese Angriffe werden mitunter deswegen immer raffinierter, da Cyberkriminelle mittlerweile ihre eigenen Large Language Modelle (LLM) für durchdachte Betrugs- und Phishing-Attacken nutzen und an diesen ihre Techniken trainieren.

Wie denkt eine KI?

Chain-of-Thought (CoT)

„Chain-of-Thought“ (CoT) baut die Antworten von Sprachmodellen aus, indem die KI ihre Überlegungen Schritt für Schritt darlegt. Das macht die Antworten präziser und nachvollziehbarer. Statt einer einzigen direkten Antwort, ahmt die KI menschliches Denken nach und stellt ihre „Gedankenschritte“ einzeln dar. Dadurch kann man die Antwort bewerten und den Prompt bei Bedarf optimieren. Doch gerade diese Transparenz birgt Risiken: Manipulierte Eingaben sind in diesem Fall noch einfacher und können die KI in eine gefährliche Richtung lenken.

Trainingsdaten werden zum Einfallstor

Auch Daten für das Training von KI-Modellen können zur Schwachstelle werden. Angreifer versuchen fehlerhafte, manipulierte Daten in den Lernprozess einzuschleusen – eine Technik, die unter dem Begriff Datenvergiftung (Data Poisoning) bekannt ist. Das Ziel ist es, die Entscheidungsfindung der KI zu beeinflussen und gezielt Fehler zu erzeugen. Viele dieser Angriffe erfolgen über digitale Schnittstellen, sogenannte API. APIs bilden die Brücke zwischen KI-Systemen und Nutzer. Genau deshalb sind sie aber ein beliebtes Angriffsziel. Daher braucht es Zugriffsbeschränkungen, sogenannte „Rate Limits“, sowie Schutzsysteme (Gateways), die verdächtigen Datenverkehr frühzeitig erkennen.

Angriffe wie Data Poisoning oder Prompt Injection zählen laut OWSAP (Open Worldwide Application Security Project) zu zwei der fünf beliebten Angriffstechniken gegen LLMs. Sie können besonders tückisch sein, da solche Attacken oft lange unentdeckt bleiben. Solange KI keine offensichtlich fehlerhaften Entscheidungen trifft oder auffällige Antworten liefert, fällt eine Manipulation kaum auf. Das macht die Bedrohung nicht nur gefährlich, sondern auch schwer zu beheben. Sobald ein Modell auf manipulierten Daten basiert, ist es extrem aufwendig, dieses Fehlverhalten rückgängig zu machen. Dazu müssten Organisationen sämtliche Trainingsdaten durchsuchen, was angesichts der Menge kaum realisierbar ist und Unmengen an Ressourcen benötigt. Um sich besser vor solchen Gefahren zu schützen, sollten Unternehmen konsequente Zugriffsregeln für die Trainingsdaten festlegen und Zero-Trust-Modelle verfolgen. Das bedeutet, dass grundsätzlich niemandem vertraut wird und der Zugang zu den Daten nur nach Prüfung erfolgt.

KI eröffnet bahnbrechende Möglichkeiten. Um sie zu nutzen, müssen IT-Netzwerke und Sicherheit integriert gedacht werden.

Chuck Robbins, CEO, Cisco

Auch die Cloud zeigt Schwächen

Tools zur KI-Überwachung helfen, verdächtige Muster im Verhalten des KI-Modells zu identifizieren. Auffälligkeiten dieser Art sind zum Beispiel, wenn sich bestimmte Wörter oder Inhalte oft wiederholen oder sich das Verhalten der KI plötzlich stark verändert. So lässt sich unter anderem die Qualität der Trainingsdaten überwachen. Qualitativ hochwertige Daten sind meist an den drei „C's“ erkennbar: complete (vollständig), consistent (konsistent) und correct (richtig). Auch KI-gestützte Chatbots sammeln und analysieren Datensätze, um möglichst ansprechende Antworten zu generieren. Wenn diese Daten nicht durch eine starke Ende-zu-Ende-Verschlüsselung geschützt sind, kann dies zu einem erheblichen Risiko führen und im Falle eines Datenlecks liegt der Missbrauch der Daten dann nicht mehr fern. Laut NordVPN sind die meisten KI-Chatbots nicht ausreichend verschlüsselt und können dann für Dritte zugänglich sein. Besonders kostenlose KI-Chatbots stellen ein Risiko dar, da Kriminelle oft Nutzerdaten sammeln und verkaufen. Datenschutz ist also das große Schlagwort. Eine aktuelle Studie vom Bitkom hat ergeben, dass Unternehmen vor allem in den Bereichen Vertrieb, Marketing und Produktion generative KI im Einsatz haben, oder das für die Zukunft planen. Diese Bereiche arbeiten mit sensiblen Kundendaten und sind deswegen besonders anfällig für Schwachstellen.

Vorschriften, wie der AI Act,sollen helfen, Risiken diesbezüglich zu minimieren. Der AI Act legt klare Standards für den sicheren Umgang mit KI-Daten fest und fördert mehr Transparenz im Umgang mit der Technologie. Dabei sind nicht nur die KI-Infrastrukturen betroffen, die in Produkte und Dienstleistungen von Unternehmen integriert sind, sondern auch Cloud-Dienste. KI-Cloud-Dienste stellen häufig besondere Herausforderungen dar. Laut dem Tenable Cloud AI Risk Report 2025 haben 70 Prozent der KI-Cloud-Workloads offene Schwachstellen. In vielen Cloud-Systemen gibt es zum Beispiel voreingestellte Benutzerkonten mit weitreichenden Rechten, die allerdings nicht für den Nutzer notwendig sind. Werden diese nicht rechtzeitig abgesichert, bieten sie Angreifern eine einfache Möglichkeit, sich unbefugt Zugriff auf Unternehmensdaten zu verschaffen. Liat Hayun, Vice President of Research and Product Management, Cloud Security bei Tenable, erklärt: „Wenn ein Bedrohungsakteur die Daten oder das KI-Modell manipuliert, kann dies katastrophale langfristige Folgen haben, wie kompromittierte Datenintegrität, kompromittierte Sicherheit kritischer Systeme und eine Beeinträchtigung des Kundenvertrauens.“ Die Cloud-Sicherheit muss weiterentwickelt werden, damit sie den Herausforderungen der KI gerecht werden kann. Verantwortungsvolle KI-Innovationen können nur dann entwickelt werden, wenn der Schutz vor komplexen Angriffen auf KI-Daten gewährleistet ist.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Zeit für den Durchblick

Schatten KI

Viele KI-Tools laufen über externe Dienste und senden die eingegebenen Daten automatisch an Anbieter wie OpenAI oder Microsoft. Wenn Mitarbeiter diese Tools ohne Absprache der IT nutzen, spricht man von Schatten-KI. Dabei entstehen unsichtbare Risiken: Sämtliche Daten könnten unkontrolliert außerhalb der eigenen Infrastruktur landen. Zur Absicherung sind Maßnahmen wie Netzwerk-Monitoring, Zugriffsprotokollierung und Firewalls nötig. Eine zentrale Verwaltung dieser Tools sorgt dafür, dass Datenflüsse kontrolliert und unbefugte Zugriffe verhindert werden.

Um Sicherheitsrisiken in Cloud-Umgebungen zu minimieren, setzt man zunehmend auf KI-Fabriken. Das sind Rechenzentren, die speziell für den Betrieb von KI-Workloads gebaut werden. Diese Infrastruktur verbessere den Schutz von Daten, Anwendungen und Systemen. Ein Beispiel dafür ist die „Cisco Secure AI Factory“, die in Zusammenarbeit mit Nvidia entwickelt wurde. Sie vereinfacht die Bereitstellung und Absicherung von KI-Infrastrukturen und ist skalierbar, sodass Unternehmen jeder Größe davon profitieren können. Chuck Robbins, CEO von Cisco, sagt dazu: „KI eröffnet bahnbrechende Möglichkeiten. Um sie zu nutzen, müssen IT-Netzwerke und Sicherheit integriert gedacht werden.“

Was bedeutet das für den Channel?

Wenn ein Unternehmen ein KI-Modell bei einem Dienstleister hosten lässt, ob nun in der Cloud oder nicht, dann sollte auf jeden Fall beachtet werden, dass der Dienstleister auch eine entsprechende Sicherheit der Infrastruktur und Datensouveränität gewährleisten kann. Die Kundendaten und KI-Modelle sollten am besten in Europa gehostet werden, da die Unternehmen so eine bessere Kontrolle über die Ein- und Ausgabedaten behalten können und meist von mehr Unabhängigkeit profitieren. Eine sichere Nutzung von KI erfordert zudem, dass Unternehmen klare Datenschutzrichtlinien für ihre Mitarbeiter aufstellen und international anerkannte Sicherheitsstandards wie ISO/IEC 27001 umsetzen. Unternehmen sollten sich für KI-Anbieter entscheiden, die transparente Datenschutzpraktiken verfolgen und regelmäßig ihre Sicherheitsvorkehrungen aktualisieren.

Wenn ein Bedrohungsakteur die Daten oder das KI-Modell manipuliert, kann dies katastrophale langfristige Folgen haben.

Liat Hayun, VP of Research and Product Management, Cloud Security, Tenable

Die Sicherheitsexperten von Dekra bieten zudem einen Digital-Trust-Service mit Zertifizierung an. Damit wollen sie die Prüfung von Sicherheit und Compliance in eine Hand nehmen und Unternehmen dabei unterstützen, ihre Produkte mit einer transparenten und überprüfbaren digitalen Sicherheit auf den Markt zu bringen. „Innovation braucht Vertrauen“, betont Stan Zurkiewicz, CEO von Dekra. „Wir sorgen für Cybersicherheit, funktionale Sicherheit und für die Überprüfung von KI, damit unternehmerisches Handeln auf einer sicheren Grundlage steht – ohne das Tempo oder die Innovationskraft auszubremsen.

Für den IT-Channel bedeutet die Entwicklung von Künstlicher Intelligenz neue Gefahren und neue Lösungen. Gerade für Managed Security Service Provider (MSSP) bilden sich neue Chancen, da ihre spezialisierten Dienstleistungen und Lösungen gefragter denn je sind. Basierend auf der Analyse bekannter Bedrohungen haben MSSP wertvolle Informationen gesammelt. Mit diesen Informationen werden KI-Systeme gefüttert, die dann in der Lage sind, Bedrohungen nicht nur frühzeitig zu erkennen, sondern auch schnell entsprechende Gegenmaßnahmen zu ergreifen. Für die Kunden bedeutet das, dass MSSP schneller regieren und Sicherheitsrisiken präziser erkennen.

(ID:50459346)