Künstliche Intelligenz und automatisierte IT-Security KI-Wächter-Tools im Hintergrund

Von Dr. Stefan Riedl 3 min Lesedauer

Anbieter zum Thema

Künstlicher Intelligenz fehlt Bewusstsein und Selbstreflektionsfähigkeit. Daher rührt das Problem des Halluzinierens. Inwieweit man KI-Tools als Security-Wächter im Hintergrund trauen kann, lotet der Cybersecurity-Chef eines IT-Beraters aus.

KI-Helferlein überwachen fleißig im Hintergrund die Systeme.(Bild:  Blackdorian - stock.adobe.com)
KI-Helferlein überwachen fleißig im Hintergrund die Systeme.
(Bild: Blackdorian - stock.adobe.com)

Kann man Künstlicher Intelligenz trauen? Berühmt-berüchtigt ist die Erfahrung eines Anwalts aus New York geworden, der sich von ChatGPT helfen hat lassen, einen gerichtlichen Antrag zu formulieren. Dieser war augenscheinlich gut, enthielt Verweise auf Fälle wie „Petersen gegen Iran Air“ und „Martinez gegen Delta Airlines“. Das Problem dabei: Die KI hat die Fälle samt Aktenzeichen frei erfunden. Der Effekt nennt sich „Halluzinieren“ und wohnt der Arbeitsweise einer KI fundamental inne.

Kindliche KI


Philip Lorenzi, Head of Cybersecurity bei den IT-Consultants von MaibornWolff, kennt das Phänomen: „Das Verhalten von KI ähnelt oft dem eines Kindes, das unbedingt eine Antwort geben möchte, selbst wenn es die Frage nicht vollständig versteht oder nicht über ausreichende Informationen verfügt.“ Dies kann zu seltsamen Ergebnissen führen, wenn die KIs Antworten generieren, obwohl sie nicht dazu in der Lage sind. So habe ihn, Philip Lorenzi, eine KI bereits sehr ausführlich belehrt, dass er ­eine fiktive Person im Kriminalroman eines südamerikanischen Autors sei. Genau genommen ein kannibalistischer Serienmörder. „Den Autor und gleichnamigen Roman gibt es“, so der Security-Chef, „aber es kommt weder eine Person mit meinem Namen vor, noch spielt Kannibalismus in diesem Buch eine Rolle“ – zumindest, wenn man der menschlich generierten Wikipedia-Zusammenfassung des Inhalts glauben darf.

Ambivalentes Thema

Kein Wunder, dass Künstliche Intelligenz ambivalent betrachtet wird, auch seitens der Kunden im Tagesgeschäft der IT-Berater. „Wir beobachten aktuell zwei grundsätzliche Haltungen gegenüber Künstlicher Intelligenz im Security-Kontext“, so Lorenzi. Auf der einen Seite stehen diejenigen, die der Überzeugung sind, dass KI-Tools ihre IT-Landschaft sicherer machen werden. Andere wiederum sind besorgt über Video-Deepfakes, gefälschte Stimm-Imita­tionen und KI-generierte Phishing-Mails und wünschen sich diesbezüglich mehr Aufklärung. So ist die Nachfrage nach KI-basierten Lösungen dementsprechend hoch, auch wenn Unternehmen oft nicht genau wissen, auf was beim Kauf und bei der Implementierung zu achten ist, bei anderen überwiegt die Skepsis. „Beide Standpunkte sind berechtigt und finden in unserer Beratungstätigkeit Berücksichtigung“, so der Manager.

Einsatzmöglichkeiten

Philip Lorenzi, Head of Cybersecurity, MaibornWolff(Bild:  MaibornWolff)
Philip Lorenzi, Head of Cybersecurity, MaibornWolff
(Bild: MaibornWolff)

Die Einsatzmöglichkeiten sind mannig­faltig, weiß der Security-Experte: „KI, insbesondere Machine Learning, kann Muster erkennen, Anomalien aufspüren und automatisch auf diese reagieren, sei es durch Warnungen oder direktes Eingreifen in Prozesse.“ Das erweist sich in verschiedenen Security-Segmenten als äußerst hilfreich: So kann die KI Netzwerktraffic und Nutzungsmuster erkennen. Es können komfortablere und dennoch sicherere Methoden im Identity- und Access-Management (IAM) etabliert werden, beispielsweise die Entscheidung, wann eine Zwei-­Faktor-Authentifizierung angemessen ist. KI kann laut Lorenzi Aufgaben vereinfachen und Daten aus unterschiedlichen Quellen zusammenführen, um ein umfassendes Bild zu erhalten. Die KI-Analyse ­vereinfacht es zudem, die Komplexität wachsender Systeme zu begreifen. „Im Idealfall hilft sie, wichtige Alarme oder verdächtiges Verhalten von irrelevantem ‚Rauschen‘ zu trennen“, sagt der Manager.

Vorliegende Daten

KI kann darüber hinaus dazu genutzt werden, um automatisiert Menschen-les­bare Berichte über erkannte Sicherheitsvorfälle zu erstellen. Dies kann sowohl bei der Krisenkommunikation als auch bei der eigentlichen Problemlösung helfen. Hier liegen die Daten vor und das Halluzinieren stellt keine Problematik dar.

Grenzen der KI

Aber: KI ersetzt nicht das menschliche Urteilsvermögen. „Sie trifft keine komplexen ethischen oder geschäftsrelevanten Entscheidungen. Sie ist nicht fehlerfrei, kann aber viele Prozesse beschleunigen und Entwickler in ihrer Arbeit unterstützen, beispielsweise durch zusätzliche Code Reviews mit Tools wie Copilot oder Codellama“, fasst der Security-Profi zusammen.