Künstliche Intelligenz im Sicherheitskontext Was echte KI-Security von Katzenbildern lernen kann

Autor / Redakteur: Mark Rees / Peter Schmitz

Hacker finden meist schnell einen Weg, neue Technologien zu ihrem Vorteil zu nutzen und KI ist da keine Ausnahme. Um intelligenten Cyberangriffen die Stirn zu bieten, müssen Security-Anbieter schon heute Wege finden, das Potenzial der neuen Technologie tatsächlich auszuschöpfen. Ein möglicher Schlüssel hierzu findet sich an unerwarteter Stelle: in der Bilderkennung.

Anbieter zum Thema

Damit Suchmaschinen eine Katze in unbekannten Bildern erkennen können, kommen Convolutional Neural Networks (CNN) zum Einsatz, diese ließen sich theoretisch auch für die Erkennung von Cyberangriffen nutzen.
Damit Suchmaschinen eine Katze in unbekannten Bildern erkennen können, kommen Convolutional Neural Networks (CNN) zum Einsatz, diese ließen sich theoretisch auch für die Erkennung von Cyberangriffen nutzen.
(Bild: gemeinfrei / Pixabay )

„In den nächsten zehn bis fünfzig Jahren werden KI-Systeme entwickelt sein, die nicht nur intelligenter sind als Menschen, sondern auch eine signifikante Menge an weiteren Vorteilen an den Tag legen; sie werden schneller und verlässlicher sein, eine raschere Auffassungsgabe besitzen und robuster sein.“ Diese geradezu prophetischen Worte schrieb Professor Kevin Warwick, einer der weltweit führenden Kybernetiker, in seinem Buch „In the Mind of the Machine“ – und das bereits 1998.

Heute – 21 Jahre später –, finden wir uns in einer zunehmend digitalisierten Gesellschaft wieder, in der es leichter ist, vom anderen Ende der Welt aus mit den Kollegen an ein und derselben Präsentation zu arbeiten, als einen angemessenen Schutz unserer privaten wie geschäftlichen Daten sicherzustellen. In der heutigen Zeit sind diese Manipulation, Diebstahl und Zerstörung ausgesetzt, wie dies vielleicht noch nie zuvor der Fall war. Das wertvolle geistige Eigentum von Unternehmen, sensible Kundendaten sowie kritische Infrastrukturen stehen nahezu konstant im Visier von Industriespionage und -sabotage.

Das Verbrechen ist digital geworden. Es nutzt unsere technische Abhängigkeit und unseren Wunsch nach immer höherer Bequemlichkeit gnadenlos aus. Ein simpler Einkauf ist zu einer datenlastigen digitalen Transaktion geworden und unsere Smartphones beherbergen eine größere Menge an persönlichen Details als sie jemals in unseren eigenen vier Wänden oder an unserem Arbeitsplatz zu finden waren. Jeder Schritt unseres täglichen Lebens hinterlässt digitale Spuren – schier unbegrenzte Datenmassen, die sich nicht nur in den Händen der großen Internetkonzerne zu Geld machen lassen, wie es die US-Wissenschaftlerin Shoshana Zuboff jüngst mit dem Stichwort „Surveillance Capitalism“ betitelt hat. Dabei ist der Schritt vom „Surveillance Capitalism“ zum „Surveillance Crime“ kein großer: Auch für Hacker und Cyberkriminelle stellen die Datenmassen eine lukrative Beute dar. Deren Diebstahl lässt sich aus der Ferne begehen. Sehr praktisch: Keine sperrige Beute mehr, die umständlich vom Tatort abtransportiert werden müsste.

Freund und Feind KI

Im Zuge der unaufhaltsamen technologischen Weiterentwicklung dringt nun auch Künstliche Intelligenz (KI) in unser privates und berufliches Leben vor – und das nicht nur zu unserem Vorteil. Cyberkriminelle greifen auf KI-Systeme zurück, um Sicherheitslücken zu finden und anzugreifen, und befeuern in diesem Zuge den scheinbar endlosen Wettstreit zwischen autonomem KI-Hacking und dem Schutz durch solche Systeme. Denn nutzen Cyber-Attacken zunehmend Künstliche Intelligenz, müssen auch wir diese selbstverständlich effektiv kontern, um in diesem Rennen möglichst immer einen Schritt voraus zu bleiben. Schließlich eröffnet KI auch der Security-Branche völlig neue Möglichkeiten, den Schutz von persönlichen Daten und geistigem Eigentum sicherzustellen.

Obwohl Künstliche Intelligenz in der IT-Security zum beliebten Buzzwort unter Herstellern geworden ist, um ihre Innovationskraft zur Schau zu stellen, nutzte vor gerade einmal zwei Jahren lediglich eine Handvoll Anbieter KI tatsächlich im IT-Security-Kontext. Einer der ersten Pioniere beispielsweise experimentierte mit dem Einsatz von trainierten neuronalen Netzen, um Malware ohne Nutzung von Millionen von Virus-Signaturen aufzuspüren. Heute integrieren tatsächlich mehr und mehr Anbieter KI-Technologie in ihre Produkte, wobei gerade netzwerkbasierte Intrusion-Detection-Systeme, die auf die kontinuierliche Analyse von Netzwerkverkehr ausgelegt sind, am Markt noch immer unterrepräsentiert sind und kaum auf KI-Ansätze zurückgreifen. In den meisten Fällen kommt vielmehr eine Big-Data-Verarbeitung mithilfe von maschinellem Lernen zum Einsatz, um etwa Signaturen zu erstellen. Eine solche Herangehensweise ist jedoch nicht notwendigerweise auf KI angewiesen.

Ein genuiner KI-Ansatz würde vielmehr in einem selbstlernenden System bestehen, das sich vor dem Hintergrund der fortgeschrittenen und sich ständig verändernden Attacken auf dieselbe Art und Weise weiterentwickelt, wie wir es von einem künstlichen Gehirn erwarten würden. Der Kern eines solchen Systems wäre ein Künstliches Neuronales Netz (KNN), das ausschließlich aus Knoten (Neuronen) mit gewichteten Verbindungen bestünde. Denn darin besteht das Prinzip eines KNN: Mit zunehmendem Input verändert sich die Gewichtung einer jeder Verbindung – und allein das repräsentiert das „Wissen“ des KNN. Kontinuierliches Training beeinflusst die Gewichtungen und verbessert entsprechend das Wissen des neuronalen Netzes.

Sich ein Bild vom Angriff machen

Eine echte KI-Anwendung in der IT-Security könnte somit beispielsweise ein netzwerkbasiertes Intrusion-Detection-System (N-IDS) sein, das zur Erkennung einer Sicherheitsverletzung nicht auf bekannte Angriffsmuster zurückgreift, sondern vielmehr ein KNN nutzt, das ein echtes Verständnis von der Unterscheidung zwischen gutem und schlechtem Netzwerkverkehr entwickelt. Dieses trainierte KNN könnte Netzwerke ohne die Notwendigkeit von täglichen Updates seiner Musterdatenbank schützen. Vielmehr lernt und entwickelt es sich, indem es das Netzwerk im realen Einsatz gegen die sich ständig weiterentwickelnden Bedrohungen schützt.

Ein solches System zu trainieren, ist eine große Herausforderung, zumal Netzwerkverkehr divers und entsprechend schwer zu analysieren ist. Dennoch bestehen Möglichkeiten – die heutige Bilderkennung beispielsweise, eine der am meisten untersuchten KI-Technologien, bietet einen interessanten Ansatz, dies zu erreichen. Um es etwa Suchmaschinen zu ermöglichen, eine Katze in unbekannten Bildern zu erkennen, kommen in der Regel sogenannte Convolutional Neural Networks (CNN) zum Einsatz, die in der Lage sind, Input visuell zu analysieren. Indem nun beispielsweise guter sowie schädlicher Netzwerk-Verkehr als Graustufen-Bild dargestellt wird (jedes Byte könnte als ein Pixel repräsentiert werden), ließen sich Bilder für harmlosen Datenverkehr oder bösartige Angriffe erstellen.

Die Voraussetzung hierfür wäre selbstverständlich, dass zunächst eine temporäre Entschlüsselung des Netzwerkverkehrs (z. B. durch SSL-Interception) sowie eine Separierung der unterschiedlichen genutzten Protokolle in einem Datenstrom (HTTP, HTTPS, SMTP etc.) erfolgt, um die einzelnen Schichten zu analysieren. Zudem empfiehlt sich für die Implementierung der KI-Algorithmen die Nutzung einer Cloud-Infrastruktur, die aufgrund ihrer Skalierbarkeit die benötigte Leistungsfähigkeit bereitstellen kann.

Durch dasselbe Training und dieselbe Technologie, die auch bei der Bilderkennung zum Einsatz kommt, ließen sich daraufhin spezialisierte KI-Klassifikatoren trainieren, die dann in der Lage wären, schädlichen Traffic durch die Analyse der Bilder zu erkennen und in die entsprechende Kategorie einzuteilen. In diesem Szenario lernt das System durch Erfahrung und verbessert sich dabei kontinuierlich selbst. Denn im Gegensatz zu klassischer Software, die Bugs haben kann, besteht im KI-Kontext kein Quellcode im eigentlichen Sinne, in dem ein Fehler behoben werden könnte. Ein „Bug“ in einem KNN kann vielmehr lediglich „abtrainiert“ werden durch erfahrungsbasiertes Lernen – genau wie auch wir Menschen lernen, Dinge nicht auf eine falsche Art und Weise zu tun.

Wissen ist Macht

Noch stehen wir ganz am Anfang der KI-Reise im Security-Kontext. Sicher ist jedoch: Es ist nur eine Frage der Zeit, bis unsere Abwehrsysteme nicht nur menschlichen Hackern, sondern auch intelligenten Systemen gegenüberstehen werden. Ein wirklich effizienter Schutz wird dann darauf hinauslaufen, diesen in der Praxis einen Schritt voraus zu bleiben. Damit ist nicht nur gemeint, schneller zu sein – diesen Vorteil haben wir bereits vor geraumer Zeit an die Maschinen abgetreten. Entscheidend wird vielmehr die Fähigkeit sein, hohe Komplexitätsgrade und Wissen zu verarbeiten, um einen kontinuierlichen Lern- und Verbesserungsprozess zu erreichen. Denn wie Kevin Warwick 1998 voraussagte: „KI besitzt nicht nur einen Vorteil. KI besitzt alle.“ Dafür zu sorgen, dass diese auch tatsächlich zum „Guten“ verwendet werden, bleibt Anspruch und Aufgabe der Security-Branche.

Über den Autor: Mark Rees ist Chief Operating Officer bei Secucloud.

(ID:45979977)