Die rasante Entwicklung von KI-Technologien und der globale Wettlauf um deren Vorherrschaft werfen große regulatorische Fragen auf. Während die USA ihre Vorschriften lockern, investiert China massiv und die EU setzt auf den AI Act. Doch kann dieser überhaupt effektiv greifen?
Die KI sorgt für viele Veränderungen Alltag. Einerseits birgt sie zahlreiche Chancen, aber auf der anderen Seite birgt sie auch Gefahren.
(Bild: SVasco - stock.adobe.com)
Die neuen KI-Modelle von DeepSeek und die Aussicht auf deutlich geringere Kosten für das Training und die Nutzung von sogenannten Large-Language-Modellen (LLM) wie ChatGPT haben den Börsenwert des US-Chipherstellers Nvidia kurzzeitig um 600 Milliarden US-Dollar sinken lassen. Nur einige Tage zuvor, kurz nach dem Amtsantritt des erneut gewählten US-Präsidenten Donald Trump, folgte die Ankündigung seiner Administration, die KI-Regulierung in den USA herunterzufahren. Gleichzeitig wollen US-Konsortien unter dem Programmtitel „Stargate“ 500 Milliarden US-Doller in entsprechende KI-Infrastrukturprojekte investieren.
Ob diese Zahlen nun realistisch sind oder nicht, spielt dabei keine Rolle. Selbst die Hälfte dieser Investitionen würde das gesamte deutsche IT-Jahresbudget übersteigen. Und wir reden hier nur von einem einzigen Vorhaben in den USA. Man könnte sagen, die Karten liegen nun auf dem Tisch und jeder Politiker oder Beamte sollte den damit verbundenen Knall gehört haben. Das Rennen um die weltweite Vorherrschaft im Bereich KI ist nun öffentlich sichtbar.
Jeder, der sich etwas tiefer mit dem Thema KI beschäftigt, wird schnell zu der Erkenntnis gelangen, dass es absolut sinnvoll ist, diese zu regulieren. Das, was sich Politiker und der EU-Beamtenapparat überlegt haben, mag gut gemeint sein, nur leider verfehlt das EU-Gesetz zur Regulierung von künstlicher Intelligenz – der sogenannte EU AI Act – meiner Meinung nach vollständig sein Ziel. Im Gegenteil, er produziert bürokratischen Mehraufwand, über den sich nur Beratungsunternehmen freuen, die perspektivisch erhebliche Umsätze mit Testaten und Prüfungen erzielen können.
Warum das KI-Gesetz der EU ins Leere läuft
Um sich das Problem zu vergegenwärtigen, muss man verstehen, worum es sich bei KI eigentlich technisch handelt. Eine KI ist nämlich nicht nur ein Computer oder ein Softwaremodell. Eine KI ist vielmehr die Kombination eines Modells mit einer leistungsstarken IT-Infrastruktur, die in dieser Konstellation durch andere Applikationen nutzbar ist. Deshalb kann eine KI auch überall betrieben und als Service genutzt werden. Dazu ist lediglich ein technischer Zugang via Internet erforderlich. In einer mittlerweile eng vernetzten Welt, in der Menschen und Maschinen quasi ständig über das Internet verbunden sind, kann ein Nutzer unmöglich wissen, durch welche Komponenten oder Services seine Anfragen – ausgehend von einem Smartphone oder einem Computer – beantwortet werden. Wie es dem Anwender nahezu unmöglich ist, dies zu verifizieren, so wird es auch jeder Aufsichtsbehörde nicht möglich sein, das weltweit zu kontrollieren.
Ergo ist es aus technischer Sicht kaum vorstellbar, dass Trainingsmethoden von Modellen beziehungsweise deren Nutzung ernsthaft überprüft werden können, wenn sich diese außerhalb des rechtlichen Geltungsbereiches deutscher oder europäischer Gesetzgebung befinden. Und das Internet lässt sich nun einmal nicht auf juristische Geltungsgebiete beschränken. Selbst Unternehmen, die zum Beispiel Cloud-Services nutzen, können nicht sicher sein, welche Software, Daten und Modelle diesen Services zugrunde liegen. Dass US-Konzerne es mit Datenschutz und Transparenz nicht so ernst nehmen wie es europäische Standards vorsehen, sollte mittlerweile jedem bekannt sein. Zu glauben, dass sich chinesische oder russische Staatshacker oder Firmen aus solchen Ländern an europäische (Datenschutz-)Standards halten, wäre außerordentlich naiv.
Willkommen in der Realität
Die bittere Erkenntnis ist also, dass die Nutzung von KI-Modellen und deren Trainings, global betrachtet, nur sehr schwer oder gar nicht zu kontrollieren ist. Selbst innerhalb der Europäischen Union halte ich eine wirksame Kontrolle für faktisch unmöglich, allein weil eine Meldepflicht beim Einsatz von Künstlicher Intelligenz nicht durchsetzbar ist.
Der EU AI Act zielt daher auf KI-Modelle und KI-Anwendungen, die sich im europäischen Rechtsraum bewegen und sich auch freiwillig an geltendes Recht halten. Dabei ist es mit Sachverstand und gutem Willen keinesfalls unmöglich, sichere und vertrauensvolle KI-Anwendungen herzustellen oder zu betreiben. Es gibt in dem Bereich schon gute Leitlinien, vor dem EU AI Act, beispielsweise durch das Center for Research on Foundation Models (CRFM), ein Zusammenschluss von KI-Forschern verschiedener Universitäten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Auch können Unternehmen ihre KI-Anwendungen lokal, das heißt in eigenen oder zumindest deutschen Rechenzentren betreiben und so die volle Kontrolle über das behalten, was mit den Anwendungen und Daten geschieht. Moderne IT muss nicht immer auf dem intransparenten Cloud-Angebot der US-Konzerne basieren. Dieses Narrativ ist gleichermaßen falsch und aus unternehmensstrategischer Sicht sogar eher unklug. Nicht wenigen Unternehmen könnte der mangelhafte Weitblick bei der Planung der eigenen IT-Infrastruktur mittelfristig auf die Füße fallen. Gerade im Hinblick auf die aktuelle politische Entwicklung in den USA.
Diejenigen Unternehmen, die in den wesentlichen IT-Bereichen auf lokale Infrastruktur und europäische IT-Partner gesetzt haben, befinden sich nun in der Poleposition. Aber wie soll der EU AI Act unsere Gesellschaft vor KI-Modellen und Anwendungen beschützen, die nicht mit der gebotenen Sorgfalt erstellt oder betrieben werden? Wie gehen wir mit Services wie DeepSeek um, die in China verwaltet werden und ein datenschutzrechtlicher Alptraum sind? Die Daten-Trassen (oder Datenautobahnen) des Internets sind offen für alle.
Daraus resultiert, dass unsere gegenwärtige Rechtsordnung und die damit verbundene Gesetzgebung keine guten Mechanismen bieten, um die vor uns liegenden digitalen Probleme zu lösen – das haben bisher weder Politik noch Gesellschaft wirklich verstanden. Um es klar zu sagen: Ich halte eine rechtliche Regulierung für absolut sinnvoll und geboten, gleichwohl sehe ich die notwendige Kontrolle und Durchsetzung dieser Regeln nicht. Unsere klassischen Gewalten der Legislative und Exekutive kommen hier an die Grenzen des Machbaren.
Mit KI verhält es sich in etwa wie mit der Kernenergie. Sie wurde erfunden und nun ist sie da, um zu bleiben. Im Falle der Atombombe ist jedem die Zerstörungskraft durch die historischen Beispiele von Hiroschima und Nagasaki klar geworden. Genau aus diesem Grund gab es in den 1960er-Jahren relativ schnell einen großen, beinahe weltweiten Konsens zu der Frage, ob es wohl sinnvoll sei, eine Zugangsbeschränkung für Atomwaffen zu schaffen. Der Atomwaffensperrvertrag war das Ergebnis und ist eine von den meisten Ländern der Welt ratifizierte Vereinbarung, an die sich (mit wenigen Ausnahmen) die Staatengemeinschaft auch gehalten hat.
Was hat der Atomwaffensperrvertrag mit KI zu tun?
Zum einen halte ich das negative Potenzial von KI für gleichermaßen zerstörerisch wie das einer Atombombe, wenn auch auf eine ganz andere Art. Besonders gefährdet durch eine unregulierte KI ist nämlich die demokratische Grundordnung, da perfekt getrimmte Falschinformationen massenhaft erzeugt werden können und völlig unkontrolliert, aber gezielt dazu genutzt werden könnten, die öffentliche Meinung nachhaltig zu manipulieren. Zum anderen kann eine Regulierung von KI – aus den zuvor genannten Gründen – nur weltweit erfolgreich sein. Jedoch werden China, Russland und aktuell wohl auch die USA kaum dafür zu gewinnen sein, in dieser Frage mit der EU an einem Strang zu ziehen.
Aber wie könnte man KI wirksam regulieren?
Es gibt nach meiner Ansicht nur eine mögliche Stellschraube, deren Justierung wir nutzen könnten. Diese Stellschraube wäre der internationale Datenverkehr, der für sich genommen reguliert beziehungsweise teilweise aktiv beschränkt werden müsste. Also eine Art europäische Data Governance Policy, bei der die Aufsichtsbehörden den Datenfluss regulieren und überwachen. Dazu ist aber ein breiter Diskurs erforderlich, welcher in mehrerlei Hinsicht herausfordernd wäre, da es in letzter Konsequenz auch um die potenzielle Einschränkung von Freiheiten im Internet geht. Das wiederum dürfte nur schwer mit unserem demokratischen Grundverständnis von Freiheit vereinbar sein. Man würde am Ende des Tages ein sehr mächtiges Werkzeug erschaffen, dessen potenziell negative Wirkungen enorm wären.
Die allgemeine Unbedarftheit und idealistische Vorstellung, dass das Internet alle Informationen zugänglich und frei verfügbar macht und dabei eine durchweg positive Wirkung entfalten wird, fällt uns leider auf die Füße. Nicht nur undemokratische Strukturen können sich derzeit frei am öffentlich zugänglichen Fundus bedienen. Auch die Macht der Tech-Giganten über uns alle ist durch deren Datensammelwut in Kombination mit ihrer technischen Überlegenheit in ungeahnte Dimensionen vorgedrungen. Nun wird diese Allmacht mit Trumps Schützenhilfe und durch chinesische Staatsinteressen regelrecht entfesselt. Hinzu kommt, dass sich viele deutsche Unternehmen und leider auch der deutsche Staat durch ihre allzu sorglosen Cloud-Strategien in die Abhängigkeit der US-Konzerne begeben haben. Die Prognose ist deshalb eher düster.
* Falk Borgmann verfügt über 20 Jahre Erfahrung als Technologieberater und hat in dieser Funktion zahlreiche namhafte deutsche Unternehmen in IT-strategischen und technologischen Fragen begleitet. Das Team der Deepshore GmbH beschäftigt sich bereits seit über 6 Jahren intensiv mit KI und der Frage wie diese Technologie sinnvoll eingesetzt werden kann. Deepshore verbindet bewährte Machine-Learning-Lösungen mit spezialisierten KI-Systemen zu nachhaltiger Prozessautomatisierung – mit Fokus auf robusten Architekturen und messbarer Wertschöpfung auch durch maximale Sicherheit.