Die hinter ChatGPT stehende KI-Engine GPT-4 leistet Erstaunliches – und das muss nicht unbedingt nur Gutes sein. Nun hat der Chef des GPT-Entwicklers OpenAI davor gewarnt, der KI freien Lauf zu lassen. Man müsse sich vor möglichen negativen Folgen einer solchen Technologie schützen. Die Einsicht kommt spät.
Die KI-Modelle werden immer besser – und diese Entwicklung ist noch lange nicht am Ende. Höchste Zeit sicherzustellen, dass die Technik nur zum Wohle der Menschen eingesetzt werden kann – doch das ist gar nicht einfach.
„Dies wird die größte Technologie sein, die die Menschheit je entwickelt hat“, sagte Sam Altman, CEO des GPT-Entwicklers OpenAI, letzte Woche in einem Interview mit dem US-amerikanischen Nachrichtensender ABC News. „Wir sind ein bisschen ängstlich.“ Der Grund: Die Technologie berge echte Gefahren, da sie beispielsweise die Macht habe, Gesellschaften umzugestalten. Daher müssten Behörden und die Gesellschaft in die Technologie einbezogen werden, um sich vor möglichen negativen Folgen für die Menschheit zu schützen. „Wir müssen hier vorsichtig sein“, betont Altman im Gespräch. Die Menschen sollten froh darüber sein, dass sein Team „ein wenig Angst vor der Sache“ hätte.
Was Altman dann im weiteren Verlauf des Interviews zum Besten gibt, spielt KI-Kritikern in die Karten: So würden sich die Modelle für groß angelegte Desinformationskampagnen eignen. Auch sei er darüber besorgt, dass die KI immer besser darin werde, Computercode zu schreiben: „Damit könnten sie für offensive Cyberangriffe verwendet werden.“
Rasant wachsende Anwenderschaft
Die Warnung kam zu dem Zeitpunkt, an dem OpenAI gerade die neueste Version seines KI-Modells, GPT-4, veröffentlicht hat – nicht einmal vier Monate nachdem die ursprüngliche Version veröffentlicht wurde und zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte wurde.
Gegenüber ABC News sagte Altman, der Ingenieur für künstliche Intelligenz ist, dass die neue GPT-Version (Generative Pre-trained Transformer) „nicht perfekt“ sei. Doch bereits mit ihrem jetzigen Können habe sie bei in den USA bei Anwalts-Examensprüfungen 90 Prozent und beim SAT-Mathetiktest der High School ein nahezu perfektes Ergebnis erzielt. GPT-4 könne auch Computercode in den meisten Programmiersprachen schreiben, sagte er.
Chancen durch KI – aber auch absehbare Gefahren
Während viele Menschen – in der Bundesrepublik nach einer aktuellen Umfrage rund drei Viertel der Bürger – Künstliche Intelligenz als Chance sehen, haben etliche auch erhebliche Bedenken, ob sich die KI langfristig beherrschen lässt und ob möglicherweise Menschen durch Maschinen ersetzt werden könnten. Laut Altman funktioniert KI nur unter der Anleitung oder dem Input von Menschen. „Sie wartet darauf, dass jemand ihr einen Input gibt“, sagte er.
Das Werkzeug werde in hohem Maße von Menschen kontrolliert. Hier gebe es jedoch ein Problem – nämlich, welche Menschen die Kontrolle über die Eingaben haben. Zwar habe man Sicherheitsgrenzen gesetzt, „doch es wird Menschen geben, die diese nicht einhalten“, sagte Altman. Die Gesellschaft hat seiner Ansicht nach „nur eine begrenzte Zeit, um herauszufinden, wie man darauf reagiert, wie man es reguliert und wie man damit umgeht.“
„Gefährlicher als Atomwaffe“: Selbst Elon Musk fordert KI-Kontrollen
Mit seinen Warnungen steht Altman nicht alleine da: Auch Tesla-CEO Elon Musk, Trouble Kid der Tech-Branche und einer der ersten Investoren von OpenAI, hat wiederholt davor gewarnt, dass KI beziehungsweise AGI, also „allgemeine künstliche Intelligenz“ (artificial general intelligence) – gefährlicher sei als eine Atomwaffe.
Musk sieht es nach eigenen Worten als ein großes Problem an, dass es keine regulatorische Aufsicht über KI gebe: „Ich fordere seit über einem Jahrzehnt eine Regulierung der KI-Sicherheit!“ teilte er etwa im Dezember auf seinem Messenger-Dienst Twitter mit: „Was bleibt uns Menschen dann noch zu tun?“ Nicht umsonst beschäftigt sich auch der Deutsche Ethikrat intensiv mit dem Thema – und hat sich nun für strikte Begrenzungen bei der Verwendung von künstlicher Intelligenz ausgesprochen.
Gleichzeitig spricht er sich gegen eine pauschale Verteufelung der Technologie aus: „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern“, sagte Alena Buyx, die Vorsitzende des Deutschen Ethikrates, in Berlin. KI dürfe den Menschen nicht ersetzen. Generell zeigt KI nach Auffassung des Ethikrats in vielen Fällen aber „eindeutig positive Folgen im Sinne der Erweiterung der Möglichkeiten menschlicher Autorschaft“.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Deduktives Denken statt stumpfes Auswendiglernen
Altman sagte im Interview, dass die neueste Version von GPT deduktives Denken anstelle von Auswendiglernen verwendet. Dedikutives Denken ist ein Prozess, der zwingend logische Schlussfolgerungen zieht. Der Prozess könne zu ungewöhnlichen bis bizarren Antworten führen. „Die Sache, vor der ich die Leute am meisten zu warnen versuche, ist das, was wir das 'Halluzinationsproblem' nennen“, sagte Altman: „Das Modell wird selbstbewusst Dinge behaupten, als wären sie Tatsachen, die völlig erfunden sind.
Aus diesem Grund solle man die von OpenAI erstellten Modelle als Denkmaschine und nicht als Faktendatenbank betrachten. Die Technologie könne zwar als Faktendatenbank fungieren, doch das sei nicht das Besondere an den Modellen: „Was wir wollen, dass sie eher in der Lage sind, zu schlussfolgern, als sich etwas zu merken“.