Der Microsoft-CTO und ein Informatiker aus dem Hochschulumfeld fühlen ChatGPT auf den Zahn. Warum „lügt“ die KI manchmal? Welche disruptiven Prozesse sind zu erwarten? Künstliche Intelligenz wirft fundamentale Fragen auf, ein KI-Moratorium, wie von Elon Musk gefordert, sei aber eine Nebelkerze.
KIs „denken“ teilweise in sehr skurrilen Bahnen.
(Bild: info@nextmars.com - stock.adobe.com)
Programmierer lassen sich mit KI fertige Codes auswerfen, Autoren delegieren das Ausformulieren von Textideen und auch die eine oder andere Trauer- oder Geburtstagsrede hat die KI verfasst. ChatGPT im Besonderen und KI im Allgemeinen hat das Zeug dazu, in viele Aspekte des Lebens vorzudringen und Bildschirmarbeit an vielen Stellen umzukrempeln. Die Disruptivität ist spürbar und wie ein Lehrbuch-Beispiel des Ökonomen Joseph Schumpeter für „schöpferische Zerstörung“.
Die Wortfolgen werden von ChatGPT so aneinandergereiht, dass sie mit hoher statistischer Wahrscheinlichkeit einem üblichen menschlichen Satzbau entsprechen. Das klingt dann zwar gut, ist aber mitunter falsch. Es fehlt ein „Nordstern“ zur inhaltlichen Ausrichtung des Arguments.
Dr. Andreas Braun, CTO, Microsoft Deutschland
Erfundene Präzedenzfälle und Aktenzeichen
Dass ChatGPT (noch) natürliche Grenzen unterliegt und für die KI-typische, skurrile Verwirrung sorgen kann, zeigt ein Beispiel aus der Jurisprudenz. So hatte sich ein Anwalt aus New York von ChatGPT helfen lassen, einen gerichtlichen Antrag zu formulieren. Dieser enthielt Verweise auf Fälle wie „Petersen gegen Iran Air“ und „Martinez gegen Delta Airlines“. Das Problem dabei: Die KI hat die Fälle samt Aktenzeichen frei erfunden. Wie kann das sein? Ist das ein weiterer Ausdruck des skurrilen „Denkens“, die Künstliche Inelligenz regelmäßig an den Tag legt (siehe Bildergalerie).
Und was wird die Technologie im Schumpeterschen Sinne zerstören und was wird daraus erwachsen? Der Chief Technology Officer (CTO) bei Microsoft Deutschland, Dr. Andreas Braun und Prof. Dr. Stephan Krusche, Dozent für Softwaretechnik an der Technischen Universität München, standen Rede und Antwort.
Es fehlt der „Nordstern“
Dr. Andreas Braun, CTO, Microsoft Deutschland
(Bild: Microsoft)
Microsoft-CTO Braun verweist auf die Grundlegende Arbeitsweise von ChatGPT: „Die Wortfolgen werden von ChatGPT so aneinandergereiht, dass sie mit hoher (statistischer) Wahrscheinlichkeit einem üblichen menschlichen Satzbau entsprechen“, so Braun. Das klinge dann zwar gut, sei aber mitunter falsch. Letztlich würde „ein Nordstern“ zur inhaltlichen sowie auch ethischen Ausrichtung des Arguments fehlen.
Weißt man die KI auf solche Fehler hin, räumt sie diese in der Regel entschuldigend ein und verbessert sich.
Feedback für Verbesserungen
Diese „falsche Gewissheit“, die dazu führt, dass manche Antworten zwar korrekt und wie vom Experten geschrieben klingen, aber inhaltliche Fehler aufweisen rührt laut Braun daher: „Gerade ChatGPT greift standardmäßig zudem lediglich auf das vortrainierte Modell (Foundation Model) zu, hat also limitiertes und mehrdeutiges Wissen“, so Braun. Die Nachfragen und Verbesserungen kommen von dem so genannten „reinforcement learning“, das Feedback zur Verbesserung einsetzt.
„Bicycle for the brain“
Prof. Dr. Stephan Krusche ist Dozent für Softwaretechnik an der TU München (Campus Heilbronn)
(Bild: TU München)
Softwaretechnik-Experte Krusche kennt als Dozent an der TU München bereits die Auswirkungen von ChatGPT in Händen von seminararbeiten-produzierenden Studenten. Einerseits könnte hier ein grundsätzliches Problem vorliegen, denn mit den richtigen Prompts können einmalige Texte erstellt werden, die – womöglich leicht umformuliert – als Hausaufgabe oder Seminararbeit durchgehen würden. Krusche bleibt gelassen und verweist auf die von Steve Jobs geprägte Metapher vom Computer als „Bicycle for the brain“. Generative KI habe das Potenzial, die Menschheit und damit die Bildung auf ein neues Niveau zu heben, so der Uni-Dozent.
Steve Jobs sagte voraus, Computer werden einmal ein „Bicycle for the brain“ sein. Das passiert gerade. Generative KI hat das Potential, die Menschheit und damit die Bildung auf ein neues Niveau zu heben.
Prof. Dr. Stephan Krusche ist Dozent für Softwaretechnik an der TU München
KI als Werkzeug nutzen können
„Die Bildungslandschaft bewegt sich bereits seit der Einführung von Google und Wikipedia weg vom Auswendiglernen hin zum Erwerb höherer kognitiver Fähigkeiten wie das Lösen von Problemen, die Anwendung von Fähigkeiten in konkreten Situationen (Transfer), die Kombination von Wissen und die Gewinnung neuer Erkenntnisse“, erläutert Krusche. Generative KI würde diesen Trend lediglich vorantreiben und beschleunigen, dass der Fokus auf kompetenzorientiertes Lernen gelegt wird. „Bildungseinrichtungen werden künftig ihre Schüler und Studierende darin ausbilden, Künstliche Intelligenz als Werkzeug zu benutzen, um die immer komplexer werdenden Aufgaben effizienter und produktiver zu erledigen.“
Wer ist „im Loop“ und mit welchen Daten wird trainiert?
Generative KI eigne sich extrem gut als Werkzeug für Menschen, wenn sie gelegentlich mit unscharfen oder sogar falschen Aussagen umgehen können, sagt Microsoft-CTO Dr. Andreas Braun. „Also eher ‚AI in the human loop‘ als ‚Human in the loop‘“. Der Erfolg hänge an der Generierung von vertrauenswürdigen Daten. ChatGPT selbst kennt hierzu das Bittensor-Projekt, wenn man ihn danach fragt. Hier soll die Blockchain Flaschenhälse und einseitige Trainingsdatenauswahl beseitigen.
Prüfungsformate im Wandel
Nichtsdestotrotz werden sich Prüfungsformate ändern, sodass soziale Fähigkeiten wie Teamarbeit und Kommunikation stärker im Vordergrund stehen. „Künstliche Intelligenz wird als Hilfsmittel erlaubt sein, Studierende müssen aber angeben, welche Hilfsmittel sie eingesetzt haben und dokumentieren, wie sie das genau gemacht haben. Solche Formate gibt es bereits an der TU München“, konkretisiert der Softwaretechnik-Professor.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
KI-Moratorium als „Nebelkerze“
Wie kommt der Geist in die Materie? Für die meisten Bewusstseinsforscher hat KI nichts mit Bewusstsein zu tun.
(Bild: Kresimir - stock.adobe.com)
Die grundlegenden Werkzeuge waren bereits seit zwei Jahren verfügbar, weiß Microsoft-Insider Braun, „die große Masse hat das aber nicht mitbekommen“. Erst mit der Einführung von ChatGPT im November 2022 war Generative KI dann plötzlich für sehr viele Menschen in einer einfachen und intuitiven Umgebung nutzbar. Das von Elon Musk und anderen geforderte „KI-Moratorium“ ordnet Braun vor diesem Hintergrund als „Nebelkerze“ ein. „Offenbar brauchten ein paar der Unterzeichner Zeit, um selbst etwas hochzuziehen. Und viele der Angstmacher-Argumente sind schlichtweg falsch.“
Risiken der Regulierung
Ein Moratorium und zu weit gehende Regulierung bergen Risiken: Nicht alle Länder würden sich daran halten. Zudem müsse KI auch für kleinere Player und Startups machbar bleiben. „Überbordende Bürokratie und staatliche Zertifizierung zementieren nur die Vorteile der ganz großen Unternehmen“, so der Microsoft-Manager.