Schwachstellen von Künstlicher Intelligenz Braucht Künstliche Intelligenz künftig selbst eine Therapie?

Von Dipl.-Phys. Oliver Schonschek 3 min Lesedauer

Anbieter zum Thema

Wenn es um Therapien und Künstliche Intelligenz (KI) geht, denkt man zum Beispiel an KI-Chatbots, die bald bestimmte Aufgaben in einer Gesprächstherapie übernehmen könnten. Doch KI-Lösungen haben selbst ihre Probleme und brauchen Unterstützung, wie Untersuchungen zeigen. Wird KI in Zukunft selbst therapiert? Wird es die Aufgabe eines Therapeuten für KI geben?

Wird Deutschland Künstliche Intelligenz in Wirtschaft und Bildung, Gesundheitssektor und Staat und Verwaltung so nutzen, dass sie auch wirklich nützt? Wird KI uns wirklich von den Routineaufgaben entlasten? Das wollte eine Umfrage von „Das Progressive Zentrum“, ein Think Tank aus Berlin, wissen.(Bild:  www.progressives-zentrum.org)
Wird Deutschland Künstliche Intelligenz in Wirtschaft und Bildung, Gesundheitssektor und Staat und Verwaltung so nutzen, dass sie auch wirklich nützt? Wird KI uns wirklich von den Routineaufgaben entlasten? Das wollte eine Umfrage von „Das Progressive Zentrum“, ein Think Tank aus Berlin, wissen.
(Bild: www.progressives-zentrum.org)

Geht es darum, wo KI am besten für Entlastung sorgen kann, werden oftmals die sogenannten Routinearbeiten genannt. Wir Menschen haben dann Zeit für höherwertige Aufgaben, wenn sich die KI um die Routine kümmert. Das klingt nach einer guten Arbeitsteilung. Der Digitalverband Bitkom erklärt zum Beispiel: Die KI wird in erster Linie den Menschen unterstützen, etwa indem sie sich wiederholende Aufgaben übernimmt, auf eventuelle Fehler hinweist oder wichtige Erkenntnisse aus großen Datenmengen zieht.

Doch viele Menschen vertrauen gar nicht darauf, dass KI dies auch tun wird. Eine Umfrage des Berliner Think Tank „Das Progressive Zentrum“ ergab, dass über die Hälfte der Befragten nicht daran glaubt, dass KI entlasten und lästige Routinen abnehmen wird.

Bildergalerie

Das scheinen KI-Lösungen ähnlich zu sehen, wie Untersuchungen zeigen.

Wenn KI scheinbar bequem und lustlos wird

Bekanntlich wollen wir Menschen Routineaufgaben vermeiden, weil sie uns langweilig erscheinen und müde machen. Das dürfte eine KI dann gerne übernehmen. In Entwickler-Foren wie dem OpenAI Developer Forum findet man Beiträge, dass Chatbots scheinbar bequem werden und Aufgaben nicht mehr übernehmen wollen.

Insbesondere wiederholte Aufgabenstellungen und damit genau die Routine-Aufgaben, von denen uns Menschen eigentlich die KI entlasten soll, könnten so mancher KI Probleme bereiten. Das gilt auch für die Trainingsphasen. Wenn wir zum Beispiel die Generierung von Trainingsdaten einer KI überlassen und damit wird dann eine KI wiederholt trainiert, kann das problematisch sein. Eine Forschungsarbeit dazu kam zu dem Schluss: „Der Fluch der Rekursion: Training mit generierten Daten lässt Modelle vergessen.“ Man spricht auch von „Model collapse“.

KI braucht den Menschen für das Training, nicht nur zu Beginn

Offensichtlich braucht KI das Training durch die Daten von uns Menschen. Die zuvor erwähnte Untersuchung kommt zu dem Schluss: „Tatsächlich wird der Wert der über echte menschliche Interaktionen mit Systemen gesammelten Daten angesichts der von LLMs generierten Inhalte in aus dem Internet gecrawlten Daten noch weiter steigen.“

KI-Systeme sind von uns Menschen abhängig, wie zum Beispiel auch eine Studie „KI in der Cybersicherheit“ von Capterra bekräftigt, indem sie aussagt, dass KI-Systeme nicht unabhängig sind und daher überwacht werden müssen. KI-basierte Systeme erfordern demnach qualifizierte Fachkräfte, die effektiv mit ihnen arbeiten können. Darüber hinaus ist eine manuelle Überprüfung erforderlich, um genaue Schlussfolgerungen zu ziehen, so die Studie.

„Künstliche Intelligenz kann eine IT-Abteilung nicht ersetzen“, meint auch Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder. „KI kann aber IT-Fachkräfte bei den unterschiedlichsten Aufgaben unterstützten und zum Beispiel bei Problemen und Fragen aus dem Team oft ebenso gute Unterstützung bieten wie ein menschlicher Support. KI kann zudem bei eher langweiligen Aufgaben oder solchen, die eine langanhaltend hohe Konzentration erfordern, helfen.“

Damit aber KI wirklich eine solche Unterstützung sein kann, muss sie von Menschen trainiert und nachtrainiert werden, immer wieder. Wenn man also das regelmäßige (Nach-)Training einer KI durch menschliche Interaktionen als Therapie einer KI ansieht, dann könnte es also bald wirklich etwas wie die Rolle „Therapeut für KI“ oder KI-Trainer geben, mit dem Ziel, die KI „fit“ und leistungsstark zu halten.

Das bestätigt auch eine neue Bitkom-Umfrage „KI ersetzt Jobs in der IT – und schafft zugleich neue“: So geht ein Drittel (34 Prozent) der Befragten davon aus, dass neue Berufsbilder entstehen, wie etwa KI-Trainer oder Prompt Engineer. Sicherlich kann man dann auch von KI-Therapeuten sprechen, die KI therapieren und nicht mit KI therapieren.

(ID:50332853)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung