Studie des TÜV-Verbands ChatGPT & Co: Fast jeder dritte KI-Nutzer findet Fehler

Von Berk Kutsal 3 min Lesedauer

Anbieter zum Thema

Zwei Jahre nach dem Start von ChatGPT nutzt erstmals eine Mehrheit der Deutschen generative KI. Doch das Vertrauen in die Technologie bleibt niedrig. Eine Studie des TÜV-Verbands zeigt, dass Nutzer zwar die Vorteile von KI erkennen, jedoch große Zweifel an der Qualität der Ergebnisse und potenziellen Risiken haben. Besonders in Bezug auf Fake News und Wahlmanipulation gibt es massive Bedenken. Und während Privatnutzer noch zögern, setzen Unternehmen längst auf KI – mit klarerem Fokus.

TÜV-Verband-Umfrage: 75 Prozent der KI-Nutzer sind mit den Ergebnissen zufrieden, aber jeder Dritte findet Fehler. Kritischer Umgang mit generativer KI sei notwendig. (Bild:  Peopleimages - AI - stock.adobe.com)
TÜV-Verband-Umfrage: 75 Prozent der KI-Nutzer sind mit den Ergebnissen zufrieden, aber jeder Dritte findet Fehler. Kritischer Umgang mit generativer KI sei notwendig.
(Bild: Peopleimages - AI - stock.adobe.com)

Als OpenAI Ende 2022 ChatGPT auf die Welt losließ, war der Hype unübersehbar. Zwei Jahre später hat sich der Sturm gelegt – doch generative KI ist gekommen, um zu bleiben. Laut einer Studie des TÜV-Verbands haben 91 Prozent der Deutschen von Tools wie ChatGPT, Microsoft Copilot oder Google Gemini gehört, und mehr als die Hälfte hat sie bereits genutzt. Ein historischer Moment: Zum ersten Mal überwiegt die Zahl der KI-Nutzer die der Skeptiker. Doch ist das eine Erfolgsgeschichte? Nicht ganz. Denn trotz der steigenden Verbreitung bleibt das Misstrauen in die Technologie hoch.

KI wird genutzt, aber nicht vertraut

Die TÜV-Studie zeigt ein Paradoxon: Während immer mehr Menschen KI verwenden, glaubt knapp die Hälfte nicht an die Korrektheit der generierten Ergebnisse. 48 Prozent der Befragten gaben an, geringes oder gar kein Vertrauen in die Antworten von Chatbots und KI-gestützten Anwendungen zu haben. Dabei sind die Hauptkritikpunkte wenig überraschend: Die Ergebnisse seien oft oberflächlich (48 Prozent), nicht konkret genug (43 Prozent) oder schlicht fehlerhaft (31 Prozent). Ein Drittel der Befragten hat demnach schon Erfahrungen mit falschen oder unpräzisen KI-Antworten gemacht.

Dennoch: KI ist längst mehr als ein Spielzeug für Technikbegeisterte. Sie hat sich als Werkzeug in der Texterstellung (50 Prozent), bei Recherchen (48 Prozent) und sogar in der Softwareentwicklung (19 Prozent) etabliert. Besonders auffällig ist, dass 26 Prozent der Nutzer generative KI mindestens mehrmals pro Woche verwenden – KI ist im Arbeitsalltag vieler Menschen angekommen.

Unternehmen denken anders: Effizienz schlägt Skepsis

Während Privatnutzer zwischen Begeisterung und Zweifel schwanken, zeigt sich in der Geschäftswelt ein anderes Bild. Unternehmen setzen verstärkt auf KI, allerdings mit einem anderen Ansatz: Hier zählt weniger die Kreativität eines Chatbots als vielmehr die Effizienzsteigerung. KI übernimmt bereits in vielen Unternehmen die automatisierte Datenauswertung, erstellt Berichte, optimiert Workflows und unterstützt in der Kundenkommunikation.

Doch auch hier bleibt Skepsis. Datenschutz, Haftung und die Kontrolle über sensible Unternehmensdaten sind zentrale Fragen. Viele Firmen setzen daher nicht auf öffentliche Modelle wie ChatGPT, sondern entwickeln eigene, geschlossene Systeme. Der Unterschied zum Privatnutzer? Unternehmen haben eine geringere Toleranz für Halluzinationen – falsche Antworten können hier reale wirtschaftliche Schäden verursachen. KI muss liefern, nicht fantasieren.

Das Problem mit der Wahrheit: KI und Desinformation

Während KI in der Produktivität punktet, zeigt sich bei der Informationsvermittlung eine besorgniserregende Entwicklung. 83 Prozent der Befragten sehen in KI eine treibende Kraft hinter der Verbreitung von Fake News, 77 Prozent sind nicht in der Lage, den Wahrheitsgehalt von KI-generierten Texten zu überprüfen. Noch kritischer wird es im politischen Kontext: 87 Prozent halten Deepfakes für eine ernsthafte Bedrohung der Wählermeinung, 79 Prozent befürchten, dass KI-generierte Inhalte Wahlentscheidungen beeinflussen könnten. Angesichts der bevorstehenden Wahlen in den USA und Europa sind das alarmierende Zahlen.

Doch sind die Sorgen berechtigt? Fakt ist, dass generative KI nie für Wahrheitsfindung entwickelt wurde. Sprachmodelle wie ChatGPT sind darauf trainiert, plausible Antworten zu liefern – nicht notwendigerweise korrekte. Hier liegt das Problem: KI kann überzeugend klingen, auch wenn sie falsch liegt. Das Vertrauen in digitale Inhalte wird dadurch weiter ausgehöhlt.

Regulierung als Allheilmittel?

Die Lösung? Regulierung – zumindest aus Sicht der Befragten. 90 Prozent fordern gesetzliche Vorgaben, um den KI-Einsatz zu steuern. Besonders hoch ist die Zustimmung für eine verpflichtende Kennzeichnung von KI-generierten Inhalten (86 Prozent) und unabhängige Sicherheitsprüfungen (83 Prozent). Die europäische KI-Regulierung (EU AI Act) wird dabei als wichtiges Instrument gesehen, doch ihre volle Wirkung wird erst ab 2026 greifen.

Bis dahin bleibt vieles den Unternehmen selbst überlassen. Doch reicht freiwillige Selbstkontrolle aus? Die Vergangenheit hat gezeigt, dass Big Tech oft erst auf Druck reagiert. Die Herausforderung liegt darin, ein Gleichgewicht zu finden: Zu strikte Regulierungen könnten Innovationen ausbremsen, zu lasche Vorgaben lassen Tür und Tor für Missbrauch offen.

(ID:50372917)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung