Safer Internet Day 2026 Jugendliche & KI-Bots: Emotionale Unterstützung oder Gefahr?

Von Agnes Panjas 6 min Lesedauer

Anbieter zum Thema

KI-Bots sind aus dem digitalen Alltag junger Menschen nicht mehr wegzudenken. Sie informieren, beraten und werden manchmal sogar als emotionaler Support genutzt. Doch welche Risiken birgt die emotionale Nutzung von KI-Bots und wie sieht die rechtliche Lage aus?

KI-Bots stehen manchen Jugendlichen als emotionale Unterstützung zur Seite. Diese intensive Interaktion kann jedoch Risiken bergen.(Bild:  Canva / KI-generiert)
KI-Bots stehen manchen Jugendlichen als emotionale Unterstützung zur Seite. Diese intensive Interaktion kann jedoch Risiken bergen.
(Bild: Canva / KI-generiert)

Generative KI-Bots sind längst Teil unseres digitalen Alltags, sei es als Chatbots in den sozialen Medien oder als spezielle Companion-Apps wie „Character.AI“. Laut der aktuellen JIM-Studie nutzen 90 Prozent der 16- bis 19-jährigen Jugendlichen ChatGPT. Die Nutzung von Chatbots geht jedoch häufig über die reine Informationsrecherche hinaus. KI-Systeme übernehmen zunehmend Rollen, die traditionell Menschen vorbehalten waren, wie die von Freunden, Pädagogen, Partnern oder Therapeuten. Dabei können „parasoziale Beziehungen“ entstehen. Diese definieren sich als einseitige Bindungen zu digitalen Systemen, die eine Illusion von Nähe und Vertrautheit vermitteln. Doch welche Risiken entstehen, wenn Menschen Bindungen zu KI-Begleitern entwickeln? Und wie reagiert das deutsche Recht auf dieses neue Phänomen?

Safer Internet Day 2026: Emotionale Bindungen zu KI-Systemen im Fokus

Der Safer Internet Day 2026, der am 10. Februar stattfindet, macht mit der Klicksafe-Initiative „KI and me. In künstlicher Beziehung” auf ein Phänomen aufmerksam, das besonders junge Menschen betrifft. Kira Peek, Rechtsanwältin und Senior-Referentin bei der Beschwerdestelle für Jugendmedienschutz beim Eco-Verband der Internetwirtschaft, informiert über die aktuellen rechtlichen Rahmenbedingungen und Schutzmechanismen, um die Risiken der emotionalen Nutzung von KI-Bots durch Minderjährige zu minimieren.

Was ist der Safer Internet Day?

Der Safer Internet Day (SID), auch als Tag für mehr Internetsicherheit bekannt, ist ein weltweiter Aktionstag, der jährlich im Februar stattfindet und sich der Förderung sicherer und verantwortungsvoller Internetnutzung widmet, insbesondere für Kinder und Jugendliche. In Deutschland wird der Safer Internet Day von Klicksafe organisiert, einer Initiative, die Teil des Verbunds Safer Internet DE ist. Der Aktionstag ruft Institutionen, Schulen, Unternehmen und Privatpersonen dazu auf, eigene Aktionen und Veranstaltungen zu organisieren, um gemeinsam das Bewusstsein für Internetsicherheit zu stärken und eine bessere digitale Welt zu schaffen. Hier gibt es mehr Informationen zur Klicksafe Initiative.

Wenn der KI-Bot zum Trostspender wird

Ein großer Vorteil von KI-Begleitern ist ihre einfache Zugänglichkeit: Minderjährige können KI-Bots jederzeit und überall nutzen. Die Entwicklung emotionaler Bindungen zu diesen Programmen birgt jedoch auch Risiken. „Virtuelle Freunde und Partner sind stets verfügbar, geduldig und können täuschend echt Nähe und Verständnis simulieren. Problematisch wird es, wenn sich junge Menschen emotional abhängig machen, falsche Gesundheitsratschläge befolgen, intime Daten mit KI-Diensten teilen oder durch Deepfakes und manipulative Inhalte in die Irre geführt werden“, erklärt Deborah Woldemichael, Leiterin der EU-Initiative Klicksafe.

Rechtliche Grauzone: Parasoziale Abhängigkeiten von KI-Systemen

Kira Peek ist Rechtsanwältin und Senior Referentin bei der Beschwerdestelle für Jugendmedienschutz beim Eco Verband der Internetwirtschaft.(Bild:  Eco - Verband der Internetwirtschaft e.V.)
Kira Peek ist Rechtsanwältin und Senior Referentin bei der Beschwerdestelle für Jugendmedienschutz beim Eco Verband der Internetwirtschaft.
(Bild: Eco - Verband der Internetwirtschaft e.V.)

Aus rechtlicher Perspektive betrachtet, ist die emotionale Nutzung von KI-Bots sowie deren Risiken immer noch eine rechtliche Grauzone. Entsprechend macht Rechtsanwältin Peek klar: „Einen eigenständigen KI-Jugendschutz gibt es nicht. Der Schutz ergibt sich aus einem Zusammenspiel bestehender Regelwerke: dem JMStV für altersgerechte Nutzungskonzepte und die Entfernung jugendgefährdender Inhalte, dem DSA für allgemeine Pflichten der Anbieter digitaler Dienste in Bezug auf den Umgang mit illegalen Inhalten inklusive Plattformpflichten wie Risikoanalysen und Schutzmaßnahmen für Minderjährige, die DSGVO für den Umgang mit personenbezogenen Daten – insbesondere mit Blick auf Elterneinwilligung und Datensparsamkeit – sowie je nach angebotener Anwendung den AI Act.“ Ergänzend würden viele Anbieter laut Peek auch auf freiwillige Schutzmaßnahmen, wie Alterschecks, Moderation oder Warnhinweise setzen. Peek macht jedoch auch deutlich, dass keine gibt Haftung, wenn Jugendlichen durch KI-Bots schädliche Ratschläge gegeben werden

Eine klare rechtliche Haftungsregel für parasoziale Abhängigkeiten gibt es bislang nicht.

Kira Peek, Rechtsanwältin und Senior Referentin, Eco Verband der Internetwirtschaft

Konkret bedeute dies: „Anbieter von KI-Systemen sind nach DSA und AI Act verpflichtet, Risiken zu analysieren, Schutzmechanismen umzusetzen und transparent zu informieren. Das heißt: Sie müssen mögliche negative Effekte – etwa starke emotionale Bindungen – frühzeitig erkennen, berücksichtigen und den Umgang mit ihrem System verständlich machen.“ Die begleitende Verantwortung von Eltern, Erziehungsberechtigten und pädagogischen Fachkräften sei jedoch dennoch entscheidend.

Nicht alle Risiken lassen sich technisch oder rechtlich steuern, daher ist Aufklärung, Unterstützung und kompetente Begleitung von Kindern und Jugendlichen zentral.

Kira Peek, Rechtsanwältin und Senior Referentin, Eco Verband der Internetwirtschaft

Datenschutz und Privatsphäre: Wie sicher sind geteilte Informationen?

Zudem gibt es auch datenschutzrechtliche Überlegungen, die nicht außer Acht gelassen werden dürfen: Wie wird die Privatsphäre der Nutzer geschützt, und wie werden die gesammelten Daten genutzt? Rechtsanwältin Peek schildert die Rechtslage in Deutschland zum Datenschutz von Minderjährigen bei KI-Chatbots wie folgt: „Hier greift die DSGVO: Besonders sensible Daten von Minderjährigen unterliegen erhöhten Schutzanforderungen. Für Kinder unter 16 Jahren ist grundsätzlich die Einwilligung der Eltern erforderlich. Außerdem müssen Daten zweckgebunden, sparsam und sicher verarbeitet werden. Ergänzend gelten weiterhin straf- und zivilrechtliche Regelungen, etwa wenn Inhalte rechtswidrig verbreitet werden oder Schaden entsteht.“ Des Weiteren macht die Rechtsanwältin darauf aufmerksam, dass „KI-Anbieter grundsätzlich für Kinder unter 16 Jahren keine emotionalen oder psychologischen Profile ohne die Einwilligung der Eltern erstellen dürfen. Diese Regelung falle unter die besonderen Schutzregeln der DSGVO für personenbezogene und sensible Daten.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Hintergrund

US-Chatbots mit neuen Beschränkungen für Minderjährige

Nach Klagen im Jahr 2024 von mehreren Familien, die den Chatbots von Character.AI eine Rolle beim Suizid ihrer Kinder zuschreiben, führte das Unternehmen neue Schutzmaßnahmen ein. Der KI-Chatbot soll einem Jungen zum Suizid geraten haben. Seit dem 25. November 2024 ist es Jugendlichen in den USA unter 18 Jahren nicht mehr möglich, unbegrenzte Chat-Gespräche mit den KI-Chatbots zu führen. Stattdessen wird die Gesprächszeit auf zwei Stunden pro Tag begrenzt. Zudem wird eine Altersüberprüfung eingeführt, wobei Teenager weiterhin die Plattform für andere Zwecke wie das Erstellen von Videos und Streams nutzen dürfen. Die Maßnahmen reagieren auf Bedenken bezüglich der psychischen Gesundheit junger Nutzer im Umgang mit KI. Die Debatte über den Einfluss von KI auf die Sicherheit von Minderjährigen gewinnt in den USA an Intensität, insbesondere nach mehreren Klagen gegen Entwicklerfirmen, die einen Zusammenhang zwischen ihren Chatbots und Suiziden herstellen.

Aufklärung als Schlüssel zur Risikominderung

Abschließend macht Peek noch einmal deutlich, dass „KI rechtlich zunächst als Werkzeug“ gelte. „Strafbar ist nicht das Werkzeug selbst, sondern sein Missbrauch. Erst wenn ein System gezielt auf Rechtsverletzungen ausgelegt ist oder Schutzpflichten bewusst ignoriert werden, kann Verantwortung für Hersteller oder Plattformen entstehen“, so Peek. Ihrer Meinung nach bleibt der Aspekt der „Aufklärung entscheidend, um Kinder, Jugendliche und Erwachsene zu befähigen, Risiken zu erkennen und KI bewusst und sicher zu nutzen.“ In diesem Kontext stellt die Initiative „KI and me“ von Klicksafe zweifellos einen Schritt in die richtige Richtung dar.

So schützen Eltern ihre Kinder vor KI-Chatbots

Das Unternehmen G Data CyberDefense gibt zum Safer Internet Day 2026 fünf Tipps, wie Eltern ihre Kinder vor Risiken durch KI-Chatbots schützen:

  • Gespräche über KI-Chatbots führen: Erklären Sie Ihrem Kind, dass KI-Bots keine echten Freunde sind, sondern Programme, die Nähe nur simulieren. Sprechen Sie offen darüber, warum sich diese Gespräche trotzdem sehr persönlich anfühlen können.
  • Sensible Daten sind tabu: Intime Gedanken, Gesundheitsprobleme, Fotos oder private Konflikte gehören nicht in KI-Chats. Was einmal eingegeben wurde, kann gespeichert, ausgewertet oder weiterverwendet werden.
  • KI-Antworten sind keine Fakten: KI-Chatbots können überzeugend formulieren, liegen aber auch falsch. Machen Sie deutlich, dass KI keine verlässliche Quelle für medizinische, rechtliche oder persönliche Entscheidungen ist und Informationen immer überprüft werden sollten.
  • Deepfakes und KI-Inhalte gemeinsam einordnen: Zeigen Sie Ihrem Nachwuchs, wie mit Hilfe von KI Inhalte erzeugt werden, die täuschend echt wirken. Das hilft zu verstehen, warum nicht alles glaubwürdig ist, was freundlich, verständnisvoll oder überzeugend formuliert klingt.
  • Klare Nutzungsregeln vereinbaren: Vereinbaren Sie gemeinsam, wann und wofür KI-Chatbots genutzt werden dürfen – etwa nicht nachts oder nicht bei persönlichen Problemen. Klare Regeln schaffen Orientierung und reduzieren Risiken, ohne die Nutzung grundsätzlich zu verbieten.

(ID:50701871)