Debakel mit „Tay“

Wenn Bots außer Kontrolle geraten

| Autor / Redakteur: dpa / Margrit Lingner

Microsofts Chatprogramm Tay ist außer Kontrolle geraten und verbreitet auf Twitter unter anderem rassistische Äußerungen.
Microsofts Chatprogramm Tay ist außer Kontrolle geraten und verbreitet auf Twitter unter anderem rassistische Äußerungen. (Bild: Twitter/IT-BUSINESS)

Das Chatbot-Programm „Tay“ war 2016 ein Experiment des US-Computerriesen Microsoft - eine Software, die sich zwanglos mit Nutzern unterhält und von ihnen lernt. Doch der Versuch geriet auf Twitter außer Kontrolle und Tay mutierte zum Rassisten.

Mit dem Chatbot-Programm „Tay“ wollte Microsoft mit künstlicher Intelligenz experimentieren. Tay sollte sich zwanglos mit Nutzern unterhalten und von ihnen lernen. Doch verselbstständigte sich das Chatbot-Programm: Skrupellose Nutzer brachten Tay unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.

Wie konnte das passieren? Die Entwickler hatten Tay zwar Filter gegen obszöne Ausdrücke verpasst. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internet-Nutzern bei politischen Themen sowie ihren Erfindungsreichtum.

So erwies sich ein simples „Sprich mir nach!“ als Falle: Man konnte Tay damit dazu bringen, alle möglichen Parolen zu wiederholen. Außerdem schien Tay Sätze wiederzugeben, die häufig fielen - und viele mit einem „Haha“ für einen Scherz zu halten.

Tay sollte im Netz ursprünglich die Persönlichkeit einer jungen Frau simulieren. Als Zielgruppe war Tay auf Internet-Nutzer im Alter von 18 bis 24 Jahre ausgerichtet. Dafür wurde die Software unter anderem mit Sprüchen von Comedians aufgepeppt.

Erst versuchte Microsoft, die anstößigen Tweets zu löschen. Dann verkündete Tay über den Twitter-Account „@TayandYou“, sie müsse nach so vielen Gesprächen schlafen und ging vom Netz.

Microsoft erläuterte, einige der Antworten seien unangemessen und spiegelten die Äußerungen der Menschen wider, die mit der Software interagierten. Beim Debüt in Asien sei zunächst alles reibungslos gelaufen. Erst mit den USA fingen die Probleme an, stellte der Softwarekonzern etwas überrascht fest. Tay gilt als warnendes Beispiel, dass selbstlernende Software menschliche Kontrolle braucht.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44786573 / Aktuelles & Hintergründe)