Künstliche Intelligenz und Ethik Biased Algorithms: Wenn KI gefährlich wird

Redakteur: Jürgen Schreier

Das Vertrauen in die Künstliche Intelligenz ist enorm. Doch was passiert, wenn die Algorithmen fehlerhaft sind, " verzerrt" und die Datenauswahl einseitig? Und welche Folgen hat das für Freiheit, Demokratie, für soziale Gerechtigkeit und Frieden? Der Artikel thematisiert einige ethische Aspekte der KI.

Anbieter zum Thema

Algorithmen sind so voreingenommen ("verzerrt") wie die Menschen, die sie mit einer bestimmten Absicht entworfen haben. Und das hat - bei zu großem Vertrauen in die KI - unter Umständen schwerwiegende Konsequenzen.
Algorithmen sind so voreingenommen ("verzerrt") wie die Menschen, die sie mit einer bestimmten Absicht entworfen haben. Und das hat - bei zu großem Vertrauen in die KI - unter Umständen schwerwiegende Konsequenzen.
(Bild: Pixabay / CC0 )

Es gibt gute KI-Algorithmen und es gibt schlechte KI-Agorithmen. Bei dieser Unterscheidung jedoch lediglich Performance der betreffenden KI-Lösung im Fokus. Daneben gibt es noch Algorithmen, die man als "verzerrt", als biased algorithms, bezeichnen könnten. Wie die amerikanische Big-Data-Expertin Cathy O'Neill in ihrem Buch „Weapons of Math Destruction - How Big Data Increases Inequality and Threatens Democracy“ darlegt, kodifizieren die Methoden und Prozesse zur Auswertung großer Datenmengen eher die Vergangenheit. Und dabei fließen unter Umständen auch "alte" Stereotype oder Vorurteile in die Programmierung der Algorithmen und/oder Auswahl der Daten ein.

In dieser Hinsicht sind unter anderem KI-Systeme in die Kritik geraten, mit denen in den USA über die "Rückfallwahrscheinlichkeit" von Straftätern und damit über die faktische Haftdauer befunden wird. Auch beim Einsatz von KI-Lösungen im (Aus-)Bildungsbereich besteht die Gefahr, soziale Ungleichheiten zu verstärken, wenn sie auf "verzerrten" Algorithmen beruhen oder die Auswahl der (Trainings-)Daten einseitig erfolgt. Problematisch wird die Sache vor allem dann, wenn man den "Vorschlägen" der Künstlichen Intelligenz mehr vertraut als menschlicher Entscheidungskompetenz oder wenn man KI-Systeme sogar autonom entscheiden dürfen.

Lieber Künstliche Intelligenz als menschliche Dummheit?

Eine Tendenz dazu ist ein Teilen der (deutschen) Gesellschaft durchaus vorhanden. Das zeigt eine Umfrage des Digitalverbandes Bitkom. Danach würden sechs von zehn Bundesbürgern in bestimmten Situationen eher die Entscheidung einer KI akzeptieren als die eines Menschen. 15 Prozent gaben an, dass sie das tun würden, wenn es um die Beantragung eines Bankkredits geht. Zehn Prozent würden sich vor Gericht - zum Beispiel nach einem Verkehrsunfall - lieber einer KI als einem menschlichen Richter stellen und neun Prozent würden die Frage nach einer Gehaltserhöhung lieber von einer KI als von ihrem Chef entscheiden lassen. Außerdem fanden es sechs von zehn Befragten sinnvoll, per Künstlicher Intelligenz Straftaten zu prognostizieren und so eine bessere Polizeipräsenz an potenziellen Tatorten zu ermöglichen.

Stellt sich also die Frage, ob KI-Algorithmen und auf Künstliche Intelligenz basierende Lösungen nicht auch Gefahren für Freiheit und Demokratie, die Gerechtigkeit sowie die Chancengleichheit im Bildungswesen bergen - vor allem dann, wenn sie fehlerhaft oder "biased" sind.

Algorithmikbasierte Anwendungen durch neutrale Dritte evaluieren lassen?

Die amerikanische Publizistin und Bildungsaktivistin C.M. Rubin hat für ihren Blog CMRubinWorld über diesen Aspekt mit Ralph Müller-Eiselt gesprochen. Müller-Eiselt ist Experte für Bildungspolitik und Governance und leitet die Arbeitsgruppe der Bertelsmann Stiftung zu politischen Herausforderungen und Chancen in einer digitalisierten Welt. In seinem jüngsten Projekt "Ethics of Algorithms" beschäftigt er sich intensiv mit den Folgen algorithmischer Entscheidungsfindung und künstlicher Intelligenz in Gesellschaft und Bildung.

Nachfolgend einige Aussagen aus dem Interview:

Rubin: Ralph, wie stellen wir sicher, dass Algorithmen immer so konzipiert sind, dass sie eine positive Wirkung auf Gesellschaft und Bildung haben und nicht eine Gefahr oder ein Risiko darstellen?

Müller-Eiselt: Algorithmen sind so voreingenommen wie die Menschen, die sie mit einer bestimmten Absicht entworfen oder in Auftrag gegeben haben. Wir sollten deshalb eine offene Debatte über die Ziele von Softwaresystemen mit sozialer Wirkung anstoßen. Es liegt an uns als Gesellschaft, zu entscheiden, wo solche Systeme eingesetzt werden sollen, und es liegt an uns sicherzustellen, dass sie für die richtigen Zwecke konzipiert sind. Zweitens dürfen wir nicht vergessen, dass selbst Algorithmen, die mit guten Absichten entwickelt wurden, zu schlechten Ergebnissen führen können. Je größer ihre potenziellen Auswirkungen auf die individuelle Teilhabe an der Gesellschaft sind, desto wichtiger ist eine präventive Risikobewertung und - bei automatisierter Entscheidungsfindung - eine umfassende Bewertung zur Überprüfung der angestrebten Ergebnisse. Die Einbindung neutraler Dritter in diesen Prozess kann wesentlich dazu beitragen, Vertrauen in die softwarebasierte Entscheidungsfindung aufzubauen.

Rubin: Wie können wir feststellen, ob Algorithmen wirklich das machen , was beabsichtigt ist?

Müller-Eiselt: Transparente Rechenschaftspflicht ist der Schlüssel zur Bewertung von algorithmischen Anwendungen und Tools. Das bedeutet nicht, dass wir den Code von Algorithmen öffentlich zugänglich machen müssen. Tatsächlich wäre das für die meisten Betroffenen überhaupt nicht hilfreich, damit sie verstehen wie algorithmusinformierte Entscheidungen getroffen werden. Stattdessen brauchen wir Mechanismen wie nachvollziehbare Absichtserklärungen für Algorithmen, die durch eine Bewertung durch neutrale Experten verifiziert werden können, die Zugang zu den relevanten Informationen und Daten erhalten. Diese Auswertungen sollten so ganzheitlich wie möglich gestaltet werden, um zu überprüfen, ob die Algorithmen tatsächlich den beabsichtigten Zwecken dienen und um ihre tatsächlichen Risiken und Chancen aufzuzeigen.

Rubin: Welche Möglichkeiten bietet KI beim schulischen Lernen und in der Ausbildung ?

Müller-Eiselt: Eine der wichtigsten Möglichkeiten des digitalen Lernens ist personalisiertes Lernen zur besseren Entwicklung individueller Fähigkeiten . Algorithmenbasierte Anwendungen und KI können den Zugang zu personalisierter Bildung demokratisieren, die bisher aus Kostengründen nur einer begrenzten Anzahl von Menschen zur Verfügung stand. Aber es gibt einen schmalen Grat zwischen Versprechen und Gefahr der KI in der Bildung. Es gibt zwar große Möglichkeiten für eine algorithmisch fundierte Beratung zu kompetenzorientierten Studien- und Berufswahlangeboten, aber wir dürfen die Augen nicht vor der Gefahr verschließen, mit KI machtlose Kunden ins Visier zu nehmen. Auch kann KI zur systematischen Diskriminierung von Personen oder Gruppen führen oder zur Ausgrenzung am Arbeitsmarkt.

Rubin: Da KI von Menschen gemacht wird, besteht da nicht die Gefahr, dass Algorithmen und KI aufgrund menschlicher Fehler auch falsche Empfehlungen geben?

Müller-Eiselt: Algorithmen sind nur so gut wie die Menschen, die sie entwickelt haben. Menschliche Fehler können in vielen Phasen in einen Algorithmus übertragen werden: Das fängt bei der Erfassung und Auswahl der Daten an und führt über die Programmierung des Algorithmus bis hin zur Interpretation der Ergebnisse. Verwendet ein Algorithmus z.B. historische Daten, die aufgrund von diskriminierenden Mustern der Vergangenheit in eine bestimmte Richtung verzerrt sind, dann wird der Algorithmus aus diesen Mustern lernen und höchstwahrscheinlich sogar diese Diskriminierung verstärken. Solche unbeabsichtigten Fehler müssen strikt vermieden werden. Der Einsatz von KI im Bildungsbereich ist ständig zu überprüfen, da sich sonst die sozialen Ungleichheiten vergrößern würden.

Rubin: Wie können diese Probleme minimiert werden?

Müller-Eiselt: Wie schon erläutert, müssen wir präventive Risikobewertungen durchführen und eine ständige und umfassende Evaluierung algorithmikbasierter Anwendungen durch neutrale Dritte sicherstellen. Wir sollten auch eine breitere öffentliche Debatte anstoßen und das Bewusstsein für den Einsatz, die Chancen und Risiken von Algorithmen in der Bildung schärfen. Für die politischen Entscheidungsträger ist es jetzt höchste Zeit, dieses Feld proaktiv auf mehr soziale Gerechtigkeit auszurichten. Und diejenigen, die an der eigentlichen Konzeption und Entwicklung von Algorithmen beteiligt sind, sollten sich die Zeit nehmen, über ihre soziale Verantwortung nachzudenken und gemeinsame Standards für die Berufsethik in diesem Bereich zu schaffen.

Auch Dinko Eror, Senior Vice President and Managing Director bei Dell EMC Deutschland, mahnt angesichts der gegenwärtigen weltweiten KI-Euphorie, dass man ethische und politische Aspekte nicht außer Acht lassen dürfe. Nicht alles, was technisch möglich sei, sollte nach Auffassung des IT-Experten auch erlaubt sein.

Kann KI Wahlen beeinflussen und Kriege auslösen?

Die Verselbstständigung von Technologien haben Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert. Eine solche Entwicklung hat eine besondere Tragweite, wenn Fehler entstehen. So hat Rekognition, die Gesichtserkennung von Amazon, jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt.

Dinko Eror ist Senior Vice President and Managing Director bei Dell EMC Deutschland.
Dinko Eror ist Senior Vice President and Managing Director bei Dell EMC Deutschland.
(Bild: IT-Business)

Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können. Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu; Tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen (LAWS) zu forschen. Aber wie stehen die übrigen Tausende zu solchen Einsätzen?

Gefahr kommt auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. „Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht“, gibt IT-Manager Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Der Gesetzgeber ist gefordert

Es gibt zahlreiche weitere Beispiele, die ethische Fragen aufwerfen – zumal sich die Künstliche Intelligenz weiterentwickelt und jeden Tag schneller, leistungsfähiger und treffsicherer wird. Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen deshalb mittlerweile ins Grübeln. Microsoft zum Beispiel betrachtet KI-basierte Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit, so zumindest President Brad Smith in seinem Blog vor einigen Wochen.

Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Innovationen sicherzustellen? „Nein. Die Wirtschaftsgeschichte hat gezeigt: Die Selbstverpflichtung von Industrie und Forschung führt nicht zu ethischen Innovationen“, erklärt Dinko Eror. „Sei es beim Dieselskandal, dem Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz. Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Eine gesetzliche Regulierung hält Eror deshalb unabdingbar. „Die angekündigte Strategie der Bundesregierung zur Künstlichen Intelligenz kommt zwar sehr spät, berücksichtigt aber Datenschutz und Informationssicherheit und betont an vielen Stellen die Notwendigkeit von ethischen Standards“, erklärt Eror, „das ist sehr zu begrüßen“. Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem ethische Rahmenbedingungen im Vordergrund stehen.

Unternehmensethik muss auf die Agenda

Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen Forschungs- und Entwicklungsplan für Künstliche Intelligenz vorgestellt und betonen dort sehr nachdrücklich das Thema „ethische KI“. Für Eror bleibt dabei aber offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. Und China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgehe, wie der Trend zur Video-Totalüberwachung und Gesichtserkennung beweise, werde ethische Aspekte eher weniger in den Vordergrund stellen.

Angesichts der Tatsache, dass der Ruf nach einer neuen Wirtschaftsordnung immer lauter werde, die Turbokapitalismus und Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen soll, ist es für Eror an der Zeit, „angesichts des rapiden Fortschritts der Technik und des potenziellen Missbrauchs der KI auch die Unternehmensethik ganz oben auf die Agenda zu setzen.“

Dieser Artikel erschien zuerst auf unserem Partnertportal Industry of Things.

(ID:45506220)