Kommentar von Michael Baldauf, Pegasystems Mehr KI-Transparenz ist kein Wagnis, sondern ein Muss

Von Michael Baldauf 4 min Lesedauer

Anbieter zum Thema

KI ist keine Blackbox, in der im wahrsten Sinne des Wortes „dunkle Mächte“ nach kryptischen Gesetzen in eigener Machtvollkommenheit Entscheidungen treffen. Mit KI-Unterstützung getroffene Entscheidungen müssen vielmehr jederzeit nachvollziehbar und belegbar sein.

Der Autor: Michael Baldauf ist Industry Architect/Strategist Financial Service EMEA bei Pegasystems.(Bild:  Pegasystems)
Der Autor: Michael Baldauf ist Industry Architect/Strategist Financial Service EMEA bei Pegasystems.
(Bild: Pegasystems)

Weltweit werden aktuell Richtlinien und Gesetze für den Einsatz von Künstlicher Intelligenz (KI) diskutiert und auf den Weg gebracht. Mit dem EU AI Act ist Europa erfreulicherweise diesmal Vorreiter bei der Einbettung einer neuen, bahnbrechenden Technologie in einen regulatorischen Ordnungsrahmen. Er soll die notwendige Struktur und Orientierung bieten, um KI auf nachvollziehbare Art und Weise für die richtigen Zwecke einzusetzen.

Der Charme, die positive Wirkung und die Existenzberechtigung von KI-Applikationen liegen letztlich in der Automatisierung von Prozessen aller Art. Ob es nun relativ einfache Anwendungen wie Predictive Maintenance in Produktionsanlagen sind oder hochkomplexe Chatbots im Kundendialog bei Banken und Finanzdienstleistern, fast immer geht es darum, die Entscheidungsfindung zu unterstützen oder Entscheidungen selbst zu treffen und entsprechende Aktionen anzustoßen.

Bildergalerie

Bei der automatisierten Einleitung eines fälligen Serviceintervalls für eine Maschine mag das unkritisch sein, bei der Vergabe eines Kredits dagegen müssen gegebenenfalls alle entscheidungsrelevanten Fakten auf den Tisch, warum der Kreditnehmer ihn zu genau diesen Konditionen erhalten hat – oder eben nicht. Für Banken bedeutet das in der Regel höhere Anforderungen an die Transparenz KI-gestützter Entscheidungen.

KI ist nicht gleich KI

An diesem Punkt gilt es zu berücksichtigen und methodisch zu trennen, dass wir es bei dem Phänomen Künstliche Intelligenz mit sehr unterschiedlichen Typologien von KI zu tun haben, die ganz eigene Charakteristika und damit auch spezifische regulatorische Anforderungen und Tücken aufweisen.

Analytische KI ist quasi die „Urform“ von KI-Anwendungen. Sie analysiert beispielsweise den Inhalt von E-Mail-Texten oder Unfallbildern zu etwa 40 Prozent zuverlässig genug, um daraus automatisch Handlungsvorschläge abzuleiten. Prädiktive KI dagegen ermittelt Wahrscheinlichkeiten und trifft Vorhersagen für zukünftige Ereignisse. Das muss natürlich ausführlich dokumentiert werden und das Konfidenzniveau liegt hier naturgemäß niedriger als bei analytischer KI. Deshalb spielt menschliches Eingreifen hier eine größere Rolle.

Der anhaltende Hype um Generative KI (GenAI) resultiert nicht zuletzt aus der Tatsache, dass aus den Vorarbeiten von analytischer und prädiktiver KI etwas entsteht, seien es Texte oder Programme. Das aktuell größte Problem sind dabei die sogenannten Halluzinationen. Sie sind keine freien Erfindungen, sondern vielmehr der im System angelegte Versuch, aus unbrauchbaren Daten und Informationen trotzdem so etwas wie plausibel erscheinende Texte zu generieren, statt einfach nur zurückzumelden, keine vernünftige Antwort geben zu können. Die im Umgang mit Menschen so geschätzte Fähigkeit zur Selbstkritik gehört (noch) nicht zum Verhaltensrepertoire der generativen KI. Deshalb ist der Faktor Mensch hier so wichtig, um ethische Grundsätze als weiteren Indikator für richtige Entscheidungen einzubringen.

KI ist nicht immer sinnvoll

Beim Hype um Künstliche Intelligenz wird häufig vergessen, dass sie für viele Entscheidungen gar nicht benötigt wird. Für die automatisierte Vergabe eines Konsumentenkredits beispielsweise reicht oft auch ein einfaches Regelwerk. Die Stunde der KI schlägt erst dann, wenn viele Unsicherheiten, Varianten und Auswahlmöglichkeiten im Spiel sind, um auf Basis verschiedener Modelle Wahrscheinlichkeiten für richtige Entscheidungen zu berechnen.

Für den Umgang mit KI gilt auch für Banken die magische Trias aus Wertorientierung, Normbindung und Regelerfüllung. Wertebasierte KI ist dabei quasi der oberste Layer mit den maßgeblichen ethischen Faktoren, die für den Einsatz von KI verbindlich gelten sollen. Er liefert die Vorlage (quasi den Überbau) für Normenkataloge, wie beispielsweise den EU AI Act, aus dem dann wiederum die Rahmenbedingungen als handlungsweisende praktische Regeln abgeleitet werden. Mit anderen Worten: Banken dürfen keine beliebigen kryptischen KI-Modelle oder Datensätze nutzen, sondern müssen zumindest potenziell jederzeit zeigen können, wie und warum diese in jedem Einzelfall für automatisierte Entscheidungen verwendet wurden, sei es gegenüber Aufsichtsbehörden wie der EBA, Bafin oder im Falle von Klagen und gerichtlichen Auseinandersetzungen. KI-Transparenz ist damit Teil des Risikomanagements (Risk & Compliance).

Transparenz in der Finanzbranche

Transparenz muss also bei der Anwendung von KI von vorneherein in die Prozesse, den Workflows, den Modellen und den Daten angelegt sein. Diese Transparenz wiederum kann nicht händisch gewährleistet werden, sondern muss ihrerseits ebenfalls digitalisiert und automatisiert umgesetzt werden und über die Zeitleiste hinweg nachverfolgbar sein, um auch die jeweils zu einem bestimmten Zeitpunkt geltenden Regularien berücksichtigen zu können. Das gilt beispielsweise für die Bias-Einstellungen, die die Entscheidungskriterien für die Kundenbewertung nach bestimmten Bewertungsfaktoren wie Alter, Geschlecht oder sozialen Aspekte festlegen.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die entsprechenden Schwellenwerte oder Entscheidungsräume dafür sind in einer entsprechenden Plattform flexibel und nachvollziehbar einstellbar. Damit ist sichergestellt, dass die Kriterien nicht nur fair und normkonform gewählt wurden, sondern das später auch nachgewiesen werden kann. Gleichzeitig wird damit auch festgelegt, wie transparent die Entscheidungskriterien, sprich die dahinterliegenden KI-Modelle, und deren jeweilige Gewichtung sind.

So gesehen hilft Generative KI nicht nur bei der Entscheidungsfindung und -unterstützung, sondern übernimmt auch die Aufgabe, alle dafür eingesetzten Daten, Modelle und Kriterien selbst zu dokumentieren und damit nachvollziehbar zu machen.

Artikelfiles und Artikellinks

(ID:49949248)