KI ist keine Blackbox, in der im wahrsten Sinne des Wortes „dunkle Mächte“ nach kryptischen Gesetzen in eigener Machtvollkommenheit Entscheidungen treffen. Mit KI-Unterstützung getroffene Entscheidungen müssen vielmehr jederzeit nachvollziehbar und belegbar sein.
Der Autor: Michael Baldauf ist Industry Architect/Strategist Financial Service EMEA bei Pegasystems.
(Bild: Pegasystems)
Weltweit werden aktuell Richtlinien und Gesetze für den Einsatz von Künstlicher Intelligenz (KI) diskutiert und auf den Weg gebracht. Mit dem EU AI Act ist Europa erfreulicherweise diesmal Vorreiter bei der Einbettung einer neuen, bahnbrechenden Technologie in einen regulatorischen Ordnungsrahmen. Er soll die notwendige Struktur und Orientierung bieten, um KI auf nachvollziehbare Art und Weise für die richtigen Zwecke einzusetzen.
Der Charme, die positive Wirkung und die Existenzberechtigung von KI-Applikationen liegen letztlich in der Automatisierung von Prozessen aller Art. Ob es nun relativ einfache Anwendungen wie Predictive Maintenance in Produktionsanlagen sind oder hochkomplexe Chatbots im Kundendialog bei Banken und Finanzdienstleistern, fast immer geht es darum, die Entscheidungsfindung zu unterstützen oder Entscheidungen selbst zu treffen und entsprechende Aktionen anzustoßen.
Bildergalerie
Bei der automatisierten Einleitung eines fälligen Serviceintervalls für eine Maschine mag das unkritisch sein, bei der Vergabe eines Kredits dagegen müssen gegebenenfalls alle entscheidungsrelevanten Fakten auf den Tisch, warum der Kreditnehmer ihn zu genau diesen Konditionen erhalten hat – oder eben nicht. Für Banken bedeutet das in der Regel höhere Anforderungen an die Transparenz KI-gestützter Entscheidungen.
KI ist nicht gleich KI
An diesem Punkt gilt es zu berücksichtigen und methodisch zu trennen, dass wir es bei dem Phänomen Künstliche Intelligenz mit sehr unterschiedlichen Typologien von KI zu tun haben, die ganz eigene Charakteristika und damit auch spezifische regulatorische Anforderungen und Tücken aufweisen.
Analytische KI ist quasi die „Urform“ von KI-Anwendungen. Sie analysiert beispielsweise den Inhalt von E-Mail-Texten oder Unfallbildern zu etwa 40 Prozent zuverlässig genug, um daraus automatisch Handlungsvorschläge abzuleiten. Prädiktive KI dagegen ermittelt Wahrscheinlichkeiten und trifft Vorhersagen für zukünftige Ereignisse. Das muss natürlich ausführlich dokumentiert werden und das Konfidenzniveau liegt hier naturgemäß niedriger als bei analytischer KI. Deshalb spielt menschliches Eingreifen hier eine größere Rolle.
Der anhaltende Hype um Generative KI (GenAI) resultiert nicht zuletzt aus der Tatsache, dass aus den Vorarbeiten von analytischer und prädiktiver KI etwas entsteht, seien es Texte oder Programme. Das aktuell größte Problem sind dabei die sogenannten Halluzinationen. Sie sind keine freien Erfindungen, sondern vielmehr der im System angelegte Versuch, aus unbrauchbaren Daten und Informationen trotzdem so etwas wie plausibel erscheinende Texte zu generieren, statt einfach nur zurückzumelden, keine vernünftige Antwort geben zu können. Die im Umgang mit Menschen so geschätzte Fähigkeit zur Selbstkritik gehört (noch) nicht zum Verhaltensrepertoire der generativen KI. Deshalb ist der Faktor Mensch hier so wichtig, um ethische Grundsätze als weiteren Indikator für richtige Entscheidungen einzubringen.
KI ist nicht immer sinnvoll
Beim Hype um Künstliche Intelligenz wird häufig vergessen, dass sie für viele Entscheidungen gar nicht benötigt wird. Für die automatisierte Vergabe eines Konsumentenkredits beispielsweise reicht oft auch ein einfaches Regelwerk. Die Stunde der KI schlägt erst dann, wenn viele Unsicherheiten, Varianten und Auswahlmöglichkeiten im Spiel sind, um auf Basis verschiedener Modelle Wahrscheinlichkeiten für richtige Entscheidungen zu berechnen.
Für den Umgang mit KI gilt auch für Banken die magische Trias aus Wertorientierung, Normbindung und Regelerfüllung. Wertebasierte KI ist dabei quasi der oberste Layer mit den maßgeblichen ethischen Faktoren, die für den Einsatz von KI verbindlich gelten sollen. Er liefert die Vorlage (quasi den Überbau) für Normenkataloge, wie beispielsweise den EU AI Act, aus dem dann wiederum die Rahmenbedingungen als handlungsweisende praktische Regeln abgeleitet werden. Mit anderen Worten: Banken dürfen keine beliebigen kryptischen KI-Modelle oder Datensätze nutzen, sondern müssen zumindest potenziell jederzeit zeigen können, wie und warum diese in jedem Einzelfall für automatisierte Entscheidungen verwendet wurden, sei es gegenüber Aufsichtsbehörden wie der EBA, Bafin oder im Falle von Klagen und gerichtlichen Auseinandersetzungen. KI-Transparenz ist damit Teil des Risikomanagements (Risk & Compliance).
Transparenz in der Finanzbranche
Transparenz muss also bei der Anwendung von KI von vorneherein in die Prozesse, den Workflows, den Modellen und den Daten angelegt sein. Diese Transparenz wiederum kann nicht händisch gewährleistet werden, sondern muss ihrerseits ebenfalls digitalisiert und automatisiert umgesetzt werden und über die Zeitleiste hinweg nachverfolgbar sein, um auch die jeweils zu einem bestimmten Zeitpunkt geltenden Regularien berücksichtigen zu können. Das gilt beispielsweise für die Bias-Einstellungen, die die Entscheidungskriterien für die Kundenbewertung nach bestimmten Bewertungsfaktoren wie Alter, Geschlecht oder sozialen Aspekte festlegen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die entsprechenden Schwellenwerte oder Entscheidungsräume dafür sind in einer entsprechenden Plattform flexibel und nachvollziehbar einstellbar. Damit ist sichergestellt, dass die Kriterien nicht nur fair und normkonform gewählt wurden, sondern das später auch nachgewiesen werden kann. Gleichzeitig wird damit auch festgelegt, wie transparent die Entscheidungskriterien, sprich die dahinterliegenden KI-Modelle, und deren jeweilige Gewichtung sind.
So gesehen hilft Generative KI nicht nur bei der Entscheidungsfindung und -unterstützung, sondern übernimmt auch die Aufgabe, alle dafür eingesetzten Daten, Modelle und Kriterien selbst zu dokumentieren und damit nachvollziehbar zu machen.