Kein Plug and Play Die KI-Revolution braucht noch Zeit

Von Michael Hase 8 min Lesedauer

Anbieter zum Thema

KI hat das Potenzial, zu einem Business-Motor zu werden. Bis dahin wird es allerdings noch dauern. Auch wenn Grundlagenmodelle heute allgemein verfügbar sind, ist die Entwicklung von KI-Anwendungen kein Plug and Play. Dafür sind Datenkompetenz und Prozessverständnis erforderlich.

Den Durchbruch von KI erwarten die Analysten von Gartner schon in wenigen Jahren.(Bild:  sdecoret - stock.adobe.com)
Den Durchbruch von KI erwarten die Analysten von Gartner schon in wenigen Jahren.
(Bild: sdecoret - stock.adobe.com)

Der Zugang zu KI-Technologien ist für Unternehmen heute einfacher denn je. Spezifische Software-Bibliotheken sind inzwischen so ausgereift, dass sie es Entwicklern ermöglichen, KI-Modelle für bestimmte Aufgaben ohne tiefe Kenntnis des zugrundeliegenden Codes oder der Architektur zu verwenden. „KI lässt sich mittlerweile wie ein gewöhnlicher Softwarebaustein einsetzen, was vor einigen Jahren in dieser Form noch nicht möglich war“, erläutert Falk Borgmann, Head of Consulting beim Hamburger Dienstleister Deepshore. Es werde kein Machine-Learning-Expertenwissen vorausgesetzt, um die Modelle zu verwenden.

Trotzdem befindet sich KI immer noch in einem frühen Entwicklungsstadium. Denn die Erstellung von KI-Anwendungen ist kein Plug and Play. „Die wenigsten Use Cases werden eins zu eins von vortrainierten Modellen abgedeckt“, führt Borgmann weiter aus. Die Kompetenz von Data Scientists werde daher weiterhin benötigt. So müssen sie zunächst aus der Vielzahl der verfügbaren Modelle dasjenige auswählen, das sich für den jeweiligen Anwendungsfall am besten eignet. Ihre Aufgabe besteht außerdem darin, die Parameter des Modells mit den relevanten Daten so fein zu tunen, dass es den besonderen Zweck der Applikation erfüllt. Alternativ können sie eine Datenpersistenz neben dem Sprachmodell aufbauen, sodass es nur die Semantik liefert, jedoch keine Inhalte.

Falk Borgmann, Head of Consulting beim Hamburger Dienstleister Deepshore(Bild:  Deepshore)
Falk Borgmann, Head of Consulting beim Hamburger Dienstleister Deepshore
(Bild: Deepshore)

Solche Entscheidungen erfordern gründliche Analyse und müssen abhängig vom Anwendungsfall getroffen werden. Vom Grundlagenmodell bis zur fertigen KI-Anwendung ist somit noch einiges an Arbeit zu leisten, die menschliche Intelligenz erfordert. Deshalb wird es noch einige Zeit dauern, bis sich die KI-Nutzung in der Wirtschaft allgemein durchsetzt. Noch fehlt es vielen Unternehmen an vertikalen Anwendungen, die ihre spezifischen Prozesse unterstützen. Zuallererst brauchen sie aber die nötige „KI-Readiness“. Dazu müssen Unternehmen ein Datenmanagement und eine Governance etablieren, welche die Anforderungen erfüllen, die sich durch KI in puncto Datenqualität, Verfügbarkeit und Sicherheit, aber auch in puncto Ethik, Regulierung und Haftung stellen. Nicht zuletzt müssen Anwender für sich entscheiden, ob sie KI-Modelle über Service-APIs nutzen oder sie lokal bereitstellen wollen. Letzteres ist mit höherem Aufwand verbunden.

Durchbruch in Sicht

Den Durchbruch von KI erwarten die Analysten von Gartner schon in wenigen Jahren. Demnach werden bereits 2026 mehr als 80 Prozent der Unternehmen weltweit über Schnittstellen auf Sprachmodelle zugreifen oder fertige KI-Anwendungen nutzen. Im vergangenen Jahr waren es erst fünf Prozent. Der zunehmende KI-Einsatz wird sich in der Folge auch in den Büchern widerspiegeln. Nach Umfragen der Investmentbank Goldman Sachs rechnen Unternehmensentscheider damit, dass sich KI in den kommenden drei bis zehn Jahren zu einem Faktor entwickeln wird, der großen Einfluss auf ihr Geschäft hat.

Die technologischen Voraussetzungen dafür, dass KI tatsächlich zum Business-Treiber wird, sind erfüllt. Nicht nur die Grundlagemodelle sind in den vergangenen Jahren immer leistungsfähiger geworden, sondern auch die Art und Weise, sie zu nutzen, hat sich immer mehr vereinfacht. Daher müssen KI-Entwickler heute nicht mehr bei null anfangen und selbst neuronale Netze trainieren, wie Deepshore-Experte Borgmann ausführt. Beherrsche ein Modell zum Beispiel schon deutsche Vokabeln und Grammatik, dann müsse man es „nur“ noch in die Feinheiten juristischer Fachsprache einführen, um einen Chatbot für Anwälte und Richter zu erstellen. „Eine weitaus kleinere und damit auch kostengünstigere Aufgabe.“

Bot für Juristen

Den Prototypen eines solchen Bots hat Deepshore im vergangenen Jahr entwickelt. Er soll Juristen in der Praxis unterstützen, indem er ihnen Arbeit bei aufwändigen Recherchen abnimmt. Das System kann Fragen zu konkreten Sachverhalten beantworten und erste rechtliche Einschätzungen dazu abgeben. Dabei verweist es auf Urteile, die für die Fragestellung relevant sind. Der Bot übernehme „die Rolle eines gut ausgebildeten Rechtsreferendars, der einem Anwalt oder einem Richter zuarbeitet“, erläutert Borgmann. Die Erfahrung, die ein Jurist in jahrelanger Praxis erworben hat, könne es nicht ersetzen. Aber es verkürze die Suche nach einschlägigen Urteilen.

In der ersten Version beschränkt sich der Bot auf Arbeitsrecht. Er soll aber sukzessive auf weitere Rechtsgebiete ausgedehnt und zu einem umfassenden juristischen Assistenzsystem weiterentwickelt werden. Auf Interesse ist Deepshore damit bei Fachverlagen gestoßen, mit denen das Unternehmen im Gespräch ist.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Bei der Erstellung der Lösung waren den Experten von Deepshore zwei Dinge wichtig. Zum einen haben sie dem Bot das so genannte Halluzinieren abgewöhnt, zu dem KI-Modelle neigen. Die Anwender sollen sich darauf verlassen können, dass das System keine Urteile erfindet. Zum anderen legten die Entwickler großen Wert auf die Infrastrukturunabhängigkeit der KI-Anwendung. Sie entwickelten die Lösung als Cloud-native Applikation, die sich in beliebigen Kubernetes-Umgebungen bereitstellen lässt, beispielsweise auf AWS, Azure oder Google Cloud Platform (GCP). Gelauncht wurde die Alpha-Version auf der Infrastruktur von STACKIT, der Cloud der Schwarz-Gruppe.

Viele Projekte in Arbeit

Auf ähnliche Weise arbeiten derzeit viele Unternehmen in Deutschland – Dienstleister, Software-Anbieter ebenso wie Anwender – an KI-Projekten. Die Plattform „Lernende Systeme“ der Deutschen Akademie für Technikwissenschaften (acatech) verzeichnet etwa 1.180 KI-Anwendungen. Fast 80 Prozent davon sind allerdings noch Entwicklungsprojekte. Viele Projekte werden durch die öffentliche Hand unterstützt. Dazu haben Bund und Länder im Rahmen der nationalen KI-Strategie seit 2018 den Aufbau von mehr als 100 Digital Hubs und Kompetenzzentren gefördert, die dem Wissenstransfer von der Forschung in die Praxis dienen. Ein solches Transferzentrum ist beispielsweise der Innovation Park Artificial Intelligence (IPAI) in Heilbronn, an dem sich Deepshore neben Unternehmen wie Porsche, Schwarz und Würth sowie Forschungseinrichtungen wie Fraunhofer IAO und TU München engagiert.

Seit dem vergangenen Jahr setzen sich vermehrt Partner der Hyperscaler mit den Möglichkeiten auseinander, die ihnen die KI-Portfolios der Cloud Provider bieten. Ausgelöst durch den Hype, der Ende 2022 um ChatGPT entstanden ist, haben AWS, Google und Microsoft ihr Angebot an Services und Tools für generative KI deutlich erweitert. Mittlerweile stellen sie über ihre Plattformen vortrainierte Grundlagenmodelle bereit, die Anwender einfach über APIs nutzen können. Das britische Beratungsunternehmen Canalys sieht ein riesiges Geschäftspotenzial für Dienstleister und Software-Anbieter, die auf dieser Basis maßgeschneiderte Lösungen für bestimmte Anwendungsfälle oder einzelne Branchen entwickeln. Insgesamt erwarten die Analysten, das der weltweite Markt für generative KI, inklusive Beratungs- und Serviceleistungen, von 15,4 Milliarden Doller im vergangenen Jahr bis 2028 auf 158,6 Milliarden Dollar wachsen wird.

Chatbot von Storm Reply

Zu den KI-Projekten, die im vergangenen Jahr angestoßen wurden, zählt ein Chatbot, den Storm Reply, die AWS-Einheit des Dienstleisters Reply, für Audi erstellt hat. Das Wissensmanagement-Tool soll den Mitarbeitern des Automobilherstellers helfen, interne Informationen effizient, schnell und zuverlässig zu finden. Dabei kann es sich um Projektdokumentationen, Risikobewertungen oder Kontaktdaten handeln. Storm Reply hat die Anwendung auf Basis der KI-Plattform Amazon SageMaker erstellt. Der Bot liefert nur Antworten, die für Audi relevant sind. Außerdem teilt er explizit mit, wenn er eine Frage aufgrund unzureichender Daten nicht sicher beantworten kann, statt falsche Antworten zu erfinden.

Bot für die Immobilienwirtshaft

An KI-Projekten arbeitet auch der Microsoft-Partner aConTech, Teil der Teccle group. Der Cloud-Spezialist mit Hauptsitz in Fürth hat auf Basis von Azure OpenAI unter anderem einen Bot für die Immobilienwirtshaft entwickelt. Das System beantwortet Fragen von Mietern und kann ihnen Auskünfte zu Vertragsangelegenheiten und Nebenkostenabrechnungen geben. Außerdem leistet es Hilfestellung bei diversen Schäden und Defekten. In einem gewissen finanziellen Rahmen kann der Bot für den Mieter einen Handwerker beauftragen, der das Problem behebt. Erst wenn es komplexer wird, informiert er einen Menschen.

Wie vergleichbare Bots ist auch die KI-Anwendung von aConTech noch ausbaufähig. Der Dienstleister richtet sich damit an kleinere Immobilienunternehmen, die bis zu 200 Wohneinheiten verwalten. „Das System ist noch nicht ausgefeilt genug, um die komplexen Prozesse größerer Immobiliengesellschaften zu bewältigen“, räumt Stefan Zenkel, Geschäftsführer bei aConTech, ein. Aber das Framework der Anwendung stehe, und sie sei prinzipiell skalierbar. „Wir hätten nichts dagegen, wenn ein großer Vertreter der Branche daran interessiert wäre, den Bot gemeinsam mit uns weiterzuentwickeln.“

Noch ein juristischen Bot

In einem weiteren Projekt erstellt aConTech ebenfalls einen juristischen Bot. Das System soll Investoren in Due-Diligence-Verfahren dabei unterstützen, rechtliche Schwachstellen in Vertragsdokumenten aufzuspüren. Nach Zenkels Worten hängt die Qualität einer solchen Anwendung entscheidend von zwei Faktoren ab: zum einen von der Auswahl des richtigen Sprachmodells: Wie gut es sich von seiner Architektur her für den Anwendungszweck eignet und ob es in der Lage ist, mit dem spezifischen Sprache der Zielgruppe, in dem Fall dem juristischen Idiom, umzugehen. Zum anderen kommt es dem Experten zufolge darauf an, das vortrainierte Modell für das Feintuning mit relevanten, qualitativ hochwertigen Daten zu füttern.

Langer Atem gefragt

Dass man bei der KI-Entwicklung mitunter einen langen Atem braucht, zeigt ein ambitioniertes Projekt, das Deepshore gerade vorantreibt. In einer auf drei Jahre angelegten Forschungskooperation mit der TU Darmstadt entwickelt der Dienstleister eine Anwendung, mit der sich die Verarbeitung von Massendaten, etwa im Handel oder im Finanzsektor, effizienter abwickeln lässt. Ziel des Projekts „ETL4Balance“ ist es, den Prozess, in dem Daten aus verschiedenen Quellen zusammengeführt, für die Weiterverarbeitung umformatiert und in Data Warehouses oder Data Lakes hochgeladen werden, durchgängig zu automatisieren. Dieser Prozess wird als Extract, Transform, Load (ETL) bezeichnet.

Üblicherweise werden ETL-Systeme durch Fachpersonal betrieben, das sich rund um die Uhr damit beschäftigt, Lasten und Kapazitäten zu managen. Im Rahmen von „ETL4Balance“ sollen die Systeme durch Reinforcement Learning in die Lage versetzt werden, Prozesse autonom zu planen, zusätzliche Ressourcen nach Bedarf zu aktivieren und auf Störungen in Echtzeit zu reagieren. Außerdem sollen sie mit präzisen Prognosen kommende Anforderungen antizipieren, um frühzeitig reagieren zu können, bevor ein Fehler passiert. Das Projekt wird durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert und von Schwarz Digits, der IT-Tochter der Schwarz-Gruppe, als Partner aus dem Handel begleitet.

Das Projekt zeigt einen Hauptnutzen von KI: die Möglichkeit, komplexe und arbeitsintensive Prozesse zu automatisieren, was letztendlich zu einer Steigerung der Produktivität führt. Maßgeblich ist dafür die Fähigkeit selbstlernender Systeme, Muster in großen Datenmengen zu erkennen und unter Berücksichtigung einer Vielzahl von Faktoren autonome Entscheidungen zu treffen. Auch wenn der Zugang zu den Basistechnologien heute so einfach wie nie ist, bleibt es eine Herausforderung, KI-Lösungen für konkrete Anwendungsfälle zu entwickeln. Dazu sind große technische Skills im Umgang mit Daten erforderlich, ebenso wie ein tiefes Verständnis der Prozesse, die optimiert werden sollen. Daran wird sich vermutlich auch in Zukunft nichts ändern.

Michael Hase
Manager bei EuroCloud Deutschland_eco e.V.

Bildquelle: Barbara Gandenheimer

(ID:49970255)