„AI-first“-Strategie Oracle auf Du und Du mit KI-Agenten

Von Dr. Stefan Riedl 6 min Lesedauer

Anbieter zum Thema

KI ist zweifellos die Zukunft; besonders KI-Agents stehen im Rampenlicht. Während Large Language Models den Turbo für Interaktionen und Verbreitung darstellten, beginnt jetzt die Ära der KI-Agents, die neue Möglichkeiten eröffnen.

KI-Agenten sind fester Bestandteil in der Oracle-Strategie.(Bild:  Midjourney / KI-generiert)
KI-Agenten sind fester Bestandteil in der Oracle-Strategie.
(Bild: Midjourney / KI-generiert)

Abhängig vom Alter können sich manche noch an die Zeiten erinnern, als das Internet noch eine „coole neue Erfindung“ war. Heute ist es ein alltäglicher Vorgang die Suchmaschinen anzuwerfen oder im Netz zu recherchieren. So ähnlich wird es bald mit Künstlicher Intelligenz sein. Davon ist man auch im Oracle-Konzern überzeugt.

AI first

Milo Honegger, Director AI Business Value bei Oracle erklärt, dass sein Arbeitgeber eine klare „AI-first“-Strategie ausgerufen habe, sowohl intern als auch für die Kunden. Das Ziel sei es, Künstliche Intelligenz nicht als Add-on, sondern als festen Bestandteil der täglichen Arbeit erlebbar zu machen. „In unseren Fusion SaaS-Anwendungen bedeutet das konkret: KI-Funktionen sind direkt in bestehende Workflows integriert, vorkonfiguriert, getestet und sofort einsatzbereit – ganz ohne gesonderte Technologieprojekte oder Change-Programme“, konkretisiert der Manager.

Die omnipräsente, helfende KI

Milo Honegger, Director AI Business Value, Oracle(Bild:  Oracle)
Milo Honegger, Director AI Business Value, Oracle
(Bild: Oracle)

Der Vorteil liegt laut Honegger auf der Hand: Nutzer erhalten KI-Unterstützung dort, wo sie gebraucht wird. Er nennt Beispiele:

  • bei der Priorisierung von Leads im Vertrieb,
  • beim Erstellen von Stellenausschreibungen im Recruiting oder
  • bei automatisierten Vorschlägen für Forecasts im Finanzbereich.

Mehr als 200 dieser prädiktiven, generativen und agentenbasierten Funktionen seien heute bereits standardmäßig verfügbar – „und das ohne Zusatzkosten für Kunden“, betont Honegger.

„Eat your own Dogfood“

In den USA lautet eine Redewendung „Eat your own Dogfood“, die darauf abzielt, dass Unternehmen ihre eigenen Produkte nutzen sollten. Auch bei Oracle werden intern die eigenen KI-Funktionen intensiv genutzt, zum Beispiel für Marketing-Automatisierung und automatisierte Spesenabrechnung. Funktionen, die unter den Begrifflichkeiten „Touchless Expenses“ oder Sales Enablement laufen. „Das macht uns zum vielleicht anspruchsvollsten Kunden unserer eigenen Plattform“, so der AI-Experte.

KI aus einer Hand

Ein weiterer zentraler Pfeiler der Oracle-Strategie in Sachen KI ist laut dem Manager die technologische Integration: „Oracle betreibt die gesamte KI-Wertschöpfungskette auf der eigenen Infrastruktur – vom Chip bis zur Anwendung.“ Das reduziert nach seinem Dafürhalten die Komplexität, eliminiert Schnittstellenprobleme und beschleunigt Innovation.

Die Macht der LLM-Technologie

LLM steht für „Large Language Model“, was auf Deutsch „großes Sprachmodell“ bedeutet. Es handelt sich dabei um KI-Modelle, die trainiert wurden, um menschenähnlichen Text zu verstehen und zu generieren. LLM-Anbieter wie OpenAI, Meta, Mistral oder Grok haben einen großen KI-Schub in der IT-Welt angestoßen, der mit disruptivem Charakter durch die Wirtschaft pflügt. Auch Honegger sagt: „Die Einführung leistungsstarker Large Language Models – kurz: LLMs – hat sowohl technologisch als auch wirtschaftlich zweifellos für eine neue Dynamik im KI-Markt gesorgt.“ Für Oracle bedeute das eine Beschleunigung einer bereits eingeschlagenen Strategie: Schon 2017 habe man prädiktive KI in die hauseigenen Fusion-Anwendungen eingebettet, und Machine-Learning-Verfahren würden in der Oracle Database sogar seit den frühen Nullerjahren zum Einsatz kommen.

Neue Einsatzmöglichkeiten durch Large Language Models

Verändert habe sich mit den LLMs der Umfang und die Vielfalt der Einsatzmöglichkeiten. Innerhalb der letzten zwei Jahre habe man bei Oracle die Zahl der „Out-of-the-Box“ verfügbaren KI-Funktionen in Fusion etwa vervierfacht – darunter einige generative Funktionen für Content-Erstellung, Zusammenfassungen, Klassifizierungen und Entscheidungen im Kontext. Es kommen hier laufend neue Modelle, Use Cases und Integrationsmöglichkeiten hinzu.

„Agentic AI“ ist die Zukunft

Besonders spannend ist nach Einschätzung des AI-Experten aus dem Hause Oracle der Trend hin zu Agentic AI. Das sind KI-Systeme, die nicht nur Inhalte erzeugen, sondern auch Ziele verfolgen und Aktionen autonom oder semi-autonom ausführen. Das eröffnet laut Honegger völlig neue Potenziale für Prozessautomatisierung, vor allem bei komplexeren, weniger standardisierten Abläufen. „Für Unternehmen bedeutet das: Weniger repetitive, manuelle Tätigkeiten und mehr Fokus auf strategische, kreative und wertstiftende Aufgaben“, so der Manager.

Bedeutung für den Channel

Für Oracle und seine Partner – insbesondere Systemintegratoren und Dienstleister – verschiebe sich damit der Fokus weg von der reinen Technologieintegration, hin zur Wertschöpfung. „Entscheidend ist nicht mehr, ob man KI nutzt, sondern wofür“, so der KI-Experte. Es gehe darum, messbare Business-Ziele zu erreichen, also

  • kürzere Durchlaufzeiten,
  • höhere Forecast-Genauigkeit oder
  • besseren Kundenservice.

Erfolgreich sind laut Hoegger jene Projekte, bei denen KI nicht um der KI willen eingesetzt wird, sondern konkret dort, wo sie echte Vorteile schafft.

Trend 1: API-Kosten sinken

Die API-Kosten für den Zugriff auf LLMs sinken bei diesen Modellen tendenziell, doch mit der Nutzung steigt der Energiebedarf. Es stellt sich die Frage, wie sich das ausspielen wird. Milo Honegger bestätigt den Trend: „In der Tat sind die API-Kosten für den Zugriff auf LLMs in den vergangenen zwei Jahren dramatisch gesunken – bei einigen Anbietern um bis zu 90 Prozent“, so der Manager. Er konkretisiert: „Bei OpenAI fielen die Kosten für eine Million Tokens zwischen Oktober 2023 und Oktober 2024 von rund 90 US-Dollar auf etwa 10 US-Dollar. Das verändert die wirtschaftliche Gleichung fundamental.“

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Funktionen im Workflow

Der Fokus verschiebt sich derzeit weg von „KI-Modellen“ hin zu KI-Agenten.(Bild:  Midjourney / KI-generiert)
Der Fokus verschiebt sich derzeit weg von „KI-Modellen“ hin zu KI-Agenten.
(Bild: Midjourney / KI-generiert)

Der Oracle-Manager erläutert: Wenn Informationen immer günstiger verfügbar werden, verschiebt sich der Fokus: Nicht mehr der Zugriff auf KI ist der Engpass, sondern ihre zielgerichtete Nutzung im Kontext. Genau das spiegle sich auch in der Oracle-Strategie wider: „Wir setzen auf ‚Embedded AI‘ – also Funktionen, die direkt im Workflow zur Verfügung stehen und echten Mehrwert schaffen.“ Profitieren wird seiner Einschätzung nach derjenige, der die richtige Information zur richtigen Zeit der richtigen Person bereitstellt, und nicht unbedingt derjenige mit dem größten KI-Modell.

Trend 2: Energiebedarf steigt

Gleichzeitig steige mit der breiteren Nutzung auch der Energiebedarf. Das lässt sich nicht wegdiskutieren. Allerdings gebe es hier zwei wichtige Entwicklungen: Erstens werden LLMs durch bessere Modellarchitektur, optimierte Hardware und gezieltes Fine-Tuning sowohl im Training effizienter als auch im Betrieb. Zweitens würden neue Betriebsmodelle entstehen, etwa Rechenzentren in kühlen Regionen wie Skandinavien, wo weniger Energie für Kühlung benötigt wird und überschüssige Wärme als Fernwärme genutzt werden kann.

Der Wechsel von Modellen zu Agenten

Der Fokus in der KI-Branche verschiebt sich derzeit weg von reinen „KI-Modellen“ hin zuKI-Agenten. Für Honegger markieren die KI-Agenten den nächsten großen Schritt in der Evolution von künstlicher Intelligenz: „Anders als regelbasierte Systeme oder klassische RPA-Lösungen, die nur vordefinierte Prozesse abbilden, zeichnen sich Agenten durch eine Reihe neuer Fähigkeiten aus: Sie kombinieren Kontextverständnis, logisches Denken, Erinnerungsvermögen und – ganz entscheidend – die Fähigkeit, selbstständig Aufgaben auszuführen, um ein Ziel zu erreichen.“ Damit, so der Manager, ahmen sie in gewisser Weise menschliches Urteilsvermögen nach.

Die erste Welle: RAG-Agents

Die Entwicklung dieser Agenten verläuft laut Honegger in mehreren Wellen. Die erste Generation – sogenannte RAG-Agents – greift auf interne Daten und Richtlinien eines Unternehmens zu, um kontextspezifische, hochpräzise Antworten zu geben. Ein Beispiel: Während ein generisches Sprachmodell nur allgemeine Aussagen zu einer Gerätebestellung machen könnte, kennt ein RAG-Agent die exakten Beschaffungsrichtlinien eines Unternehmens und kann einem Mitarbeiter sagen, welches Gerät er sich wann, in welchem Budgetrahmen und bei welchem Anbieter bestellen darf.

Die zweite Welle: Single-Task-Agents

Die zweite Welle umfasst laut dem AI-Experten sogenannte Single-Task-Agents: Sie können einfache, klar umrissene Aufgaben ausführen, zum Beispiel das automatische Formulieren von Kundenantworten oder das Planen von Meetings. Auch hier können „Human-in-the-Loop“-Kontrollpunkte eingebaut werden, um die Qualität abzusichern.

Hintergrund

„Human-in-the-Loop“

Im KI-Kontext beziehen sich "Human-in-the-Loop"-Kontrollpunkte auf Momente im Entwicklungs- oder Anwendungsprozess einer KI, bei denen ein Mensch eingreift, um die Qualität und Genauigkeit der Ergebnisse zu überprüfen und sicherzustellen. Diese Kontrollpunkte sind entscheidend, um die KI-Modelle zu validieren, zu trainieren und zu überwachen. Menschen können Korrekturen vornehmen, Feedback geben oder Entscheidungen validieren, um sicherzustellen, dass die KI zuverlässig und effektiv arbeitet. Der Ansatz trägt dazu bei, Verzerrungen zu minimieren und die Gesamteffektivität der KI-Systeme zu verbessern.

Die dritte Welle: Agenten-Teams

Die dritte Generation sind Multi-Agenten-Systeme, die bei Oracle oft als „Agenten-Teams“ bezeichnet werden. Hier übernimmt ein übergeordneter Supervisory Agent die Koordination und orchestriert spezialisierte Sub-Agenten, die jeweils einzelne Schritte eines komplexen Prozesses übernehmen. Ein typisches Beispiel ist der Procure-to-Pay-Prozess, bei dem Ausschreibung, Beschaffung, Lieferung, Rechnungskontrolle und Zahlung durch spezialisierte Agenten abgewickelt werden – mit klar definierten Übergaben und optionalem menschlichem Eingriff an entscheidenden Stellen.

Ausblick auf die KI-Zukunft

„In den kommenden Jahren erwarten wir eine zunehmende Reife dieser Agenten-Systeme: Sie werden robuster, vielseitiger und in der Lage sein, auch unstrukturierte Aufgaben in realen Unternehmensumgebungen zu übernehmen“, so der Oracle-Manager. Wichtig bleibe dabei immer: Transparenz, Kontrollmechanismen und eine verantwortungsvolle Gestaltung von Schnittstellen zwischen Mensch und Maschine – besonders in sensiblen Bereichen wie dem Finanzwesen, dem HR-Umfeld oder im öffentlichen Sektor. Dort werden, auch wenn KI-Agenten viele Aufgaben übernehmen können, menschliche Validierung und Risikomanagement weiterhin eine zentrale Rolle spielen.

(ID:50533749)