Rund 1.200 Teilnehmende erlebten in Darmstadt, wie Red Hat Digitale Souveränität und Künstliche Intelligenz (KI) zusammenführt: mit EU‑konformem „Sovereign Support“, einer offenen, hybrid einsetzbaren KI‑Plattform und konkreten Praxisfällen.
Fazit des Red Hat Summit: Connect 2025 in Darmstadt: Digitale Souveränität ist in Deutschland zur Chefsache geworden; Open-Source-Technologien bilden ein belastbares Fundament, um die KI‑Ära souverän zu gestalten.
(Bild: Red Hat)
Digitale Souveränität wird Chefsache
Digitale Souveränität gibt bei vielen Unternehmen und Organisationen bei IT-Entscheidungen den Takt vor. In einer aktuellen Red‑Hat‑Erhebung liegt sie bei hiesigen Unternehmen mit 80 Prozent Priorität auf Platz eins – vor Security (79 %), Hybrid- bzw. Multicloud (78 %), Virtualisierung (77 %) und Kostenoptimierung (75 %). Auch bei den KI‑Prioritäten dominiert Souveränität: 85 Prozent wollen die breite Mitarbeiteradoption ermöglichen, 84 Prozent Flexibilität für beliebige Modelle sicherstellen und 83 Prozent Transparenz und Offenheit verankern.
Gregor von Jagow, Senior Director und Country Manager Germany bei Red Hat
(Bild: Red Hat)
„Offene Technologie, Transparenz, Wahlfreiheit – das ist seit Jahrzehnten unser Spielfeld. Aber wir investieren zusätzlich, weil Souveränität jetzt absolute Priorität hat“, sagte Gregor von Jagow, Country Manager Deutschland bei Red Hat in seiner Keynote anlässlich des „Red Hat Summit: Connect 2025“ in Darmstadt. Die Resonanz auf das Eventformat unterstreicht die Relevanz: Über die drei Veranstaltungsteile – Hands‑on‑Day, Partner‑Day und Konferenztag – kamen über 1.200 Besucher, davon mehr als 700 am Haupttag.
Neuer EU‑Support: Souveränität zum Anfassen
Konkrete Antwort auf regulatorische und geopolitische Anforderungen ist Red Hats „Sovereign Support“, der ab Januar in Europa verfügbar sein soll. Kernelemente: Tickets werden ausschließlich durch in der EU ansässige, sicherheitsüberprüfte Mitarbeitende bearbeitet, und Support-Daten verbleiben in der Region und unterliegen dem europäischen Rechtsrahmen.
Das Angebot adressiert die Sorge vor einer länder- wie herstellerseitigen Abhängigkeit im Markt. Ohne selbst Cloud‑Provider zu sein, positioniert sich Red Hat als Partner, der den souveränen Betrieb über das gesamte Open‑Hybrid‑Cloud‑Spektrum hinweg – Private, Public, Sovereign und Edge – unterstützt. Von Jagow betonte zugleich das Grundprinzip des Open‑Source‑Modells: „Kein Lock‑in. Kunden behalten Wahlfreiheit – technologisch und operativ.“
Open Hybrid Cloud und KI: Von der Pilotphase in die Produktion
Die Keynotes von Tim Cramer (SVP Product Engineering) und Udo Urbantschitsch (VP EMEA Technology Sales) zogen eine klare Linie: Vom Cloud‑Zeitalter geht es jetzt in die KI‑Ära. Dafür werden Konsistenz, Sicherheit und Automatisierung als Fundament benötigt. Red Hat bündelt dazu Linux (RHEL), Kubernetes (OpenShift), Automatisierung (Ansible) mit einer offenen KI‑Ebene (OpenShift AI/Red Hat AI) zu einer durchgängigen Plattform für klassische Anwendungen und KI‑Workloads.
Technische Eckpfeiler dafür sind:
Offene KI‑Inference auf vLLM‑Basis: Der Red Hat AI Inference Server setzt auf vLLM für niedrige Latenzen und hohe Skalierung und bildet die Laufzeit für State‑of‑the‑Art‑LLMs ab.
Agentische KI mit LlamaStack und Model Context Protocol (MCP): Eine zentrale Schnittstelle entkoppelt Agenten von Modellen, Vektor-Datenbanken und Laufzeitkomponenten – also Integration durch Plattform‑ statt Agenten‑Code.
InstructLab & RAG für Enterprise‑Daten: Modularisiertes Tuning, verbesserte Dokumentenaufbereitung (Docling) und RAG‑Best‑Practices helfen, proprietäre Daten sicher und leistungsfähig anzubinden.
Model Registry: Versionierung, Katalogisierung und Übergabe zwischen Model‑Building und ‑Betrieb für die Produktionstauglichkeit.
Lightspeed‑Assistenz: KI‑gestützte Unterstützung in RHEL, OpenShift und Ansible soll Betrieb und Entwicklung beschleunigen, Fehler reduzieren und Aufwände senken.
Red Hat skizzierte zudem das jüngste Release Red Hat AI 3.0 für mehr Flexibilität bei Modellen und Hardware, stärkere Produktionsfeatures sowie erweiterte Guardrails und Observability, ausgelegt für den Sprung von POCs in den skalierten Betrieb.
Volkswagen, Rossmann, Turkish Airlines – KI trotz Bürokratie
Wie sich KI in hochregulierten und komplexen Umgebungen etablieren lässt, zeigte Volkswagen mit „OpenShift Lightspeed – KI trotz Bürokratie“. Die Ausgangslage: >30 On‑Prem‑OpenShift‑Cluster, >200 Worker‑Nodes, >400 Projekte bei rund 300.000 Mitarbeitenden in Deutschland. Der Weg: 3 Monate Vorbereitung, 6 Monate technische Umsetzung, 6 Monate Prozessarbeit. Das Ergebnis: Die Ticketanzahl blieb zwar unverändert, aber Nutzer finden sich schneller zurecht, und der Support erhält qualitatives Zusatzfeedback – ein messbarer Produktivitätsgewinn, der sich vor allem in großen Organisationen direkt auszahlt.
Eine neue Red-Hat-Studie unterstreicht den Trend: Für 80 Prozent der deutschen IT‑Verantwortlichen ist digitale Souveränität in den nächsten 18 Monaten Top-Priorität – vor Security, Multicloud und Virtualisierung.
(Bild: Red Hat)
Rossmann demonstrierte gemeinsam mit Microsoft die Plattformtransformation: Nach Evaluierung von Kultur‑, Governance‑ und Technik‑Fit entschieden sich die Drogeriemarkt‑Spezialisten für Azure Red Hat OpenShift (ARO) als Managed Service, kombiniert mit einem On‑Prem‑OpenShift‑Footprint. 2025 laufen ARO‑Cluster, On‑Prem‑Cluster und Advanced Cluster Management noch unter GitOps‑Regeln, Jenkins wurde durch GitLab und Argo CD ersetzt. Das Ziel: vereinheitlichte Plattformen für skalierbare, regelkonforme Anwendungen und in der nächsten Phase ein Developer Hub für beschleunigte Entwickler‑ und Admin‑Experience. Für 2026 steht die Nutzung von OpenShift Virtualization auf ARO auf der Agenda.
Wie KI bereits heute den Geschäftserfolg treibt, illustrierte das Beispiel Turkish Airlines: 60 produktive KI‑Modelle und weitere 40 in Entwicklung, Einsätze von dynamischer Preisgestaltung über Betrugserkennung bis Logistik und mehr als 10 Millionen US-Dollar jährliche Treibstoffersparnis durch ein einziges Effizienz‑Modell. Der erfolgreiche Weg führte von Predictive AI zu innovativer GenAI mit klarer Wertschöpfungslogik entlang Umsatz, Kosten und Risiko.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Virtualisierung modernisieren – ohne Lock‑in
Das Thema Virtualisierung bleibt, ebenfalls getrieben durch Souveränitätsfragen, ganz oben auf der Agenda. Red Hat propagiert dabei keine 1:1‑Ablösung etablierter Plattformen, sondern die containerbasierte Modernisierung mit OpenShift Virtualization. Ein aus den Präsentationen hervorgehobenes Beispiel: Die Emirates NBD migrierte über 9.000 VMs, betreibt 37.000 Container auf OpenShift und verschob im Schnitt 140 VMs pro Nacht. Heute laufen 70 Prozent der Applikationslandschaft auf RHEL. Der Weg ist kuratiert: von Assessment über Proof of Value bis zur Migrationsfabrik, flankiert von Training und Technical Account Management.
Microsoft und Intel: Ökosystem macht Tempo
Microsoft hob zehn Jahre gemeinsamer Produkte und Services hervor – vom frühen RHEL‑Angebot in Azure über den Managed‑Dienst Azure Red Hat OpenShift bis hin zu Confidential Containers und OpenShift Virtualization, die inzwischen auf Azure Red Hat OpenShift (ARO) allgemein verfügbar sind. Für Kunden zähle der pragmatische Pfad: die Red‑Hat‑Produkte „as a managed service“, abgerechnet über das Azure‑Konto, und der gezielte Sprung in die KI-Ära mit „Red Hat AI on Azure“, inklusive Kostenoptimierung, Private‑Data‑Integration und schnellerer Delivery.
Intel wiederum skizzierte die offene und diverse Hardware‑Seite: vom CPU‑basierten, kostenwirksamen Inference kleiner bis mittelgroßer LLMs auf Xeon über Virtualisierungs‑ und Security‑Features (TDX/SGX, Confidential Computing, Post‑Quantum‑Bausteine) bis zu Gaudi‑3‑Beschleunigern für KI‑Inference mit Preis‑/Leistungsvorteilen. Ein gemeinsames Angebot: kostenfreie Proof‑of‑Concepts für Inference, RAG, Agentic AI oder Virtualisierung mit Zugang zu aktueller Hardware und Experten von Intel und Red Hat.
Valentina Kerst, Geschäftsführerin der Akademie für Künstliche Intelligenz im KI‑Bundesverband, verortete Digitale Souveränität als „Schlüssel zum digitalen Erfolg“ – und gab drei Erfolgsfaktoren mit:
Open Source als Fundament für Transparenz, Nachvollziehbarkeit und Vertrauen;
Wissen als Entscheidungsbasis für bewusste und kompetente Wahl, wo Daten liegen, wie Modelle betrieben und integriert werden;
Ökosysteme als Multiplikator, wie Netzwerke, regionale Hubs wie das „AI Village Hürth“ und Konsortien, die Geschwindigkeit und Qualität steigern.
Die politische Einordnung – vom deutsch‑französischen Schulterschluss bis zu regulatorischen Leitplanken – stütze diesen Kurs: Souveränität als Wahlfreiheit statt Autarkie, als Fähigkeit, zwischen Public, Private, Sovereign Cloud und Edge bewusst zu entscheiden, Modelle zu wechseln, Datenräume zu schützen und Technologien offen zu kombinieren.
Von der Idee zum Impact: Was jetzt zählt
Trotz KI‑Hype bleibt der Schritt in die produktive Breite herausfordernd, hierin sind sich Anbieter, Partner und Kunden einig. Viele Projekte stehen noch im Pilotstatus. Zugleich wächst der Druck, messbaren Nutzen zu liefern. Aus Darmstadt lassen sich fünf Handlungsanweisungen mitnehmen:
Souveränität konkretisieren: Datenflüsse, Support‑Ketten, Rechtsräume, Exit‑Strategien – alles vorab klären und technisch abbilden (Sovereign Support, EU‑Residency, Policy‑as‑Code).
Plattform denken: Linux, Kubernetes, Automation und offene KI als einheitliche Schicht von On‑Prem bis Public und Sovereign Cloud.
Agentische KI industrialisieren: LlamaStack, MCP, vLLM und Model Registry nutzen, um Integrationscode zu vereinheitlichen und Latenzen im Griff zu behalten.
Daten nutzbar machen: RAG‑Muster, Dokumentenaufbereitung mit Docling und InstructLab‑Tuning für proprietäre Wissensbestände professionalisieren.
Mit Best Practices beschleunigen: Cases wie Volkswagen, Rossmann und Turkish Airlines zeigen, wo Effizienz, Resilienz und neue Erträge realistisch sind, trotz Bürokratie und Compliance.