Bei Cloud, KI und FinOps kann man viel falsch machen. Unternehmensberatungen helfen, diese Herausforderungen zu meistern. Microfin gewährt Einblicke in die Schmerzpunkte der Unternehmen.
Die Innovationskraft der US-Hyperscaler in Sachen KI muss man trotz der Cloud-Kontroversen nutzen – es führt kein realistischer Weg daran vorbei.
(Bild: Midjourney / KI-generiert)
Big Tech aus den USA konnte sich im Cloud-Markt wichtige Claims sichern. Geschäftsmodelle mit Burggräben, Patentsammlungen und vergleichsweise günstige Energie beim Betrieb von Rechenzentren machen es der Konkurrenz im Cloud-Markt schwer. Zumal die Cloud-dominierte IT mehr und mehr von Künstlicher Intelligenz durchdrungen wird.
Wenn es in diesem Segment um die Wahl zwischen Public und Private Cloud in deutschen Unternehmen geht, erkennt man bei der Microfin Unternehmensberatung keinen pauschalen Favoriten mehr, sondern eine Verschiebung hin zu „Cloud als Betriebsmodell“ – mit drei dominanten Mustern:
Hybrid Cloud,
Multi-Cloud und
selektive Modernisierung in der Public Cloud.
Hyperscaler können punkten
Dr. Julia Pergande, Managing Principal bei dem Beratungsunternehmen, präzisiert: „In regulierten Branchen, im gehobenen Mittelstand und in Konzernen werden geschäftskritische Kernsysteme – insbesondere Legacy-Workloads – weiterhin häufig in Private-Cloud- oder On-Prem-Umgebungen betrieben.“ Dahinter stünden Compliance- und Latenz-Gründe sowie technische Abhängigkeiten und oft auch die Tatsache, dass einzelne Applikationen schlicht nicht cloud-native sind. Gleichzeitig würden neue digitale Produkte, Analytics- und KI-Use-Cases sowie moderne Collaboration-Apps fast durchgängig in die Public Cloud wandern. „Hier punkten Hyperscaler mit Innovationsgeschwindigkeit, globaler Skalierbarkeit und einem riesigen Ökosystem aus SaaS- und Managed-Services-Angeboten – und damit auch mit klaren Vorteilen für den Channel“, fasst die Managerin zusammen.
Welche Workloads wohin?
Unterm Strich, so die Zusammenfassung von Pergande, setze sich strategisch ein „Public-Cloud-first, aber nicht Public-Cloud-only“-Ansatz durch. Die Frage sei weniger „Public oder Private?“, sondern: „Welche Workloads gehören wohin, und wie orchestriere ich diese Landschaft mit ihren Legacy-Abhängigkeiten so, dass Kosten, Risiken, Performance und Innovationsfähigkeit im Gleichgewicht sind?“ Unternehmen, die diese Architekturfrage sauber beantworten, schaffen sich demnach echte Handlungsfreiheit – alle anderen würden schleichend in Lock-ins und Kostenfallen rutschen.
Hintergrund
Microfin Unternehmensberatung
Microfin ist eine eigentümergeführte Unternehmensberatung, die sich auf die IT-Beratung spezialisiert hat, insbesondere in den Bereichen Banken, Versicherungen und regulierte Märkte.
IT-Sourcing und Cloud-Strategien
Outsourcing und Provider-Management
Kostenoptimierung und Benchmarkings
Governance, Risk & Compliance-Management
SaaS-Lösungen und Schulungen
Microfin berät insbesondere bei der Umsetzung von IT-Strategien und der Sicherstellung von Compliance.
Bei KI führt kein Weg an den USA vorbei
Dr. Julia Pergande, Managing Principal, Microfin
(Bild: Microfin)
In bestimmten Bereichen wie KI führt derzeit kein Weg an den Hyperscalern vorbei, heißt es aus dem Markt. Praktisch sei demnach kein europäischer Dienst auf dem Niveau von AWS Bedrock oder Azure OpenAI erhältlich. Pergande räumt ein, dass die Hyperscaler technologisch bei Plattformen für generative KI derzeit im Vorteil sind, in Hinblick auf:
integrierte Toolchains,
MLOps,
Security-, Monitoring- und Governance-Funktionen
sowie ein breites Modellportfolio.
Und all das gebe es eng verzahnt mit der bestehenden Cloud-Infrastruktur.
Die Auswirkungen dieser Überlegenheit auf technologischer Ebene entfalte sich auf mehreren Ebenen:
Strategisch: Unternehmen laufen Gefahr, sich in zentraler Zukunftstechnologie – nämlich KI – noch stärker bei wenigen US-Anbietern zu konzentrieren, als dies bei klassischer IaaS/PaaS schon der Fall ist. Wer seine Datenpipelines, Feature Stores, Prompting-Workflows und Anwendungen tief in eine proprietäre KI-Plattform integriert, erhöht den Vendor-Lock-in deutlich.
Souveränität und Regulierung: Gerade in Europa wachsen die Anforderungen an Datenschutz, Nachweisbarkeit, Auditierbarkeit und Modell-Governance. Hyperscaler reagieren mit „souveränen“ Angeboten und regionalen Datenräumen. Aber folgende Frage bleibt laut der Unternehmensberaterin: Kontrolliert am Ende die Mutter in den USA oder die regionale Gesellschaft die Technologie-Roadmap, Preispolitik und Datenverarbeitungswege?
Channel-Perspektive: Für Systemhäuser und Managed Service Provider wird die Rolle als „Souveränitätsschicht“ wichtiger: Übersetzung zwischen Hyperscaler-Technologie, regulatorischen Anforderungen und der spezifischen IT-Landschaft der Kunden. Das kann bedeuten, KI-Workloads bewusst zu entkoppeln, eigene Abstraktionsschichten zu etablieren, europäische Modellanbieter oder Open-Source-Modelle zu integrieren und die Datenhaltung im europäischen Rechtsraum zu verankern.
Innovationen nutzen, handlungsfähig bleiben
Kurz gesagt: In einzelnen KI-Bereichen führe aktuell kaum ein Weg an Hyperscalern vorbei – aber es sei eine bewusste strategische Entscheidung, wie tief diese Abhängigkeit ausfallen darf. Die Kunst bestehe darin, Hyperscaler-Innovationen zu nutzen, ohne die eigene Handlungsfähigkeit zu verlieren. Mit anderen Worten: Architekturentscheidungen müssen Portabilität und Souveränität bewusst einplanen.
Die Kunst besteht darin, Hyperscaler-Innovationen zu nutzen, ohne die eigene Handlungsfähigkeit zu verlieren.
Indes adressiert der EU Data Act ein zentrales Problem des Cloud-Markts, nämlich die faktische Unmöglichkeit, komplexe Dienste ohne erhebliche Risiken und Kosten zu einem anderen Anbieter zu migrieren. Auch das sorgt für Vendor-Lock-Ins. „Ziel ist es, technische, rechtliche und wirtschaftliche Hürden zu senken – insbesondere durch Vorgaben zu Interoperabilität und zum Abbau von Wechselentgelten“, erläutert Pergande. Die wesentlichen Auswirkungen, die sich daraus ergeben, seien:
Rechtlicher Rahmen für Cloud Switching: Anbieter müssen es Kunden erleichtern, Dienste zu wechseln oder parallel zu betreiben. Dazu gehört, Wechselprozesse zu definieren, technische Unterstützung anzubieten und Gebühren für das Herauslösen von Daten und Workloads schrittweise zu reduzieren oder ganz abzubauen.
Interoperabilität: Der Data Act betont Schnittstellen- und Portabilitätsanforderungen, etwa standardisierte Exportformate, APIs und unterstützte Migrationspfade. Technische Exit-Szenarien werden damit vom „Nice-to-have“ zum Compliance-Thema.
Schutz vor unrechtmäßigem Drittlandzugriff: Der Data Act verlangt, dass Anbieter – insbesondere wenn sie Drittlandsbezug haben – Vorkehrungen gegen unrechtmäßigen Zugriff staatlicher Stellen außerhalb der EU treffen und Transparenz schaffen. Das unterstützt die Diskussion um Cloud-Souveränität.
Was am Ende des Tages bleibt
Aber hat der Data Act Cloud Switching wirklich vereinfacht? Die Unternehmensberaterin sagt: „Formal ja, weil er Rechte und Pflichten klärt. Praktisch nur dann, wenn Unternehmen diese Rechte aktiv in Verträgen verankern und technisch umsetzen.“ Ohne saubere Exit-Architektur, Datenportabilitätskonzepte und Governance bleibt jedes Recht auf dem Papier. Datenmodelle, Abhängigkeiten und Identity- beziehungsweise Policy-Übertrag bleiben komplex. Für den Channel entstehe damit ein neues Beratungs- und Servicefeld, Cloud-Verträge, Architekturen und Betriebsmodelle so zu gestalten, dass die Switching-Potenziale des Data Act real genutzt werden können.
Die Vendor-Lock-in-Problematik ist so alt wie das Cloud Computing und entsteht laut Pergande nicht aus Zufall,. Meist sei es die Summe vieler kleiner, kurzfristig bequemer Entscheidungen. Wer diese Problematik vermeiden will, brauche eine klare Sourcing- und Architekturstrategie. Aus Beratungspraxis von Microfin hätten sich mehrere Leitlinien bewährt, verrät die Unternehmensberaterin:
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Architektur vor Technologie: Unternehmen sollten früh definieren, welche Teile der IT-Landschaft bewusst wechselfähig sein sollen und welche sie strategisch binden möchten. Diese Unterscheidung ist wichtiger als jede einzelne Produktentscheidung.
Entkopplung durch Standards und Abstraktion: Wo immer möglich, sollten offene Schnittstellen, Standardprotokolle und containerbasierte Deployments genutzt werden. Plattform- oder Hyperscaler-spezifische Services sollten bewusst nur dort eingesetzt werden, wo ihr Mehrwert den entstehenden Lock-in rechtfertigt – und mit einem dokumentierten Exit-Szenario hinterlegt sein.
Vertragsgestaltung als Steuerungsinstrument: Exit-Klauseln, Datenportabilität, Migrationssupport, Rechte an Konfigurationen und Skripten, transparente Preis- und Eskalationsmechanismen – all das sind Stellschrauben, um Lock-in-Risiken zumindest zu begrenzen. Wichtig dabei: Diese Punkte müssen vor der Unterschrift geklärt werden, nicht erst im Krisenfall.
Multi-Cloud- und Best-of-Breed-Strategien: Multi-Cloud ist kein Selbstzweck, kann aber helfen, Abhängigkeiten zu relativieren – vorausgesetzt, Governance, Kostenkontrolle und Betriebsprozesse beim Anbieter sind reif genug.
Knowhow im eigenen Haus: Der vielleicht unterschätzte Lock-in-Effekt entsteht, wenn kritisches Wissen fast ausschließlich beim Dienstleister liegt. Unternehmen sollten bewusst internes Architektur-, Sourcing- und Security-Knowhow aufbauen, um Entscheidungen eigenständig bewerten zu können.
Die Rolle von Open Source
Container-Technologie (Kubernetes) spielt in der Cloud-Welt eine große Rolle.
(Bild: Midjourney / KI-generiert)
Ein Allheilmittel gegen Lock-ins sei Open Source zwar nicht, aber dennoch ein zentraler Baustein, um technologische Handlungsfähigkeit zu sichern, führt die Cloud-Expertin aus. Zum einen schaffe Open Source Transparenz: Der Quellcode ist einsehbar, Formate und Protokolle sind in der Regel dokumentiert, es gibt Communities statt Monopole. Das erleichtert Migrationen, Forks oder den Wechsel des Dienstleisters, ohne die komplette Technologie zu verlieren.
Erhöhte Wahlfreiheit
Zum anderen erhöhe Open Source die Wahlfreiheit im Betrieb, so die Managing Principal: „Viele Open-Source-Komponenten können in verschiedenen Umgebungen betrieben werden – On-Premises, bei europäischen Cloud-Providern oder auf Hyperscalern.“ Das würde es ermöglichen, Workloads strategisch zu verlagern, ohne die technische Basis komplett zu wechseln. Gute Beispiele, in welche Richtung es hierbei gehen könnte, seien:
Allerdings gilt, dass auch Open Source in neue Abhängigkeiten führen kann. Die Unternehmensberaterin erwähnt dabei proprietäre Erweiterungen, Managed-Versionen mit Zusatzfunktionen und starken Bindungen an einen einzelnen Dienstleister, der die Open-Source-Lösung „as a Service“ betreibt. Entscheidend sei deshalb die Kombination aus Open Source, klaren Architekturmustern – zum Beispiel über Kubernetes, Infrastructure as Code, offene APIs – und einer Sourcing-Strategie, die mehrere Betriebsoptionen vorsieht. So könne Open Source vom Ideologie-Thema zu einem sehr pragmatischen Instrument für mehr Flexibilität werden.
Das Souveränitätsversprechen zerlegen
„Souveräne Cloud“ sei kein geschützter Begriff, sondern ein Versprechen, betont die Managerin – und dieses Versprechen müsse man in seine technischen, organisatorischen und rechtlichen Komponenten zerlegen. Und das geht so: „US-Hyperscaler adressieren europäische Souveränitätsbedenken mit Modellen, die Datenhaltung in der EU, getrennte Betriebsprozesse, dedizierte Rechenzentrumsregionen, europäisches Personal oder Partner sowie zusätzliche Verschlüsselungs- und Kontrollmöglichkeiten kombinieren.“ Diese Modelle können in der Praxis einen hohen Schutz vor unberechtigten Zugriffen bieten, erklärt Pergande. Zudem seien sie technisch sehr ausgereift. Gleichzeitig bleibe aber eine strukturelle Frage: „Die Muttergesellschaft unterliegt weiterhin US-Recht, inklusive extraterritorial wirkender Regelungen. Auch wenn technische und organisatorische Barrieren aufgebaut werden, bleibt im Zweifel eine Restunsicherheit, wie diese Konstrukte im Konfliktfall rechtlich bewertet werden.“
Rechtlich sicher, technologisch nicht auf der Höhe
Cloud Computing mündet nicht selten in einem veritablen Vendor-Lock-in, aus dem es schwer zu entkommen ist.
(Bild: Midjourney / KI-generiert)
Die Unternehmensberaterin nimmt kein Blatt vor den Mund: Europäische Anbieter würden zwar mit klarer Verankerung im EU-Rechtsraum und häufig mit besserer Nachvollziehbarkeit von Betriebs- und Supportprozessen punkten, „allerdings sind sie nicht in allen Bereichen technologisch gleich weit und können das Funktionsspektrum von Hyperscalern – vor allem im Bereich PaaS und KI – (noch) nicht vollständig abbilden“, so die Beraterin.
Die Cloud ist nicht schwarzweiß
Bei Microfin bewertet man die Gesamtgemengelage so: „Souveräne Cloud-Modelle der US-Anbieter sind ein wichtiger Fortschritt und können in vielen Szenarien – insbesondere mit zusätzlicher Verschlüsselung und strenger Governance – ausreichend verlässlich sein. In hochsensiblen Bereichen und in der öffentlichen Verwaltung bleibt die Argumentation für europäische Anbieter aber stark, weil hier nicht nur technisches Risiko, sondern auch politische und strategische Erwägungen eine Rolle spielen.“ Wichtig sei, dass Unternehmen eine Abwägung der Chancen und Risiken bewusst treffen – und nicht nur nach Feature-Liste entscheiden.
Auch in der EU kann über juristische Wege behördlicherseits auf Cloud-Daten zugegriffen werden. Es stellt sich die Frage, ob sich da nicht eine Ungleichheit in der Diskussion über den Zugriff auf Cloud-Daten zwischen US-Anbietern und europäischen Anbietern eingeschlichen habe.
Pergande bejaht das und findet die Diskussion „asymmetrisch“ und zwar aus drei Gründen:
Extraterritoriale Wirkung: US-Gesetze wie der Cloud Act können unter bestimmten Bedingungen dazu führen, dass US-Behörden Zugriff auf Daten verlangen, die bei Tochtergesellschaften oder in Rechenzentren außerhalb der USA liegen. Diese extraterritoriale Komponente erzeugt aus europäischer Sicht besondere Sensibilität. EU-Mitgliedstaaten haben ebenfalls rechtliche Grundlagen für behördlichen Datenzugriff, aber deren Wirkung ist überwiegend territorial begrenzt.
Historische Erfahrung und politische Wahrnehmung: Die Debatte um Massendatenerfassung, Geheimdienste und die Ungültigkeitserklärung früherer Datenschutzabkommen zwischen der EU und den USA hat das Vertrauen nachhaltig beeinflusst. Diese Vorgeschichte prägt die Wahrnehmung von US-Cloud-Anbietern stärker als die – durchaus bestehenden – Zugriffsrechte europäischer Behörden.
Transparenz und Kontrolle: Aus Unternehmenssicht ist entscheidend, welchen Einfluss sie auf die Gestaltung der Zugriffsszenarien haben: Standortwahl, Verschlüsselung mit eigenen Schlüsseln, Protokollierung, Widerspruchsmöglichkeiten. Viele europäische Anbieter positionieren sich hier offensiv mit klaren Regelwerken und Strukturen, während Hyperscaler komplexe, global standardisierte Regelwerke haben, die im Detail nicht immer leicht zu durchdringen sind.
Wichtig sei, dass es auch bei europäischen Anbietern keinen „Null-Zugriff“ gebe. Der Unterschied liege im rechtlichen Rahmen, in der politischen Steuerbarkeit und in der Wahrnehmung von Vertrauen. „Unternehmen sollten deshalb nicht nur nach Herkunft des Anbieters entscheiden, sondern ein strukturiertes Risikomanagement aufsetzen, das Rechtsraum, Vertragsgestaltung, Verschlüsselungskonzepte und technische Kontrollmöglichkeiten gemeinsam bewertet“, ordnet Pergande ein.
Bei Microfin beobachtet man keine flächendeckende „Rolle rückwärts aus der Cloud“, aber sehr wohl gezielte Repatriierungen einzelner Workloads – „und vor allem eine deutlich nüchternere Betrachtung von ‚Cloud-first‘“, fügt Pergande hinzu. Typische Auslöser sind aus ihrer Sicht:
Kosten: Einige Unternehmen haben nach der Migration festgestellt, dass schlecht optimierte oder nicht cloud-native Workloads in der Public Cloud erheblich teurer laufen als geplant – insbesondere bei hoher und wenig elastischer Grundlast. In solchen Fällen kann eine Rückführung in ein eigenes oder gehostetes Rechenzentrum wirtschaftlich sinnvoll sein.
Performance und Latenz: Echtzeitnahe Produktionssysteme, spezialisierte OT-Umgebungen oder Anwendungen mit sehr hohen Datenvolumina können von On-Premises- oder Edge-nahen Architekturen profitieren.
Compliance und Souveränität: In Einzelfällen entscheidet man sich bewusst gegen Public Cloud, weil sich regulatorische Anforderungen oder interne Risikobewertungen anders entwickelt haben als erwartet – oder weil der notwendige Governance- und Security-Aufwand in der Cloud höher ist als zunächst angenommen.
Vendor-Strategie: Manche Unternehmen stellen fest, dass sie zu stark in die proprietären Services eines Hyperscalers eingestiegen sind und suchen durch Repatriierung in Kombination mit Standardplattformen (zum Beispiel Kubernetes-On-Premises) wieder mehr Unabhängigkeit.
Es sei daher präziser, von „Right-Sourcing“ zu sprechen: Workloads werden dorthin bewegt, wo sie fachlich, technisch, wirtschaftlich und regulatorisch am besten aufgehoben sind – und das könne mal die Public Cloud, mal ein europäisches Rechenzentrum, mal das eigene Datacenter sein. Erfolgreich seien die Unternehmen, die diese Entscheidungen nicht dogmatisch, sondern datenbasiert und regelmäßig überprüfen.
Workloads werden dorthin bewegt, wo sie fachlich, technisch, wirtschaftlich und regulatorisch am besten aufgehoben sind – und das kann mal die Public Cloud, mal ein europäisches Rechenzentrum, mal das eigene Datacenter sein.
Die Debatte um Cloud dreht sich nach der Beobachtung von Pergande oft um Standorte und Anbieter – dabei sei Cloud vor allem ein Betriebs- und Organisationsmodell. Drei Punkte werden aus Sicht der Unternehmensberatung häufig unterschätzt:
Operating Model und Skills: Ohne passende Organisation, Rollen, Prozesse und Kompetenzen – etwa in Architektur, Security, FinOps, Third Party Management und Vertragsmanagement – bleiben Cloud-Initiativen Stückwerk. Der Fachkräftemangel trifft hier besonders hart: Unternehmen müssen entscheiden, welche Fähigkeiten sie im eigenen Haus aufbauen und wo sie langfristig auf Partner setzen.
Priorisierung von Architekturprinzipien: Viele Cloud-Strategien scheitern nicht an Technologie, sondern an fehlender architektonischer Disziplin. Lose Kopplung, Automatisierung per Infrastructure-as-Code, durchgängige Observability und Policy-as-Code sind keine technischen Details – sie sind die Grundvoraussetzung dafür, dass Cloud-Umgebungen skalierbar, auditierbar und wechselbar bleiben. Insbesondere Policy-as-Code schafft die Brücke zwischen Governance und Betrieb: Richtlinien werden nicht „nachträglich kontrolliert“, sondern von Anfang an automatisiert durchgesetzt. Unternehmen, die diese Prinzipien systematisch verankern, schaffen sich echte Beweglichkeit und reduzieren das Risiko, in teure Abhängigkeiten oder unkontrollierbare Betriebsmodelle abzurutschen.
Kostensteuerung und Transparenz: Viele Cloud-Projekte scheitern nicht an Technologie, sondern an mangelnder Kostenkontrolle. FinOps ist kein Spezialthema mehr, sondern Kernbestandteil von IT- und Fachbereichssteuerung. Gerade im Channel können hier neue Beratungs- und Managed-Services-Modelle entstehen.
Das Fazit aus dem Hause Microfin lautet: „Die strategischen Fragen im Cloud-Umfeld verschieben sich von ‚Wo liegen meine Daten?‘ hin zu ‚Wie bleibe ich technologisch, wirtschaftlich und regulatorisch handlungsfähig?‘“, fasst die Beraterin zusammen. Wer diese Fragen frühzeitig und strukturiert beantwortet, könne Cloud nicht nur als Kostenthema betrachten, sondern als echten Enabler für Digital Trust und Innovation nutzen.