Infrastruktur bleibt für den Channel der Hyperscaler das Brot-und-Butter-Geschäft. Partner von AWS, Google und Microsoft richten sich aber bereits auf das nächste Zukunftsthema aus: generative KI. Denn Cloud Computing und „GenAI“ gehören letztlich zusammen.
Mit ihren Plattformen ermöglichen die Hyperscaler einer breiten Masse von Unternehmen den Einstieg in die KI-Nutzung.
(Bild: fotomek - stock.adobe.com)
Die ersten Dezembertage 2022 markierten einen Einschnitt in der IT-Welt. Mit der Veröffentlichung des Dienstes ChatGPT, bei dem sich innerhalb von nur fünf Tagen eine Million Menschen registrierten, rückten die Fortschritte, die generative Künstliche Intelligenz („GenAI“) in den vergangenen Jahren gemacht hatte, schlagartig ins Bewusstsein eines Massenpublikums. Für viele Nutzer war der Chatbot, der auf nahezu jede erdenkliche Frage antwortet und dabei, wie es Gartner formuliert, zu „sehr menschlich anmutenden Interaktionen fähig“ ist, eine Sensation.
Die Kerntechnologie von generativer KI bilden sogenannte Grundlagenmodelle (Foundation Models), die mit Unmengen an Rohdaten trainiert werden. Anhand der erlernten Muster sind sie in der Lage, neue Inhalte wie Texte, Bilder, Musik oder Software zu erzeugen. So basiert ChatGPT auf dem Sprachmodell Generative Pre-trained Transformer (GPT), das die Data Scientists von OpenAI, dem Unternehmen hinter dem Bot, mit Text trainierten.
Bedeutend wie Dampfmaschine, Strom und Internet
Bislang steht bei GenAI die Fähigkeit, kreative Arbeit zu unterstützen, im Vordergrund. Doch das wird sich ändern, erwarten die Marktforscher von Gartner. „Bis 2025 werden mehr als 30 Prozent aller neuen Medikamente und Materialien systematisch mit Hilfe generativer KI-Techniken entdeckt – heute sind es null", sagte der Analyst Brian Burke zu Beginn dieses Jahres voraus. „Und das ist nur einer von zahlreichen Anwendungsfällen in der Industrie.“ Laut Gartner wird sich GenAI zu einer Allzwecktechnologie entwickeln, die ähnliche Auswirkungen auf die Wirtschaft haben wird wie die Dampfmaschine, die Elektrizität und das Internet.
Vom Hype um ChatGPT profitierte zunächst Microsoft. Der US-Konzern, der sich 2019 mit einer Milliarde Dollar an OpenAI beteiligt hatte, kündigte im Januar dieses Jahres weitere hohe Investitionen in das Startup an, um sich die Kontrolle über dessen Technologie zu sichern. In Medienberichten war von bis zu zehn Milliarden Dollar die Rede.
Microsoft hatte schon bald konkrete Anwendungsszenarien parat. Im März stellte der Hyperscaler den Copilot vor, ein Tool, mit dem er Fähigkeiten von ChatGPT in die Microsoft-365-Dienste integriert. Mit dem Azure OpenAI Service macht der Anbieter zudem die Grundlagenmodelle des Spezialisten per APIs für Anwender zugänglich. Dazu gehört neben der GPT-Familie das Modell Dall-e zur Bilderzeugung. Azure OpenAI bietet Unternehmen die Möglichkeit, spezifische KI-Anwendungen zu entwickeln, ohne dass sie selbst Modelle erstellen müssen.
Auswirkungen auf den Channel
Solche Neuheiten betreffen den Channel des IT-Giganten unmittelbar. Im Microsoft Cloud Partner Program bildet Azure Data & AI eines der sechs Lösungsfelder (Designations), auf die sich Dienstleister spezialisieren können. Zudem wurde auf der Konferenz Inspire im Juli das AI Cloud Partner Program gestartet. Tatsächlich setzen sich einige Häuser bereits damit auseinander. „Der Copilot ist eine bahnbrechende Innovation, die beim Modern Workplace künftig eine wesentliche Rolle spielen wird“, urteilt Stefan Zenkel, Geschäftsführer bei Acontech aus Fürth, einem Mitglied der Teccle Group. „Unternehmen, die sich nicht damit befassen, werden einen echten Effizienz- und Wettbewerbsnachteil haben.“
Acontech entwickelt derzeit ein Einführungskonzept, das über die technische Implementierung des Tools hinausgeht und zu dem Workshops, Fragebögen und pädagogische Leitfäden gehören. Der Fokus liegt Zenkel zufolge auf den Auswirkungen der Technologie auf die Menschen, auf ihre Zusammenarbeit und auf die Organisation. Es gehe darum, Prozesse am Arbeitsplatz effizienter zu gestalten und zugleich den Mitarbeitern die Ängste vor der KI zu nehmen.
Stefan Zenkel, Geschäftsführer bei Acontech „Bei GenAI sind wir nicht mehr der horizontale IT-Dienstleister. Wenn wir dem Kunden helfen wollen, müssen wir sein Geschäft und seine Problemlage verstehen. Somit entwickeln wir uns klar zu einer prozess- und organisationsunterstützenden Beratung.“
Bildquelle: Tim Händel
Auch mit Azure OpenAI beschäftigt sich Zenkels Team. „Wir nutzen Kreativitäts- und Ideenfindungstechniken wie Design Thinking, um gemeinsam mit Kunden herauszuarbeiten, wie sie Prozesse durch KI unterstützen können.“ Oft laufe die Diskussion auf Bots hinaus. Dabei hilft Acontech den Unternehmen, die generischen Modelle an ihre spezifischen Anforderungen anzupassen. Zudem entwickelt der Dienstleister gerade vier standardisierte Bots für ausgewählte Verticals mit häufig wiederkehrenden Anwendungsfällen. „Damit richten wir uns an kleinere Unternehmen, die es sich nicht leisten können, mittlere fünfstellige Beträge in einen eigenen Bot mit Spezialwissen zu investieren.“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Katalysator für GenAI
Bei den anderen Hyperscalern ist GenAI ebenfalls ein großes Thema. Wie Microsoft haben AWS und Google Cloud integrierte Plattformen aufgebaut, die die Entwicklung und das Training von KI-Modellen unterstützen. Auch sie stellen Anwendern vortrainierte Grundlagenmodelle zur Erzeugung von Texten, Bildern und Code bereit. Erst im April dieses Jahres hat AWS den Service Amazon Bedrock angekündigt, über den KI-Modelle von Startups wie AI21 Labs, Anthropic, Cohere und Stability AI verfügbar sind. Mit ihren Angeboten treiben die Provider nicht nur die Cloud-Nutzung voran. Sie ermöglichen auch einer breiten Masse von Unternehmen, die weder über spezielle Expertise noch über ausreichend Personal verfügen, den Einstieg in die KI-Nutzung. Die IDC-Analystin Ewa Zborowska bezeichnete die Cloud unlängst als „Katalysator für generative KI“.
Die Hyperscaler treiben den KI-Markt voran
Die Cloud verhilft Künstlicher Intelligenz (KI) zum Durchbruch. So bieten die Hyperscaler mit Plattformen wie Azure ML (Microsoft), Sagemaker (AWS) und Vertex AI (Google) spezifische Frameworks, Bibliotheken und Collaboration-Tools an, die auf die Entwicklung generativer KI-Modelle zugeschnitten sind. Und sie stellen auf Abruf skalierbare Ressourcen für High Performance Computing (HPC) bereit, die für das Training der Modelle notwendig sind. Ohne die Rechenleistung von Azure wäre der Erfolg von ChatGPT kaum möglich gewesen.
Die Cloud-Anbieter unterstützen Anwender aber auch dadurch, dass sie ihnen über Managed Services den Zugriff auf vortrainierte Grundlagenmodelle geben: Microsoft über den Azure OpenAI Service, Google über Model Garden und AWS über Bedrock. Damit ermöglichen sie es Kunden, KI-Funktionen per API in Anwendungen einzubinden, ohne dass sie selbst Modelle entwickeln und aufwändig trainieren müssen. Denn das ist ein komplexer, zeitraubender Prozess, der rare Expertise erfordert. Stattdessen können sich Unternehmen darauf konzentrieren, die Modelle für ihre Zwecke anzupassen.
Der Markt hat seit der Veröffentlichung von ChatGPT massiv an Fahrt aufgenommen. In diesem prestigeträchtigen Wettbewerb, in dem es um die Milliardengeschäfte der Zukunft geht, möchte anscheinend keiner der Beteiligten ins Hintertreffen geraten. So veröffentlichte Google im März die ChatGPT-Alternative Bard, die seit Juli auch Deutsch spricht. Und im Juni kündigte der Anbieter das Tool Duet AI an, das den Google Workspace – ähnlich wie bei Microsoft 365 der Copilot – um intelligente Funktionen erweitert. Nicht alle Neuheiten, die die Cloud Provider in diesem Jahr vorgestellt haben, sind derzeit schon allgemein verfügbar. Teils werden sie noch als Preview in ausgewählten Kreisen von Kunden und Partnern erprobt.
Großes Echo bei Kunden
AWS plant bislang offenbar keinen Chat-Dienst, der für private Nutzer zugänglich ist, sondern fokussiert sich auf Business-Anwender. Im Juni hat der Hyperscaler das Generative AI Innovation Center angekündigt, ein Programm, in das 100 Millionen Dollar fließen sollen und dessen Zweck es ist, den Einsatz von KI bei Kunden zu fördern. Helfen soll ihnen dabei der Channel.
„GenAI gehört zu den Themen, mit denen wir uns beschäftigen müssen und die auch bei Kunden ein großes Echo auslösen“, sagt Sven Ramuschkat, Geschäftsführer beim AWS-Partner Tecracer aus Hannover. „Aus unserer Sicht ist es ein Gamechanger.“ Die Technologie werde beim IT-Arbeitsplatz ebenso wie bei Contact Centern zu riesigen Umwälzungen führen. Nachfrage gebe es bereits im Markt. „Wir haben die ersten Konzepte für Proof of Concepts definiert, die wir gemeinsam mit den Kunden angehen wollen.“ Die Niedersachsen planen, Chatbots jeglicher Art zu bauen, die Kunden und Mitarbeiter von Unternehmen mit Informationen versorgen. Diese Informationen sollen mittels AI aus Datenbeständen extrahiert werden, die mit der SuchmaschineAmazon Kendra durchforstet werden. „Das sind Leuchtturmprojekte, aber noch nichts, bei dem wir Hunderte von Manntagen verkaufen können.“
Sven Ramuschkat, Geschäftsführer bei Tecracer „Mit GenAI nähern wir uns dem Ziel, das ich vor einigen Jahren formuliert habe, dass wir uns auf höherwertige Services ausrichten müssen, für die man Applikations- und Integrationskompetenz braucht. Tatsächlich befassen wir uns mit Infrastruktur schon wesentlich länger, als ich das erwartet hatte, weil viele Systemhäuser bei Cloud noch nicht so weit sind.“
Bildquelle: Michael Hase
Beim Ansatz von AWS schätzt der Tecracer-Chef, dass der Cloud-Anbieter über Bedrock „mehrere Modelle verschiedener Anbieter bereitstellt, die man einheitlich über eine gleiche API ansprechen kann“. Er rechne damit, dass schnell weitere hinzukommen werden. In der breiten Auswahl liege ein Vorteil. „Nicht für jedes Anwendungsszenario brauchen wir ein großes Modell“, so Ramuschkat weiter. „Man muss nicht mit Kanonen auf Spatzen schießen.“ Eine Aufgabe von Tecracer sieht er darin, Kunden bei solchen technologischen Entscheidungen zu beraten: „Die Kompetenz eines Partners ist es, dass er für einen Use Case das geeignete Modell auswählen kann.“
Push für Daten- und KI-Lösungen
Im Google-Channel registriert man ebenfalls wachsendes Interesse an GenAI. „Durch den Hype getrieben, kommen jetzt immer mehr Projekte auf uns zu, in denen wir Daten so aufbereiten, dass Kunden sie mit Machine-Learning- und AI-Anwendungen nutzen können“, berichtet Benny Woletz, Geschäftsführer bei Cloudwürdig aus Magstadt. Der Dienstleister, der zur Public Cloud Group (PCG) gehört, wird sich dem Manager zufolge künftig stärker auf Daten- und KI-Lösungen fokussieren und seine Kompetenz auf diesem Gebiet weiter ausbauen. Daher splitten die Schwaben die Einheit, die sich mit der Google Cloud Platform (GCP) befasst, in ein Infrastruktur- und ein Data-Team auf. Letzteres bekommt mit Matthias Krenzel, der als Head of Data bei den Handelsunternehmen Peek & Cloppenburg und Breuninger tätig war, zum 1. September einen Leiter.
Benny Woletz, Geschäftsführer bei Cloudwürdig „Bei Infrastruktur macht es kaum einen Unterschied, ob wir eine Landing Zone für einen Retailer oder einen Manufacturer bauen. Bei Data und AI müssen wir aber Branchen-Knowhow mitbringen. Sobald wir uns den Prozessen zuwenden, brauchen wir einen Data Scientist, der das Geschäft des Kunden versteht.“
Bildquelle: Public Cloud Group
Wie Woletz ausführt, hat Cloudwürdig bei Data einige Leuchtturmprojekte umgesetzt. Nach seiner Erwartung bietet der Markt künftig aber noch weit mehr Potenzial, und „deshalb werden wir in das Thema investieren". Diese Einschätzung stimmt mit der von Analysten überein. Laut Forrester Research werden Data und Analytics in der Cloud in diesem Jahr weltweit ein Volumen von 40 Milliarden Dollar erreichen. Der Wert soll sich bis 2026 auf fast 90 Milliarden Dollar erhöhen. Bei solchen Perspektiven sieht sich der Partner von Google gut positioniert. Denn der Hyperscaler habe „bei Data und AI die größte Visibilität im Markt“, betont Woletz. Mit Infrastrukturmodernisierung werde sich Cloudwürdig wohl noch auf Jahre beschäftigen. Aber er rechnet auch damit, dass das Data-Segment deutlich wachsen und sich das Geschäft dadurch stärker vertikalisieren wird.
Automatisierung des Cloud-Betriebs
Auf einen weiteren Aspekt von GenAI weist Forrester-Analyst Lee Sustar hin: „KI in der Cloud“ gelte es zu unterscheiden von „KI der Cloud“, die den Betrieb zu automatisieren hilft. „KI kann eingesetzt werden, um die Cloud intelligenter und für den Nutzer weniger komplex zu machen.“ Diesen Ansatz, der als AI for IT Operations („AIOps“) bezeichnet wird, nutzt Cloudeteer aus Hamburg im Service: Automaten qualifizieren Tickets vor und reichern sie mit Informationen an, die durch GenAI erzeugt werden. Der Service Manager werde gebrieft, was auf dem System passiert, und erhalte konkrete Anweisungen, erläutert Marc Sundermann, CEO des Dienstleisters. „Damit befähigen wir Mitarbeiter, die keine Cloud-Architekten sind, auf die richtigen Dashboards zu schauen und die richtigen Stellschrauben zu bedienen.“
Marc Sundermann, CEO bei Cloudeteer „Als Reaktion auf den Wettbewerb am Arbeitsmarkt planen wir kein massives, sondern ein moderates Personalwachstum. Dabei werden wir unsere internen Prozesse mithilfe von KI weiter automatisieren, indem wir die Mitarbeiter mit zusätzlichem Wissen inkubieren, das ihnen Automaten liefern.“
Bildquelle: Michael Hase
Manche Prozesse laufen sogar vollkommen automatisch ab. „Gewisse Regeltätigkeiten, die wir in komplexen Cloud-Systemen vornehmen, lassen wir durch Automaten ausführen“, schildert Sundermann das Szenario. So könne die Wartung eines Systems stattfinden, ohne dass ein Mensch eingreift. „Die Bots sind so intelligent, dass sie Tasks vorqualifizieren und bestimmte Entscheidungen auf der Basis von Rahmenparametern eigenständig treffen.“ Am besten funktioniere AIOps bei Kubernetes-Archiktekturen, deren Betrieb sich bis zu 85 Prozent automatisieren lasse. Cloudeteer könne dadurch Leistungen, meist handelt es sich um den Betrieb unkritischer Workloads, preisgünstiger anbieten. „KI ist unsere Antwort auf das Near- und Off-Shoring internationaler Wettbewerber.“