IDC zu Datenmanagement in Unternehmen Komplexe Datenverarbeitung schafft neue Berufsrollen

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Nico Litzel

Deutsche Unternehmen stehen bei der Verarbeitung und Analyse ihrer Daten noch vor herausfordernden Aufgaben. Das führt zur Entstehung einer ganzen Reihe bisher noch unbekannter Berufsrollen, wie eine Studie von IDC aufzeigt.

Firmen zum Thema

Laut einer Studie von IDC haben viele Unternehmen neue Berufsrollen implementiert oder planen dies zu tun. Sie sind teils strategischer, teils operationeller Natur.
Laut einer Studie von IDC haben viele Unternehmen neue Berufsrollen implementiert oder planen dies zu tun. Sie sind teils strategischer, teils operationeller Natur.
(Bild: © Sergey Nivens - stock.adobe.com)

Wie viel Zettabyte in den kommenden Jahren genau entstehen, ist eigentlich unwesentlich – unvorstellbar sind die Mengen sowieso. Worauf es für Unternehmen ankommt, das ist, was sie aus den ihnen jeweils zur Verfügung stehenden Daten machen, wie das vonstattengeht und welche Faktoren dabei heute noch herausfordernd sind.

Genau mit diesem Thema befasste sich IDC mit einer deutschlandweiten Befragung zum Thema „Data Driven Intelligence 2021“. An der Umfrage im Dezember 2020 beteiligten sich 261 deutsche Unternehmen, die etwa zur Hälfte über und zur Hälfte unter 1.000 Mitarbeiter haben. Sie stammen vorwiegend aus der Industrie und der Finanzbranche, aber auch andere Wirtschaftszweige sind vertreten.

Bildergalerie

Unbestritten ist, dass die Datenmengen in den meisten Unternehmen weiter wachsen, allerdings unternehmensspezifisch mit sehr unterschiedlichen Raten. Unstrukturierte Daten machen dabei etwas über die Hälfte aus.

Ein Drittel der Daten liegt noch in traditionellen Umgebungen

Immerhin etwa ein Drittel der Daten liegt heute noch in traditionellen Umgebungen, etwas unter einem weiteren Drittel in gehosteten oder Private Clouds. Immerhin 40 Prozent der Befragten gaben an, für die Datenspeicherung unterschiedliche Arten von Cloud-Services (SaaS, PaaS, SaaS) zu nutzen.

Bei der analytischen Verarbeitung der wachsenden Datenmengen ist die Sicherstellung der Datenqualität das schwierigste Problem (37 % Nennungen), es folgen die Erfassung aller relevanten Daten (27 %) und deren Klassifizierung (25 %). Weitere Problemfelder sind korrekte inkrementelle Aktualisierungen des Datenbestandes und die Sicherheit von Daten beim Transport (jeweils 23 %).

Dabei sind die Daten-Pipelines hochkomplex und werden tendenziell immer komplexer. So hat die durchschnittliche Daten-Pipeline neun einmalige Datenquellen, es werden im Schnitt vier unterschiedliche Datentypen verarbeitet und in acht individuelle Targets integriert. Der Trend zur Komplexität setzt sich fort: So werden pro Monat 26 neue Quellen oder Targets und 30 neue Datentypen nachgefragt.

Beim Datenmanagement rund um den analytischen Prozess sind Größe (31 %) und Dynamik (26 %) des Datenbestandes die wichtigsten Herausforderungen, gleichauf kommt die Komplexität der Datenumgebung (26 %). Weitere Problemfelder: die Qualität des Datenkatalogs für das Auffinden der Daten (23 %), zu geringe (23 %) oder zu hohe (21 %) Datensicherheit. Weiter spielen auch schlechte Datenqualität, unklare Datenherkunft und technische Beschränkungen (je 21 %) eine Rolle.

Inhaltliche und infrastrukturelle Herausforderungen

Innerhalb der eigentlichen Datenanalyse gibt es zwei Gruppen von Herausforderungen: eher inhaltliche und infrastrukturelle. Zunächst die erstgenannte Gruppe: Wichtigste Herausforderung ist sicherzustellen, dass die Analysen korrekt sind (37 %). Auch die Auswahl der relevanten Daten macht schon Probleme (32 %). Oder man muss sich erst einmal darum bemühen, überhaupt einen passenden datengetriebenen Lösungsansatz zu finden (29 %).

Organisatorisch dominiert die Einbettung jeweils eigener die KI-/ML-Ressourcen in jede Business Unit (39 %). Bei 32 Prozent der Befragten gab es aber eine für das ganze Unternehmen zuständige KI/ML-Abteilung. Weitere 17 Prozent hatten zwar Ressourcen, aber noch keine feste Organisationsform dafür gefunden. Hier kann man wohl davon ausgehen, dass es sich um Firmen handelt, die im Anfangsstadium der KI-Implementierung stecken.

Lediglich sieben Prozent der Befragten gaben an, man habe keine internen Ressourcen. Das zeigt, wie weit das KI-Paradigma inzwischen zumindest in die befragten Unternehmen vorgedrungen ist. In eine ähnliche Richtung weisen die Zustimmungsraten zu diversen Thesen mit Bezug zur Datenanalyse.

Jeweils mindestens knapp 60 Prozent gehen davon auf, dass strukturierte, weitgehend automatisierte Prozesse zur Datenverarbeitung (DataOps) die Datennutzung vereinfachen, dass Daten mehr und mehr in die Cloud wandern und ML/KI-Cloud-Ressourcen erfordert und Selbstbedienung zu mehr Datennutzung führt. Den höchsten Zustimmungsgrad fand mit 71 Prozent die Aussage, dass datengetriebene Geschäftsmodelle für Wettbewerbserfolg zunehmend unentbehrlich werden.

Spezialisten für die Automatisierung und Absicherung des IT-Betriebs liegen vorn

Was die praktische Anwendung angeht, liegt bei IT-Spezialisten die Automatisierung und Absicherung des IT-Betriebs mit 37 Prozent vorn, bei den Fachbereichen die Optimierung des Personaleinsatzes sowie geringere Kosten und höhere Produktivität bei Produktion und Service (je 33 %).

Daneben gibt es eine ganze Reihe von Einsatzzwecken, die bei IT-Spezialisten und Fachbereichen Zustimmungswerte zwischen 20 und 30 Prozent erreichten. Beispiele sind Verbesserung bei Marketing, Kundensupport und der gezielten Platzierung von Produkten. Themen wie neue, digitale Geschäftsmodelle, mehr Analytik zur Verbesserung der Kundenansprache, verbessertes Prozessmonitoring, bessere Anforderungsplanung und Einiges mehr.

Dies alles ist für Fachbereiche ebenfalls wichtig, aber in geringerem Ausmaß. Allerdings kann das auch daran liegen, dass die Mitarbeiter der Fachbereiche die Möglichkeiten der Analytik noch nicht so gut durchdringen wie die IT-Spezialisten.

Zur den infrastrukturellen Problemen gehören das Fehlen oder die Unzugänglichkeit der passenden technologischen Lösung (34 %) und der sie durchführenden Analytik-Fachleute (33 %). Hier gibt es also ein Ausbildungs-/Personalbeschaffungs- und ein Investitionsproblem. Schließlich finden es auch rund ein Viertel der Befragten herausfordernd, die Ergebnisse ansprechend zu präsentieren.

Wie wichtig das Personalproblem ist, zeigt sich auch daran, dass die befragten Unternehmen viele neue Berufsrollen implementiert haben oder planen dies zu tun. Sie sind teils strategisch, teils operationell.

Chief Data Officer bei 70 % der Unternehmen geplant

Eher strategisch definiert sind dabei Funktionen wie Chief Data Officer (bei 70 % der Unternehmen geplant oder implementiert), Data Management Executive und Chief Analytics Officer (jeweils 59 %), Chief Data Scientist (58 % ) und Chief Innovation Officer (57 %).

Etwas weniger wichtig scheinen die operationalen Rollen genommen zu werden. Beispiele sind Data Scientists (55 % implementiert/geplant), Data Engineering Executive (54 %), Enterprise Data Architect (51 %) oder Data Steward (47 %). Bei so viel Strategie und eher weniger Praxis fragt man sich, ob es in vielen Unternehmen nicht am Ende zu wenige Kellner und zu viele Köche geben wird. Von der Studie hätte man sich hier eine etwas genauere Definition der jeweiligen Rollen gewünscht.

Deutlich wird an den Daten aber jedenfalls, dass personelle und anderweitige Ressourcenprobleme das „Zeitalter der Daten“ vorläufig recht wirksam an seiner Entfaltung hindern. Es ist zu hoffen, dass gezielte Förder- und Ausbildungsinitiativen daran etwas ändern.

Das ist dringend nötig, wie eine aktuelle Studie des Branchenverbandes BITKOM belegt. Danach betrachten die Befragten den Grad der digitalen Souveränität Deutschlands und deutscher Unternehmen im Bereich KI/ML als besonders gering.

(ID:47271055)

Über den Autor

lic.rer.publ. Ariane Rüdiger

lic.rer.publ. Ariane Rüdiger

Freie Journalistin, Redaktionsbüro Rüdiger