Unternehmensführung
Wer Daten gezielt managt, trifft bessere Entscheidungen und sichert sich Wettbewerbsvorteile. Wir zeigen Ihnen, wie Unternehmen mit klarer Strategie, Qualität und neuen Technologien ihr Datenpotenzial ausschöpfen können.
Zum Blog Wissen KompaktEine Bitkom-Studie von 2024 ergab, dass nur sechs Prozent von 603 befragten Unternehmen das Gefühl haben, ihr Datenpotenzial voll auszuschöpfen. Doch wie können sie dies ändern, um wettbewerbsfähig zu bleiben und Zukunftstechnologien wie KI besser zu nutzen?
Wir haben mit Serif Seremet, Data Scientist bei TÜV NORD Mobilität, über folgende Themen und Fragen gesprochen:
Datenmanagement umfasst alle Prozesse, Technologien und Konzepte des gesamten Datenlebenszyklus – von der Erfassung über die Speicherung bis zur Analyse und Nutzung. „Jede Person, jeder Ablauf und jede Technologie, die mit Daten arbeitet, ist ein Teil des Datenmanagements“, erklärt Serif Seremet. Eine strukturierte Datenstrategie sei entscheidend, um Geschäftsprozesse gezielt weiterzuentwickeln.
Wer sich mit Datenmanagement beschäftigt, sollte zunächst zentrale Begrifflichkeiten voneinander abgrenzen. Während das Datenmanagement die Erfassung, Speicherung und Qualitätssicherung von Daten umfasst, dient die Datenanalyse dazu, Erkenntnisse aus diesen Daten zu gewinnen – von einfachen Reportings bis hin zu komplexen Prognosen.
Bei unklaren Datenstrukturen bleiben wichtige Fragen ungeklärt: Welche Daten liegen vor? Gibt es Duplikate? Wie sicher und zuverlässig sind die Daten? Fehlerhafte oder unvollständige Daten führen zu falschen Schlussfolgerungen, prädikativen Analysen und Simulationen, die zukünftige Entwicklungen prognostizieren sollen. Daher bildet ein strukturiertes Datenmanagement die Grundlage für verlässliche Analysen und Geschäftsentscheidungen.
Ein funktionierendes Datenmanagement beginnt nicht mit der Technik, sondern mit der richtigen Datenkultur. Unternehmen müssen Daten als wertvolles Gut begreifen und ihre Belegschaft von den Vorteilen der Datennutzung überzeugen. „Die Implementierung ist eine Topdown-Entscheidung“, erläutert Serif Seremet – ohne dauerhaftes Engagement bleibe das Vorhaben ein Stückwerk.
Ein umfassendes Datenmanagement lasse sich außerdem weder auf einen Schlag noch nach starren Vorgaben umsetzen. Stattdessen beginne der Prozess im Kleinen und entwickle sich schrittweise weiter. So entsteht eine flexible, anpassbare Strategie, die mit den Anforderungen des Unternehmens wächst.
Einen realistischen Fahrplan entwickeln, Prioritäten setzen, Schulungsbedarf definieren und die Datenstrategie als festen Bestandteil der Unternehmensstrategie etablieren – inklusive Change-Management und klarer Kommunikation.
Datenquellen und -silos identifizieren, technische und rechtliche Anforderungen prüfen und eine transparente Ausgangsbasis als Fundament für eine nachhaltige Umsetzung schaffen.
Daten zentral prüfen, bereinigen, ergänzen und kategorisieren. Relevante Informationen für interne Nutzung festlegen. Schulungen und klare Prozesse sichern langfristig die Datenqualität.
Bestehende Systeme analysieren, strategische Ziele definieren und passende Technologien auswählen, die sich in die vorhandene Infrastruktur integrieren lässt und zentrale Datenverfügbarkeit ermöglicht.
Datenschutz bei allen Prozessen mitdenken, Zugriffsrechte nach Rollen klar regeln und nationale wie internationale Rechtsgrundlagen (z. B. DSGVO) berücksichtigen – auch bei zukünftigen Technologien und Anwendungen.
Interne und externe Quellen kontinuierlich zusammenführen und anreichern, etwa durch ein CRM-System, Marktanalysen oder Service-Daten. Datenverfügbarkeit gezielt für bessere Entscheidungen nutzen.
Regelmäßige Audits, Schulungen und interne Kommunikation stärken das Datenverständnis im Team. Reifegradmodelle und KPIs helfen dabei, Fortschritte zu messen und die Strategie weiterzuentwickeln.
Ein effektives Datenmanagement ist unerlässlich für den wirtschaftlichen Fortschritt, da es Unternehmen ermöglicht, datengetrieben zu arbeiten und Innovationen voranzutreiben. Um wettbewerbsfähig zu bleiben, ist es entscheidend, die aktuellen und zukünftigen Trends in diesem Bereich zu beobachten. Datenwissenschaftler Serif Seremet hebt fünf Trends und Innovationen hervor, die dabei helfen, Daten effizienter zu nutzen und fundierte Entscheidungen zu treffen.
Automatisierung und KI optimieren das Datenmanagement, etwa durch Intelligent Document Processing (IDP) – eine Technologie, die Dokumente automatisch erfasst und verarbeitet. Auch die Datenqualität steigt: Eine Dublettenprüfung verhindert doppelte Kund:innendaten, indem bereits erfasste Einträge vorgeschlagen werden. Ein Abgleich mit Google-Daten kann die Genauigkeit weiter erhöhen.
Edge Analytics hilft, große Datenmengen frühzeitig zu reduzieren, indem Analysen so nah wie möglich an der Quelle erfolgen. Besonders bei feingranularen Sensor- und Maschinendaten sind nicht alle Informationen für Unternehmen relevant. Statt Daten erst an einen Server zu senden, zu speichern und zu analysieren, erfolgt eine erste Auswertung und Entscheidungsfindung direkt vor Ort („on edge“).
DataOps ist eine agile, prozessorientierte Methodik, die darauf abzielt, Datenprodukte zu entwickeln und Daten über alle Technologieebenen hinweg nutzbar zu machen. Es verbindet DevOps-Prinzipien aus der Softwareentwicklung mit Datenspezialisten, die sich auf die kollaborative Entwicklung von Datenströmen und die kontinuierliche Nutzung von Daten im gesamten Unternehmen konzentrieren. Durch optimierte Prozesse, Tools und Organisationsstrukturen unterstützt DataOps datengetriebene Geschäftsentscheidungen und verbessert die Effizienz im Umgang mit Daten.
Data Fabric ist eine einheitliche Architektur, die Unternehmen dabei unterstützt, Daten aus verschiedenen Quellen und Umgebungen effizient zu verwalten, zu verarbeiten und zu nutzen. Sie maximiert den Datenwert, fördert die digitale Transformation und ermöglicht datengetriebene Geschäftsentscheidungen. Durch die nahtlose Verbindung von Standorten, Datentypen und -quellen bietet Data Fabric flexible Zugriffsmöglichkeiten und unterstützt vielfältige Anwendungsfälle – von Prognosen über Produktentwicklung bis hin zur Optimierung von Vertrieb und Marketing.
Low-Code- und No-Code-Lösungen ermöglichen die Anwendungsentwicklung mit wenig bis keinem Programmieraufwand. Low-Code erfordert Grundkenntnisse, während No-Code ausschließlich auf visuelle Drag-und-Drop-Elemente setzt. So können Fachkräfte eigenständig grafische Benutzeroberflächen bzw. Dashboards, Visualisierungen und Reports erstellen, ohne auf Datenwissenschaftler:innen oder -analyst:innen angewiesen zu sein. Voraussetzungen sind Schulungen, um die Anwendungen korrekt zu nutzen und zwischen Visualisierung und Interpretation zu unterscheiden.
Datenmanagement ist ein fortlaufender, strategischer Prozess, der alle Unternehmensbereiche betrifft. Wer Daten strukturiert erfasst, pflegt, schützt und sinnvoll nutzt, legt den Grundstein für fundierte Entscheidungen, effiziente Prozesse und zukunftsfähige Organisationen. Erst durch die gezielte Aufbereitung, Visualisierung und Analyse von Daten entstehen aber echte Wettbewerbsvorteile – von der kontinuierlichen Prozessoptimierung bis hin zu datenbasierten Prognosen mittels Predicitve Analytics. Neben den passenden technologischen Hilfsmitteln hängt der nachhaltige Erfolg maßgeblich von der Datenkompetenz der Mitarbeitenden ab. Wenn Teams verstehen, wie Daten funktionieren, welchen Wert sie haben und welche Regeln gelten, kann Datenmanagement wirklich gelebt werden. Regelmäßige Schulungen sind deshalb essenziell. Sie schaffen Sicherheit im Umgang mit Daten, fördern ein gemeinsames Verständnis und die Bereitschaft zur aktiven Mitgestaltung.
Bezeichnet große, oft unstrukturierte Datenmengen, die mit spezialisierten Analysetools verarbeitet werden müssen. Sie bieten umfassende Einblicke, ermöglichen prädikative Analysen und verbessern betriebliche Effizienz, indem sie Muster aufdecken, Risiken prognostizieren und Ressourcen optimieren.
Wenn für einen bestimmten Use Case nicht genügend Daten vorhanden sind, kann der Rückgriff auf externe Quellen sinnvoll sein. Diese zusätzlichen Informationen – etwa demografische Daten, Standortinformationen oder Branchenkennzahlen – ergänzen die eigenen Datensätze und erhöhen deren Aussagekraft. Besonders KI-Modelle profitieren von solchen Anreicherungen, da sie zusätzliche Kontextinformationen in ihre Berechnungen und Modellierungen mit einbeziehen können. „Wenn wir Kund:innen verstehen möchten, dann schauen wir z. B., wie viele Tankstellen es um diese:n Kund:in gibt, wie die Demografie der Postleitzahl aussieht, wo bestimmte Kund:innen angesiedelt sind“, erklärt Serif Seremet.
Bei der Datenanalyse wird zwischen mehreren Ansätzen unterschieden. Klassisches Reporting wertet historische Daten aus, während prädiktive Analysen Vorhersagen ermöglichen und Geschäftsentscheidungen unterstützen. Eine weitere Methode ist die Echtzeitanalyse, die in zwei Kategorien unterteilt wird: OLTP (Online Transaction Processing) verarbeitet Transaktionen in Echtzeit, etwa zur Betrugserkennung. OLAP (Online Analytical Processing) hingegen analysiert historische Daten für strategische Entscheidungen.
Bevor Daten angereichert oder analysiert werden, müssen sie normalerweise zunächst bereinigt werden. Dabei geht es um die Korrektur von Fehlern, das Entfernen von Dubletten, die Vereinheitlichung von Formaten oder das Ergänzen fehlender Werte.
Hierbei geht es um die Definition von Datenpipelines. Die verschiedenen Daten werden nicht wie durch Zauberhand auf einem Dashboard angezeigt. Es findet ein Prozess statt, der auf alle Daten zugreift und diese aus verschiedenen Quellen extrahiert, eventuell auch transformiert. Währenddessen wird auch festgestellt, ob es Duplikate gibt, ob die Daten gereinigt werden oder in einem bestimmten transformierten Format vorliegen müssen – das ist das „Transform“. Beim Vorgang „Load“ wird die Zieldatenquelle hineingespeist, sodass ein Dashboard darauf zugreifen kann.
Umfasst kleinere, strukturierte Datensätze, die mit herkömmlichen Anwendungen wie Excel oder SQL-Datenbanken einfach verwaltet und analysiert werden können. Sie ermöglichen zügige kosteneffiziente Analysen und unterstützen schnelle Entscheidungen, insbesondere in kleinen Projekten.
Ein datengetriebenes Unternehmen nutzt moderne Technologien wie Big Data, Künstliche Intelligenz und Business Intelligence, um fundierte Entscheidungen zu treffen – anstelle von Intuition oder Erfahrung. Probleme wie Leistungseinbußen oder Produktivitätsverluste werden durch Datenanalyse identifiziert und gelöst. Unternehmen setzen heute verstärkt auf Datenvisualisierung, Automatisierung und maschinelles Lernen, um Fehler und Risiken zu erkennen und Prozesse effizienter zu gestalten.
Data Mining ist der Prozess der Analyse großer Datenmengen, um Muster zu erkennen und wertvolle Informationen zu gewinnen. Unternehmen nutzen es zur Optimierung von Marketingstrategien, zur Umsatzsteigerung und zur Kostensenkung. Eine effiziente Datensammlung, Verwaltung und Verarbeitung sind dabei essenziell.
Datenmodellierung ist die Methode, Daten so zu strukturieren, dass sie effizient analysiert und für geschäftliche Entscheidungen genutzt werden können. Sie umfasst sowohl logische als auch physische Modelle, die Beziehungen, Hierarchien und Kennzahlen definieren. Ziel ist es, eine einheitliche und verständliche Datenstruktur zu schaffen, die konsistente Abfragen und Analysen ermöglicht. Ein gutes Datenmodell sorgt dafür, dass Daten klar definiert und sinnvoll organisiert sind, sodass Unternehmen daraus wertvolle Erkenntnisse gewinnen können.
Die explorative Datenanalyse (EDA) dient dazu, Datensätze ohne zuvor definierte Annahmen zu untersuchen, Muster zu erkennen und Auffälligkeiten oder unvollständige Daten zu identifizieren. Mithilfe visueller und statistischer Methoden wie Histogrammen und Streudiagrammen ermöglicht sie ein tiefes Verständnis der Daten und bildet die Grundlage für weiterführende Analysen. Durch die Untersuchung der Daten lassen sich erste Hypothesen ableiten, die später in detaillierten Analysen überprüft werden. Dies stellt auch sicher, dass die Daten vollständig sind, bevor fortgeschrittene Analysen erfolgen. Unternehmen nutzen EDA zur Strategieplanung und Innovationsförderung, indem sie Trends analysieren, Marktchancen erkennen und datenbasierte Entscheidungen treffen.
Metadaten sind Daten über Daten – beispielsweise Informationen über Erstellungs- und Änderungszeitpunkte, Inhalte, Geodaten, Dateigrößen, Urheber:innen oder Zugriffsbestimmungen. Metadaten helfen dabei, Datensilos aufzulösen, Dubletten zu vermeiden und die Verwaltung sowie die Suche nach spezifischen Daten deutlich zu vereinfachen, wodurch sich Arbeitsprozesse beschleunigen lassen.
SQL ist eine Abfragesprache für relationale Datenbanken, in denen Daten tabellarisch mit klar definierten Strukturen gespeichert werden. Relationen zwischen Tabellen entstehen durch „Foreign Keys“, wodurch SQL besonders für strukturierte Daten wie Namen oder Mengen geeignet ist. SQL-Datenbanken sind vertikal skalierbar, d. h. ihre Leistung lässt sich durch Hardware-Erweiterungen steigern.
NoSQL-Datenbanken sind nicht relational und speichern strukturierte, semi-strukturierte sowie unstrukturierte Daten in flexiblen Formaten wie Dokumenten, Key-Value-Paaren oder Graphen. Sie eignen sich für moderne Anwendungen mit großen, dynamischen Datenmengen und skalieren horizontal durch das Hinzufügen weiterer Server – ein Vorteil für cloudbasierte Infrastrukturen.
SQL und NoSQL sind zentrale Bausteine im Datenmanagement, insbesondere bei verteilten Datenbeständen in Cloud, On-Premise oder im Edge-Bereich. Während SQL einen festen, strukturierten Ansatz verfolgt, bietet NoSQL mehr Flexibilität für Formate wie JSON oder XML. Beide ermöglichen eine zentrale Verwaltung und einen einheitlichen Zugriff auf Daten in komplexen IT-Landschaften.
Berufliche Weiterbildung hat viele Gesichter und trägt maßgeblich zum Erfolg der Mitarbeitenden sowie des ganzen Unternehmens bei. In unserem Blog "Wissen kompakt" lesen Sie Fachbeiträge zu aktuellen Fragestellungen, die jetzt und in der Zukunft Ihre Arbeitswelt bestimmen.
Unser Blog richtet sich an Fach- und Führungskräfte jeden Alters und jeder Unternehmensgröße, an berufliche Einsteiger genauso wie an erfahrene Arbeitskräfte.
Unser Podcast ist die Antwort auf den Wunsch, unsere Inhalte in einem modernen Format zugänglich zu machen, das bequem nebenbei konsumiert werden kann.