Datenqualität wird zunehmend zu einem kritischen Erfolgsfaktor für Unternehmen aller Branchen. Die Fähigkeit, präzise, zuverlässige und aktuelle Informationen zu generieren und zu nutzen, ist entscheidend für die Effizienz operativer Prozesse, die Genauigkeit strategischer Entscheidungen und letztlich für den Unternehmenserfolg. Trotz der zunehmenden Anerkennung ihrer Bedeutung bleiben Fragen der Datenqualität oft unbeantwortet oder werden nur oberflächlich behandelt. 13 wichtige Fragen werden hier beantwortet:
Alle reden von Datenqualität, aber was ist das eigentlich genau?
Datenqualität bedeutet, zu jeder Frage eine richtige Antwort zu erhalten. Das setzt voraus, dass Daten ständig auf Fehlerhaftigkeit, Redundanz und Nutzbarkeit geprüft werden. Neben der Vermeidung von Fehlern und Lücken geht es also auch darum, Daten verschiedenen Adressaten in einheitlicher Weise zur Verfügung zu stellen und sie möglichst einfach nutzbar zu machen.
An welchen Parametern kann man Datenqualität festmachen?
Datenqualität kann anhand von Merkmalen beurteilt werden. Zu diesen Merkmalen zählen die intrinsische Datenqualität (Glaubhaftigkeit, Genauigkeit, Objektivität, Reputation), die kontextuelle Datenqualität (Mehrwert, Relevanz, Zeitnähe, Vollständigkeit, Datenmenge), die repräsentative Datenqualität (Interpretierbarkeit, Verständlichkeit, Konsistenz der Darstellung, Prägnanz) sowie die Zugriffsqualität (Verfügbarkeit, Zugriffssicherheit).
Welchen Einfluss hat die fortschreitende Digitalisierung?
Mit der Digitalisierung hat sich das unternehmerische Handeln in den letzten Jahren deutlich gewandelt. So sind mittlerweile viele zukunftsweisende Geschäftsmodelle wie E-Commerce, Onlinebanking oder E-Procurement entstanden. Doch auch in den Unternehmen selbst hat die Digitalisierung zu tiefgreifenden Veränderungen geführt. Eine stärkere interne und externe Vernetzung, neue Arbeitsmodelle oder wachsende Investitionen in Data Analytics sind nur einige Beispiele dafür. Die Grundlage all dieser Entwicklungen sind Daten. Ohne sie kann der Einkauf keine digitalen Lieferantenlisten führen, das Marketing keine digitalen Kampagnen planen und das Unternehmen keine Datenanalysen durchführen oder Prozesse digitalisieren. Aufgrund dieses enormen Einflusses ist auch die Qualität der genutzten Daten von hoher Bedeutung.
Was hat das Ganze mit Stammdaten zu tun?
Ob digitalisierte Geschäftsprozesse im Einkauf, in der Produktion oder im Vertrieb, Stammdaten sind relevant für alle Unternehmensbereiche. Ein wirksames Stammdatenmanagement ist die Basis für Digitalisierungsinitiativen in jeder Organisation. Gute Stammdatenqualität ist dabei kein Selbstzweck, sondern ermöglicht es dem Unternehmen, effizienter zu wirtschaften und Ressourcen wirksamer einzusetzen.
Welche typischen Probleme hat schlechte Datenqualität zur Folge?
Inkonsistente Daten kosten schlicht Geld. Wenn beispielsweise ein Kunde oder ein Lieferant im System mehrfach vorhanden ist und verschiedene Konditionen hinterlegt sind, kann man sich die Folgen leicht vorstellen. Schlechte Datenqualität bindet zudem interne Ressourcen und verlangsamt Prozesse. Unplausible Daten müssen regelmäßig aufs Neue überprüft werden, von dieser Überprüfung sind häufig mehrere Abteilungen betroffen (Vertrieb, Procurement, Finance, IT), und dennoch ist die finale Klärung oft nicht möglich. Unzuverlässige Datenquellen können des Weiteren zu fehlerhaften Managemententscheidungen oder Markteinschätzungen und damit zum Verlust von Marktanteilen führen. Schließlich besteht bei unzureichender Datenqualität ein erhöhtes Compliance-Risiko durch die mangelhafte Erfüllung regulatorischer Anforderungen oder die unzureichende Transparenz und Rückverfolgung operativer Prozesse.
Welches sind wichtige Vorteile einer hohen Datenqualität?
Eine hohe Datenqualität sichert durch automatisierte Workflows und Informationsflüsse eine schnellere Datenbereitstellung für die Geschäftsbereiche. Unternehmen verfügen über verlässliche operative Prozesse und eine gesicherte Grundlage für geschäftliche Entscheidungen. Durch die Harmonisierung von Prozessen und Schnittstellen lassen sich manuelle und nachträgliche Fehlerbereinigungen in Stammdatensätzen langfristig reduzieren. Das gilt ebenso für bilateralen Abstimmungsaufwand im Rahmen der internen und externen Datenübermittlung. Last but not least ist eine hohe Datenqualität eine wichtige Voraussetzung für erfolgreiche Digitalisierungsinitiativen.
Worin liegen die Gründe für unzureichende Datenqualität?
Das Problem beginnt schon damit, dass oft keine Transparenz hinsichtlich der tatsächlichen Datenqualität vorhanden ist. Die Gründe für unzureichende Datenqualität sind zahlreich. Einerseits steigt der Umfang der Datensätze immer weiter - beispielweise hat ein Produkt in der Lebensmittelindustrie bis zu 450 Attribute, etwa zu Inhaltsstoffen, Allergenen, Preisempfehlungen und Logistikinformationen -, gleichzeitig nimmt die Anzahl der Quellen und Verantwortungsbereiche für Daten stetig zu. Andererseits führt dies zu Abteilungen mit abweichenden Interessen an gleichen Datenobjekten, zu viele „Entscheider” werden eingebunden, es gibt „gefühlte” Vetorechte im Dateneingabeprozess. Das Berechtigungskonzept ist entweder lückenhaft oder gar nicht erst vorhanden, es fehlen klare Verantwortlichkeiten und Eskalationsstufen. Die manuelle Datenpflege und der manuelle Datenaustausch führen zu inkonsistenten, fehlerhaften oder unzureichenden Informationen.
Welche Voraussetzungen müssen erfüllt sein, um eine hohe Datenqualität zu etablieren?
Zunächst muss man sich er darüber im Klaren sein, dass Datenqualität kein rein technisches Problem ist, sondern vor allem ein organisatorisches und prozessuales. Durch den bereichs- und system-übergreifenden Charakter von Daten bedarf es einer übergeordneten und transparenten Verantwortlichkeit für Datenqualität, beispielweise in Form einer Data Governance. Klare Governance-Strukturen mit definierten Rollen und Verantwortlichkeiten sowie eine Eskalationsfunktion im Datenmanagement sind für die effiziente Datengenerierung und -nutzung durch unterschiedliche Interessengruppen unabdingbar. Darüber hinaus bedarf es wirksamer, „gelebter” Datenmanagement-Prozesse, möglichst getrennt von den operativen Prozessen und technisch unterstützt durch beispielsweise Workflows oder MDM-Tools. Schließlich kann Datenqualität flankiert werden durch ein einmaliges Data Cleansing (ggf. Tool-unterstützt). Langfristig muss es aber organisational in Angriff genommen werden.
Womit sollten Unternehmen bei einer Stammdateninitiative starten?
Zur Analyse des Istzustands empfiehlt sich die Durchführung einer Reifegradanalyse. Mithilfe von standardisierten Fragebögen und Workshops können sich die Verantwortlichen zunächst einen Überblick über den Status quo verschaffen und Verbesserungsansätze erkennen. Diese Bestandsaufnahme kann mit einem systemgestützten Datenqualitätscheck kombiniert werden, der ein Benchmarking ermöglicht.
Welchen Beitrag können Softwarelösungen für das Stammdatenmanagement leisten?
In der Stammdatenpflege ist das richtige Gleichgewicht zwischen Komplexität und Effizienz entscheidend. Prozesse zur Anlage, Änderung und Deaktivierung von Stammdaten sind so einfach und schlank wie möglich, aber so komplex wie nötig zu gestalten, um entsprechende Datenqualität sicherzustellen. MDM-Tools können hierbei auf vielfältige Art und Weise unterstützen.
Wie können Lösungen für mehr Datenqualität beispielhaft aussehen?
Der Weg zu mehr Datenqualität führt über Zentralisierung, Standardisierung und externe Prüfservices, um den internen und externen Anforderungen an Stammdaten zu begegnen. Ein Beispiel für Produktstammdaten ist die Einführung eines zentralisierten und automatisierten Produktstamms. Hierdurch lassen sich manuelle und nachträgliche Ressourcenaufwände zur Pflege der Produktstammdaten erheblich reduzieren. Das Ergebnis: die zentrale Bereitstellung verschiedener Daten aus multiplen und oft auch globalen Quellen und unterschiedlichen Verantwortungsbereichen.
Was bringt Stammdatenmanagement in Zahlen?
Als Anhaltspunkte können hierzu die Ergebnisse eines Beispielprojekts von KPMG Deutschland aus dem Jahr 2020 herangezogen werden. Danach verfügt das beteiligte Unternehmen um ein verbessertes Datenmodell, nachdem 68 Prozent der fehlerhaften, veralteten und doppelten Dateneinträge korrigiert werden konnten. Die Effizienz des Datenmanagement-Prozesses konnte um 50 Prozent gesteigert werden, während die Anzahl von Personen, die in den Stammdatenprozess involviert sind, von mehr 1000 auf nur noch 50 reduziert wurde. Eine fest verankerte Data Governance sichert darüber hinaus die Daten- und Prozessqualität dauerhaft.
Datenqualität ist kein statischer Zustand. Wie kann Datenqualität gemessen und dauerhaft gesichert werden?
Zunächst: Datenqualität kann nicht eindimensional gemessen werden. Hier bietet es sich zum Beispiel an, einen multi-dimensionalen Kennzahlenbaum – ähnlich den (Finanz-) Controlling-Instrumenten – zu nutzen. Er berücksichtigt zunächst die Ausprägungen der Datenqualität und bricht sie in einzelne Kennzahlen herunter, darunter Anzahl Dubletten, Anzahl Inkonsistenzen und Anzahl nicht gefüllter Datenfelder. Diese Informationen werden multidimensional mit weiteren Informationen zur Ursachenanalyse verknüpft. Weitere Dimensionen sind beispielsweise der Unternehmensbereich, in dem der Fehler entstanden ist, das betroffene Datenobjekt, das System oder der Prozess, in dem die Daten angelegt oder verwendet werden. Auch der Aufbau eines zentralen Stammdatenmanagementsystems sollte überlegt werden. Transparenz hierbei schafft eine Informationslandkarte, mit der die Datenlandschaft und Speicherorte abgebildet werden. Mit modernen Datenmanagementsystemen sind regelmäßige Daten- und Prozessqualitätsanalysen vorprogrammiert. Sie lassen sich mit den vorhandenen Business-Intelligence-Systemen verbinden und werden so zum festen Bestandteil des Unternehmenscontrollings.