Datenqualitätsmanagement Schritt für Schritt

13.01.2020

< Zurück zur Übersicht

Wie Sie Datenqualitätsmanagement implementieren und welchen Nutzen Sie daraus ziehen werden

Woran merkt man, dass die Datenqualität im Unternehmen nicht stimmt? Hinweise können sein: Kampagnen erzielen zu geringe Rücklaufquoten, man steckt zu viele Ressourcen in die manuelle Datennachbearbeitung oder man kann gesetzliche Vorgaben nicht erfüllen. Wo die Leistung eines Unternehmens aus Service besteht, zum Beispiel im Handel oder im Bereich Finanzdienstleistungen, muss die Datenqualität aber stimmen.
Lesen Sie hier, wie Sie Ihr Datenqualitätsmanagement aufbauen, wie Datenprobleme zu lösen sind und wie Datenqualitäts-Monitoring Ihnen dabei hilft.

 

Inhalte der Publikation

  • Einordnung
  • Treiber des Themas Datenqualiät
  • Vorgehensweise zum Aufbau eines Datenqualitätsmanagements
  • Voraussetzungen für ein funktionierendes Management von Datenqualitätsproblemen
  • Datenqualitätssicherung mit Hilfe eines Data Quality Reporting Dashboards
  • Fazit

 

Einordnung

Datenqualitätsmanagement ist eine der Data Governance Säulen – neben der Einhaltung von Datenschutzregeln (Data Privacy), dem Stammdatenmanagement (Master Data Management) und der Pflege des Datenbestands (Data Maintenance).
Datenqualitätsmanagement heißt: Wir stellen sicher, dass die richtigen Daten in einer so hohen Qualität vorliegen, dass wir sie sinnvoll, nutzbringend und gesetzeskonform verwenden können. Wenn es mit Daten Probleme gibt, müssen diese gelöst werden. Der ganze Prozess des Datenqualitätsmanagements, inklusive dem Management von Datenqualitätsproblemen (Issue Management) und dem Monitoring über ein Data Quality Reporting Dashboard, ist idealerweise strukturiert und nachvollziehbar organisiert

Wie definiert sich Datenqualität?

Dafür gibt es eine große Zahl von Bewertungskriterien, unter anderem diese: Korrektheit, Konsistenz, Zuverlässigkeit, Nachvollziehbarkeit, Vollständigkeit, Genauigkeit (z.B. Rundungsgenauigkeit), Aktualität, Redundanzfreiheit, Relevanz, Einheitlichkeit, Eindeutigkeit und Verständlichkeit (für den Nutzer/Daten-Konsumenten). Viele Kriterien – da kann viel schiefgehen.
Welche Kriterien für die Datenqualität herangezogen werden, ist Teil der Datenstrategie im Unternehmen. Die Kriterien werden messbar und damit managebar, wenn sie in KPIs (Key Performance Indicators, meist übergeordnet strategisch) oder KQIs (Key Quality Indicators, eher operativ) formuliert werde.

Warum ist Datenqualität wichtig?

Kundendaten sind ein sensibles Gut. Mangelhafte Datenqualität kostet Geld, wenn zum Beispiel Marketinggelder verpuffen oder wenn manuelle Datennachbearbeitung Ressourcen verschlingt. Sie führt zu Imageschäden, wenn die Unternehmenskommunikation, etwa in Form von Mailings, an fehlerhafte oder falsche Adressen geschickt wird oder irrelevant ist. Sie kann sogar ernste rechtliche Konsequenzen haben, wenn Regulierungen des Gesetzgebers nicht eingehalten werden. Auf die vielzitierte DSGVO kommen wir noch zu sprechen.

Warum achten manche Unternehmen trotzdem nicht genug auf ihre Datenqualität?

Weil man glaubt, der Aufwand, eine hohe Datenqualität sicherzustellen, stehe in keinem vernünftigen Verhältnis zum Ertrag. Diese Einschätzung lässt sich heute widerlegen. Die wirtschaftliche Bedeutung, die Daten heute haben und die gleichzeitige Sensibilität hinsichtlich der Nutzung einerseits sowie die weitgehend automatisierten Prozesse und intelligenten Tools andererseits sind der Kontext, in dem Datenqualitätsmanagement heute steht. Datenqualität zu managen ist auf der Basis von praxiserprobten Prozessen einfacher und effizienter möglich als je zuvor.

 

Treiber des Themas Datenqualität

Warum der Fokus auf Datenqualität? Da sind zum einen die externen Anforderungen an Unternehmen. Bei Banken sind dies zum Beispiel regulatorische Anforderungen wie die Grundsätze für die effektive Aggregation von Risikodaten und die Risikoberichterstattung (BCBS 239) als Folge der globalen Finanzkrise 2008/2009.
Ein anderes Beispiel: Wer gegen den Datenschutz (etwa die DSGVO) verstößt und Kunden werblich anspricht, die dem nicht zugestimmt haben, muss mit empfindlichen Strafen rechnen. Das muss kein böser Wille sein – ein unzureichendes Datenqualitätsmanagement reicht. Und dann wird’s richtig teuer.
Und schließlich sind es auch interne, betriebswirtschaftlich motivierte Gründe, die für mehr Datenqualität sprechen: Erst qualitativ hochwertige Daten ermöglichen den Erfolg von Folgeprozessen. Ein Beispiel: Nur wenn man die richtigen Kunden für eine Marketing-Kampagne selektiert, stimmt der Rücklauf. Datenqualitätsmanagement bedarf der Weisung von „oben“. Was nicht passieren darf, ist, dass jeder Unternehmensbereich seine eigene Datenqualitäts-Strategie hat. Nur wenn es ein Datenqualitätsmanagement für alle Daten im Unternehmen gibt, ist dieses wichtige Thema zu managen. Nur dann ist sichergestellt, dass, wenn es irgendwo im Unternehmen Fehlerquellen im Datenhaushalt gibt, die Auswirkungen auf andere Bereiche haben, diese zügig identifiziert und eliminiert werden können.

 

Vorgehensweise zum Aufbau eines Datenqualitätsmanagement

Datenqualitätsmanagement ist immer ein Teil der unternehmensweiten Datenstrategie. Von dieser Datenstrategie und damit auch vom Datenqualitätsmanagement verspricht man sich unter anderem Kosteneinsparungen und die Risikominimierung im Hinblick auf zu erfüllende gesetzliche Vorgaben. Und schließlich ermöglicht erst das Datenqualitätsmanagement die sinnvolle, zielführende Nutzung der Kundendaten im Sinne des Unternehmenszwecks.
In der Praxis setzt man eine Datenstrategie über Vorgehensmodelle um: Hier werden Strukturen geschaffen und Prozesse aufgesetzt. Rollen und Verantwortlichkeiten werden definiert. Und man sollte immer sicherstellen, dass alle „Stakeholder“, das heißt, alle, die im weitesten Sinn mit dem Thema Daten zu tun haben, vom Management über die IT bis in alle Fachbereiche, involviert sind.

Wie könnte ein Vorgehensmodell für Datenqualitätsmanagement aussehen?

Das ist in jedem Unternehmen anders. In jedem Fall wird das Datenqualitätsmanagement in der Praxis auf viele Schultern verteilt. Jeder übernimmt einen Teil der Verantwortung, einen Teil der vielfältigen Aufgaben, die im Zusammenhang mit dem Datenqualitätsmanagement zu bewältigen sind. Daten sind immer auch Chefsache. Auf der obersten Führungsebene liegt die Verantwortung für die unternehmensweite Data Governance.
Die Umsetzung der Datenstrategie kann eine Ebene tiefer erfolgen. Hier geht es um die Definition von Prozessen, die Bereitstellung und Zusammenführung von technologischen Hilfsmitteln (Tools), die Organisation von Change Management und Schulungsmaterial im Zusammenhang mit der Datenwelt im Unternehmen sowie um koordinierende, zwischen Geschäftsbereichen vermittelnde Aufgaben.
Für jeden Bereich, in dem es um Daten geht, ist sinnvollerweise ein Entscheidungsgremium für Datenqualitätsmanagement eingesetzt. Die Aufgaben: Der Austausch über alle Geschäftsbereiche und Büros in anderen Ländern hinweg, um das Datenqualitätsmanagement voranzutreiben. Hier werden Foren für Diskussionen und der Austausch zu allen Datenthemen gefördert, man teilt Erfahrungen und arbeitet so gemeinsam daran, im Unternehmen eine verbindliche Haltung und Herangehensweise zum Thema Datenqualität zu entwickeln.
Arbeitsgruppen unterstützen die Entscheidungsgremien für Datenqualitätsmanagement in der operativen Umsetzung von Initiativen. Weitere Stakeholder, die eingebunden werden, können diejenigen sein, die mit den Daten businessseitig zu tun haben (Data Content Owner), die täglich administrativ mit Daten arbeiten (Data Stewards) und die IT, wo Daten liegen und aufbereitet werden (Data Platform Owner). Bei internationalen Unternehmen bietet es sich an, für die Region zuständige Datenmanager (Data Officer) einzusetzen, weil externe Anforderungen (Gesetzgebung) von Land zu Land unterschiedlich sein können.

 

Voraussetzungen für ein funktionierendes Management von Datenqualitätsproblemen

Wo man mit Daten arbeitet, tauchen auch Probleme mit den Daten auf. Diese Probleme adressiert das Management von Datenqualitätsproblemen (Data Quality Issue Management). Die erste Voraussetzung dafür, solche Probleme managebar zu machen: Es muss ein zentrales Tool (Ticketing-Tool) geben, in dem alle Datenqualitätsprobleme erfasst werden. Jedem in der Organisation muss dieses Tool bekannt sein, da jeder Mitarbeiter Datenqualitätsprobleme erfassen darf und auch soll, die ihn in seiner täglichen Arbeit behindern. Wichtig ist, dass das Unternehmen Budgets für die Lösung von Datenqualitätsproblemen zur Verfügung stellt.

Wann liegt eigentlich ein Datenqualitätsproblem vor?

Ein Problem liegt dann vor, wenn mindestens ein Kriterium für Datenqualität verletzt ist. Wird ein solcher Fehler im Datenhaushalt entdeckt, eröffnet man ein sogenanntes „Ticket“. Das ist sozusagen der Fahrschein, mit dem das Problem durch den Lösungsprozess reist.

Welche Datenqualitätsprobleme tauchen in der Praxis auf? Es können ganz kleine Dinge sein, die jedoch große Auswirkungen haben:

  • Man stellt bei der Selektion fest, dass ein Kunde 120 Jahre alt ist – gibt es den Kunden noch? Ist das Geburtsdatum vielleicht falsch eingetragen?
  • Das Datum der Kundenkontoeröffnung liegt hinter dem Datum des ersten Einkaufs im Onlineshop
  • Die Postleitzahl passt nicht zum Ort
  • Anrede Herr Anna Müller
  • und viele andere mehr

Datenqualitätsproblem (Issue) und Wunsch (Change Request) – was ist der Unterschied?

Es gibt Datenprobleme, die sofort behoben werden müssen, und es gibt Wünsche ans Stammdatenmanagement, die Verbesserungen oder Erleichterungen mit sich bringen, aber nicht dringend sind. Hier wird zwischen dem Problem (Issue) und dem Wunsch (Change Request) unterschieden. Bei einem Change Request geht es um eine System- oder Prozesserweiterung, die hilfreich und sinnvoll wäre. Das ist sozusagen die Kür. Die Erfüllung eines solchen Wunsches wird über ein anderes Budget finanziert als eine dringende Fehlerbehebung, und sie wird bezüglich der Allokation von Ressourcen anders eingeplant.

Der Prozess der Problembehebung

In der Praxis macht es keinen Sinn, dass man als Entdecker eines Datenproblems die Verantwortung für die Lösung übernehmen muss. So funktioniert das vielleicht noch in kleinen Unternehmen. In großen Unternehmen, deren Geschäftszweck noch dazu auf der Nutzung von Daten basiert, sind die Prozesse zu komplex. Der Eingriff in die Datenbank hat viele Auswirkungen, die an anderer Stelle für Probleme sorgen können.

Deshalb durchläuft ein Ticket, das für ein auftretendes Datenqualitätsproblem ausgestellt wird, einen klar strukturierten Prozess, in den unterschiedliche Ebenen, Stakeholder und Arbeitsgruppen involviert sind. Je enger die Zusammenarbeit aller Beteiligten, desto effizienter können Datenqualitätsprobleme gelöst werden.

Der erste Schritt: Jeder Mitarbeiter im Unternehmen sollte Datenprobleme, die er in seiner täglichen Arbeit wahrnimmt, melden können. Dafür braucht es als Grundlage das bereits erwähnte Ticketing-Tool, in dem alles erfasst wird. Außerdem sollte es keine Hürden wie zum Beispiel komplizierte Eingabe-Anforderungen geben. Fehler zu melden muss einfach sein und darf keine entmutigenden Verpflichtungen nach sich ziehen, denn hier kommt der Faktor Mensch ins Spiel: Viele Mitarbeiter mögen denken, dass sie, wenn sie ein Problem melden, auch für die Lösung und die Budgetbeschaffung verantwortlich sind. Das ist ein immer wiederkehrendes Missverständnis, das man unbedingt aus der Welt schaffen sollte.

Die ideale Vorgehensweise: Der für den entsprechenden Bereich Verantwortliche schaut sich das gemeldete Problem an. Wenn etwas unklar ist, hält er Rücksprache mit demjenigen, der den Fehler gemeldet hat, um das Ticket für die Reise durch den Problemlösungsprozess zu vervollständigen. Business Analysten finden im Anschluss daran heraus, woher der Fehler kommt, dokumentieren die Folgen für nachgelagerte Prozesse und unterbreiten auf Grundlage dessen einen Lösungsvorschlag.

Die nächste Stufe: Sogenannte Data Content Owner unterstützen die Arbeit der Business Analysten aus geschäftlicher Sicht. Sogenannte Data Platform Owner flankieren aus technologischer Sicht. Gemeinsam sind sie verantwortlich für das Konzept und die Implementierung von Korrekturen, sie bewerten, priorisieren und unterstützen den Lösungsprozess.

Eine für den Bereich zuständige Arbeitsgruppe (Data Quality Working Group) berichtet dem Entscheidungsgremium für Datenqualitätsmanagement über den Stand der Dinge, spricht Empfehlungen (Budget-Zuweisung, Priorisierung) aus und bereitet Entscheidungsgrundlagen vor. Außerdem leitet sie die Teams auf den Ebenen der Data Content Owner, Data Platform Owner und der Business Analysten an, im Sinn optimaler Problemlösungsprozesse.
Das Entscheidungsgremium für Datenqualitätsmanagement benötigt alle Informationen, die zu einem Datenqualitätsproblem verfügbar sind, um über die Lösung entscheiden zu können und dann entsprechende Anweisungen an die Zuständigen zurückzuspielen.

 

Datenqualitätssicherung mit Hilfe eines Data Quality Reporting Dashboards

Datenströme sind dynamisch und fortlaufend Veränderungen ausgesetzt. Das sogenannte Data Quality Reporting oder Data Quality Monitoring, die fortlaufende Beobachtung, kann Datenqualität transparent machen, um frühzeitig Daten-Anomalien/Fehler und Trends/Fehlentwicklungen zu erkennen, zu evaluieren und entsprechend steuernde, korrigierende Maßnahmen zu ergreifen.

Wie hoch ist unsere Datenqualität? Um das zu ermitteln, braucht es zum einen KQIs (Key Quality Indicators), das heißt operative Messwerte, die ein Qualitätslevel beziffern; zum anderen eine Übersicht, auf der diese Werte verständlich und möglichst auf einen Blick zu erfassen sind. Eine solche Übersicht (Data Quality Monitoring Dashboard/Data Quality Reporting Dashboard) ermöglicht es dem für die Datenqualität Verantwortlichen, auf einen Blick zu erkennen, in welchen Bereichen dringender Handlungsbedarf besteht und wo man auf der sicheren Seite ist.

 

Wenn Sie ein Dashboard erstellen, helfen Ihnen diese 10 Praxistipps

  1. Bewerten Sie die Datenqualität mit Hilfe definierter KQIs. Diese zeigen zum Beispiel Fehlerraten, Anzahl von Duplikaten und viele andere festgelegte Kennziffern. Daneben werden auch übergreifende, strategisch ausgerichtete KPIs für die Bewertung herangezogen. Diese zeigen zum Beispiel, wie lang es dauert, bis ein Ticket durch den Prozess gelaufen ist oder wie intensiv ein für die Problemlösung bereitgestelltes Programm genutzt wird.
  2. Definieren Sie für jeden KQI und KPI Schwellwerte (zum Beispiel: Ab wann ist eine Fehlerrate kritisch?) oder Zielwerte (zum Beispiel: Wie hoch soll die Bearbeitungsquote sein?).
  3. Es macht keinen Sinn, Schwellwerte so anzupassen, dass man immer im grünen Bereich bleibt. Schwellwerte sind fest zu definieren und unverrückbar, sonst nützt das nichts.
  4. Implementieren Sie eine Trendanzeige im zeitlichen Verlauf, so dass Fortschritte und Fortschrittsgeschwindigkeit sichtbar werden.
  5. Visualisieren Sie Ergebnisse für das Senior Management klar und übersichtlich, zum Beispiel über einen Ampelstatus: Für einen KPI mit Ampelfarbe „rot“ sind unverzüglich korrigierende Maßnahmen abzustimmen und einzuleiten. Dabei ist die Ampelfarbe „rot“ oder „gelb“ kein Beinbruch, sondern der Indikator, dass über die Bereitstellung von Budgets zur Problembehebung diskutiert werden sollte.
  6. Bilden Sie Kategorien für die KQIs, zum Beispiel eine Einordnung nach Datenqualitäts-Dimensionen wie Vollständigkeit, Aktualität oder übergeordnete Prozesse.
  7. Je umfangreicher das Data Quality Reporting Dashboard ist, desto besser ist der Gesamtüberblick. Dann lassen sich KQIs auf einzelne Kundensegmente herunterbrechen. Damit ist gemeint, dass Probleme, die wertvollere Kunden betreffen, schneller gelöst werden sollten, als Probleme, die Kunden betreffen, mit denen das Unternehmen zum Beispiel nicht so viel Umsatz macht.
  8. Aus dem Data Quality Reporting Dashboard heraus wird ein monatliches Reporting für das Entscheidungsgremium für Datenqualitätsmanagement erstellt, das abhängig von der Anzahl der KQIs/KPIs sehr umfangreich sein kann. Deshalb ist es wünschenswert, dass dieses Reporting automatisiert generiert wird. Das spart Zeit und verringert die Fehlerquote.
  9. Um das Reporting nicht mit zu vielen Details zu überfrachten, bietet es sich an, die Details zu den einzelnen KQIs/KPIs in einem Anhang, einem Glossar, unterzubringen. Hier kann man dann zum Beispiel nachschlagen, wer für einen Wert der Ansprechpartner ist und was der Wert ganz genau aussagt.
  10. Das Totschlag-Argument für ein umfangreiches Dashboard: Budgets lassen sich punktgenau allokieren, anstatt Blindflug- und Gießkannenprinzip. Das spart unterm Strich viel Geld.

Damit das Monitoring seinen Zweck erfüllt, muss ein solches Reporting-Dashboard auf die Bedürfnisse der Organisation abgestimmt sein. Man kann gar nicht genug Sorgfalt und Know-how darauf verwenden, aussagekräftige KQIs sowie sinnvolle Schwellwerte und Zielwerte zu definieren. Die Darstellung sollte sich an folgendem Satz orientieren: So übersichtlich und schnell erfassbar wie möglich und so viele Details wie für die Nutzer des Reports nötig.

Fazit

Manch ein Unternehmen scheut den Aufwand, ein zeitgemäßes Datenqualitätsmanagement aufzusetzen. Dahinter stehen oft auch Befürchtungen, der Veränderungsprozess und die neuen Werte stellten bisherige Bewertungen und Vorgehensweisen auf den Kopf. Das stimmt. Oft wird auch die Meinung geäußert, man könne mit einer gewissen Fehlerquote gut leben, wenn die Hausnummer in einem Mailing nicht korrekt ist – so what? Hier kann man zurückfragen, ob der entstehende Imageschaden oder DSGVO-motivierte Geldstrafen auch als „so what?“ eingestuft werden.

Bei CINTELLIC sind wir der Ansicht, dass sich ein Datenqualitätsmanagement immer lohnt, weil damit interne Ressourcen geschont und effizient eingesetzt werden, was auch ein Motivationsfaktor ist, und natürlich für die Außenwirkung bis hin zur Übereinstimmung mit regulatorischen Anforderungen seitens der Gesetzgebung.

 

Datenqualitätsmanagement mit CINTELLIC

Am Anfang steht die Analyse: Wir prüfen, was an Strukturen, Prozessen und Tools vorhanden ist. Lassen Sie uns gemeinsam Ziele und Strategie entwickeln und auf dieser Basis ein Datenqualitätsmanagement einführen. Hierbei leisten wir, je nach Bedarf, eine Rundum-Betreuung oder wir übernehmen Teilprojekte wie die strategische Beratung oder die Definition der richtigen KQIs/KPIs.

Der Ansatz von CINTELLIC ist „Plan – Build – Run“. Das heißt: Wir gehen Ihr Projekt mit Ihnen gemeinsam an und bleiben an Ihrer Seite, bis das Datenqualitätsmanagement sich in der Praxis reibungslos bewährt. Und zwar bis hin zur personellen Ausstattung mit Fachleuten, die Ihr Datenqualitätsmanagement, die Beseitigung von Datenqualitätsproblemen sowie Monitoring und Reporting unterstützen.

 

Hier können Sie die Publikation kostenfrei als PDF herunterladen:

 

 

PDF jetzt herunterladen
Publikation Datenqualitätsmanagement
CINTELLIC Consulting - Social Media