Unternehmens Performance steigern im Reporting

Ein praktisches Umsetzungsbeispiel in drei schlanken Phasen zur Optimierung der Datenqualität im Rahmen einer Systemeinführung.

 

Fehlerhafte und inkonsistente Daten, insbesondere über unterschiedliche Systeme und Konzerngesellschaften hinweg, beinträchtigen die nachgelagerten Prozessabläufe in erheblichem Umfang und führen zu aufwendigen und zeitintensiven Korrekturmaßnahmen. Eine hohe und nachhaltige Datenqualität und ein effizientes Management der Stammdatenprozesse sind wesentliche Erfolgsfaktoren in komplexen Konsolidierungs-, Planungs- oder Reportingprozessen.

Dabei sind Datenqualität und Stammdaten-Management nicht nur ein Thema für die IT. Vielmehr geht es um die effektive und zielgerichtete Steuerung von Geschäftsprozessen durch das Management. Daher muss im Rahmen von Implementierungs- und Migrationsprojekten bereits bei der Projektplanung ein breites Bewusstsein dafür geschaffen werden, wie die Kerngeschäftsprozesse durch eine hohe Datenqualität und effiziente Stammdatenprozesse in den Systemen positiv und nachhaltig beeinflusst werden können.

Die nachfolgende Abbildung illustriert exemplarisch die schrittweise Umsetzung eines Data Quality Projekts im Rahmen der Neueinführung eines Systems in drei schlanken Phasen:

Abbildung 1: Phasen eines Data Quality-Projekts

Die drei abgebildeten Phasen im Detail

Phase 1: Data Quality Assessment

Voraussetzung einer guten Datenqualität im Unternehmen ist ein konsistenter Datenbestand über alle eingesetzten (Vor-)Systeme und Konzerngesellschaftsgrenzen hinweg. Daher muss in erster Linie geklärt werden,

  • welche Informationen vom Zielsystem benötigt werden,
  • in welcher Form die Daten und Objekte für das System bereitgestellt werden (müssen)
  • und wie die aktuellen Stammdaten-, Validierungs- und Meldeprozesse im Detail ablaufen (technisch und inhaltlich).

Die Erfassung der laufenden Prozesse und Datenflüsse erfolgt idealerweise unterstützend durch direkte Befragung der verantwortlichen und ausführenden Mitarbeiter, da die tatsächliche Vorgehensweise in der Praxis häufig aufgrund zeitlicher und personeller Restriktionen von den Verfahrensanweisungen und Prozessdokumentationen abweicht. Dabei sind auch die Stammdatenprozesse zu erfassen. In der Regel sind Stammdatenprozesse in weitere Teilprozesse untergliedert, beispielsweise in die Pflege neuer Daten, die Änderung oder Archivierung und Löschung von vorhandenen Daten. Auf Grundlage der gewonnen Erkenntnisse werden die Daten anschließend auf ihre Konsistenz hin analysiert und die festgestellten Fehler zusammenfassend dokumentiert.

Parallel hierzu werden die so identifizierten Prozesse analysiert, das Optimierungspotential aufgedeckt und im Rahmen des Projekts sukzessive umgesetzt. Bereits zu diesem Zeitpunkt wird ein erstes Konzept entwickelt, welches den idealtypischen Prozessablauf beschreibt und die einzelnen Schritte, den Informationsfluss, die organisatorischen Verantwortlichkeiten und Abhängigkeiten zu anderen operativen Prozessen im Detail festlegt.

Phase 2: Data Cleansing

Obwohl auf dem Markt bereits zahlreiche Tools zur Analyse, Validierung und Bereinigung fehlerhafter Daten existieren oder zum Teil schon in die Systeme fest integriert sind, bleibt die Analyse und Korrektur fehlerhafter Daten nach wie vor überwiegend ein manueller Vorgang. Der damit verbundene Zeitaufwand ist nicht zu unterschätzen – ganz besonders in solchen Projekten, in denen die Konsolidierung und Harmonisierung von Daten Teil der Neueinführung eines Systems ist und alte Datenstrukturen in neue und komplexere Strukturen überführt werden müssen (z.B. Einführung einer Matrixkonsolidierung in SAP SEM-BCS). In der Praxis hat sich die Datenbereinigung durch ein Top-down und Bottom-up Maßnahmenpaket bewährt, das bedeutet zentral gesteuerte und lokal durchgeführte Korrekturmaßnahmen.

Schwierig wird es dann, wenn die Daten auch hinsichtlich ihrer inhaltlichen Qualität und Korrektheit beurteilt werden müssen, was eine gewisse Erfahrung und fachliche Expertise in dem jeweiligen Bereich erfordert.

Phase 3: Ongoing Master Data Management

Ist die gewünschte Qualität und Datenkonsistenz erreicht, gilt es diese nachhaltig zu erhalten, d.h. der Datenbestand ist weiterhin durch regelmäßige und systemgestützte Analysen auszuwerten und entsprechende Nachkorrekturen und Anpassungen sind vorzunehmen.

Idealerweise existiert im Unternehmen bereits ein System bzw. Data Warehouse oder eine zentrale Organisationseinheit (beispielsweise Reporting Center) mit primärer Verantwortung für die Data Governance und die Koordination der Stammdatenprozesse – in enger Abstimmung mit den beteiligten Fachbereichen.

Mit zunehmender Komplexität bietet es sich außerdem an, die Stammdatenprozesse mit Freigaben durch das Management zu stützen und zumindest teilweise mit Hilfe von Workflows zu automatisieren (z.B. mittels systeminterner Tools oder mit Hilfe der SharePoint Workflow Engine, da Microsoft in den meisten Großunternehmen als zentrale Kollaborationsplattform etabliert ist). Dadurch kann die Stammdatenpflege zentral durch das Management gesteuert und gleichzeitig eine transparente und nachvollziehbare Dokumentation der vorgenommenen Änderungen ermöglicht werden, wie sie häufig durch die interne Revision oder Unternehmensrichtlinien gefordert wird.

Sehr gerne tauschen wir uns zu diesem Thema mit Ihnen aus und lassen Sie von unserer Projekterfahrung profitieren. Hierzu steht Ihnen das verovis-Team für Rückfragen zur Verfügung. Sprechen Sie uns einfach an unter: kontakt@verovis.de.