Unter­nehmens Perfor­mance steigern im Reporting

Ein prak­ti­sches Umset­zungs­bei­spiel in drei schlanken Phasen zur Opti­mierung der Daten­qua­lität im Rahmen einer Systemeinführung.

 

Fehler­hafte und inkon­sis­tente Daten, insbe­sondere über unter­schied­liche Systeme und Konzern­ge­sell­schaften hinweg, bein­träch­tigen die nach­ge­la­gerten Prozess­ab­läufe in erheb­lichem Umfang und führen zu aufwen­digen und zeit­in­ten­siven Korrek­tur­maß­nahmen. Eine hohe und nach­haltige Daten­qua­lität und ein effi­zi­entes Management der Stamm­da­ten­pro­zesse sind wesent­liche Erfolgs­fak­toren in komplexen Konsolidierungs‑, Planungs- oder Reportingprozessen.

Dabei sind Daten­qua­lität und Stam­m­­daten-Management nicht nur ein Thema für die IT. Vielmehr geht es um die effektive und ziel­ge­richtete Steuerung von Geschäfts­pro­zessen durch das Management. Daher muss im Rahmen von Imple­­men­­tie­­rungs- und Migra­ti­ons­pro­jekten bereits bei der Projekt­planung ein breites Bewusstsein dafür geschaffen werden, wie die Kern­ge­schäfts­pro­zesse durch eine hohe Daten­qua­lität und effi­ziente Stamm­da­ten­pro­zesse in den Systemen positiv und nach­haltig beein­flusst werden können.

Die nach­fol­gende Abbildung illus­triert exem­pla­risch die schritt­weise Umsetzung eines Data Quality Projekts im Rahmen der Neuein­führung eines Systems in drei schlanken Phasen:

Abbildung 1: Phasen eines Data Quality-Projekts

Die drei abge­bil­deten Phasen im Detail

Phase 1: Data Quality Assessment

Voraus­setzung einer guten Daten­qua­lität im Unter­nehmen ist ein konsis­tenter Daten­be­stand über alle einge­setzten (Vor-)Systeme und Konzern­ge­sell­schafts­grenzen hinweg. Daher muss in erster Linie geklärt werden,

  • welche Infor­ma­tionen vom Ziel­system benötigt werden,
  • in welcher Form die Daten und Objekte für das System bereit­ge­stellt werden (müssen)
  • und wie die aktuellen Stammdaten‑, Vali­­die­­rungs- und Melde­pro­zesse im Detail ablaufen (technisch und inhaltlich).

Die Erfassung der laufenden Prozesse und Daten­flüsse erfolgt idea­ler­weise unter­stützend durch direkte Befragung der verant­wort­lichen und ausfüh­renden Mitar­beiter, da die tatsäch­liche Vorge­hens­weise in der Praxis häufig aufgrund zeit­licher und perso­neller Restrik­tionen von den Verfah­rens­an­wei­sungen und Prozess­do­ku­men­ta­tionen abweicht. Dabei sind auch die Stamm­da­ten­pro­zesse zu erfassen. In der Regel sind Stamm­da­ten­pro­zesse in weitere Teil­pro­zesse unter­gliedert, beispiels­weise in die Pflege neuer Daten, die Änderung oder Archi­vierung und Löschung von vorhan­denen Daten. Auf Grundlage der gewonnen Erkennt­nisse werden die Daten anschließend auf ihre Konsistenz hin analy­siert und die fest­ge­stellten Fehler zusam­men­fassend dokumentiert.

Parallel hierzu werden die so iden­ti­fi­zierten Prozesse analy­siert, das Opti­mie­rungs­po­tential aufge­deckt und im Rahmen des Projekts sukzessive umgesetzt. Bereits zu diesem Zeitpunkt wird ein erstes Konzept entwi­ckelt, welches den ideal­ty­pi­schen Prozess­ablauf beschreibt und die einzelnen Schritte, den Infor­ma­ti­ons­fluss, die orga­ni­sa­to­ri­schen Verant­wort­lich­keiten und Abhän­gig­keiten zu anderen opera­tiven Prozessen im Detail festlegt.

Phase 2: Data Cleansing

Obwohl auf dem Markt bereits zahl­reiche Tools zur Analyse, Vali­dierung und Berei­nigung fehler­hafter Daten exis­tieren oder zum Teil schon in die Systeme fest inte­griert sind, bleibt die Analyse und Korrektur fehler­hafter Daten nach wie vor über­wiegend ein manueller Vorgang. Der damit verbundene Zeit­aufwand ist nicht zu unter­schätzen – ganz besonders in solchen Projekten, in denen die Konso­li­dierung und Harmo­ni­sierung von Daten Teil der Neuein­führung eines Systems ist und alte Daten­struk­turen in neue und komplexere Struk­turen überführt werden müssen (z.B. Einführung einer Matrix­kon­so­li­dierung in SAP SEM-BCS). In der Praxis hat sich die Daten­be­rei­nigung durch ein Top-down und Bottom-up Maßnah­men­paket bewährt, das bedeutet zentral gesteuerte und lokal durch­ge­führte Korrekturmaßnahmen.

Schwierig wird es dann, wenn die Daten auch hinsichtlich ihrer inhalt­lichen Qualität und Korrektheit beurteilt werden müssen, was eine gewisse Erfahrung und fachliche Expertise in dem jewei­ligen Bereich erfordert.

Phase 3: Ongoing Master Data Management

Ist die gewünschte Qualität und Daten­kon­sistenz erreicht, gilt es diese nach­haltig zu erhalten, d.h. der Daten­be­stand ist weiterhin durch regel­mäßige und system­ge­stützte Analysen auszu­werten und entspre­chende Nach­kor­rek­turen und Anpas­sungen sind vorzunehmen.

Idea­ler­weise existiert im Unter­nehmen bereits ein System bzw. Data Warehouse oder eine zentrale Orga­ni­sa­ti­ons­einheit (beispiels­weise Reporting Center) mit primärer Verant­wortung für die Data Gover­nance und die Koor­di­nation der Stamm­da­ten­pro­zesse – in enger Abstimmung mit den betei­ligten Fachbereichen.

Mit zuneh­mender Komple­xität bietet es sich außerdem an, die Stamm­da­ten­pro­zesse mit Freigaben durch das Management zu stützen und zumindest teilweise mit Hilfe von Workflows zu auto­ma­ti­sieren (z.B. mittels system­in­terner Tools oder mit Hilfe der Share­Point Workflow Engine, da Microsoft in den meisten Groß­un­ter­nehmen als zentrale Kolla­bo­ra­ti­ons­plattform etabliert ist). Dadurch kann die Stamm­da­ten­pflege zentral durch das Management gesteuert und gleich­zeitig eine trans­pa­rente und nach­voll­ziehbare Doku­men­tation der vorge­nom­menen Ände­rungen ermög­licht werden, wie sie häufig durch die interne Revision oder Unter­neh­mens­richt­linien gefordert wird.

Sehr gerne tauschen wir uns zu diesem Thema mit Ihnen aus und lassen Sie von unserer Projekt­er­fahrung profi­tieren. Hierzu steht Ihnen das verovis-Team für Rück­fragen zur Verfügung. Sprechen Sie uns einfach an unter: kontakt@verovis.de.

 

Weitere News
  • verovis beim CCH Tagetik DACH InTouch Event

    Von Team #verovis

  • MS Azure Webinar – Building a modern Data Warehouse

    Von Team #verovis

  • Power Apps & Power BI richtig für das Target Setting einsetzen

    Von Team #verovis