Viele Mittelständler stecken viel Zeit und Geld in digitale Prozesse, weil die Zeit fehlt, die Fachkräfte fehlen und die Kunden immer schnellere Reaktionen erwarten. Automatisierung erscheint da der nächste logische Schritt. Workflows erledigen Routinearbeit, Systeme tauschen Daten aus, Berichte erzeugen sich selbst. In der Praxis scheitert Skalierung aber selten daran, dass Automatisierung nicht funktioniert. Sie scheitert oft daran, dass die Daten nicht stimmen. Wenn Stammdaten ungleich sind, wenn Dubletten entstehen oder wenn unklar bleibt, wer wofür zuständig ist, dann erzeugt jedes neue Tool mehr Ausnahmen und Nacharbeit. Datenmanagement klingt nach Verwalten, ist aber in vielen Branchen schon längst ein Produktionsfaktor. Wer seine Daten konsistent hält, senkt seine Prozesskosten, kann schneller Entscheidungen treffen und schafft die Grundlage dafür, dass Automatisierung nicht nur in einer Abteilung, sondern im gesamten Unternehmen funktioniert.
Ein altbekanntes Schema: Ein neuer Prozess soll für eine schnellere Durchlaufzeit für Bestellungen, Tickets oder Angebote sorgen. Und dann stellt sich heraus, dass es bei den Kundennamen drei verschiedene Schreibweisen gibt, die Artikelnummern nicht eindeutig sind und manches Pflichtfeld im CRM mal gefüllt, mal leer ist.
Ergebnis: Regelwerke voller Ausnahmen und die Automatisierung im KMU muss raten statt zuverlässig entscheiden.
Datenqualität lässt sich ganz pragmatisch ermitteln, ohne monatelange Projekte. Drei Fragen genügen oft schon für einen ersten Befund:
Wie viele Datensätze sind doppelt oder widersprüchlich, z. B. Kunden, Lieferanten, Artikel?
Welche Felder fehlen regelmäßig, obwohl sie für die Prozesse entscheidend sind?
Wie oft müssen Mitarbeiter manuell nacharbeiten, weil die Informationen nicht zusammenpassen?
Sinnvoll ist, die Datenfehler wie Produktionsfehler zu messen. Wer Ausschuss in der Fertigung misst, kann auch Datenabweichungen messen. Mit Kennzahlen wie Dublettenquote, Anteil unvollständiger Datensätze, Korrekturaufwand pro Vorgang wird das Thema sinnvoll greifbar und priorisierbar.
Viele Unternehmen haben mehrere „Wahrheiten“ gleichzeitig. Die Buchhaltung führt den Kundenstamm anders als der Vertrieb. Das Lager behandelt Artikel anders als der Einkauf. Diese Parallelwelt stört nicht, solange die Systeme nicht miteinander reden sollen.
Besser ist das Festlegen einer „Single Source of Truth“ je Datenklasse. Kundendaten müssen im CRM oder im ERP liegen – aber nicht in beiden. Bei Artikelstammdaten dasselbe: Eine Quelle ist besser als keine. Dabei geht es nicht um die Software, sondern um die Verantwortlichkeit. Wer ist der Data Owner? Wer darf Felder ändern? Wer kann neue Pflichtfelder setzen? Wer kontrolliert die Qualität?
Automatisierung wird gerne über Integrationen gelöst: Ein Formular schreibt ins CRM, das CRM feuert ein Ticket, das Ticket erzeugt eine Aufgabe, die Aufgabe schickt eine Mailserie. Wenn die Datenbasis stabil ist, klappt das. Wenn nicht, multipliziert jede Schnittstelle das Problem.
Schatten-IT ist dabei ein häufiger Verstärker. Teams greifen auf zusätzliche Tools zurück, weil zentrale Systeme ihnen zu langsam oder nicht anpassungsfähig genug scheinen. Daraus entstehen neue Speicherorte, neue Identitäten, neue Datenstände. Das ist nicht moralisch „falsch“, aber organisatorisch gefährlich: Je mehr Orte es für Daten gibt, desto schwieriger ist es, Löschanfragen zu erfüllen, Berechtigungen zu überprüfen oder einen Vorfall aufzuklären.
Ein wirksamer Gegenhebel ist ein genehmigter Werkzeugkasten. Ein verbindlicher Standard für Dateiablage, Kollaboration und Projektarbeit. Dazu klare Regeln, welche Daten wohin dürfen. Und natürlich ein einfacher Weg, Sondergenehmigungen zu beantragen. Fehlt dieser einfache Weg, kehren die Schatten-IT wieder zurück.
Sobald Prozesse automatisiert werden, wächst der Anspruch an die Auditierbarkeit. Wer hat was wann geändert? Warum wurde ein Vorgang genehmigt oder abgelehnt? Welche Daten wurden verarbeitet? Wo liegen sie? Wie lange bleiben sie gespeichert?
Diese Fragen sind nicht nur für Audits wichtig. Wenn etwas schiefläuft, ist der einzige Weg zur Behebung, dass man seine Abläufe protokolliert hat.
Für den Mittelstand funktioniert so etwas relativ einfach:
So viele Unternehmen unterschätzen, wie gut sich in kleinen Schritten das Datenmanagement verbessern lässt. Ein praxistauglicher Ablauf ist in drei Phasen unterteilt.
Phase 1: Prozess aussuchen, der oft genug läuft und viel Nacharbeit erzeugt, z. B. Angebotsprozess oder Reklamationen. Datenquellen identifizieren, die dafür herhalten. Erste Kennzahlen erheben, Dubletten, fehlende Felder, Korrekturzeit.
Phase 2: Data Owner benennen, Pflichtfelder definieren, Qualitätsregeln festlegen. Schnittstellen dokumentieren, Schatten-Tools sichtbar machen. Erste Berechtigungsprüfung der beteiligten Systeme.
Phase 3: Dubletten bereinigen, Regeln technisch umsetzen, Löschroutinen anstoßen, Protokolle aktivieren. Danach Automatisierungsschritte nur dort erweitern, wo die Datenqualität messbar stabil ist.
Wer so vorgeht, der bekommt schnell Effekte im Alltag. Weniger Rückfragen, weniger manuelle Korrekturen, weniger Ausnahmen. Gleichzeitig bildet sich die Grundlage, um dann unternehmensweit Automatisierung auszurollen, ohne dass jeder neue Workflow gleich wieder das Chaos verstärkt.