Die IT hat längst Einzug in die Logistikwelt gehalten. Sowohl im täglichen Betrieb als auch in der Planung sind Programme, Daten und Rechner nicht mehr wegzudenken. Sollen gar Prozesskosten und Durchlaufzeiten gesenkt werden, sind umfassende sowie zuverlässige Betriebsdaten zum unverzichtbaren Untersuchungsobjekt geworden. Ein professionelles Data-Management wird deshalb immer wichtiger. Idealerweise sind sämtliche Betriebsdatenbestände bereits erschlossen, sinnvoll verbunden und sauber strukturiert. Aber nur wer diese Anforderungen hundertprozentig erfüllt, kann die Optimierungspotenziale seiner Logistik nutzen.

Aufklärung notwendig

Bei Prozessoptimierungsprojekten, denen umfangreiche Datenanalysen vorausgehen, sind es häufig auch Unternehmen mit üppig alimentierten IT-Abteilungen, die ratlos darauf hinweisen, dass diese und jene Daten nicht verfügbar sind. Denn auch die komplexesten Enterprise Resource Planning Systems (ERP) liefern nicht jede gewünschte Information automatisch. Vor allem dann nicht, wenn auf die hohen Investitionen für eine erstklassige IT-Infrastruktur aus Budgetgründen nicht in die weitergehende Nutzbarmachung der Daten investiert wurde.

Zur Ratlosigkeit gesellen sich auch Bedenken, dass die zusätzliche Informationsgewinnung viel Zeit und Ressourcen in Anspruch nimmt. Das ist jedoch ein Irrtum. Schon mit elementarsten Methoden der Datenanalyse kann die bestehende Datenlandschaft untersucht und können weitere Datenquellen erschlossen sowie zusätzliche Informationen gewonnen werden. Spezialisten sind hier angewiesen, bei Auftraggebern Aufklärung zu betreiben und die Bedenken zu entkräften.

Anzeige

Versteckte Daten bergen

Daten entstehen immer dann, wenn Hard- und Software zusammenarbeiten. Die Daten sind für alle augenscheinlich, wenn sie beispielsweise in Reports erscheinen oder in Datenbanken gespeichert sind. Allerdings sind diese offenkundigen Daten nicht die einzigen, welche generiert werden.

In Sekundärspeichern von Maschinensteuerungen und Peripheriegeräten oder autarken Programmen mit eigenen Datenbanken findet sich eine Fülle ungenutzter Informationen, die keinen Eingang in das Data Warehouse finden. Ort, Inhalt und Datenqualität sind zwar nicht allseits bekannt, aber leicht zu bergen. Kenntnisse der Datenanalyse und des IT-Ingeneerings bringen diesen verborgenen Schatz an Betriebsinformationen ans Tageslicht.

Ob nun Daten frisch geborgen wurden oder bereits vorhanden waren: Qualität und Aussagekraft sind immer differenziert zu beurteilen. Eine Plausibilitätsanalyse zeigt, ob Messfehler ausgeschlossen und die Informationen weiter verwendet werden können. Es ist leider Tatsache, dass einfachste Berechnungen nicht stimmen, weil Operanden, Formeln oder Werte falsch gesetzt wurden. Ein Datenanalyst ist zudem befähigt, in Messwerten Datenstrukturen zu erkennen. Geht man dem Ursprung dieser Struktur auf die Spur, resultieren wertvolle Erkenntnisse, die bei der Wertinterpretation und der anschliessenden Massnahmendefinition von hohem Nutzen sind.

Was sagt die Datenstruktur?

Die vertiefte Analyse von Datenstrukturen liefert quantitative Grundlagen zur Steuerung des Betriebes. Systematische Beurteilungsfehler (engl.: bias) von Betriebskennzahlen werden genauso deutlich, wie bisher unbekannte Risiken in der Supply Chain oder anderen Prozessen.

Sogar für Entscheide der strategischen Ausrichtung eignet sich die Datenanalyse. Denn wer Struktur und Verteilung seiner Daten kennt, kann beurteilen, ob die neusten Messwerte innerhalb des zu erwartenden Spektrums liegen oder ob sie Indiz für neue Trends sind. Die Datenanalyse überzeugt diesbezüglich gegenüber anderen Managementmethoden durch ihre wertfreie, rein quantitative Ergebnislieferung.

Key Performance Indicators (KPI) und Management Cockpits fassen komplexe Systeme und Prozesse komfortabel und übersichtlich zusammen. Die Vereinfachung birgt jedoch wie immer Risiken. Alleine die Auswahl der Messgrössen für das Cockpit ist diffizil, weil es verschiedene Adressaten für ein Cockpit gibt, die unterschiedliche Anforderungen stellen. Von Beginn weg sollte Klarheit darüber herrschen, wer welche Entscheidungen aufgrund welcher KPIs fällen will. Dieses Vorgehen führt zu einer sinnvollen Priorisierung der KPIs und reduziert das Cockpit auf das Wesentliche.

Daten zu analysieren ist per se retrospektiv. Die unternehmerische Herausforderung liegt aber darin, künftige Entwicklungen frühzeitig zu antizipieren. Moderne Cockpits sind im Idealfall so konzipiert, dass sie mögliche Abweichungen vom «courant normale» zeitig signalisieren und die Aufmerksamkeit des Managements auf signifikante Ausnahmefälle leiten - ganz getreu dem Prinzip «Management by exception». Das hat den Vorteil, dass Personal und Sachressourcen früh dahin gelenkt werden, wo sich nachhaltige Veränderungen des betrieblichen Umfeldes abzeichnen und besonderen Einsatz verlangen.

Abgesang auf den Mittelwert

Häufig basieren Cockpits und Betriebskennzahlen auf simplen Durchschnittswerten. Statistische Ausreisser werden selten identifiziert oder speziell betrachtet, obwohl sie den Mittelwert stark beeinflussen und das Bild verzerren (siehe Grafik ).

Dass Berechnungen und Simulationen - basierend auf unreflektierten Durchschnittswerten - unzulängliche Resultate liefern, darf dann niemanden erstaunen. Der Mittelwert vermittelt ein zu einfaches Bild der tatsächlichen Situation und eignet sich nur bedingt für die gezielte Steuerung von Logistikprozessen. Jedoch bringen bereits einfache Massnahmen der statistischen Datenanalyse eine starke Steigerung in Qualität und Aussagkraft der eigenen Betriebsdaten.

Die Disziplin der Datenanalyse fristet hierzulande im Vergleich zur angelsächsischen Welt ein unpopuläres Dasein. Obwohl das Know-how in Praxis und Academia vorhanden ist, hat die Anwendung noch nicht richtig Einzug in die Betriebe gehalten.

Doch gerade aus diesem Umstand ergibt sich ein hohes Nutzenpotenzial: Mit kleinen Investitionen in die Datenanalyse kann man verborgene Datenschätze bergen oder die Aussagekraft der betriebseigenen Daten überproportional steigern. In der Logistikindustrie führt das professionelle Data-Management zu höherer Planungssicherheit. Dies ist ein nicht zu unterschätzender Wettbewerbsvorteil.