io kombiniert Analytics mit KI und SAP Connector
Pandas und Python kennt man aus der Tierwelt, aber ebenso aus dem Datendschungel. Sie sind dort keine Exoten, sondern gängige Hilfsmittel. Wer sich mit modernen Analysemethoden befasst, hat sie als geeignete Programmiersprache beziehungsweise als Programmbibliothek ebenso im Blick wie Visualisierungstools, die ursprünglich aus der Computerspielebranche kommen. Unreal Engine beispielsweise, das die Gaming-Community einst in die fernen Galaxien des Star-Trek-Universums entführte. Oder Panda 3D, das den Fluch der Karibik auf den Bildschirm bringt, nachdem es zunächst Comicfiguren in Disney-Themenparks zum Leben erweckte.
Sind die Experten des Generalplaners io demnach auch in den Tropen, im Weltall, auf hoher See und in Entenhausen daheim? „Wenn es drauf ankommt: ja“, bekennt Dr. Jens Koenig, Principal Consultant bei io, lachend. Denn egal, ob KI und Statistik, Logistik und Supply-Chain Analytics, Optimierung und Simulation oder Operative Dashboards: Damit ein Unternehmen die richtigen Wachstumsmaßnahmen ergreifen kann, sind operative Daten zu extrahieren und aufzubereiten, Ergebnisse zu interpretieren und Entscheidungen zu treffen.
„Dennoch wird vielerorts noch mit intransparenten Excel-Tabellen hantiert, die keine Vergleichbarkeit zulassen, manuelle Eingriffe erfordern und Datenverarbeitung zum langwierigen, aufwändigen Geschäft machen“, verrät Koenig. Angesichts der Vielzahl an leistungsfähigen Analysetools ist das nicht mehr zeitgemäß. Umso mehr wird dies durch die Verquickung von Analytics mit KI und SAP Connector deutlich, was bei progressiven Planungsdienstleistern zum Standard gehört.
io nutzt den SAP Connector beispielsweise, um analytische Modelle für seine Kunden zu erstellen – wofür idealerweise Millionen an Einzeldaten bereitgestellt werden.
Ein SAP Connector basiert auf dem ODATA-Service. Als Schnittstelle, die externe Anwendungen mit SAP-Systemen verbindet, kann er Daten aus dem ERP-System sowie aus SAP EWM kombinieren und weitere Module integrieren. So lassen sich analytische Modelle konstruieren, aus denen sich Erkenntnisse ableiten und Visualisierungen erstellen lassen. Zudem können via SAP Connector auch Daten an SAP rückversorgt werden, wobei – je nach Setup – auch andere Rückversorgungswege wie Textdateien, XML oder JSON genutzt werden können.
io nutzt den SAP Connector beispielsweise, um analytische Modelle für seine Kunden zu erstellen – wofür idealerweise Millionen an Einzeldaten bereitgestellt werden. Der SAP Connector kann die benötigten Daten automatisiert aus dem SAP-System abgreifen – was eine enorme Entlastung darstellt. Einzelne Mitarbeiter wären unmöglich in der Lage, Millionen an Datensätzen zu verarbeiten. Obendrein hapert es oftmals an den dafür nötigen Zugriffsberechtigungen – dann etwa, wenn ein Unternehmen mehrere Standorte hat. Der SAP Connector fungiert hier sozusagen als Steckverbindung, über die Daten herausgegeben werden können – wobei der Empfänger selbst kein SAP-System benötigt. Eine Datenrückversorgung via SAP Connector, um beispielsweise Stammdaten für Massendaten zu ändern, ist ebenfalls möglich.
KI wiederum hat sich längst als verlässliches Tool für Prognosen und Optimierungs- und Simulationsmodelle sowie zur Mustererkennung, Klassifikation und Clusterbildung etabliert. Wobei man kaum von „einer“ KI sprechen kann. Es existieren Sprachmodelle wie GPT-3, bei denen es um das Verstehen und Generieren natürlicher Sprache geht. Sie nutzen tiefe neuronale Netze, um die Struktur und die Bedeutung von Sprache zu lernen. Bei Analytics-KI geht es stattdessen um die Analyse und Interpretation vorliegender Daten. Sie verwenden Algorithmen und maschinelles Lernen, um Muster zu identifizieren, Prognosen zu erstellen und Optimierungen zu erarbeiten. Daneben gibt es hybride Modelle, die die Vorteile beider Ansätze zusammenführen.
Für die Deep Dives, die Koenig und seine Kollegen im Rahmen von Kundenprojekten durchführen, orientieren sie sich stets an den modernsten Mitteln und Methoden. Um was es sich dabei handelt, zeigen die im Folgenden präsentierten Praxisbeispiele. Abschließend wird das Thema durch einen Einblick in die innerbetriebliche Forschung und Entwicklung von io erhellt.
Ein Kunde aus der Automobilbranche hat eine Ersatzteile-Absatzprognose für seine rund 16.000 Artikel mit unterschiedlichen Nachfragestrukturen und Lebenszyklus-Abschnitten angefragt – letztere langfristig (zehn Jahre) und kurzfristig (monatlich).
Für die langfristige Analyse wurden die jährlichen Daten des Bedarfs von jedem Ersatzteil in den letzten 40 Jahren ermittelt – mit dem Ziel, den Bedarf der nächsten zehn Jahre auf jährlicher Ebene zu ermitteln. Für die kurzfristige Analyse wurde der monatliche Bedarf jedes Ersatzteils in den letzten 15 Jahren zurate gezogen – mit dem Ziel, den monatlichen Bedarf der nächsten beiden Jahre zu prognostizieren. Die sogenannten Langsamdreher – jene Artikel, die vergleichsweise selten verlangt werden – entpuppten sich dabei als Herausforderung. Ebenso der Umstand, dass die monatlichen Daten aufgrund ihrer höheren zeitlichen Auflösung mehr Informationen für die Modellanpassung abdecken als die jährlichen Daten.
Als Feature-Extraction für die Prognosemodelle wurde eine ABC-Analyse sowie ein Clustering durchgeführt. Anhand des Clusterings konnte man Life-Cycle-Stages erkennen, mit denen man das KI-Modell füttern konnte. Für die Prognose wurden zwei Jahre auf Monatsebene sowie zehn Jahre auf Jahresebene ausgewertet – anhand dieser Verfahren: Holt-Winters, Sarima und XGBoost.
Forecast-Genauigkeit: MAPE zwischen 9% und 25% (je nach Artikelgruppe)
Lagerbestände binden unnötig Kapital und verursachen laufende Kosten für Lagerhaltung und Versicherung. Außerdem bergen sie das Risiko von Veralterung oder Wertverlust.
Teile, die bereits seit mehreren Jahren eingelagert sind, haben möglicherweise den Status „Bodensatz“ erreicht – was bedeutet, dass sie kaum noch oder gar nicht mehr abgerufen werden.
Für ein Unternehmen der Baumaschinenbranche ermittelte io die Möglichkeit einer Bestandsreduzierung. Das Ziel dabei: Die gebundenen Kapitalressourcen zu senken, Lagerflächen freizusetzen, die Effizienz der Materialwirtschaft zu steigern und das Risiko von Wertverlusten zu minimieren.
Im Rahmen der Bestandsanalyse wurde auch die interaktive Umgebung ausgewertet – sowohl monatlich als auch quartalsweise. Artikelgruppen und Lagerbereiche wurden dabei separiert.
Für einen Kunden aus dem Bereich Handel für Montagematerial galt es sicherzustellen, dass das Servicelevel trotz Änderungen in der Lieferkette und Neuzuweisung von Produkten an unterschiedlichen Standorten aufrechterhalten werden kann.
Die Maßnahme erhöht die Transparenz des aktuellen Servicelevels und seiner Einflussfaktoren. Außerdem bietet sie die Möglichkeit zur schnellen Anpassung von Prozessen, um den Servicegrad zu optimieren und Lieferzuverlässigkeit zu gewährleisten – was sich auch positiv auf die Kundenbindung auswirkt. Die Herausforderung bestand darin, das Servicelevel zu ermitteln und sicherzustellen, dass es den Kundenerwartungen entspricht, während parallel Effizienzsteigerungen in der Lagerlogistik umgesetzt wurden.
Die Berechnung und Darstellung des Servicegrads in einer interaktiven Umgebung – monatlich sowie je nach Prozess und/oder Standort.
In der Logistik werden in der Regel große Mengen an Stammdaten für Produkte, Lieferanten und Kunden verwaltet, die für einen reibungslosen Betrieb der Logistik- und Produktionsprozesse entscheidend sind. Aufgrund von veralteten, unvollständigen oder fehlerhaften Stammdaten kam es bei einem Kunden aus der Elektroartikelbranche zu Problemen in der Lieferkette wie falschen Bestellungen, Verzögerungen oder erhöhten Betriebskosten.
Es galt daher, eine hohe Datenqualität durch regelmäßige Überprüfung und Bereinigung der Stammdaten sicherzustellen – was gleichzeitig Fehler in den Bestell- und Lieferprozessen reduziert, die durch ungenaue oder unvollständige Stammdaten auftraten. Außerdem wird die Prozesssicherheit und Effizienz in der gesamten Lieferkette gesteigert, wodurch Betriebskosten sinken und die Kundenzufriedenheit steigt.
Der Einsatz eines Stammdaten-Checkers, um die Datenqualität kontinuierlich – quartalsweise – zu überwachen.
Für ein Unternehmen der Automobilbranche galt es, die Mindestbestellmengen so festzulegen, dass Überbestände und Kommissionieraufwand gesenkt werden können, ohne die Lieferfähigkeit für Kunden zu gefährden.
Die Vermeidung von Überbeständen reduzierte parallel die Lagerhaltungskosten. Und im Zuge der Optimierung der Bestellprozesse konnte auch das Risiko von Lieferengpässen gemindert werden.
Die Berechnung einer angepassten MOQ – quartalsweise und je nach Artikelgruppe und/oder Standort. Analysiert wurden knapp 200.000 Artikel beziehungsweise rund 45 Mio. an jährlichen Bestellpositionen. Im Ergebnis konnten rund 1,7 Mio. auszuliefernde Positionen pro Jahr reduziert werden.
Im Rahmen von Visualisierungsaufgaben geraten herkömmliche Business-Tools an ihre Grenzen – beispielsweise bei räumlichen Darstellungen von Lagerbereichen. In der Folge geht bei rein GUI-orientierten Darstellungen der interaktive Charakter der Visualisierungen verloren.
Die Verbindung einer 3D-Gaming-Engine mit analytischen Daten für räumliche Visualisierungen, wodurch eine Vielzahl an dargestellten 3D-Objekten mit Daten angereichert werden kann. Obendrein wird die Möglichkeit einer Interaktion geschaffen: Im zugrunde liegenden Beispiel kann der User einzelne Lagerplätze sperren.
Erhalten Sie Einblicke in Best Practices, interessante Kunden und Projekte sowie branchenübergreifende Zukunftstrends.
Unteranderem: Hartmut Jenner, Vorsitzender des Vorstands der Alfred Kärcher SE & Co. KG, im Interview.
Erhalten Sie Einblicke in Best Practices, interessante Kunden und Projekte sowie branchenübergreifende Zukunftstrends.
Unteranderem: Hartmut Jenner, Vorsitzender des Vorstands der Alfred Kärcher SE & Co. KG, im Interview.