Features und Innovationen

KI-basierte Personalplanung: Mehrwert aus Daten schöpfen (Teil 3/3).

In diesem Beitrag erklären wir, wie unser Data Science Experte Timofej bei der Entwicklung des KI-Modells für die Personalplanung vorgeht. Warum er an der KI-basierten Personalplanung fürs Lager überhaupt arbeitet, erfahren Sie im Interview »KI-basierten Personalplanung: Der unsichtbare Helfer fürs Lager. (Teil 1/3)«.

Wir haben Timofej gefragt, wie er die Daten aus den Logs verarbeitet.

Das umfasst mehrere Schritte. Ich beginne mit der Extraktion relevanter Daten aus dem Lagerverwaltungssystem SuPCIS-L8. Anschließend bereinige und korrigiere ich diese, wo nötig. Die aufbereiteten Daten verwende ich dann für maschinelles Lernen, indem ich KI-Modelle entwickle und trainiere. Abschließend evaluiere ich die Modelle und führe bei Bedarf weitere Iterationen durch.

Das klingt easy, doch da steckt viel mehr dahinter. Wir erklären die einzelnen Steps genauer.

Der erste Schritt ist, die relevanten Daten aus verschiedenen Dateien zu extrahieren. Diese Dateien speichern Informationen in Textform und dokumentieren Aktionen im Lagerverwaltungssystem SuPCIS-L8. Automatisierte Skripte übernehmen die Extraktion.

Nach der Extraktion werden die Daten, wo erforderlich, bereinigt. Fehlerhafte, unvollständige oder irrelevante Daten werden entfernt oder korrigiert. Dies ist entscheidend, da die Qualität der Daten die Genauigkeit der daraus abgeleiteten Vorhersagen und Modelle beeinflusst. Außerdem wird die Formatierung standardisiert, um einheitliche Datenformate und Einheiten zu gewährleisten.

Auch andere Datenquellen werden genutzt, die dann mit den extrahierten Daten verknüpft werden. Dazu werden die Datensätze anhand gemeinsamer Schlüssel abgestimmt. Diese Verknüpfungen liefern ein vollständiges Bild der Arbeitsabläufe und der Ressourcennutzung.

Im nächsten Schritt werden aus den bereinigten und integrierten Daten Merkmale (Features) für die Vorhersagemodelle erstellt. Das Ziel ist, die Daten so vorzubereiten, dass sie für maschinelles Lernen nutzbar sind.

Mit diesen so aufgearbeiteten Daten lassen sich dann explorative Analysen durchführen, um hinter die zugrunde liegende Dynamik zu kommen. Dabei werden Muster und Trends identifiziert, die auf Verbesserungsmöglichkeiten hinweisen. Dieser Schritt ist entscheidend, um zu verstehen, welche Faktoren die Arbeitslast und die Personalplanung beeinflussen.

Die analysierten Daten und die entwickelten Features werden verwendet, um die KI-Modelle zu füttern. Das erfolgt mit Techniken des maschinellen Lernens wie Entscheidungsbäume, Random Forest oder neuronale Netze. Diese Modelle werden trainiert, um Muster zu erkennen und Vorhersagen zu treffen, beispielsweise zur benötigten Mitarbeiterzahl für kommende Schichten.

Nach der Entwicklung werden die Modelle evaluiert, um ihre Genauigkeit und Effektivität zu prüfen. Dies geschieht durch Tests mit realen Daten. Basierend auf diesen Ergebnissen werden die Modelle angepasst und verfeinert, um ihre Leistung zu verbessern.

Nun gehen wir auf die Analyse von Zeitreihen ein, um zu sehen, wie Muster erkannt werden.

Begonnen wird mit der Datensammlung. Dazu werden in regelmäßigen Intervallen Datenpunkte wie Verkaufszahlen, Lagerbestände, Wetterdaten und andere relevante Werte erfasst.

Nach der Sammlung werden die Daten bereinigt, Ausreißer entfernt, fehlende Werte ergänzt und die Konsistenz der Daten gesichert. Danach wird eine explorative Datenanalyse (EDA) durchgeführt. Dann werden die Daten visuell untersucht, um erste Einsichten zu gewinnen. Es werden Zeitreihendiagramme erstellt, um Muster, Trends und Saisonalitäten zu erkennen.

Ein wichtiger Schritt ist die Dekomposition der Zeitreihe. Dazu werden sie in Trends zerlegt, in Saisonalität und eine zufällige Komponente. Diese Schritte helfen, die langfristige Richtung der Daten zu verstehen, wiederkehrende Muster zu identifizieren und unregelmäßige Schwankungen zu isolieren.

Zur Modellierung existieren etablierte Ansätze wie ARIMA (AutoRegressive Integrated Moving Average), saisonale ARIMA (SARIMA) sowie neuere Methoden wie fbprophet und LSTM-Netzwerke (Long Short-Term Memory) aus dem Bereich des Deep Learnings. Diese Modelle dienen dazu, Muster und Abhängigkeiten in den Daten zu analysieren und zukünftige Werte vorherzusagen. Wir nutzen jedoch eine Kombination aus bewährten Ansätzen und eigenen Modellen, die speziell auf die individuellen Anforderungen unserer Anwendungen abgestimmt sind.

Nachdem wir die Modelle entwickelt haben, überprüfen wir sie. Wir nutzen dafür Methoden wie die Kreuzvalidierung und schauen uns die Residuen an. Residuen sind die Unterschiede zwischen den echten Daten und den Vorhersagen des Modells. Diese Unterschiede sollten keine bestimmten Muster haben und gleichmäßig verteilt sein.

Wir verwenden die Modelle, um Vorhersagen zu machen. Regelmäßig kontrollieren wir die Modelle und aktualisieren sie mit neuen Daten, damit die Vorhersagen genauer werden. Diese Methode ist besonders hilfreich in Bereichen wie Finanzen, Wettervorhersagen und jetzt auch in der Lagerverwaltung.

Beispiele für Muster

  1. Trends

Ein Trend in einer Zeitreihe zeigt eine langfristige Veränderung der Datenwerte. Dies könnte sich in einem kontinuierlichen Anstieg der Verkaufszahlen über Jahre oder in einem allmählichen Rückgang der Nutzung eines alten Services zeigen. Trends können linear oder nicht-linear sein.

  1. Saisonalität

Saisonalität beschreibt regelmäßige Schwankungen in einer Zeitreihe, die sich in festen Intervallen wiederholen, wie täglich, wöchentlich oder jährlich. Einzelhändler beobachten oft ein höheres Kaufverhalten während der Weihnachtszeit, Hotels verzeichnen mehr Buchungen im Sommer.

  1. Zyklische Schwankungen

Im Gegensatz zur Saisonalität folgen zyklische Schwankungen keinem festen Kalendermuster und können unregelmäßiger auftreten. Diese Schwankungen hängen häufig mit wirtschaftlichen Zyklen zusammen.

  1. Unregelmäßigkeiten

Unregelmäßigkeiten, auch bekannt als »Ausreißer«, sind unerwartete Spitzen oder Einbrüche in den Daten, die nicht durch den üblichen Trend oder saisonale Muster erklärt werden. Sie entstehen oft durch unvorhergesehene Ereignisse wie eine virale Marketingkampagne oder Lieferengpässe.

  1. Level Shifts

Ein Level Shift tritt auf, wenn eine Zeitreihe plötzlich auf einen neuen Wertebereich übergeht und dort bleibt. Dies kann durch strukturelle Veränderungen wie die Einführung einer neuen Produktlinie oder Änderung der Geschäftsstrategie verursacht werden.

  1. Varianzänderung

Die Varianz einer Zeitreihe kann sich im Laufe der Zeit ändern. Dies ist zum Beispiel der Fall, wenn Stabilitätsphasen von Volatilität abgelöst werden, wie es in Finanzmärkten oft vorkommt.

Im 2. Teil erläutern wir die Vorteile und Möglichkeiten noch genauer: KI-basierte Personalplanung: Mit wenigen Klicks zur optimalen Einteilung (Teil 2/3).

Für die Entwicklung des Tools nutzen wir Daten unseres Kunden Hermann Müller Elektrogrosshandel GmbH. Mehr dazu finden Sie in diesem Artikel.

Nehmen Sie Kontakt mit uns auf und sprechen Sie mit einem unserer Experten zum Thema.

Arrow up