Durchgängige Digitalisierung erfordert maschinelles Lernen. Forschung, Technologie und Praxiserfahrungen machen es nun möglich. Erfahren Sie mehr in diesem Beitrag.
Wie viele Roggenmischbrote soll eine Bäckereikette nächsten Montag backen? Im Idealfall bekommt jeder Kunde das Brot seiner Wahl, ohne dass ein Laib übrig bleibt. Viele Faktoren fließen in die Kalkulation ein, darunter der Absatz in der Vorwoche, ob der nächste Montag in den Ferien liegt oder ob das Brot gerade beworben wird. Übersetzt man sie in Eingabewerte für ein Computerprogramm, kann dieses die Nachfrage auf mehrere Arten berechnen, zum Beispiel:
Gewichte die Faktoren und summiere
Ausgangswert: Absatz letzter Montag
wenn Ferien, dann minus 10 Brote
wenn Werbung, dann plus 20 Brote
1., 2., 3. …
Betrachte alle Fälle einzeln
1. Methode: Gewichte die Faktoren und summiere
2. Methode: Betrachte alle Fälle einzeln
wenn Ferien und Werbung, dann plus 7 Brote
1., 2., 3., …
Die Vorhersage wird umso genauer, je mehr Daten einfließen, also etwa auch die montägliche Roggenmischbrot- Absatzkurve der letzten Jahre. Aus solchen Daten lernt das Programm – daher der Ausdruckmaschinelles Lernen (ML).
Heute
Absatzprognosen gehören längst zum Einmaleins der Betriebswirtschaft. Unter anderem dienen sie folgenden Zwecken:
Schnelle Lieferung.
Wie können Onlinehändler über Nacht liefern, wenn allein der Versand aus dem Zentrallager an den Empfänger zwei Tage dauert? Des Rätsels Lösung: Der Händler weiß vor dem Kunden, was dieser bestellen wird. Anhand einer Nachfrageprognose gehen täglich Warenkontingente aus dem Zentrallager an Regionallager. Von dort erreicht ein Artikel den Kunden in 24 Stunden.
Tourenplanung.
Eine nach Standorten differenzierte Absatzprognose ermöglicht, die Zahl der Leerfahrten auf Liefertouren zu minimieren.
Dynamische Preise.
Im Web ändert sich der Preis eines Fluges alle paar Minuten, weil ihn ein Hintergrundprogramm in Echtzeit der Nachfrage anpasst. Mit digitalen Preisschildern lässt sich diese Praxis auf den stationären Einzelhandel übertragen.
Personaleinsatzplanung.
Wer im Supermarkt oder beim Callcenter immer wieder zu Randzeiten ebenso lange in der Schlange wartet wie zur Stoßzeit, zweifelt am guten Willen des Betreibers. Mit einer kurz getakteten, auf langfristige Statistiken gestützten Nachfrageprognose lässt sich der Personaleinsatz besser planen.
Derzeit laufen F&E-Projekte zu folgenden prognostischen Anforderungen.
Prognosen dort zum Einsatz bringen, wo noch nicht vorhanden.
Dazu: Determinanten ermitteln, Datenquellen anbinden, Prognosemodell auswählen und mit Clientsystemen verbinden.
Covid-19 einkalkulieren.
Ausreißer wie die Hamsterkäufe zu Beginn der Pandemie und die anschließende kurz- bis mittelfristige Nachfragedelle müssen in den Prognosesystemen modelliert werden, damit die Kalkulation realistisch bleibt.
Prognosen durch Daten aus weiteren Quellen verbessern.
Informationen aus dem Umfeld wie Wettervorhersagen, Google-Suchanfragen oder Trendthemen aus Social Media können die Prognose verfeinern.
Algorithmen aufrüsten.
Die eingangs skizzierte Absatzprognose einer Bäckereikette beruht auf linearer Regression und Entscheidungsbäumen, den simpelsten ML-Algorithmen. Genauere Ergebnisse liefern komplexe Deep-Learning-Verfahren, die zeitliche Zusammenhänge beachten. Dazu zählen neuronale Netze mit langem Kurzzeitgedächtnis (long shortterm memory, LSTM) und sogenannte Transformer.
ML-Anwendungen verarbeiten ein breites Datenspektrum. Da der Online-Handel zu Interessenten und Kunden wesentlich mehr Daten sammelt als der stationäre Handel, sind solche Werkzeuge dort weit verbreitet.
Marktsegmentierung und Personalisierung.
In einem Haushalt aus Mutter (39), Vater (40), Tochter (11) und Sohn (10) beträgt das Durchschnittsalter 25 Jahre. Einer solchen Wohngemeinschaft Produkte für Berufseinsteiger in den Zwanzigern anzubieten, wäre allerdings Zeit- und Geldverschwendung. Separat beworbene Artikel für Erwachsene und Kinder versprechen hier mehr Erfolg. Diese Segmentierung der Kundschaft hilft, Zielgruppen zum Warenbestand zu finden: Produkt sucht Kunden. Noch besser stehen die Chancen, wenn der Interessent das Produkt sucht. Wer seinen Kunden im Internet folgt, kann etwa in der Google-Suche, in Social Media oder E-Mails zu Anlass und Kaufhistorie passende Werbung einblenden.
Empfehlungen.
Produktempfehlungen basieren auf dem Kriterium der Ähnlichkeit: Man empfiehlt dem Kunden mehr des Gleichen, komplementäre Produkte oder solche, die andere Käufer desselben Artikels ebenfalls bestellt haben. Der keineswegs triviale Weg von der Ähnlichkeit zur Relevanz ist Gegenstand des Representation-Learnings. Auch das Thema Produktempfehlungen wird praxisbegleitend weiter erforscht. Empfehlungen für Neukunden lassen sich wie jede personalisierte Werbung aus dem Browserverlauf und Metadaten wie Browsertyp oder Betriebssystem ableiten. Liegt im Warenkorb eine Jeans, so könnte der Empfehlungsdienst dem Kunden ein dazu passendes Hemd zeigen.
Verpackungsoptimierung.
Was der Versand kostet und ob die Ware heil beim Kunden ankommt, hängt von der Größe der Verpackung, der Polsterung und der Hohlraumfüllung ab. Maschinelles Lernen etwa aus Reklamationsstatistiken hilft, die zum Versand mehrerer Artikel am besten geeignete Verpackung zu wählen.
Morgen
Die Grundlagenforschung zum maschinellen Lernen begann in den Fünfzigerjahren. Doch erst seit den Neunzigern entwickelt sich das technische und finanzielle Umfeld so, dass ein breiter kommerzieller Einsatz möglich wird. Essenziell sind hier die schnelle Verbreitung neuer Forschungsergebnisse in Blogs und Open-Source-Systemen, das exponentiell wachsende Datenangebot, genügend Rechenleistung zur wirtschaftlich interessanten Auswertung dieser Daten und nicht zuletzt reichlich Kapital in den Kassen der Technologiekonzerne.
Das Zusammenspiel dieser Faktoren zeigt sich unter anderem an der Evolution der maschinellen Bilderkennung. Einen Durchbruch markiert hier das LeNet-5 von 1998, eines der ersten sogenannten Convolutional Neural Networks (CNN), die zu den Urformen des seit Anfang der Nullerjahre kommerziell angewandten Deep Learnings zählen. Seit 2009 arbeiten Forscher und Entwickler mit der öffentlichen Bilddatenbank ImageNet. Diese pflegt einen Bestand von vierzehn Millionen manuell benannten Bildern. Der souveräne Sieg des CNN „Alex- Net“ beim Bilderkennungswettbewerb 2012 des Image- Net-Projekts (ImageNet Large-Scale Visual Recognition Challenge, ILSVRC) hat den Einsatz von Grafikprozessoren zur Beschleunigung des Deep Learnings durch Parallelisierung popularisiert. Der Wettbewerb fand von 2010 bis 2017 statt, der Quellcode der Siegermodelle wurde zur Nutzung und Weiterentwicklung durch Dritte veröffentlicht.
Ähnliche Synergien beschleunigten die maschinelle Bilderzeugung nach der Erfindung der Generative Adversarial Networks (GAN) 2014. GAN sind „Netze im kreativen Wettstreit“: Ein künstliches neuronales Netz, Generator genannt, erzeugt Bild- oder Tondaten. Ein zweites Netz, der „Diskriminator“ (Prüfer), wird darauf trainiert, das Output des Generators von realen Aufnahmen zu unterscheiden. Aus dem Feedback des Prüfers lernt der Generator iterativ, realistische Artefakte zu produzieren.
In der maschinellen Textproduktion und Übersetzung kommen seit 2017 Transformer und die darauf aufbauenden vortrainierten ML-Modelle BERT (Bidirectional Encoder Representations from Transformers, 2018) und GPT-3 (Generative Pretrained Transformer, 2020) zum Einsatz. Aus riesigen Korpora lernen Transformer unter anderem semantische Analogien, etwa König verhält sich zu Königin wie Mann zu Frau.
Beim bestärkenden Lernen (Reinforcement Learning) wiederum entwickelt und verfeinert das System nicht nach Vorlagen, sondern über eine Belohnungsfunktion eine Strategie zur Lösung eines Problems. Dieses Verfahren hat künstliche Intelligenzen wie AlphaGo (2017) für das komplexe Brettspiel Go oder AlphaStar (2019) für das Videospiel StarCraft II hervorgebracht, gegen die menschliche Gegner mittlerweile chancenlos sind.
Wie lässt sich der Forschungsstand des maschinellen Lernens im Handel nutzbar machen? Folgende Heuristiken haben sich bewährt.
Zu fast allen Geschäftsprozessen gehören Arbeitsschritte, die sich nur mit integrierten ML-Funktionen automatisieren lassen. Will man einen Supermarkt auf SB-Kassen umrüsten, muss man beispielsweise das Wiegen des Obstes und Gemüses automatisieren. Dazu braucht man eine Bilderkennung, die zuverlässig nicht nur Bananen von Kartoffeln unterscheidet, sondern auch Sorten derselben Gattung. Ganz auf Kassen zu verzichten, wie Amazon es derzeit in stationären Filialen in mehreren US-Großstädten erprobt, erfordert eine noch genauere Bilderkennung. Diese muss unter anderem Eigentum des Kunden, etwa eine andernorts gekaufte Zeitung, von unbezahlter Ware aus dem Sortiment unterscheiden und erfassen, ob der Kunde einen Artikel mit Kaufabsicht in den Korb legt oder zurück ins Regal stellt.
Derzeit eignet sich maschinelles Lernen für Routineaufgaben, zu denen genügend Daten vorliegen.
Nachfrageprognosen erfüllen dieses Kriterium. Bei Chatbots muss man differenzieren: Einfache, häufige Fragen (FAQ oder First-Level-Support) können sie beantworten, spezifische Nachfragen meist noch nicht.
Maschinelles Lernen heißt, aus Daten die richtigen Schlüsse zu ziehen.
Die Daten selbst bilden das Lastenheft, aus dem sich die Anwendungslogik ergibt. Daraus folgt erstens, dass genügend Daten vorliegen müssen (das Lastenheft muss detailliert genug sein). Zweitens lässt sich das ML-Projekt erst nach Analyse der Daten abschätzen (Beurteilung der Machbarkeit und des Aufwands anhand des Lastenhefts). Drittens wird die MLApp nur so gut sein wie ihre Datenbasis (Fehler in der Spezifikation führen zu Fehlern in der Implementierung).
Die Praxis ist kein Data-Science-Wettbewerb.
Anders als die Teilnehmer eines Wettbewerbs, wie ihn Webseiten wie www.kaggle.com anbieten, müssen sich die Entwickler einer kommerziellen ML-App ihre Datenbasis selbst schaffen. Das Gros dieser Daten ist verrauscht, Voruntersuchungen müssen ihre Verwertbarkeit klären. Bei positivem Befund gilt es, zum Datenbestand passende Fragen zu formulieren, einen fachlich und rechtlich korrekten Betrieb sowie eine zuverlässige Wartung der App zu organisieren und bei alledem die Erkenntnis des Informatikers Donald Knuth zu beherzigen: „Voreilige Optimierung ist die Wurzel allen Übels.“
„Durchgängige Digitalisierung erfordert maschinelles Lernen. Forschung, Technologie und Praxiserfahrungen machen es nun möglich.“
– Dr. Guntram Hainke –
Einsatzfelder
Virtuelle Anprobe.
Beim Online-Optiker ist es schon gängig, sich das Wunschgestell virtuell auf die Nase zu setzen. Dazu lädt der Kunde entweder ein Porträtfoto auf die Web-site oder überträgt sein Gesicht per Webcam in einen digi- talen Spiegel. Dieser legt ein Bild der Brille über die Aufnahme des Gesichts und folgt dabei sogar der Drehung des Kopfes.
Um die Retourenquote zu drücken und Kunden zu gewinnen, die mit dem Onlinekauf noch fremdeln, interessieren sich auch Textil-Webshops für die virtuelle Anprobe. Hier ist die Realisierung allerdings deutlich schwieriger. Neue Techniken wie der Stiltransfer mit GAN können helfen.
Falsche Produktrezensionen erkennen
Weil sich viele Webshopper bei der Kaufentscheidung auf Produktbewertungen anderer Kunden verlassen, stellen falsche oder manipulative Kritiken ein ernstes Problem dar. Mit den erwähnten Transformern aus der maschinellen Sprachverarbeitung (Natural- Language-Processing, NLP, oder Computerlinguistik) lassen sich solche Manipulationen leichter erkennen.
Robotik.
Erst durch maschinelles Lernen werden mobile, autonom agierende Automaten alltagstauglich. Das Einsatzspektrum reicht von der intelligenten Putzmaschine über Kommissionier- und Inventurroboter bis zur Drohne, die die letzte Liefermeile überbrückt.
Consileon hilft Unternehmen, den neuesten Forschungsstand zum maschinellen Lernen kommerziell zu nutzen. Im Team mit Ihren Entwicklern behalten unsere Data Scientists alle Risiken auf dem Weg zum ML-Projekterfolg im Griff. Dies konnten wir unter anderem in folgenden Projekten unter Beweis stellen:
Bestandsoptimierung durch Integration einer Nachfrageprognose in die Warenwirtschaft
Entwicklung von Systemen zur Prognose des Transaktionsaufkommens oder von Verspätungen
Verbesserung der Akzeptanz von CNN-Modellen durch Präzisierung der Konfidenzintervalle
Einsatz neuer NLP-Lernverfahren wie BERT zur Suchoptimierung
Dieser Artikel ist nur einer von vielen aus unserer Broschüre „Consileon Thema: Trends in der modernen Softwareentwicklung“.
Wenn wir Interesse geweckt und Sie Lust auf mehr bekommen haben, dann bestellen Sie sich gerne die gesamte Broschüre, indem Sie auf den untenstehenden Button „Broschüre bestellen“ klicken.
Die Themen der Broschüre umfassen u.a. den praktischen Nutzen künstlicher Intelligenz, agile Softwareentwicklung in der
Handelsbranche, der gewinnbringende Einsatz von Microservices und das Thema intelligenter Arbeitsplatz.
Dr. Guntram Hainke
Dr. Guntram Hainke ist Senior Specialist bei Consileon und unterstützt Handels– und Finanzdienstleistungsunternehmen in Projekten an der Schnittstelle zwischen Fachbereich und IT. Sein Arbeitsgebiet umfasst neben klassischer Anforderungsanalyse, Fachkonzeption und Software-Test insbesondere das Evaluieren und Nutzbarmachen von Methoden des maschinellen Lernens für den produktiven Einsatz.
Entstanden als digitale Variante des schwarzen Bretts, bieten Mitarbeiter- oder Intranetportale heute einen zentralen, geschützten, einheitlich gestalteten Zugang zu unternehmensinternen Informationen und IT-Anwendungen.
Entstanden als digitale Variante des schwarzen Bretts, bieten Mitarbeiter- oder Intranetportale heute einen zentralen, geschützten, einheitlich gestalteten Zugang zu unternehmensinternen Informationen und IT-Anwendungen.
Einsatzplaner teilen das Personal zeitlich und örtlich auf anstehende Arbeiten auf. Dabei handelt es sich um eine operative Aufgabe mit kurz- bis mittelfristigem Zeithorizont. Zahlreiche Randbedingungen fließen in den Einsatzplan ein, darunter: