Die Grundlagenforschung zum maschinellen Lernen begann in den Fünfzigerjahren. Doch erst seit den Neunzigern entwickelt sich das technische und finanzielle Umfeld so, dass ein breiter kommerzieller Einsatz möglich wird. Essenziell sind hier die schnelle Verbreitung neuer Forschungsergebnisse in Blogs und Open-Source-Systemen, das exponentiell wachsende Datenangebot, genügend Rechenleistung zur wirtschaftlich interessanten Auswertung dieser Daten und nicht zuletzt reichlich Kapital in den Kassen der Technologiekonzerne.
Das Zusammenspiel dieser Faktoren zeigt sich unter anderem an der Evolution der maschinellen Bilderkennung. Einen Durchbruch markiert hier das LeNet-5 von 1998, eines der ersten sogenannten Convolutional Neural Networks (CNN), die zu den Urformen des seit Anfang der Nullerjahre kommerziell angewandten Deep Learnings zählen. Seit 2009 arbeiten Forscher und Entwickler mit der öffentlichen Bilddatenbank ImageNet. Diese pflegt einen Bestand von vierzehn Millionen manuell benannten Bildern. Der souveräne Sieg des CNN „Alex- Net“ beim Bilderkennungswettbewerb 2012 des Image- Net-Projekts (ImageNet Large-Scale Visual Recognition Challenge, ILSVRC) hat den Einsatz von Grafikprozessoren zur Beschleunigung des Deep Learnings durch Parallelisierung popularisiert. Der Wettbewerb fand von 2010 bis 2017 statt, der Quellcode der Siegermodelle wurde zur Nutzung und Weiterentwicklung durch Dritte veröffentlicht.
Ähnliche Synergien beschleunigten die maschinelle Bilderzeugung nach der Erfindung der Generative Adversarial Networks (GAN) 2014. GAN sind „Netze im kreativen Wettstreit“: Ein künstliches neuronales Netz, Generator genannt, erzeugt Bild- oder Tondaten. Ein zweites Netz, der „Diskriminator“ (Prüfer), wird darauf trainiert, das Output des Generators von realen Aufnahmen zu unterscheiden. Aus dem Feedback des Prüfers lernt der Generator iterativ, realistische Artefakte zu produzieren.
In der maschinellen Textproduktion und Übersetzung kommen seit 2017 Transformer und die darauf aufbauenden vortrainierten ML-Modelle BERT (Bidirectional Encoder Representations from Transformers, 2018) und GPT-3 (Generative Pretrained Transformer, 2020) zum Einsatz. Aus riesigen Korpora lernen Transformer unter anderem semantische Analogien, etwa König verhält sich zu Königin wie Mann zu Frau.
Beim bestärkenden Lernen (Reinforcement Learning) wiederum entwickelt und verfeinert das System nicht nach Vorlagen, sondern über eine Belohnungsfunktion eine Strategie zur Lösung eines Problems. Dieses Verfahren hat künstliche Intelligenzen wie AlphaGo (2017) für das komplexe Brettspiel Go oder AlphaStar (2019) für das Videospiel StarCraft II hervorgebracht, gegen die menschliche Gegner mittlerweile chancenlos sind.
Wie lässt sich der Forschungsstand des maschinellen Lernens im Handel nutzbar machen? Folgende Heuristiken haben sich bewährt.
Durchgängige Digitalisierung erfordert maschinelles Lernen.
Zu fast allen Geschäftsprozessen gehören Arbeitsschritte, die sich nur mit integrierten ML-Funktionen automatisieren lassen. Will man einen Supermarkt auf SB-Kassen umrüsten, muss man beispielsweise das Wiegen des Obstes und Gemüses automatisieren. Dazu braucht man eine Bilderkennung, die zuverlässig nicht nur Bananen von Kartoffeln unterscheidet, sondern auch Sorten derselben Gattung. Ganz auf Kassen zu verzichten, wie Amazon es derzeit in stationären Filialen in mehreren US-Großstädten erprobt, erfordert eine noch genauere Bilderkennung. Diese muss unter anderem Eigentum des Kunden, etwa eine andernorts gekaufte Zeitung, von unbezahlter Ware aus dem Sortiment unterscheiden und erfassen, ob der Kunde einen Artikel mit Kaufabsicht in den Korb legt oder zurück ins Regal stellt.
Die Praxis ist kein Data-Science-Wettbewerb.
Anders als die Teilnehmer eines Wettbewerbs, wie ihn Webseiten wie www.kaggle.com anbieten, müssen sich die Entwickler einer kommerziellen ML-App ihre Datenbasis selbst schaffen. Das Gros dieser Daten ist verrauscht, Voruntersuchungen müssen ihre Verwertbarkeit klären. Bei positivem Befund gilt es, zum Datenbestand passende Fragen zu formulieren, einen fachlich und rechtlich korrekten Betrieb sowie eine zuverlässige Wartung der App zu organisieren und bei alledem die Erkenntnis des Informatikers Donald Knuth zu beherzigen: „Voreilige Optimierung ist die Wurzel allen Übels.“