Kommentar von Prof. Dr. Michael Feindt, Wissenschaftler und Gründer von Blue Yonder
Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.
Viele Menschen sind der Meinung, dass Wissenschaft immer zu 100-prozentiger Gewissheit führt. Wir haben viele Beobachtungen um uns herum wie etwa Bewegungen von Sternen und Körpern in der täglichen Umgebung als durch wissenschaftliche, in diesem Falle physikalische, Prinzipien erklärbar akzeptiert (obwohl die Mehrheit sie nicht verstanden hat). Diese Erkenntnisse schaffen Vertrauen und liefern uns eine stabile Basis zum Leben. Jede dieser Gewissheiten ist das Ergebnis von Millionen von Beobachtungen, wissenschaftlichen Hypothesen, Gegenbeispielen und sonstigen Parametern.
Anders als allgemein angenommen, kann uns die Wissenschaft aber nicht bei jeder Frage immer absolute Gewissheit garantieren. Sowohl in der subatomaren Physik als auch in vielen komplexen Systemen kann man – aus unterschiedlichen Gründen – die Zukunft oft nur kurzfristig und mit Unsicherheiten vorhersagen, wie zum Beispiel beim Wetter. Auch in vielen Anwendungen der Datenwissenschaft ist die individuelle Prognosefähigkeit begrenzt, die optimale Prognose ist eine möglichst individualisierte und möglichst scharfe Wahrscheinlichkeit für jede mögliche Zukunft. Naturwissenschaftler und Statistiker kennen die Grenzen der Vorhersagbarkeit, während Laien oft denken, dass die Wissenschaft alles im Prinzip mit 100 Prozent Genauigkeit berechnen und prognostizieren kann.
Dabei besteht ein signifikanter Unterschied zwischen deterministischer und probabilistischer Wissenschaft. Bei ersterer wird immer nach einer endgültigen Antwort gesucht – nach Regeln, die eine Beobachtung zu 100 Prozent verifizieren und sich mit Sicherheit beweisen lassen. Dafür gibt es unzählige Beispiele wie etwa jeden Pendelausschlag, den täglichen Sonnenaufgang, magnetische Phänomene oder die Schwerkraft. Physiker haben entsprechende Formeln entdeckt, die alle Beobachtungen zuverlässig beschreiben. Zum Beispiel können wir mit der Erfindung des Fallschirms immer noch wissenschaftlich sicher sein, dass ein Mensch auch beim Fall aus großer Höhe auf gesunde Weise wieder auf den Erdboden gelangt. Es sind allerdings nur relativ einfache und isolierbare Prozesse, bei denen das funktioniert.
100-prozentige Genauigkeit wird nie erreicht
Die überwiegende Mehrheit der Wissenschaft ist jedoch nicht deterministisch, sondern probabilistisch. Auch hier versuchen wir, mit so vielen Beobachtungen wie möglich unser Wissen über Trends, Muster und Gesetzmäßigkeiten zu erweitern, und sie in Form von Wahrscheinlichkeitsverteilungen zu prognostizieren. Aber in den meisten Fällen erreichen wir als Ergebnis nicht annähernd eine Genauigkeit von 100 Prozent.
Es gibt einfach zu viele Faktoren, die für sichere Erkenntnisse berücksichtigt werden müssten, wie die Geschwindigkeit einzelner Luftmoleküle, von denen es aber Abermilliarden gibt und die wir nie alle gleichzeitig messen können. Wichtig ist es, die Unterscheidung zwischen diesen beiden wissenschaftlichen Prinzipien zu überwinden. Wir Menschen glauben so sehr an die deterministische Komponente und suchen immer nach der 100-prozentigen Sicherheit. Der meiste technologische Fortschritt (beispielsweise Halbleiter, Computer, Mobiltelefone) beruht jedoch auf wissenschaftlich nur durch Wahrscheinlichkeiten beschreibbaren Phänomenen.
Ein plakatives Beispiel ist die Impfung gegen Covid-19: Erfahren die Menschen, dass die von der Wissenschaft angebotene Lösung nicht zu 100 Prozent wirkt, entscheiden sich viele dagegen – obwohl die Impfung eine viel bessere Alternative zu einer Corona-Erkrankung bildet. Weit weniger gravierend ist die Entscheidungsfindung im Einzelhandel. Dennoch kann im geschäftlichen Sinn die Nichtimplementierung von Machine Learning (ML) schwerwiegende Folgen nach sich ziehen. So können Ungenauigkeiten bei Beschaffungsprozessen und der Bestimmung von Lagerbeständen massive Nachteile hinsichtlich der Umsätze, Logistikprozesse, Umweltaspekte und der Reputation eines Unternehmens verursachen – während der Wettbewerb ebendiese Parameter optimiert.
Fazit
ML beruht auf den gleichen Prinzipien, aus denen wir wissenschaftliche Erkenntnisse gewinnen, Phänomene prognostizieren und die Zukunft zu unserem Nutzen beeinflussen können. Meist werden diese ,,nur“ durch Wahrscheinlichkeiten quantifiziert. Je mehr valide Daten vorliegen, desto verlässlicher kann der Algorithmus statistisch signifikante Vorhersagen treffen. Doch eines ist sicher: Sobald Beobachtungen (historische Daten) (mathematisch korrekt) genutzt werden, erreichen Prognosen eine deutlich höhere Genauigkeit als menschliche Einschätzungen – die oft vorurteilsgetrieben sind. Zu 100 Prozent präzise Vorhersagen wird es jedoch niemals geben.
Denn Menschen haben einen freien Willen, Trends ändern sich, Milliarden von Umwelteinflüssen sind schwer mess- und vorhersehbar und wirtschaftliche wie politische Faktoren unterliegen einem kontinuierlichen Wandel. Während wir Menschen kaum mit diesem Ausmaß an Veränderungen Schritt halten, geschweige denn statistisch korrekte Vorhersagen in Echtzeit treffen können, ist ML hierzu in einem gewissen Maß durchaus in der Lage. Dennoch kann die Technologie keine Wunder bewirken, sie bringt uns aber der realistischen Vorhersage der Zukunft einen entscheidenden Schritt näher und schafft damit einen entscheidenden Vorteil.
KI – mehr als eine Wissenschaft
Quelle: Blue Yonder