We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Keynote: Predictive Analytics und Entscheidungsautomatisierung

00:00

Formal Metadata

Title
Keynote: Predictive Analytics und Entscheidungsautomatisierung
Title of Series
Number of Parts
7
Author
License
CC Attribution 3.0 Unported:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Circa 99 Prozent aller Entscheidungen in Unternehmen werden in Zukunft vollautomatisch getroffen, datengetrieben von Algorithmen. Und zwar die operativen Entscheidungen. Strategische Entscheidungen werden noch lange dem Menschen vorbehalten sein. Menschen, auch und gerade Fachleuten, fällt es schwer, ständig die richtigen rationalen Entscheidungen zu treffen. Die häufigste operative Entscheidung ist, gar keine bewusste Entscheidung zu treffen und so wie immer oder intuitiv - aus dem Bauch heraus - ohne großes Nachdenken zu handeln. Das hat sich in der Evolution bewährt, ist aber im Zeitalter der Digitalisierung nicht mehr zeitgemäß. Die konsequente Sammlung und Zusammenführung interner Daten und das Zuspielen relevanter externer Datenquellen, z.B. mit Big Data-Technologien, erlaubt es heute, auf eine immense Faktenvielfalt zuzugreifen. Moderne statistische Methoden wie Predictive Applications erlauben es für viele, häufig wiederkehrende Fragestellungen, aufgrund von historischen Daten Prognosen für die nahe Zukunft inklusive einer kompletten Risikoabschätzung zu erstellen (predictive analytics). Auf dieser Grundlage können dann mathematisch optimale Entscheidungen vorgeschlagen werden (prescriptive analytics) oder direkt automatisiert getroffen werden. Schon heute werden vollautomatisch z.B. Daten von Elementarteilchenbeschleuniger-Experimenten analysiert, Nachbestellungen von Frischware in Supermärkten ausgelöst, Werbemaßnahmen zugeteilt und dynamische Preise im Internet-Handel gesetzt, und das besser und zuverlässiger als per Hand. Es wird ein Überblick über einige überraschende Erkenntnisse und die großen Chancen der Entscheidungsautomatisierung in der Zukunft gegeben.
PhysikCarriagewayJust-in-Time-CompilerLandinformationssystemCorrelation and dependenceCONNY <Programm>Uniformer RaumCollisionRaw image formatPhysical quantityForceParticle detectorSet (mathematics)CarriagewayStatisticsMetrePhysikProbability distributionPoint cloudStatisticsAktion <Informatik>InternetForced inductionOptimumDirection (geometry)EnergieZugriffSound effectArtificial neural networkMathematicsSystems <München>Multitier architecturePredictionQuantilePropositional formulaMittelungsverfahrenComplex systemChaos theoryoutputAlgorithmFactorizationCurveSimilarity (geometry)RepetitionCustomer relationship managementALT <Programm>Zusammenhang <Mathematik>EstimationComputer programmingStatistikerQuantenphysikRepresentational state transferDynamic rangeLevel (video gaming)WahrscheinlichkeitsmaßCategory of beingLIGA <Programm>PhysicistSlide rulePredictabilityCost curveRamificationLogarithmAverageBusiness modelSoftwareComputer hardwarePhysical lawYES <Computer>NumberQuoteZahlDigital signalCurve fittingGoogleCorrelation and dependenceAutomationLokation <Statistik>StandardsoftwareNeWSWikiSocial classField programmable gate arrayUniformer RaumPredictionGrand Unified TheoryDigitizingLösung <Mathematik>Device driverLibrary catalogÜbertragungsfunktionLagApple <Marke>Route of administrationMachine learningIP addressLecture/Conference
Transcript: German(auto-generated)
Vielen Dank für die Einladung. Ich hoffe, dass Sie nicht jetzt zu müde sind und einschlafen werden. Ich werde versuchen, das zu verhindern. Also ja, wie gesagt, ich bin eigentlich Professor für Physik hier am KIT,
habe lange am CERN gearbeitet, habe auch Forschungsgruppen, auch jetzt noch Forschungsgruppen da und in einem großen Beschleunigungszentrum in Chicago und einem in Japan. Und da ist es so, da schießt man mal Teilchen auf Antiteilchen und zwar nicht einmal, sondern so was wie 40 Millionen Mal pro Sekunde.
Und da pro Kollision entstehen eine ganze Menge neue Teilchen und die fliegen so auseinander und werden in riesigen Detektoren, die 100 Meter unter der Erde typischerweise aufgebaut sind und so groß sind wie ein sechsstöckiges Hochhaus, werden die Spuren dann im Eintritt dieser neu entstehenden Teilchen nach ausgemessen,
elektronisch ausgemessen und die ganz vielen Rohdatensignale dann eben aufgenommen und irgendwann ein Teil von denen, sehr gleich noch, auf gespeichert werden und dann der weltweiten Physikergemeinschaft zur Verfügung gestellt,
um darauf statistische Analysen zu machen, aus denen man dann Erkenntnisse darüber erzielt, was für Eigenschaften die kleinsten Teilchen haben, welche Kräfte zwischen ihnen wirken und so weiter und so weiter. Und da haben wir wie gesagt 40 Millionen solcher Kollision pro Sekunde, das ist zur Zeit der Standard am CERN
und das entspricht ungefähr einer Rohdatenrate von Petabyte pro Sekunde und das ist natürlich viel zu viel, um das irgendwie abspeichern zu können. Deswegen wird man schon online über das, was wir schon wissen, all das, was uns nicht interessiert, das sind also die häufigen Prozesse, die kennen wir alle,
die sind sozusagen unwichtig, die versuchen wir gleich online auszufiltern und nur die, wo wir glauben, dass sie interessant sind, überhaupt die nur abzuspeichern und danach zu erhalten, der Rest wird sofort weggeworfen. Das geschieht im großen Serverfarm, zum Beispiel so eine Triggerfarm.
Für ein so ein Experiment besteht aus typischer Weise 30.000 CPUs, die parallel eben versuchen, den riesigen Datenstrom, der da kommt, auszuwerten, ist das interessant oder nicht, und eben nur ein 10-Million-Stil dieser Kollision überhaupt zu behalten, der Rest wird eben sofort weggeschmissen.
So eine Anlage kostet ungefähr 10 Milliarden Euro, das heißt, man schmeißt besser nicht die interessanten Ereignisse weg. Da hat man natürlich eine Verantwortung, alles, was man da macht, so auszunutzen, dass man möglichst viel rausholt. Das heißt, in diesem Falle darf man natürlich nichts,
was irgendwie potentiell interessant sein könnte, wegschmeißen. Also da gehört schon ein bisschen Intelligenz auch in diese Algorithmen. Mein Neurobase-Algorithmus arbeitet zum Beispiel in einem dieser Zernexperimente auf dem Triggerlevel 30.000fach parallel, um solche Entscheidungen zu treffen.
Eine andere Anwendung werde ich Ihnen nachher noch zeigen. Für die nächste Generation von Teilchenbeschleunigern, die jetzt in Japan gerade gebaut wird, da entstehen so viele Daten, dass man das gar nicht mehr auslesen kann und dann verteilen auf 30.000 Computer. Da entstehen also in jedem Sensor so viele Daten,
dass wir eigentlich schon auf dem Sensor einen Chip haben müssen, der schon intelligent entscheidet, welchen Teil des Sensors wollen wir überhaupt auflesen. Der Rest wird gar nicht mehr angeguckt. Und da haben wir jetzt unseren Neurobase-Algorithmus auf einem FPGA implementiert und auf jedem dieser Sensorchips, die sozusagen wie so eine 3D-Kamera funktionieren,
wo wir letztendlich laufenden Algorithmen, die offline trainiert worden sind und die schon erkennen, dieser Teil könnte interessant sein. Das wird ausgelesen, der Rest nicht. Also bisher wurden eben nur jedes zehntemillionste Ereignis ausgelesen, der Rest nicht und schon entschieden, ob die wichtig sind oder nicht.
Und in der Zukunft wird sogar eben nur ein Teil des Detektors ausgelesen von den Ereignissen, die überhaupt interessant sind. Das heißt, Big Data ist eine Sache, da kennen wir uns gut mit aus. Als Teilchenphysiker, wir hatten Peter Weid schon lange bevor es den Begriff Big Data überhaupt gab. Das ist ganz interessant, da hat sich Dinge ein bisschen anders entwickelt als zum Beispiel jetzt durch Google usw. im Internet.
Und die Sachen sind aber in den letzten Jahren auch ein bisschen zusammengekommen, aber auch die Denkweise der Physiker ist schon ziemlich anders. Ich werde ein paar Sachen davon zeigen. Also was mein Steckenpferd ist, ist die Kombination von Big Data mit Data Science und Machine Learning,
um heute um Geschäftsprozesse neu zu erfinden. Also irgendwann habe ich die Erkenntnis bekommen, war für mich persönlich eine sehr wichtige Sache. Warum benutzen wir die Verfahren dann nur immer für die Teilchenphysik?
Genau die gleiche Fragestellung ist in der Wirtschaft interessant. Wir können eben Prognosen machen mit Unsicherheiten und ganze Wahrscheinlichkeitsverteilungen individualisieren. Und das ist überall interessant. Das hat mich dann letztendlich zur Gründung der Firma FIT und dann Blue Yonder geführt,
die genau solche Algorithmen und die ganze Denkweise und Arbeitsweise versucht in die Wirtschaft zu bringen. Was nicht so ganz einfach ist, da erzähle ich nachher noch ein bisschen was dazu. Also ich glaube, was wir machen bei Blue Yonder ist auf jeden Fall digitale Innovationen und zum Teil kann man auch sagen Disruption aus Deutschland.
Wir haben eine ganze Menge Preise gewonnen in den letzten Jahren. Zum Beispiel zusammen mit dem Otto-Versand, den deutschen Innovationspreis vor zwei Jahren. Und die Zeitschrift Technology Review hat uns im letzten Jahr in die Liste der 50 innovativsten Unternehmen der Welt aufgenommen.
Und da sind wir sehr, sehr stolz drauf. Letztes Jahr sind wir auch von Gartner zum Cool-Vender im Bereich Predictive Analytics ernannt worden. Gut, ich glaube dafür muss ich ja hier keine Werbung machen. Das ist bei so einem Publikum natürlich klar.
Auch die Bedeutung von Algorithmen, Software und Daten wird natürlich immer größer. Und von Hardware und materiellen Dingen immer kleiner. Das ist eben etwas, was sich insgesamt in der Gesellschaft eben erst langsam durchsetzt. Aber wer da ein bisschen reinguckt, der weiß das, wie das ist.
Und die mächtigsten Unternehmen und die reichsten Unternehmen der Welt, das sind heute alles Softwareunternehmen. Aus meiner Sicht sind das alles Data Science und Datenunternehmen mit angehängter Logistik oder irgendwas oder angehängter Werbeabteilung. Aber das sind alles datengetriebene Softwareunternehmen,
die den Wert eben erkannt haben und gnadenlos ausnutzen. Und da steckt auf jeden Fall ein Riesenwert drin. Wie gesagt, das ist Ihnen ganz klar, aber eben noch nicht allen. Gut, also diesmal so eine Tafel,
wo hier taktische und strategische Ziele aufgezeichnet sind in vier Quadranten. Und da incremental, also allmähliche Verbesserung und da disruptive Veränderung. Und da sieht man zum Beispiel so Themen drin wie Machine Learning und Artificial Intelligence,
Big Data und Data Science, Internet of Things. Das sind alles Sachen, wo wir auch uns mit beschäftigen. Collaborative Economy finde ich auch sehr interessant. Da gebe ich vielleicht nachher ein Beispiel zu. Passt da auch mit rein. Und hier die Begriffe werde ich auch noch ein bisschen mehr erläutern.
Prescriptive Analytics ist auch etwas, was wir machen, was ich denke, was sehr, sehr wichtig ist. Und Artificial Intelligence sowieso, da werde ich wenig drüber erzählen, aber ein bisschen vielleicht was. Und Sie können mich auch gerne fragen. Also was heute auf dem Vorstandslevel von allen Firmen, zumindest allen großen Firmen klar ist,
ist, dass man das nicht mehr ignorieren kann. Also Firmen wie Google, aber auch viele andere, die verändern eben wirklich Geschäftsmodelle ganz massiv und sie gefährden auch Jahrhunderte alte Traditionsunternehmen massiv. Das wissen heute alle auf dem C-Level.
Schon in der zweiten Riege nicht mehr unbedingt. Aber auf Vorstandsebene ist das angekommen, dass das Themen sind, die man nicht vernachlässigen kann, wenn man sein Unternehmen nicht wirklich gefährden will. So, ich werde hauptsächlich über Entscheidungsautomatisierung reden.
Und das ist der Schlüssel zu besseren Entscheidungen im Zeitalter der Digitalisierung. Das sind erstmal objektive Daten. Also Entscheidungen sollten, fast alle Entscheidungen werden aus dem Bauch heraus getroffen. Komme ich nachher auch noch mal kurz drauf. Das ist gut, aber nicht sehr gut.
Und für viele Dinge ist es schlecht. Ich denke, die Basis für gute Entscheidungen sollten eigentlich immer objektive Daten sein. Dann brauchen wir, Entscheidungen sind eigentlich immer wichtig, um die Zukunft zu beeinflussen. Deswegen muss man eigentlich auch schon, um eine Entscheidung gut treffen zu können, eine Vorhersage haben. Was wird dann wahrscheinlich passieren?
Deswegen braucht man gute und richtige Prognosen. Und zu jeder Prognose, das werde ich gleich auch noch ein bisschen erläutern, gehört die Unsicherheit. Die Zukunft steht nicht fest. Das wäre auch eine furchtbar langweilige Welt, wenn alles schon klar wäre, was morgen passiert. Das tut es eben nicht. Die steht nicht fest. Das heißt, alles, was man prognostiziert, hat eine Unsicherheit.
Und für mich ist eine Prognose die Wahrscheinlichkeit für jede mögliche Zukunft. Es gibt unendlich viele mögliche Zukunft. Und wir müssen für die immer rausnehmen, wie wahrscheinlich ist, dass das passiert, dass das passiert, das passiert. Und das ist für mich eine gute Prognose. Komme ich gleich noch drauf. Das müssen wir quantifizieren. Gut, wenn man jetzt weiß, was wahrscheinlich morgen passiert, oder die Möglichkeit mit der Wahrscheinlichkeit,
dann muss ich ja trotzdem irgendeine Entscheidung treffen. Zum Beispiel, wie viel soll ich einkaufen? Wie soll ich einen Preis setzen? Soll ich mit dieser Therapie oder der Therapie behandeln? Da nützt mir eine Unsicherheit nichts. Letztendlich muss ich eine klare Entscheidung treffen. Und um die treffen zu können, brauche ich eben auch eine gute und richtige Kosten-Nutzen-Funktion.
Was heißt es, wenn die Zukunft eben doch anders ist, in der einen Richtung und in der anderen Richtung, das ist nicht immer symmetrisch, das ist sehr oft asymmetrisch, das Risiko auf der einen Seite viel, viel größer als auf der anderen Seite. Das ist für die richtige Entscheidung aber sehr, sehr wichtig zu wissen. Also das ist der nächste wichtige Punkt.
So, habe ich eine Wahrscheinlichkeitsverteilung und ich habe eine Kosten-Nutzen-Funktion, dann muss ich das Optimum suchen, die beste Entscheidung. Das heißt, ich brauche eine gute und richtige Optimierung. Das kann auch sehr komplex sein, so etwas zu finden. Manchmal auch ganz einfach. Und die Königsdisziplin ist dann noch Automatisierung.
Da zeige ich Ihnen auch gleich, warum das so wichtig ist. Und das ist etwas, was die Menschen nicht gerne hören. Da werde ich auch ein bisschen was zu erzählen. Das ist eigentlich für einen Wissenschaftler ganz klar alles. Und da fragt man sich, warum werden die wichtigen Entscheidungen in der Politik,
in der Wirtschaft nicht so getroffen? Sie werden nicht so getroffen. Sie werden Bauchgefühl, Macht, solche Dinge, das sind die Treiber. Es gibt ganz wenige Entscheidungen, die wirklich aufgrund von Optimierung von objektiven Daten getroffen werden. Und als Wissenschaftler finde ich das schrecklich. Und ich hoffe, wir kriegen eine bessere Welt, wenn wir versuchen,
eben gute Lösungen, nachhaltige Lösungen zu finden, die objektivierbar sind. So, ein paar Definitionen. Gute, richtige Prognosen, inklusive Unsicherheit. Das nennt man Predictive Analytics. Das aus irgendwelchen Datenmengen rauszuholen. Was kann ich über die Zukunft sagen?
Und das möglichst individuell. Das ist Predictive Analytics. Dann Predictive Analytics ist daraus, unter richtigen Kostenfunktionen, die richtige Entscheidung zu treffen. Predictive ist ein Rezept. Wenn ich jetzt irgendeinem Disponenten zum Beispiel erkläre, das ist die Wahrscheinlichkeitsverteilung. Oh, ich habe Mathe abgewählt in der 10. Klasse.
Da kann er nichts mit anfangen. Der möchte wissen, was soll ich jetzt machen? Und eine Preskription ist, bestelle 250 Stück von dem. Das ist ein Rezept. Also, diesen Teil kann man eben auch einmal wirklich lösen und dann nur das Ergebnis rausgeben und sagen, jetzt mach das.
So, und mitunter, das werde ich ja nachher auch noch begründen, warum das so ist. Obwohl der gute Mann jetzt ja das Rezept bekommen hat, sagt er, nee. Die Maschine, sagt ich, soll 250 kaufen, aber ich habe 20 Jahre Erfahrung. 200. Und später stellt sich heraus, er hat zu wenig eingekauft.
Okay, aber sein Bauchgefühl hat ihn destiktiert. Das heißt, selbst wenn er die Preskriptions hat, macht er es. Er hält sich nicht dran, weil er sich für was Besseres hält. Ganz menschlich werde ich auch beweisen gleich oder es gibt halt empirische Beweise dafür. Genau, und deswegen ist dieser Teil wichtig. Wir müssen sozusagen manchmal, weil manchmal ist es besser, wirklich die Menschen aus der Entscheidungskette rauszulassen.
Dann kriegen wir nämlich leider die besseren Entscheidungen. Und deswegen ist auch Automation wichtig. Und dieses einfache Rezept wirklich durchzusetzen in Praxis, im echten Konzern, das bringt sehr, sehr, sehr viel.
Und das revolutioniert Entscheidungswege im Handel, Logistik, Industrie, Versicherung. Finance könnte noch viel länger sein, Medizin und so weiter. Unsere Firma hat sich jetzt erstmal in den letzten Jahren hier drauf konzentriert. Das werde ich auch gleich noch begründen. So, Predictive Analytics.
Also eine Verteilung zum Beispiel von irgendeiner, wie viel Teile von dieser Apfelsorte verkaufen wir morgen in dem Laden. Das kann irgendwie so aussehen. Die ist jetzt wirklich die Anzahl der Dinge, die verkauft werden und nach oben die jeweilige Wahrscheinlichkeit. Es wird nie einfach eine Zahl sein.
In Standardsoftware ist es normalerweise leider genau eine Zahl vorgesehen für eine Forecast oder Prediction. 32 Bit oder 64 von mir aus, aber ein Wort. Das ist falsch. Das ist vom Grundsatz her falsch. Damit kann man keine guten Entscheidungen treffen. Nur triviale Entscheidungen hängen nur vom Mittelwert ab.
Alles andere nicht. Das ist eine gute Prognose hier. Die beinhaltet eben all die Wahrscheinlichkeiten, mit welcher Wahrscheinlichkeit man in der Zukunft aufsteht. Die muss natürlich auch stimmen, die Wahrscheinlichkeitsverteilung. Und das ist das Schöne. Wir berechnen solche Wahrscheinlichkeitsverteilungen. Dann kommt die Zahlung vor 500 Milliarden im Monat.
Und für viele der Sachen tritt schon einen Tag später oder eine Woche später dann die Wahrheit ein. Dann können wir vergleichen, ob die Wahrscheinlichkeitsverteilungen stimmen. Und sie stimmen. Das ist eine wichtige Aussage. Wir möchten natürlich auch nicht, dass die Wahrscheinlichkeitsverteilung, das ist eine einfache Statistik.
Ich möchte die Wahrscheinlichkeitsverteilung für jeden Einzelfall haben. Das ist für diese Apfelsorte anders als für die. Das hängt jetzt auch vom Tag ab. Das hängt auch vom Wetter ab. Das hängt davon ab, ob das die Filiale in der Stadt ist oder im Hauptbahnhof oder auf dem Land. Das hängt von vielen Dingen ab. Das heißt, was wir brauchen, ist eine individualisierte Wahrscheinlichkeitsaussage.
Statistik aus dem Einzelfall nennen wir das. Die Welt verläuft nicht deterministisch, habe ich schon gesagt. Vorhersagekraft ist prinzipiell begrenzt. Als Physiker weiß man das durch die Quantenphysik. Wir wissen, dass die Welt nicht deterministisch abläuft, sondern dass Zufall eine ganz wichtige Rolle spielt.
Aber es gibt noch einen anderen Effekt und der ist für diese Sachen noch deutlich wichtiger. Das sogenannte deterministische Chaos, ein komplexes System. Sie wissen zum Beispiel, das Wetter auf der Erde ist ein komplexes System. Das heißt, manchmal können wir das recht gut vorhersagen, ein paar Tage. Manchmal können wir es sehr schlecht vorhersagen.
Das hängt vom Zustand des Systems selbst ab. Wir können praktisch gar nichts individuell aussagen in einem Jahr. Das wäre schon Klimaforschung und da sind unsere Aussagen sehr schwammig. Aber wir können solche Aussagen wie, den 6. Oktober 2017 wird es regnen. Das kann ich höchstens im statistischen Mittel aussagen.
Aber zum Beispiel zwischen 7. und 8. wird das Wetter besser. Das kann man einfach nicht vorhersagen, solche Dinge. Komplexe Systeme treten eben sehr viel auf. Also die Welt ist nicht deterministisch, aber sie verläuft auch nicht zufällig.
Das wäre auch schlimm, wenn das alles nur Zufall wären und Lotto zahlen. Die Welt ist eher etwas dazwischen. Das gibt eben die Extremfälle. Zum Beispiel so ein physikalisches Pendel, was man noch aus der Mittelstufe kennt. Da kann man genau berechnen, was passiert.
Näherungsweise, wenn eine Luftwiderstand wird, vernachlässigt. Aber man versucht das so zu idealisieren, dass man es genau berechnen kann. Und kann man auch dann. Die Lottozahlen vorherzusagen, das geht nicht. Das ist eben deterministisches Chaos. Da gibt es, obwohl alle einzelnen, wenn die Kugeln da runterfallen, kann man alles einzelne ganz gut berechnen.
Aber da sind so viele sogenannte Verzweigungspunkte drin. Ob die Kugel jetzt hier gerade abprallt oder einfach nach unten weitergeht, das entscheidet irgendwann Nanometer. Und da reicht es, wenn ein Luftmolekül von der Seite ein bisschen schneller war als von der. Das können wir eben nicht mehr vorhersagen. Das kann man eben beweisen, dass man es nicht vorhersagen kann.
Also da können wir nichts mehr vorhersagen, weil es zu kao, zu komplex ist. Und dazwischen gibt es eben alles Mögliche. Ein Continuum zwischen völliger Vorhersagbarkeit und völliger Nichtvorhersagbarkeit. Und da können zum Beispiel, wie viel von den Bananen werden verkauft. Da können wir eine Wahrscheinlichkeitsaussage treffen.
Wie viele Leute kommen zu der Veranstaltung? Also solche Dinge. Oder aber wie viele Autos werden morgen wieder auf der A8 nach Stuttgart stehen? Oder wie groß ist die Wahrscheinlichkeit, wie können wir Unfälle vorhersagen? Unfälle passieren selten, aber wir können trotzdem Wahrscheinlichkeiten angeben.
Und wir können auch angeben, dass die für den einen häufiger sind als für den anderen. Für den einen Autotyp ein häufiger als der andere. Aber das kann man individualisieren. Also das sind alles Dinge, die in der wahren Welt auftreten, die zwischen den Extremen liegen. Und wo wir aber möglichst viel aussagen, möglichst viel prognostizieren wollen, aber eben nicht mehr als geht.
Dann können wir die besten Entscheidungen treffen. So, Fußball kann man auch vorhersagen. Wahrscheinlichkeitsmäßig. Also auch Bayern München hat immer höchstens 80, 85 Prozent Siegwahrscheinlichkeit. Nicht 100. Und Champions League kann man besser vorhersagen als zweite Liga.
KSC. So, auf Sachen, die wir vorhersagen wollen, gibt es oft viele Einschlüsse. Zum Beispiel nehmen wir wieder Handel. Also wir wollen vorher sagen, wie viel von dem Apfel verkauft werden. Dann ist sowas wie Wetter.
Aber auch Wettervorhersage kann auch einen Einfluss haben. Dann irgendwelche Promotionen. Der Preis natürlich, die irgendwelche Promotionsregeln, die es gab. Der lokale Konkurrent ist direkt nebenan noch wieder einer, der direkt im Preiskampf befindet und so weiter.
Der Preis des Konkurrenten. Andere Artikel, die auch gerade preisreduziert sind, aber Ähnlichkeiten mit dem haben. Coupons, TV-Werbung, blablabla. Also es gibt theoretisch höchstens viele Einflüsse, die auf irgendeine Vorhersage irgendeinen Einfluss haben können. Und jetzt einerseits die Datensammlung, die die Händler jetzt selbst haben.
Und auch Sachen wie Wettervorhersagen, die man dazuspielt. Das kann man eben alles zusammenfassen. Und das ist ein schönes Big Data Projekt dann. Ganz viele Spalten. Das sind alles sozusagen Spalten. Wir haben ganz viele Zeilen. Das sind eben die einzelnen Artikel und Filialen und Tage.
Und dann können wir einfach vorher dann irgendwann messen, wie viel wurden abverkauft. Und dann kann ein zum Beispiel ein neuronales Netz oder irgendein Machine Learning Algorithmus lernen. Was ist der Zusammenhang zwischen diesen Inputs und der Wahrscheinlichkeitsverteilung des Outputs? Also das Ziel ist, das Ganze Funktionale, die ganze Wahrscheinlichkeitsverteilung. Das beinhaltet den Mittelwert, beinhaltet aber auch die Unsicherheit und die ganze Verteilung.
Also alle Quantile zum Beispiel. Und das Ganze haben wir eben, davon die ganzen vielen Spalten. Und das haben wir eben für viele Artikel, viele Lokationen, viele Zeitpunkte. Das sind die ganzen Zeilen. Und das ist natürlich ein Machine Learning Problem, was heutzutage lösbar ist.
Man muss natürlich immer aufpassen, dass man das alles richtig macht, dass man nicht übertrainiert und so weiter. Aber das kann man machen. Also das ist der Teil erstmal über Predictive Analytics. So jetzt Prescriptive Analytics heißt, nutze die Prognosen, um Entscheidungen zu treffen,
auf Basis geeigneter Kosten-Nutzen-Funktionen und mathematisch optimal. Das gibt eben individuelle Rezepte, Prescriptions und Handlungsanweisungen für jeden Einzelfall. Und jetzt kommt was Interessantes. Was wir nämlich jetzt gemacht haben, ist zu sagen, strategische Entscheidungen können wir jetzt auf einen Einzelfall runter brechen. Und das ist sehr, sehr interessant. Richtet jede operative Einzelentscheidung an der übergeordneten Unternehmensstrategie aus.
Das ist jetzt plötzlich möglich. Das ist sehr interessant und wertstiftend. Und man kann mathematische und technische Komplexität komplett outsourcen. Das Ganze gibt es als Software-as-a-Service oder wie wir es auch kennen, schon Decisions-as-a-Service in der Cloud.
Wenn man möchte. Kosten-Nutzen-Funktionen sind eigentlich immer nicht linear. Diese sind einfache hier, aber sie sind schon sehr typisch und sehr interessant. Nehmen wir wieder das Beispiel Einkaufsmenge. Das ist hier sozusagen die Nachfrage, die wirklich im Morgen stattfindet. So viel wird wirklich will gekauft werden.
Wenn wir aber nur so viel auf Lager haben, dann kann diese Nachfrage nicht bedient werden. Vielleicht ist das aber ein frischer Artikel, der hält nur einen Tag. Habe ich so viel eingekauft und ich habe nur so viel eingekauft, dann die Nachfrage ist kleiner.
Die Nachfrage ist kleiner, dann habe ich den Rest, den muss ich morgen Abend vernichten. Wenn das zum Beispiel Sushi sind. Wir machen die Sushi-Disposition in ganz Deutschland. Die haben zwei Tage Haltbarkeit offiziell oder drei Tage Haltbarkeit. Die ganzen Läden werden alle zwei Tage beliefert und alles, was da noch da ist, muss weggeschmissen werden.
Was aber nicht da ist, kann er auch nicht verkauft haben. Einen Tod muss man da immer sterben. Das sind genau diese Läden. Das ist die Kostenfunktion hier, wenn man zu viel hat und das die, wenn man zu wenig hat. Lebensmittelvernichtung ist zurzeit auch ein wichtiges politisches Thema. Es gibt neue Gesetze in fast allen Ländern der EU.
Lebensmittelvernichtung soll reduziert werden, muss reduziert werden. Das kriegt man natürlich nur dadurch hin, dass man möglichst clever einkauft. Das muss man eben richtig machen. Hier auf beiden Seiten entstehen Kosten, die sind aber unterschiedlich. Das hängt auch davon von der Haltbarkeit ab.
Das kann sehr unterschiedlich aussehen. Das ist schon der Grund, warum einfache Mittelwerte nicht funktionieren. Wir haben eben nicht lineare Kostenfunktionen hier. Wenn man nicht lineare Kostenfunktionen und Unsicherheit hat, wir haben ja die Wahrscheinlichkeitsverteilung für die Zukunft, das müssen wir sozusagen darüber legen. Das ist etwas, wo die menschliche Intuition versagt.
Das kann der Mensch nicht. Das ist jetzt das, was ich eben schon angedeutet hatte. Das Dilemma vieler strategischer Entscheidungen ist es, dass man ein Tod immer sterben muss, dass man immer zwischen Sküla und Karyptes ist. Wenn ich zum Beispiel setze ich meine Preise hoch, dann mache ich mehr Gewinn pro Artikel. Aber ich habe natürlich weniger Marktanteil, weil manche kaufen nicht.
Oder lässt ich ihn runter, mache ich es genau andersrum. Dann kriege ich mehr Marktanteil, aber meine Profitabilität geht im Bach runter. Das ist eigentlich typisch bei fast jeder Entscheidung. Das ist immer ein Kompromiss. Manchmal kann eine Sache besser machen, dafür wird das andere schlechter. Jeder Vorstand hat jeden Tag genauso. Ich muss überlegen, was machen wir?
Bleiben wir da, wo wir sind? Gehen wir da oder da? Aber das ist immer auf Kosten des anderen. Was wir wirklich wollen, wäre natürlich eine Verbesserung in Ziel 1 und in Ziel 2. Die Frage ist, ist das möglich? Und meine Antwort ist, ja, das ist möglich. Das Zauberwort dafür heißt Individualisierung. Das heißt, wir machen eben nicht eine globale Entscheidung.
Dann haben wir immer diesen Kompromiss. Die Entscheidung brechen wir jetzt runter auf jede operative Einzelentscheidung im Unternehmen. Beim anderen ist die Kostenfunktion so, beim anderen ist sie so, beim anderen wissen wir es ziemlich genau, beim anderen haben wir eine große Unsicherheit. Und wenn wir das Gesamtsystem optimieren, dann gehen wir von der Kurve auf eine andere Kurve.
Die ist einfach besser. Und dann können wir es auch erreichen, dass wir beide Ziele gleichzeitig erreichen. Ziel 1 verbessern, Profitabilität verbessern und Marktanteile verbessern gleichzeitig. Das ist eben durch Individualisierung der Entscheidung möglich. Und hier sind ein paar Beispiele, die wir alle realisiert haben.
Erhöhung der Warnverfügbarkeit bei gleichzeitig der Reduktion von Restbeständen am Ende der Saison. Der Otto-Versand hat seine Resteverwertungsabteilung zugemacht. Die gibt es nicht mehr. Das wird nicht mal in einen Euroshop verkauft. Die sind verkauft am Ende der Saison.
Autodisposition, 20 Millionen Euro weniger Lebensmittelvernichtung bei gleichzeitig der Reduktion der Auto-Stock-Quote um 20 Prozent. Mehr Warnverfügbarkeit, aber weniger Reste. Das hier ist Kauflandfleisch. Database-Marketing, Mehr-Kunden-Aktivität bei weniger Werbeetat.
Das zeige ich nachher noch, das Beispiel. Oder bei Preissetzungen, zum Beispiel dynamisches Pricing. 3,5 Prozent mehr Neukunden bei gleichzeitiger Steigung der Profitabilität um 4 Prozent. Oder 10 Prozent mehr Absatz, auch bei 4 Prozent mehr Profitabilität. Mehr Absatz und mehr Neukunden kriegt man sicher nicht durch zu hohe Preise.
Das Geheimnis hier ist eben Individualisierung. Die richtigen Artikel zum richtigen Zeitpunkt niedrig, andere hoch. Königsdisziplin ist dann, nachdem wir das alles wissen, das zu automatisieren. Warum? Weil die Psychologie und das menschliche Verhalten, wie zum Beispiel von Nobelpreisträger Kahnemann aufgedeckt,
verhindert oft eine wirkliche Optimierung. Trotz preskriptive Analytics und wieder besseren Wissens, statistische Beweise, die wir ständig liefern, tendieren Menschen dazu, immer wieder dieselben Fehler zu begehen und ihrem Bauchgefühl zu vertrauen.
Unser Credo ist, ungefähr 99 Prozent aller operativen Entscheidungen in Unternehmen können automatisiert werden. Das denken Sie jetzt völlig, das ist viel zu viel. Aber wenn Sie ein bisschen nachdenken, dann ist das gar nicht so verrückt wie ich Ihnen gleich auf den nächsten Folie zeige. Also speziell regelmäßig in ähnlicher Form wiederkehrende Entscheidungen Das sind gar nicht eben die großen, sollen wir jetzt fusionieren,
sollen jetzt R-Berlin und Freefly fusionieren. Die meine ich gar nicht. Aber ich meine die vielen, die täglichen Bestellungen, die täglichen Preissetzungen, die täglichen Kundenansprachen. Das ist das Interessante. Wie viele bestellen? 0, 10, 100 Stück. Preis heute senken? Ja, um wie viel? 5 oder 10 Prozent. Diesen teuren Katalog an Kunden X senden. Das sind die Fragen, die eben ständig wieder kommen
und die ziemlich regelmäßig sind und die wir mit dieser Methode eben sehr, sehr gut beantworten können. Das ist, was in der Praxis ungefähr passiert. 90 Prozent Leute, die tun auf eine Anfrage oder auf eine implizite Anfrage gar nichts. Die reagieren gar nicht oder machen das wie immer.
Das haben wir immer so gemacht, wird weiterhin gemacht. Also fast alle diese Entscheidungen sind ja gar keine bewussten Entscheidungen. Circa 9 Prozent, das sind Schätzungen hier, werden Business Rules an. Wenn das, dann das. Diese wurden mal dafür gebaut, die Regeln damit besser ist als reines Bauchgefühl.
Ob das heute dann immer noch ist oder sich im Markt geändert hat, das ist eine andere Frage, aber im Prinzip besser. Und vielleicht ein Prozent denkt nach und entscheidet nach bestem Wissen und Gewissen. Okay, dann machen wir das. Ah ja, das Wetter soll jetzt aber gut werden. Oh, aber Aldi hat das gerade im Angebot, dann machen wir das. Also, das gibt es natürlich, aber verschwindend gering.
Und jetzt kommt das Böse. Auch diese letzten 1 Prozent sind oft alles andere als optimal. Denn menschliche Entscheidungen werden von zwei Systemen getroffen. Das kommt erst der Verhaltenspsychologie, Kahnemann und Mitarbeiter. Wir haben eben zwei Systeme im Gehirn.
Das erste ist das schnelle intuitive System, was unser Überleben sichert und gesichert hat, vor allen Dingen in der Evolution, wo wir schnell, sehr schnell reagieren können. Und zum Beispiel Wissen beim Säbelzahntige abhauen und auf den Baum rauf und so weiter. Da ist unser Gehirn darauf konditioniert.
Und im Gegensatz zu den meisten Tieren haben Menschen eben auch das System 2. Das ist langsam und rational, wird aber sehr wenig genutzt. Und das Problem ist, das System 1 regiert im Alltag, das schnelle. Man kann das sogar messen. Kaufentscheidungen werden getroffen, bevor sie bewusst geworden sind.
Das kann man messen. Also, erstmal kauft man und dann kommt das System 2 und sagt, jetzt muss ich eine Begründung finden. Wie erkläre ich das meiner Frau, dass ich den Porsche gekauft habe? Also, diese Sachen kommen später. Nicht nur bei so großen Entscheidungen, auch bei kleinen Entscheidungen. Das kann man messen. Das kann man wirklich messen.
Also, System 1 regiert im Alltag und auch im Firmenalltag. Auch beim Arzt und am Wissenschaftler. 99% aller seine Entscheidungen sind System 1. Ich weiß es. Die sind nicht immer schlecht. Ich will nicht sagen, dass sie immer schlecht sind. Die haben dafür gesorgt, dass wir das sind, was wir heute sind
und dass wir überhaupt noch leben. Aber auch, und das ist das Interessante eben auch Und insbesondere bei Wissenschaftlern, also auch bei mir und anderen Experten, regiert System 1. Und das hat die Natur eben auch so eingerichtet. Das System 2, also wirklich nachdenken, kostet unendlich viel Energie im Vergleich zu 1.
Und wir versuchen, wie alle physikalischen Systeme, Energie zu minimieren. Und deswegen nutzen wir das System 2 eben höchst selten. Und ganz, ganz wichtig, das System 1 versteht keine Statistik. System 1 kann nicht abschätzen. System 1 macht einfach ganz klare Regeln.
Zack! Oder für die, die sich mit neuronalen Netzen auskennen, da ist die Übertragungsfunktion eben ganz steil. 0 oder 1. Geht sehr schnell, aber kann ganz falsch sein. Und kein Abwägen, etwas smoothes ein Abwägen. Das passiert dann nicht. Da ging es eben, das hat sich entwickelt, um damit wir überleben.
Bloß wir leben heute in einer anderen Zeit. Wir leben halt nicht mehr, wir werden nicht mehr vom Säbelzahntiger bedroht, sondern von Google und Amazon. Und deshalb, wir leben wirklich eben ganz anders und sollten uns darauf anpassen. Gut, also wenn Sie wirklich, dieses Buch kann ich wirklich sehr empfehlen, von Daniel Kahnemann, Schnelles Denken, Langsames Denken auf Deutsch.
Und da beschreibt er auch in einer leicht lesbaren Sprache hunderte oder tausend von Experimenten in dieser Richtung. Und das ist wirklich sehr zu empfehlen. Und er sagt ihm auch, der Mensch ist nicht in der Lage, statistisch-quantitative Entscheidungen permanent gut genug zu treffen und lässt sich häufig täuschen, meist durch Optimismus.
Dies hier ist auch eine wunderschöne Webseite, Wikipedia, Wiki List of Cognitive Biases. Gucken Sie mal rein, ist eine lange Liste, mehrere Seiten lang. Höchst interessant und vor allen Dingen, Sie entdecken sich wieder. Oh Scheiße, das mache ich auch nicht richtig. Oh Scheiße. Wir sind halt so programmiert.
Es ist nicht schlimm, aber es ist so. Man muss es eben wissen. Gut, das hier fand ich jetzt auch höchst interessant. Habe ich gerade vor ein paar Wochen gefunden, eine Veröffentlichung aus dem wissenschaftlichen Zeitung Decision Sciences. Das heißt, Decision Making and Surprise Setting News Vendor. News Vendor ist eben das, was ich vorhin angedeutet hatte,
verderbliche Ware, die nur eine Periode haltbar ist. Und man hat entweder die Aufgabe, ich muss sagen, wie viel wollen wir bestellen oder ich muss den Preis setzen, um möglichst viel Profit zu machen oder ich darf sogar beides machen. Und die haben jetzt ein Experiment gemacht mit geschulten Experten,
das waren Wirtschaftsstudenten, und die haben genau dieses gelernt. Also das News Vendor Modell, wie muss ich richtig entscheiden unter Unsicherheit, das haben die gelernt, mussten eine Klausur schreiben und nur die, die bestanden hatten, durften an einem Experiment teilnehmen. Das heißt, die wussten, die kannten die ganze Mathematik dahinter. Und dann wurden sie hingesetzt und haben gesagt,
pass auf, jetzt bist du mal Einkäufer, du spielst jetzt den Einkäufer und du sollst jetzt eben sagen, wie viel kaufst du von dem und dem Produkt ein und du kriegst alle Informationen, die man braucht, um das wirklich exakt auszurechnen. Und dann haben sie geguckt, was rausgekommen ist. Was haben die gemacht? Die haben fast alle nicht gerechnet, sondern das nach Bauchgefühl gemacht.
Und damit lagen sie fast alle falsch. Obwohl sie es vorher gelernt hatten, obwohl sie es besser wussten und obwohl sie sogar Feedback bekommen haben. Deine Entscheidung war zu hoch. Das haben sie sogar bekommen, nach jeder Einzelentscheidung. Und trotzdem haben sie so weitergemacht. Und das ist extrem interessant.
Das heißt nämlich wirklich, dass es nichts nützt. Und das war auch unsere Erfahrung. Das haben wir bei vielen unserer Kunden, haben wir die Erfahrung gemacht. Man muss den Menschen klarmachen, dass sie nicht gut entscheiden unter Unsicherheit. Und wir haben natürlich jeder von uns ein Abwehrsystem. Na ja, das mache ich schon immer so. Und natürlich kann ich das. Und natürlich weiß ich, du kennst auch die News.
Ja, ja, natürlich kenne ich die. Und warum handelst du nicht danach? Das habe ich doch im Gefühl. Und wenn man vergleicht die Zahlen, sieht man, du falsch, die Maschine richtig. Also das ist sehr interessant. Und da gibt es eben psychologische Untersuchungen. Wir sind einfach so konditioniert, dass wir wieder besseren Wissens falsch handeln.
Das ist wichtig. Deswegen ist Automatisierung wichtig. Ein anderer Grund, warum Automatisierung wichtig ist, ist das. Viele gerade Großunternehmen, die haben so viele solche Entscheidungen. Vielleicht 40.000 Artikel oder 100.000 Artikel in 4.000 Lokationen. Und das für morgen, übermorgen usw.
Da kommen sofort örsinnige Zahlen zusammen. Und da kann natürlich kein Mensch alle die Entscheidungen richtig machen. Also das ist ganz klar, das muss man automatisieren. Hier ist auch ein echtes Beispiel. Deutsche Supermarktkette. Da war die Auto Stock Quote zu Anfang, vorher ungefähr 8%. Das war dann zu Anfang, da haben wir unser System eingeschaltet.
Dann ist es gleich auf 6% runtergegangen. Und dann im Laufe der Zeit ein bisschen weiter runtergegangen. Und an dem Tag haben wir gesagt, ja, läuft gut genug. Jetzt wird das wirklich automatisiert. Vorher musste immer noch der Disponent Yes drücken. Ja oder nein. Oder er konnte es überschreiben.
An dem Tag wurde es wirklich automatisiert. Kein Mensch will das gerne sehen. Aber das sind echte Daten. Also Prescriptive Analytics automatisiert. Ich habe sogar an der Uni mit meiner Arbeitsgruppe unsere eigene Arbeit automatisiert.
Die von Forschungsphysikern, die versuchen, statistische Analysen von solchen Elementarteilchenphysik-Experimenten zu machen. Wir sind Mitglied einer Kollaboration in einem Experiment in Japan. Die besteht aus 400 Physikern aus aller Welt. Und jetzt seit 10 Jahren nimmt sie solche Daten auf und analysiert sie.
Unser sehr, sehr erfolgreiches Experiment mit 500 Veröffentlichungen. Eine hat zum Nobelpreis geführt. Also das ist nicht irgendwas. Aber am Ende dieser 10 Jahre, oder gegen Ende, da habe ich gesehen, mein Gott, wir haben mit so viel Erfahrung, eigentlich wissen wir genau, was man machen muss. Dann haben wir gesehen, das, was eben ein typischer PhD Student,
also Doktorand, machen muss in so einer Analyse, das kann ich auf insgesamt, das ist so ein hierarchisches System, und da muss insgesamt 72 Entscheidungen fallen, haben wir festgestellt. Die haben wir alle jetzt mit unseren Methoden optimiert, diese Entscheidung. Dann haben wir das Programm auf allen Daten laufen lassen,
die in den 10 Jahren aufgenommen worden sind. Und was dann rauskam, das waren doppelt so viele richtig rekonstruierte Ereignisse wie die 400 Physiker, inklusive mir selbst, in 10 Jahren per Hand raus bekommen haben. Für die nächste Generation machen wir das sogar jetzt so. Inzwischen wurde das, wenn man das einmal geschrieben hat,
das erste Mal ist noch nicht so gut, das zweite Mal ist noch besser. Jetzt haben wir noch einen Faktor 2 mehr rausgeholt. Und in der nächsten Generation vom Experiment, von dem ich vorhin schon mal kurz gesprochen habe, wird das jetzt gleich automatisch bei der Datennahme gemacht. Nicht erst 10 Jahre später, sondern da kommen wirklich die Sachen so raus. Das heißt, dass auch die Arbeit des Forschungsphysikers ändert.
Er ist jetzt einfach stärker, er kann auf eine Metaebene gehen. Den Kram, wo er die letzten 10 Jahre hauptsächlich dran machen musste, wie mache ich die Selektion, wie bestimme ich die Untergründe, der ganze Quatsch, das ist jetzt automatisiert. Also was ich hiermit sagen will, ist, dass auch sehr intellektuelle Arbeit,
da stecken ja auch Regeln hinter, das kann man auch, durch Maschinen optimieren, durch Algorithmen. Und eigentlich ist das für mich ganz normal Innovation. Ganz früher das natürlich auch gerne, weil manche denken, oh Gott, das ist alles so schrecklich. Aber vor 50 Jahren, am CERN, gab es riesige Turnhallen, so groß wie Turnhallen, mit Tausenden von Tischen,
und da saßen alles Frauen dran und die haben die Rechnung durchgeführt. Da hatten die Physiker lange Messreihen, da mussten die das mal dem, Logarithmus von dem und so weiter. Und damals gab es eben noch keine Computer, oder vor 60 Jahren wurde es gegründet. Da saßen die da mit Logarithmen, Tafeln und Rechenschieber und mussten die Rechenreihen von den Physikern per Hand ausrechnen.
Ja, diese Jobs sind weggefallen. Ist die Welt besser geworden oder schlechter dadurch? Heute ist die Rechenleistung hier von meinem Handy tausendmal so groß wie von dem Rechenzentrum, des Beschleunigerzentrums, wo ich meine Diplomarbeit gemacht habe.
Das ist eben einfach der Fortschritt. Und auch diese Dinge, wie ich hier gesagt habe, das bringt uns eine Effizienzstufe höher. Für viele klingt das aber sehr schlimm. Okay, gut, da verliere ich nichts.
Also, was man mit solchen Sachen erreichen kann, das ist schon ganz gut. Wir helfen Otto, sich gegen Amazon zu wehren. Zum Beispiel auch in der Preissetzung. Otto macht jetzt ca. 50.000 Preisänderungen pro Tag. Ich finde jetzt ein laufender Rollout über viele Kategorien im Unternehmen statt.
Angefangen hat das mit Herrenmode und Damenmode, und zwischendurch auch Elektronik usw. Und natürlich auch sehr viel über die Märkte, was da passiert, wie die Konkurrenzsituation ist. Und das Interessante ist, dass man eben, obwohl da natürlich viele erfahrene Leute sitzen, so etwas erreicht wie den Absatz höher,
also den Umsatz, den Rohgewinn und die Neukundheit. Alles höher. Das sind auch eigentlich Ziele, die sich normalerweise gegenseitig ausfließen. Man schafft das hier oder das. Oder das hier, aber nicht beides. Das hier war interessant. Otto hatte schon massiv Respekt davor, Preise zu ändern in Deutschland.
Gefährlich. Die haben also sehr, sehr genau gemonitert, was für Rückmeldungen kamen. Und das Interessante war, es gab keine Beschwerden. Es gab aber weniger Retouren. Also die Preispolitik war eben auch, das war wirklich ein nicht beabsichteter Nebeneffekt. Haben wir selten. Aber die Preispolitik war eben so,
dass gewisse Artikel, die halt auch besonders retourenanfällig sind, die waren eben dann irgendwie günstiger. Und das hat die Leute davon abgehalten, die wieder zurückzuschicken. Und gleichzeitig eben eine massive Verminderung der Reste am Ende der SONG. Das habe ich vorhin schon gesagt. Die haben inzwischen ihre ganze Struktur umorganisiert.
Und es gibt gar keinen Abverkauf mehr. Null. Also Otto ist ein extrem soziales Unternehmen. Und die haben gleich am Anfang gesagt, dadurch wird kein Arbeitsplatz abgebaut. Es ist nicht alles ganz konsequent, was sie machen.
Aber es gibt sehr oft natürlich den Punkt, dass es sinnvollere Arbeit gibt. Aber insgesamt führt natürlich mehr Effizienz. Auch zu wenig Arbeitsflächen. Da haben Sie natürlich schon recht. Aber gerade bei Otto sind sie extrem vorsichtig.
Da kann ich sagen, dass das eben wirklich nicht passiert ist. Sie setzen das auch nicht alles. Man könnte da noch mehr machen. Das tun Sie nicht. Okay, viele Einflüsse habe ich vorhin schon gesagt. Ach so, ja, okay. Ja, das ist auch noch eine interessante Sache, wissenschaftlich.
Das ist der Unterschied zwischen Korrelation und Kausalität. Das gefällt mir an der Big-Data-Diskussion nicht, dass da viele mal sagen, Korrelation ist enough. Korrelation reicht. Wenn wir in den Daten Korrelation finden, können wir das ausnutzen. Das stimmt immer dann, wenn das System sich als solches nicht ändert. Wenn wir ein System sich selbst überlassen, dann kann ich zum Beispiel,
wie viel morgen verkauft wird, wenn ich jetzt nichts ändere an der Politik, die wir gerade machen, kann ich das recht gut vorhersagen. Allerdings, wenn ich die Preispolitik verändere, wenn ich die Einkaufspolitik verändere und so weiter und so weiter, dann kann sich das natürlich ändern. Und das ist der wichtige Punkt, dass es eben also nicht richtig ist,
wie manche Big-Data-Piepste propagieren, dass Korrelation is everything. Das gilt nur für sich selbst überlassene Systeme, die man auch nicht verändert in der Zukunft. Wenn man wirklich was ändern will an der Politik, was auch immer es ist, dann muss man doch die kausalen Effekte kennen.
Da muss ich eben wissen, was ist der Einfluss von dem Preis. Der Preis hat natürlich einen Einfluss auf den Abverkauf, aber viele andere Dinge auch. Und in den historischen Daten waren die Preise auch nicht immer konstant, sondern da gab es eben Sommer Schlussverkauf, und dann wurde ein neues Artikel eingeführt und so weiter und so weiter. Das heißt, das sind die Systeme, die sind eben intrinsisch dynamisch,
und da wurde schon immer was gemacht. Und wenn man jetzt eben eine bessere Politik für irgendwas finden will, dann muss man entweder wirklich wissenschaftlich A-B-Testing machen, also man muss ja auf jeden Fall den kausalen Effekt finden, zum Beispiel vom Preis. Und ich sehe gerade, bis wann habe ich Zeit?
10 nach, okay. Gut, dann gehen wir... Ja, doch kurz würde ich dir das schon erklären, weil das finde ich interessant. Viele Menschen denken mal doch zu einfach. Und das hier finde ich ganz gut, das Zitat, for every complex problem there is an answer that is clear, simple,
das ist das, was Sie Levels gerne wollen, and wrong. Und eine solche Frage kommt hier aus der Werbung. Dies hier ist zum Beispiel etwas,
ist eine Katalog-Versendekampagne erfolgreich oder nicht? Das sind die Daten hier. Also im Mittel ungefähr 50% aller an der Kundendatenbank haben einen Katalog bekommen. Und von denen, die einen Katalog bekommen haben, das sind diese hier, 30% haben da wirklich was gekauft in der nächsten Periode.
Und von denen, die keinen Katalog bekommen haben, haben nur 6% was verkauft. Wie wird das verkauft? Als großer Erfolg. Die Katalog-Versendekampagne hat ja eben mit Katalog sechsmal so viel Umsatz oder Absatz wie ohne Katalog, also voller Erfolg. Das ist aber, diese Daten sind echte Daten, die waren falsch.
In Wirklichkeit war der Effekt von der Katalog-Versendung nur so wie hier angezeigt. Das war nicht ein Faktor 5, sondern nur 1,3. Also ungefähr 20% da und 15% da. So dann muss man sagen, was normalerweise passiert ist,
Marketing-Chef sagt, was, ich brauche mehr Etat, ich brauche mehr Budget, dann machen wir eben noch viel mehr Umsatz. Und genau diese Aussage ist falsch. In diesem Fall hätte man genau diesen Umsatz gemacht, wenn man allen einen Katalog geschickt hätte. So, woran liegt denn das? Das ist ein typisches Beispiel für Kausalität und Korrelation.
Korrelationen werden als kausale Zusammenhänge ausgelegt. Wenn Kunden mit Katalog mehr kaufen, wäre ja die Frage, lag es an der Katalogzusendung? Oder lag es vielleicht an etwas ganz anderem? Oder daran, dass wir genau den Kunden, die sowieso kaufen, wollen oder können, einen Katalog geschickt haben.
Und das passiert fast immer. Das ist das, was immer fast immer passiert. Also das hier ist die Kausalitätsstruktur. Links oben sind die historischen Daten über den Kunden. Das ist also das, was wir den Kunden wissen. Dann wurde ja entschieden, der Kunde kriegt den Katalog, der nicht. Das ist die Aktion. Und dann haben sie alles, was für den Kunden sowieso.
Also der Kunde selbst hat natürlich einen Einfluss auf das Ziel, kauft er oder nicht. Und die Aktion eben auch. Das ist dieser Pfeil hier. Aber was wir eigentlich wissen wollen, ist dieses hier. Was ist der zusätzliche Einfluss der Aktion auf das, was er sowieso machen würde? Das ist das Interessante. Einfluss die Katalogzusendung den Kunden.
Oder das bisherige Kundenverhalten, die Katalogaussteuerung. Eine Wirklichkeit ist natürlich immer fast das. Weil die Marketing-Appline ist ja nicht doof. Die hat ja Zugriff auf die Customer-Datenbank. Und die Jungs, die immer ordentlich kaufen, die kriegen natürlich einen Katalog. Und die nur selten kaufen, die kriegen keinen Katalog. Die sogenannten guten Kunden kriegen einen, die schlechten nicht.
Und wenn das so ist, wenn dieses hier, wenn es hier einen Pfeil gibt, also das ist nicht zufällig, sondern da ist irgendein Zusammenhang, irgendein Algorithmus, der sagt, aus den Eigenschaften berechnen wir, ob du einen Katalog bekommen sollst oder nicht. Dann ist die Messung, die wir gemacht haben, keine Messung für diesen kausalen Effekt.
Dann ist die einfache Mathematik falsch. Wenn die Aktionsauswahl nach irgendwelchen Regeln erfolgt, egal welchen, das muss zufällig sein. Da darf eben kein kausaler Pfeil sein hier. Das muss eine zufällige Auswahl sein. Dann kann man das direkt als Erfolg einer Kampagne werten, sonst nicht.
Und einfache Mathematik funktioniert nur, wenn es keine Abhängigkeit der Aktion von der Kundenhistorie gibt. Und dazu muss man die Aktion zufällig wählen. Das nennt man dann A-B-Test, wenn man sowas macht. Da kann man sowas rauskriegen. Aber 99 Prozent aller Anwendungen in der Wirtschaft sind falsch. Das wissen die nicht. Und die machen das nicht.
Und fast alle Marketing-Chefs sind überzeugt davon, wie toll ihre Aktionen sind in Wirklichkeit. Dann haben die gar keinen Einfluss. Oder einen äußerst geringen Einfluss. Okay, ja. Gut, und was wir jetzt, wir haben einen Algorithmus entwickelt, der versucht, das auch aus historischen Daten,
da gab es halt hier irgendeinen Zusammenhang, aber diesen Pfeil, der wird dann sozusagen rausgefaltet wieder. Wir versuchen also wirklich den Pfeil, den Einfluss der Aktionen für jeden Einzelnen, das hier isoliert herauszubekommen, auch wenn es irgendeine komische Politik in der Vergangenheit war.
Okay. Also nochmal, um das klarzumachen, was das Wichtigste ist. Die hier brauchen wir. Das sind die Überzeugbaren. Kaufen die lediglich nach einer Ansprache, wenn man denen irgendeinen Tipp gibt. Die hier, die sowieso nicht kaufen, dem brauchen wir keinen Katalog zu schicken.
Die da, die sichere Beute, die auf jeden Fall kaufen, regelmäßig immer, die brauchen wir auch keinen Katalog. Und es gibt sogar noch die hier, die schlafenden Hunde. Zum Beispiel haben wir alles gehabt. Zum Beispiel bei einer Bauspar-Kasse. Die hatten Bauspar-Vertrag und die wurden angeschrieben,
ob sie ihn erhöhen wollen oder sonst was. Und da dachte ich, ach, scheiße, da liegt immer so ein blöder Bauschwein. Den kennst du nicht aber mal sofort. Also das kann eben auch nach hinten losgehen. Und so hat Obama seine zweite Wahl gewonnen. Kennen Sie die Story? Die haben Data Science herausgefunden.
Also was wir ja viel machen, ist, dass CDU-Anhänger, die werden gepusht, gepusht von der CDU. Die SPD-Anhänger von der SPD, SPD, SPD. Aber die wählen doch sowieso CDU oder SPD. Das ist eigentlich scheißegal, was man mit denen macht. Interessant sind natürlich die, die unentflossen sind oder die nicht wissen, die zwischen den Lagern stehen. Und das sind solche, die sich beeinflussen lassen.
Das ist das Relevante. Und genau das hatte Obama, hatte ein Team von 120 Data Science Fest. Und die haben dann festgestellt, überhaupt welche Bundesländer müssen wir überhaupt angucken? Weil die sowieso klar waren, die haben ja Mehrheitswahlrecht. Alles vergebene Liebesmühe. Brauchen wir gar nicht hinzugehen. Und in den Staaten, die auf der Kippe standen,
haben sie dann versucht, die Leute rauszufinden, die auf der Kippe stehen oder die unsicher sind. Und da haben sie ihre Wahlhilfe hingeschickt. Die haben da geklingelt bei einzelnen Leuten und die überzeugt. Und deswegen war es so, die Mehrheit Amerikaner war damals gegen Obama. Aber er hat trotzdem gewonnen.
Das hat er eben geschafft dadurch. Durch gezielte Beeinflussung. Das mag man jetzt moralisch finden, wie man will. Aber alle Werbung und so weiter, da geht es immer nur darum. Beeinflussende Menschen. Okay, und dann, wenn schon, sollte man es aber richtig machen.
Okay, gut. Ja, und das ist eben auch ein Beispiel hier. Das haben wir auch erreicht im Cash- und Carry-Markt. Wie viele Kataloge werden da verschickt. Was man erreichen kann ist, im Mittel waren das 50% von der Liste. Und man kann eben von dieser Linie, wo das war, die haben gedacht, sie haben einen Algorithmus. Die haben über eine Million ausgegeben für den Algorithmus
von einer Unternehmensberatung. Und wir haben nur bewiesen, der liegt auf der Geraden, die auch durch Zufall beschrieben wird. Sogar ein bisschen da drunter. Okay, schlecht investiertes Geld. Die haben halt in ihre guten Kunden das gefickt. Also falsch. Und was wir erreichen können, ist diese Kurve.
Das heißt, bei gleicher Auflage mehr Umsatz. Oder bei gleichem Umsatz kann man auf die Auflage halbieren. Und unter Umständen sind das natürlich gigantische Effekte. Dann werden mehrere Millionen pro Katalogversendung allein an Portogebühren und Druckkosten ausgegeben.
Die beiden Folien zeige ich noch. Und dann vielleicht noch ein paar Minuten Zeit zum Fragen. Deutschland ist für uns ein schwieriger Markt.
Die Deutschen haben immer Bedenken bei allem. Und das ist manchmal schade. Dies hier zeige ich ganz gerne eben. German Angst. Also wir sehen überall Probleme, Schwierigkeiten. Amerikaner sind da zum Beispiel ganz anders. Die sehen die Chancen da viel eher.
Und ich glaube, in der ganzen Digitalisierung, es ist völlig klar, dass das kommt. Das ist so überlegen, das wird sich alles durchsetzen. Die Frage ist nur, wann und wem der Markt dann gehört. Das sind die einzigen relevanten Fragen. Und was wir gerne machen ist, und das finde ich nicht gut, also das haben wir hier auch gesehen,
viele Entscheider, nicht in der Zähle, aber ein oder zwei darunter, haben Angst vor wirklich digitalen Veränderungen und versuchen sich dagegen zu wehren. Jeder Mensch hat Angst vor Veränderungen, möchte möglichst immer alles überlassen, wie es ist. Aber ich glaube, zum Beispiel im Handel, da haben wir schon eine spektakuläre Pleite wie Quelle und Schlecker gesehen.
Es ist wirklich sehr gefährlich, wenn man einfach den Technologiezug verpasst. Und da gibt es einen knallharten Wettbewerb. Und viele glauben eben, wenn ich etwas Neues einführe, dann ist das auch ein Risiko.
Ja, es ist ein Risiko, das stimmt. Und aus unserer Sicht haben wir viel zu viele Angsthasen in den Chefetagen und ein, zwei Etagen darunter in deutschen Unternehmen, die wirklich Angst vor den Schritten gehen. Wir müssen jetzt einfach in die Richtung gehen und das wirklich tun. Es ist immer noch sicherer, eben nichts zu tun.
Deswegen wird leider eben noch keiner gefeuert. Aber wenn so ein Projekt dann nicht perfekt läuft, dann ist es leider immer noch gefährlich. In dem digitalen Markt möchte ich noch die letzte Folie sagen. B2C, also alles, was direkt den Endkonsumenten angeht, ist völlig, vollständig amerikanisch dominiert.
Und das Lustige ist ja, der Kunde hat keine Bedenken. Also wenn wir immer die Fragen haben, wir müssen schon wieder, es gibt Arbeitsplätze und so weiter. Aber ich will nicht fragen, wer hier alles bei Amazon kauft. Ich habe letztens hier in Karlsruhe, hier um die Ecke, in einem Geschäftsposter gesehen, das fand ich ganz gut. Da stand, wenn Sie sich schon bitte hier beraten lassen und am Internet kaufen,
dann besuchen Sie doch bitte unseren Webshop. Tun die Leute aber nicht. Sie kaufen bei Amazon. Deswegen gehen die Läden hier ein. Wir alle haben ja eine Verantwortung da. Und was wir eben einfach sehen ist, dass der Konsument sich einfach nicht drum schert. Für ihn ist das, okay, Amazon erkennt auswendig die Adresse.
Da ist er eben ganz schnell und der weiß auch, das funktioniert. Die sind ja gut, keine Frage. Und dann ist Schluss mit Moral. Dann ist das gemacht und hier haben wir eben Städte sterben und so weiter. Okay, also der Kunde hat keine Bedenken. Das ist das. Trotzdem haben wir bei jedem Vortrag, das muss ich mir immer anrufen,
was für Konsequenzen hat das alles. Die Amerikaner machen das alles und unsere Kunden kaufen das von denen. Und liefern alle ihre Daten freiwillig ab. Ich auch. Apple zum Beispiel. Oder irgendwie, die sammeln alle unsere Daten. Bei B2B werden die Märkte jetzt aufgeteilt. Und die meisten europäischen Firmen sind aus meiner Sicht zu zurückhaltend
gegenüber neuer Technologie und haben zu lange Entscheidungswege. Es gibt sehr viele Bedenkenträger. Die sogenannte Lehmenschicht, das ist die zweite, dritte Lage, die gibt es mit äh und mit e. Das ist beides richtig.
Und eben Angst vor Veränderungen. Und das halte ich für eine ganz, ganz, ganz gefährliche Sache. Dann eben auch als Hochschulprofessor hier weiß ich, Technologie, Ausbildung und technisches Know-how in Deutschland ist mindestens so gut wie in den USA. Da haben wir auch viel zu wenig Selbstvertrauen. Wieso schaffen wir es nicht, eben einfach auch große Unternehmen
in dem Bereich zu bauen? Das ist sehr schwer. Wir sollten es tun. Wie gesagt, dies hier, das gilt garantiert so. Und unsere guten Leute werden gerne abgeworben. Wir können auch versuchen, das selbst zu bauen. Und ich denke, wir sollten schnell handeln. Oder freiwillig den Markt anderen überlassen. Aber das ist aus meiner Sicht auf jeden Fall die falsche Auswahl.
Gut, vielen Dank für Ihre Aufmerksamkeit.