We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Algorithmen: Zu Risiken und Nebenwirkungen – fragen Sie Ihren Informatiker

00:00

Formal Metadata

Title
Algorithmen: Zu Risiken und Nebenwirkungen – fragen Sie Ihren Informatiker
Title of Series
Number of Parts
21
Author
License
CC Attribution - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Der Algorithmus ist ein ständiger Gefährte in unserem Leben, erscheint jedoch nach wie vor als eine Blackbox. Wie funktioniert er eigentlich? Welche Auswirkungen hat er auf Dein (Erwerbs-)Leben? Denn je unkalkulierbarer die Verpackung, desto überraschender kann ihr Inhalt sein – mit gravierenden Folgen. [Partnersession]
AlgorithmComputer scientistAlgorithmArtificial intelligenceProgrammer (hardware)Power (physics)Computer animationLecture/Conference
Web serviceBlogBlock (periodic table)Virtual memoryComputer animationLecture/ConferenceMeeting/Interview
IBMFactorizationSpreadsheetInformationComputer animation
Decision tree learningMomentumInsight.xla 2.0Apple <Marke>Moment (mathematics)InformationParameter (computer programming)Computer animationProgram flowchart
AlgorithmSocial classDecision tree learningPartition of a setLecture/Conference
Partition of a setAlgorithmRSS <Informatik>Sample (statistics)ForestAlgorithmGreedy algorithmSequenceVariable (mathematics)Sample (statistics)AverageDecision tree learningPositionDistanceRow (database)Computer animationLecture/Conference
AlgorithmTwitterBlogCodeEnde <Graphentheorie>Parameter (computer programming)Decision theoryAlgorithmHidden Markov modelComputer animationLecture/Conference
Point of saleRoundingBusiness & Information Systems EngineeringAlgorithmArtificial intelligenceLecture/ConferenceComputer animation
AlgorithmSocial classEigenvalues and eigenvectorsSound effectLinear regressionMeeting/Interview
Row (database)InformationLecture/ConferenceMeeting/Interview
AlgorithmScientific modellingSpring (hydrology)Meeting/Interview
Process (computing)SoftwarePredictionLecture/ConferenceMeeting/Interview
DatabaseInternetFacebookEmailDurchschnitt <Mengenlehre>CodeWalkthroughPositionProcess (computing)Noten <Programm>Lecture/ConferenceMeeting/Interview
Lecture/ConferenceMeeting/Interview
Systems <München>PredictionPredictionGRADEProcess (computing)Lecture/Conference
AlgorithmDatabasePerspective (visual)Lecture/ConferenceMeeting/Interview
AlgorithmScientific modellingGoogleRoute of administrationLecture/ConferenceMeeting/Interview
GoogleComputer programMonster groupProfessional network serviceLecture/ConferenceMeeting/Interview
Lecture/ConferenceMeeting/Interview
AlgorithmSimulationBewertung <Mathematik>NumberDecision support systemAutomatonDecision theorySoftware developerProcess (computing)Potential gameSystems <München>Moment (mathematics)Row (database)Noten <Programm>Meeting/Interview
Moment (mathematics)Systems <München>AlgorithmZusammenhang <Mathematik>InformationLecture/ConferenceMeeting/Interview
Systems <München>QuoteDecision theoryLecture/ConferenceMeeting/Interview
Computer scienceCorrelation and dependenceAlgorithmArtificial intelligenceData analysisData miningSpeciesDecision theoryMoment (mathematics)Scientific modellingSoftwareInformationStatisticsInformatikerinFactorizationLecture/ConferenceMeeting/Interview
Programmer (hardware)InformationRow (database)Lecture/ConferenceMeeting/Interview
AlgorithmBitSoftwareProduct (category theory)Decision theorySAP <Marke>Lecture/ConferenceMeeting/Interview
AlgorithmCorrelation and dependenceDirection (geometry)Sound effectLecture/ConferenceMeeting/Interview
Moment (mathematics)Decision theoryLecture/Conference
Physical quantityAlgorithmMeeting/Interview
AlgorithmKommunikationTime zoneMathematical structureLecture/ConferenceMeeting/Interview
AlgorithmDirection (geometry)Lecture/Conference
LinieDirection (geometry)Focus (optics)Meeting/Interview
Systems <München>Computing platformLecture/ConferenceMeeting/Interview
AlgorithmDevice driverWeb serviceNumerical analysisMeeting/InterviewLecture/Conference
HypothesisAlgorithmMeeting/InterviewLecture/Conference
Machine learningComputer scienceDurchschnitt <Mengenlehre>Lattice (order)Scientific modellingVariable (mathematics)StatistikerLecture/ConferenceMeeting/Interview
Group decision makingGoogleAlgorithmHidden Markov modelSystems <München>Lecture/ConferenceMeeting/Interview
AlgorithmHypothesisGrand Unified TheoryLecture/Conference
Grand Unified TheorySet (mathematics)InformationAlgorithmLecture/Conference
Military rankMeeting/Interview
PICA <Bibliotheksinformationssystem>RoundingoutputLecture/Conference
Transcript: German(auto-generated)
Wunderschönen guten Abend, schön, dass ihr wahrscheinlich trotz eines sehr intensiven
Republikatages hierher gefunden habt. Ich bin Melanie Stein, ich bin Journalistin und Psychologin und wir alle wissen, wenn es um Personalentscheidungen geht, dann sind wir Menschen nicht so ganz vorurteilsfrei. Wir bevorzugen Menschen, die attraktiv sind, Bewerber, die einen Migrationshintergrund haben, haben es oft etwas schwerer und auch das Geschlecht spielt bewusst oder
unbewusst eine Rolle. Wie schön wäre es dann also, wenn man künstliche Intelligenz nutzen könnte, um ganz objektiv, rein nach Leistung, entweder auszuwählen oder zu befördern. Nun gibt es allerdings den Verdacht, dass auch Algorithmen diskriminieren können.
Und genau darum soll es heute gehen, welche Chancen und welche Probleme gibt es mit algorithmenbasierten Personalentscheidungen. Und wir werden jetzt gleich einen kurzen Impulsvortrag hören von Simon Hegelich. Danach erweitern wir unser Panel und anschließend freue ich mich auf möglichst
viele Fragen von euch. Starten wir also mit Simon Hegelich. Er ist Professor an der Hochschule für Politik in München für den Studiengang Political Data Science. Davor war er Geschäftsführer des interdisziplinären Forschungskollegs der Uni Siegen und in Kooperation mit der Hans-Böckler-Stiftung untersucht er jetzt
automatisiertes Personalmanagement. Und wir werden jetzt gleich in einer Simulation erfahren, wie gut denn Programme herausfinden können, ob Mitarbeiter eines Unternehmens das Unternehmen verlassen möchten. Viel Spaß dabei.
Soll ich hier so eins nehmen? Ja. Hallo. Ich bin ja gerade schon vorgestellt worden, Simon Hegelich. Ich bin zum ersten Mal hier auf der Republik und freue mich. Ganz lustig. Ich glaube, ich bin das passt ganz gut.
Also interessanterweise der, der wahrscheinlich einzige Professor in Deutschland, der seine Professur nach seinem Blog benennen konnte. Also Political Data Science. Wenn ihr euch weiter informieren wollt, da stelle ich auch die kleine Simulation, die ich jetzt vorbereitet habe, zur Verfügung. Es geht um Daten, die IBM Watson als Lehrbeispiel ins Netz gestellt hat.
IBM Watson versucht im Bereich Human Resource Management mit Machine Learning as a Service Fuß zu fassen und das an große Unternehmen zu vermarkten. Und da wollen wir uns jetzt mal als erstes ein kleines Video anschauen, wo man fairerweise sagen muss, das habe ich ein bisschen
gekürzt, aber auf dem Blog ist auch das ungekürzte Video verlinkt. Und hören wir einfach mal rein, wie das geht mit Watson.
Ich bin ein HR-Analyst in meiner Firma, also eine meiner Tatsachen ist, welche Faktoren die Mitarbeiter in meiner Firma behalten und welche anderen in die Firma führen. Einmal in Watson Analytics klickte ich an und bräuchte die Spreadsheet mit der Information über meine Mitarbeiter und klickte
auf den Import. Watson Analytics produziert und analysiert meine Daten und zeigt mir einen Qualitätsscore. Dieser Score lässt mich wissen, ob es irgendwelche bedeutenden Irregularitäten in meinen Daten gibt. Der Score hier zeigt, dass ich in meinen Daten sicher bin, also bin ich bereit, andere zu recherchieren.
Die Mitarbeiter, die ich geblieben habe, berichten von Jobrollen. Es scheint, dass jemand in einer HR-Rolle wie ich oder in einer Management-Position eher zu bleiben, als jemand in der Sales- oder Qualitätskontrolle. Jedoch ist ein wichtiges Teil der Information, was ich sehe, ist, dass Mitarbeiter, die auch mehr als 15 Stunden pro Woche arbeiten,
am meisten möglich sind, zu gehen. Diese Insights sehen möglicherweise offensichtlich aus. Die Leute, die viel Zeit arbeiten und nicht bewertet sind, gehen weg. Und die Nutrition in den Sales-Jobs ist höher als in anderen Bereichen. Was Watson Analytics tut, ist, diese Insights in sehr beliebige Weise zu quantifizieren, damit wir mehr
fokussierte Aktien machen können. Ja, so sieht es also aus, wenn man IBM Watson benutzt, um Insights aus Daten zu gewinnen. Man braucht es einfach nur einmal kurz anklicken, zieht es an die richtige Stelle und Watson macht eigentlich den ganzen Rest. Was wir hier gesehen haben, war ein Algorithmus, eigentlich
genauer muss man sagen, einer Klasse von Algorithmen, sogenannte Entscheidungsbäume oder Decision Trees. Und was die machen, ist eigentlich ganz einfach. Die versuchen, den Feature Space, also das, was wir an Daten haben, immer binär zu unterteilen. Das heißt, der Algorithmus sucht an jeder Stelle immer einen Split, wo er sagen kann, wenn ich die Daten hier
unterteile, dann sind auf der einen Seite in unserem Fall jetzt möglichst viele Leute, die das Unternehmen verlassen haben, attrition und auf der anderen Seite möglichst viele Leute, die geblieben sind. Dieser Algorithmus funktioniert top down und gilt als gierig, greedy. Warum gilt er als gierig?
Weil der immer automatisch an jeder Stelle den besten Split sucht, also nicht schaut, was würde passieren, wenn man sich später noch mal der gleichen Variable widmet. Dieses Gierigsein hat ziemliche Folgen. Wenn man sich jetzt die Frage stellt, wie plausibel ist
das, was IBM in diesem Video gerade behauptet hat, nämlich dass Overtime die wichtigste Kategorie von allen ist, die wieder zur Verfügung kam. Ich habe diesen Entscheidungsbaum versucht, nachzubauen. Das ist hier das Ergebnis. Das sieht etwa ähnlich aus wie das, was IBM Watson uns auch gezeigt hat und das Interessante ist jetzt aber,
wenn wir anfangen, das sind die gleichen Daten auch, also das ist ein Trainingsdatensatz, den IBM zur Verfügung stellt, wenn wir jetzt anfangen zu simulieren, was passiert, wenn wir weniger Daten haben, also zum Beispiel einfach immer nur einen Teil der Daten zur Verfügung haben und den gleichen Algorithmus darauf
anwenden und was wir dann sehen ist, dass gerade wenn man auf Overtime achtet, also dass die Position von dieser Variable in diesem Algorithmus sich beständig verändert. Das heißt also dieses Ergebnis ist gar nicht besonders robust. Im Gegenteil ist es ziemlich zufällig. Man hätte das vermeiden können, wenn man einen anderen Algorithmus genommen hätte, wenn man
genau dieses Resampling, was ich gerade in der Simulation gemacht hätte, genommen hätte und über alle diese unterschiedlichen Samples sowas wie den Mittelwert der Bedeutung genommen hätte. Dann wäre aber was ganz anderes da rausgekommen. Das Ergebnis sehen wir hier. Das Ergebnis wäre dann das gar nicht Overtime, die wirklich wichtigste Variable ist, sondern die mit Abstand wichtigste Variable in den ganzen
Daten ist das monatliche Einkommen. Das heißt also, wenn man will, dass die Leute länger in ihrem Unternehmen bleiben, dann sollte man ihnen vielleicht einfach mehr Geld zahlen. Was können wir jetzt damit anfangen? Der Punkt ist, es ist nicht nur so, dass dieser Algorithmus sich sehr schnell verändert, wenn
man weniger Daten nimmt, sondern man kann und das habe ich hier gemacht, einfach dadurch, dass man einzelne Datenpunkte verändert, schon sehr, sehr starke Unterschiede in den Ergebnissen hervorrufen. Also hier immer von einem Bild zum nächsten ist immer nur ein Datenpunkt verändert und auch da sieht man, dass da schon ziemlich viel passiert.
Das heißt aber umgekehrt, dass die Leute, die diese Algorithmen programmieren und auch die, die die Daten pflegen, eigentlich die sind, die auch, früher hätte man gesagt, dass die Leute jetzt dieses neue Kapital Code as Capital oder Data as Capital reproduzieren und wer das reproduziert, hat dann
natürlich auch letzten Endes die Macht darüber, was damit passiert. Man muss natürlich aber allerdings wissen, wie diese Dinger funktionieren und hat mit dem Wissen nicht nur gute Argumente an der Hand, sondern eben eventuell sogar auch die Möglichkeit einzugreifen in diese algorithmischen Entscheidungen.
Das ist das, was ich kurz vorstellen wollte. Vielen Dank. Und wir wollen jetzt unsere Runde erweitern um Katharina Simbek. Sie ist Professorin für Wirtschaftsinformatik an der Hochschule für Technik und Wirtschaft in Berlin.
Hallo und sie leitet das Projekt Digi, das sich mit der Diskriminierung durch künstliche Intelligenz befasst. Außerdem dabei ist heute Matthias Spielkamp. Er ist Gründer von AlgorithmWatch, einer gemeinnützigen Organisation, die untersucht, wie Algorithmen basierte Entscheidungsfindungen sich auf die Gesellschaft auswirken.
Er ist Gründungsmitglied des Online Magazins e-Writes und Vorstandsmitglied bei Reporter ohne Grenzen. Schön, dass ihr alle da seid und vielen, vielen Dank für die erste Einführung. Mikro habt ihr alle? Nein, du brauchst eins noch. Alles klar. Wunderbar. Also wir haben jetzt schon
gesehen, dass diese Algorithmen nicht besonders robust sind. Wenn Daten fehlen, könnte man sie dann theoretisch optimieren, rein rechnerisch. Ja, man kann das auf jeden Fall. Also ich bin wirklich auch nicht dagegen, solche Sachen anzuwenden. Der Punkt ist halt immer nur, dass jede Klasse von Algorithmen
eigene Schwachstellen hat. Und wir haben eben mit den Decision Trees gerade eine Klasse von Algorithmen gesehen. Da ist eine Schwachstelle, dass die nicht besonders robust sind, eine Stärke ist, dass die sehr, sehr gut nicht lineare Effekte zum Beispiel in den Daten finden können. Darum ging es hier jetzt aber gar nicht. Also in jedem Fall wäre Watson einfach viel, viel besser damit beraten, eine stinknormale Regression laufen zu lassen,
hätte man dann auch einfacher interpretieren können. Ich wollte eigentlich nur sagen, wenn man die Schwächen kennt, dann kann man das halt vielleicht auch ausnutzen. Aber jeder Algorithmus hat eben solche Schwächen. Es kommt immer ganz drauf an, welchen man verwende dann. Frau Simek, Sie befassen sich vor allen Dingen mit der Diskriminierung. Unter ethischen Gesichtspunkten, wie gut ist es denn oder wie
schlecht ist es für einen Mitarbeiter, wenn jetzt der Arbeitgeber ausrechnet, OK, die und die Person wird jetzt wahrscheinlich bald das Unternehmen verlassen? Richtig, das ist genau der Punkt. Man kann es zum einen ausrechnen, man kann also ein Prognosemodell auf hoffentlich korrekte Art und Weise erstellen. Aber dann muss man ja
irgendetwas mit dem Ergebnis machen. Ja, und diese Daten, die geben vielleicht eine Prognosegenauigkeit von 90 Prozent her. Also man schafft es vielleicht mit guten Methoden. 90 Prozent der Mitarbeiter richtig zu klassifizieren. Das heißt, in einem Datensatz von 1400 Mitarbeitern habe ich dann immer noch ungefähr 20 Personen als voraussichtliche
Kündiger klassifiziert, die aber wahrscheinlich gar nicht kündigen werden und 100 Personen als voraussichtliche Nicht-Kündiger, die aber Vorhaben zu kündigen. Und was mache ich jetzt mit diesen Informationen? Ja, wenn jemand als voraussichtlicher Kündiger identifiziert ist, gebe ich
dieser Person vielleicht einen niedrigeren Bonus, weil in einem Jahr ist die Person ja gar nicht mehr da. Oder gebe ich ihr ein interessanteres Projekt, damit sie doch eher bleibt. Also irgendwas will ich ja mit diesen Daten jetzt machen. Und da fängt es an, aus meiner Sicht kritisch zu werden, wenn ich jetzt meine Mitarbeiter auf Basis von
solchen Modellen unterschiedlich behandle, insbesondere dann, wenn ich den Mitarbeiterinnen und Mitarbeitern nicht die Gelegenheit gebe, sich zu dem Modell zu äußern. Also stellen Sie sich vor, ich werde jetzt als potenzielle Kündigerin identifiziert und kriege deshalb ein interessanteres Projekt, aber keinen Bonus, erfahre aber nie, woran das eigentlich
liegt, dass ich kein Bonus, aber ein interessanteres Projekt bekomme. Und der Algorithmus, der hat mich vielleicht als potenzielle Kündigerin identifiziert, weil ich so einen langen Arbeitsweg habe. Und genau deshalb habe ich ja eigentlich auch schon meinen Umzug geplant. Also wenn ich gar nicht die Möglichkeit habe, mich dazu zu äußern, dann ist es aus meiner
Sicht ethisch nicht richtig solche Algorithmen anzuwenden und solche Auswertungen durchzuführen. Herr Spielkamp, woher beziehen denn die Unternehmen überhaupt diese Daten? Das können völlig unterschiedliche Quellen sein. Es ist ganz interessant, dass gerade bei diesem Thema
Personalmanagement jetzt so eine große Aufmerksamkeit da ist. Das kommt ja auch dadurch, dass zum Beispiel so ein Forschungsprogramm aufgelegt wird. Aber viele Praktiker erzählen einem dann, wenn man mit denen spricht. Na ja, also in den Unternehmen liegen die Daten halt gar nicht vor häufig. Das soll jetzt nicht bedeuten. Wir müssen uns da keine Sorgen machen, sondern
nach unseren Recherchen jedenfalls ist es so, dass viele Unternehmen bisher schon Schwierigkeiten haben, überhaupt nur ihre Personalakten digital vernünftig zu führen, geschweige denn diese ganzen Daten vorzuhalten, die ein System wie IBM Watson oder andere solche Human Resources Management Tools brauchen, um solche Prognosen zu erstellen.
Die Prognosen sind, kann man glaube ich so allgemein sagen, potentiell besser über je mehr Daten, über je mehr Daten sie verfügen können. Natürlich kommt es dann drauf an. Was sind das für Daten? Sind diese Daten sauber, wie das dann heißt? Also sind die gut erhoben und belastbar und so weiter? Aber da muss man schon sagen, wenn man jetzt einfach nur von den Leuten weiß, wann sie ins Unternehmen eingetreten sind, wie alt sie sind und
also das, was man eben normalerweise auch weiß über seine Mitarbeiter, dann kann man damit nicht viel machen. Und diese Daten aber zu sammeln, die man zusätzlich braucht, das ist gar nicht so einfach. Kleinere Unternehmen scheitern häufig daran, dass sie nicht die Möglichkeiten haben. Solche Software kostet Geld, die Prozesse zu implementieren kostet Geld. Bei größeren Unternehmen ist
es so, dass sie unter Umständen schon zum dritten Mal auf irgendeine andere Software umgestiegen sind und jetzt da irgendwelche riesigen Datenmengen rumliegen haben, mit denen sie nichts anfangen können. Wie gesagt, es geht nicht darum zu sagen, alles kein Problem, aber die Art und Weise, wie Unternehmen diese Daten sammeln, sind halt verschieden. Was viel mit versucht wird, ist zum Beispiel über
Umfragetools das zu machen. Da werden also wöchentlich oder monatlich Mitarbeiter befragt zu bestimmten Dingen, Arbeitszufriedenheit und wie das Team funktioniert und so weiter. Das heißt, es ist viel diese Selbstbeurteilung, die da auch mit einfließt oder nicht Selbstbeurteilung im Sinne von sich selbst beurteilen, sondern die Mitarbeiter beurteilen selber eine Situation und erzeugen dadurch dann auch
diese Daten. Gibt aber auch noch viele andere Möglichkeiten. Einmal die Selbstbeurteilung, der Wohnort, was spielt dann noch alles mit rein, was vielleicht ausgewertet werden kann? Also im Unterschied zu den Daten, die wir ja im Internet über uns preisgeben, ist es ja bei Unternehmen so, dass wir unserem Unternehmen, unserem Arbeitgeber sehr viele Daten preisgeben
müssen, die ja nicht unbedingt, siehe GDPR, für alle möglichen Zwecke verwenden darf, aber im Unterschied zu Facebook weiß unser Arbeitgeber definitiv, wo wir wohnen, wo wir bei der Banken versichert sind, wie viele Kinder wir haben, ob wir verheiratet sind, bei welcher Bank wir unser Konto haben, wie weit unser Arbeitsort von der
Arbeitsstelle entfernt ist, natürlich, wie viel wir verdienen, was unser Lebenslauf ist, welche Weiterbildungen wir gemacht haben, wie viele E-Mails wir am Tagfall senden und an wen, wie lang die im Durchschnitt sind, welche Texte da drinstehen, welche Tickets wir vielleicht bearbeitet haben, wie viele Lines of Code wie im Code Review durchgelaufen sind, also je nach Art der Position und je nach
Art der Digitalisierungsgrad des Prozesses, in dem wir arbeiten, in meinem Fall vielleicht ja die Leerevaluation, die Anzahl der Studierenden in meinen Kursen, die Noten, die ich da im Durchschnitt vergebe und so weiter, also je nach Art des Prozesses sind Arbeitgebern sehr viele Daten über ihre Mitarbeiter bekannt, die, das ist richtig, noch nicht alle an
einem Ort in einer bequem auswertbaren Datenbank vorliegen, das ist ja allgemein bei Data Analytics-Projekten das größte Problem, dass man die Daten erst mal zusammenkriegen kann, dass man die Daten muss, aber Arbeitgeber haben an sich sehr viele Daten über Mitarbeiterinnen und Mitarbeiter und zunehmend werden die auch besser
in Datenquellen vorliegen, die auswertbar sind. Und inwiefern ist der Arbeitgeber berechtigt, diese dann auch entsprechend auszuwerten? Ja, das ist natürlich eine juristische Frage, da bin ich keine Expertin, aber nach dem neuen Gesetz ist es
nach meinem Verständnis nicht möglich, diese individualisierten Daten vollautomatisch auszuwerten, aber ich erwarte eigentlich, dass Arbeitgeber in Zukunft von ihren Mitarbeitern gleich bei der Einstellung, wenn man diese ganzen Formulare ausfüllt, wird man gleich mit ausfüllen müssen, dass man übrigens
zustimmt, dass alle Daten erstens gespeichert und zweitens für alle möglichen auch noch nicht absehbaren Zwecke analysiert werden. Aber vielleicht als kurze Ergänzung dazu, ja, man kann das dann häufig auch wieder nur im Einzelfall beurteilen, das kommt dann auf die Größe des Unternehmens an, ob es einen Betriebsrat gibt und so weiter, weil es dann schon auch sehr unterschiedliche
gesetzliche Grundlagen gibt, also etwa wenn ein Betriebsrat da ist, dann hat er auch ein Mitbestimmungsrecht darüber, welche solche Werkzeuge eingeführt werden, aber natürlich auch nur bis zu einem bestimmten Grad, die müssen verhandelt werden, dann kommt es auf die Verhandlungsmacht des Betriebsrats an, dann kommt es auch drauf an, zum Beispiel, wie sehr der sich mit solchen Systemen
überhaupt auskennt. Da hat es dann häufig auch wieder was Thema Macht mit Machtasymmetrien zu tun, die einfach dadurch entstehen, dass die Leute nicht gut Bescheid wissen. Etwa der Betriebsrat oder die Arbeitnehmervertretung im Allgemeinen hat so viele Aufgaben, dass das jetzt auch noch dann oben drauf kommt und die Leute auch noch zum Beispiel
datenanalytische Fähigkeiten haben sollten oder in der Lage sein sollten, solche Systeme zu beurteilen. Das ist natürlich unglaublich schwierig. Ich möchte aber trotzdem noch mal einen Schritt zurückgehen und sagen, es ist jetzt auch nicht erst mal prinzipiell im Interesse eines Unternehmens schlechte Prognosen zu erstellen, mit Hilfe eines solchen Systems. Ganz im Gegenteil.
Die Frage ist, was bedeutet denn schlecht? Also wenn wir sagen, das hat eine hohe Genauigkeit, dann müssen wir selbstverständlich auch die Frage stellen, die Katharina schon gestellt hat, was macht man denn damit? Und das ist ja viel mehr eine ethische Frage als eine Frage von der Technologie. Also ich muss am Ende dann sagen, ich habe jetzt hier vielleicht ein System, das mir
potenziell eine höhere Genauigkeit gibt als etwa eine menschliche Prognose. Auf Grundlage dieser menschlichen Prognose sind aber früher auch schon Leute gefeuert worden. Sie haben Boni bekommen, sie sind in bestimmte Weiterbildung geschickt worden und so weiter. Wir haben, glaube ich, wieder einen Fall dafür, an dem man durchaus auch zeigen kann, Prozesse, die schon lange stattgefunden haben, werden nochmal neu auf den Prüfstand gestellt, weil solche Systeme eingeführt
werden, was ich sehr positiv finde. Also nicht in dem Sinne von ach, es ist toll, dass es jetzt diese Systeme gibt, sondern es ist toll, dass wir hier sitzen und uns darüber unterhalten. Was sollte denn auf der Grundlage von solchen Prognosen eigentlich gemacht werden und was unter Umständen nicht gemacht werden? Angenommen, Arbeitnehmer stellen jetzt fest, die Algorithmen sind ungenau,
sie sind diskriminierend. Kann man denn tatsächlich Algorithmen bestreiten, Herr Hegelich? Das hat noch niemand versucht, aber ich glaube, das wäre eine ganz interessante Idee, weil wir haben ja, gerade wenn es um die Arbeitnehmervertretung in Tech-Konzernen geht,
sowieso auch ganz andere Probleme noch dabei. Es ist anders organisiert. Früher hat man einfach ein Zettel an einem schwarzen Brett aufgehangen, übermorgen ist Betriebsversammlung und dann waren die Leute da. Das geht heute alles gar nicht mehr. Insofern, wenn man möchte, dass es eine Arbeitnehmervertretung gibt, die auch eine gewisse Macht
entfalten kann, dann muss auch da eben überlegt werden, wie man das umstrukturieren kann, wie man auch neue Techniken nutzen kann und eben halt zum Beispiel genau das, dass es dann halt wichtig ist, dass die Leute, die da am Verhandlungstisch sitzen, überhaupt erst mal über solche Algorithmen Bescheid wissen und nicht in diese Situation kommen, dass das Human Resource Management
ihnen einfach sagt, ne, ne, das ist objektiv. Das hat ja einen Algorithmus gemacht. Nichts ist objektiv an diesen Algorithmen. Das heißt nicht, dass die schlecht sind, sondern man muss halt nur genau wissen, nicht genau, aber zumindest so ungefähr, wie die funktionieren, damit man überhaupt erst mal mitreden kann und dann könnte man sich aber sogar auch tatsächlich Szenarien vorstellen, wo man, ja,
wenn die Algorithmen für sich sind nichts wert, die funktionieren nur so lange, wie es auch Daten gibt, die ihnen zur Verfügung gestellt werden. Wenn ich jetzt weiß, dass ich mit fünf Einträgen in eine Datenbank das ganze System lahmlegen kann, dann ist das vielleicht ja auch eine Perspektive für zukünftige Arbeitskämpfe. Frau Simbek, inwiefern sind denn die
Algorithmen nicht objektiv? Inwiefern können Sie auch diskriminieren? Ja, Algorithmen können aus mehreren Gründen diskriminieren. Zum einen, weil sie vielleicht so programmiert wurden, dass sie diskriminieren, aber der Hauptgrund, weshalb es durch den Einsatz von Algorithmen oder in algorithmischen
Entscheidungsprozessen zur Diskriminierung kommen kann, ist aus meiner Sicht, weil die Daten, die für diese Algorithmen verwendet werden, nun mal unsere Gesellschaft so widerspiegeln, wie sie sind. Also das heißt, wenn ich in der Vergangenheit, wenn ich in meiner Firma eine Situation habe, in der Frauen Anfang 30, wenn sie die ersten ein, zwei Kinder bekommen haben,
kündigen, dann wird auch mein Algorithmus nur zu diesem Ergebnis kommen, dass Frauen Anfang Mitte 30 mit den ersten, nach den ersten ein, zwei Kindern kündigen, und dann werde ich vielleicht anfangen, diesen Frauen wieder den geringeren Bonus, die geringere Gehaltserhöhung und das extra Projekt zu geben, was sicher dazu führen wird, dass der Algorithmus
Recht behält und sie auch kündigen werden. Das heißt, die Daten, mit denen die Algorithmen trainiert werden oder die Daten, mit denen diese Modelle erstellt werden, die reflektieren unsere Gesellschaft. Und dafür gibt es ganz viele Beispiele. Also es ist heute so, dass Gesichtserkennungssoftware beispielsweise besser bei hellhäutigen Menschen funktioniert,
weil sie halt nur mit Bildern von hellhäutigen Menschen trainiert wurde. Wenn man auf Google eingibt, Frauen können nicht oder Männer können nicht, dann werden da lustige Ergebnisse vorgeschlagen, die Google eben von den Nutzerinnen und Nutzern gelernt hat. Kennen Sie da welche? Ja, Frauen können nicht
Auto fahren, können nicht einparken und so weiter. Solche Ergebnisse werden dann vorgeschlagen oder Professoren sind faul oder so, wenn man das sozusagen zur Texte ergänzt. Bei Google? Ja. Das macht es ja mal ein bisschen schwer. Und ich glaube auch, wenn es um Stellenanzeigen geht, gibt es da Probleme, oder? Bei Google?
Also bei Google selbst nicht, aber es gibt in der Tat eine Studie, in der die durch Google, ja, durch das Google-Netzwerk verbreiteten Anzeigen untersucht wurden. Und zwar wenn man
in dem Versuch, der da durchgeführt wurde, wurden durch Computerprogramme viele Nachrichtenseiten besucht, nachdem Jobbörsen besucht wurden. Also das Computerprogramm ist erst auf zum Beispiel Monster.de und dann auf New York Times gegangen, auf die Seite der New York Times, sodass auf der New York
Times Seite eben Stellenanzeigen gezeigt wurden, weil eben das Interesse an Stellen erkannt wurde. Und wenn dieses, ja, wenn dieser Computer mit einem fiktiven weiblichen Konto eingeloggt war, dann wurden schlechter bezahlte Stellen
angezeigt, als wenn der Computer mit einem männlichen Profil eingeloggt war. Das ist eine amerikanische Studie in dem Fall. Sie alle arbeiten in verschiedenen Projekten in Kooperation mit der Hans-Böckler-Stiftung. Herr Hegelich, was ist denn der aktuelle Stand und was haben Sie vor?
Wir haben noch, das war heute der aktuelle Stand. Wir fangen gerade erst an. Wir haben noch nichts. wir, wie das, wie das immer so ist. Nein, was wir, was wir unbedingt noch machen wollen, also, wir haben uns jetzt halt mit dieser IBM Watson-Geschichte als erstes beschäftigt. Das ist auch, glaube ich nicht, es ist natürlich ein bisschen unfair, weil die machen natürlich
auch Sachen, die vielleicht ein bisschen besser sind und es gibt andere, die machen ganz ähnliche Sachen. Da muss man halt noch mal schauen. Wo ich mir sehr viel von verspreche, ist, wir wollen uns anschauen, wie denn dieser Bereich, also, Machine Learning, Data Analytics, gerade im Human Resource Management inzwischen an den Unis angekommen ist. Also, wie werden, hauptsächlich sind es ja
dann BWL-Studenten unterrichtet, an welchen Beispielen, was sie da tolles machen können, mit diesem Zauberkasten Machine Learning. Und das wird bestimmt ziemlich interessant. Und dann wollen wir noch Interviews führen auch noch und schauen, was denn in den Betrieben tatsächlich passiert. Weil mein Eindruck ist halt auch schon, wie du es ja auch schon sagtest, wir reden da auch noch über ein Zukunftsthema, was in der Wirklichkeit
noch nicht flächendeckend angekommen ist in Deutschland, aber kann ja ziemlich schnell gehen. Herr Spielkampf, wann gibt es bei Ihnen Ergebnisse? Ja, das dauert eben bei uns auch lange. Das Projekt ist ja auf zwei Jahre angelegt. Ich glaube, das ist bei uns allen so. Und wir haben erst Anfang des Jahres angefangen zu arbeiten. Das heißt, da kann ich jetzt auch noch keine Zwischenergebnisse verkünden hier.
Aber wir haben ein recht breit gefächertes oder wir haben das recht breit gefächert unser Forschungsfeld. Und wir werden zum Beispiel auch rechtliche Analysen dazu machen, die einen Hinweis darauf geben sollen, welche Möglichkeiten gibt denn zum Beispiel das Betriebsverfassungsgesetz jetzt in Anbetracht auf solche neuen Entwicklungen oder der Datenschutz?
Ja, da versprechen wir uns einiges davon. Denn die Tatsache, dass das eben noch nicht so weit verbreitet ist, führt ja auch dazu, dass es in der Praxis noch gar nicht so viele Fälle gibt, die dann etwa schon vor Gericht verhandelt wurden und so weiter. Da ist man dann eher auf die Analyse von Akademikern angewiesen, die sich das geltende Recht dann eben anschauen und gucken,
was für Potenziale gibt es da. Was wir aber auf jeden Fall eben auch machen wollen, ist, wir wollen nach Möglichkeit bestehende Systeme analysieren. Das ist eigentlich ähnlich, wie das, was Simon eben vorgeführt hat. Und da ist die entscheidende Herausforderung natürlich, an was kommt man überhaupt dran? Viele Unternehmen stellen Testdatensätze zur Verfügung und stellen auch Simulationen
zur Verfügung, aus denen man schon relativ viel entnehmen kann. Etwa, was ist überhaupt das System, was dahinter steht? Ist das ein System, in dem, sage ich jetzt mal einfach so, subjektive Bewertungen objektiviert werden, indem sie in Zahlen überführt werden? Also, ich frage Leute, wie finden sie ihre
Mitarbeiter in dem Team? Und dann vergeben die Leute halt bestimmte Noten, nenne ich sie jetzt einfach mal. Ja, dann ist das einfach erst mal eine subjektive Bewertung. Und hinterher habe ich da Zahlen stehen. Und was dann eben häufig passieren kann, dass diesen Zahlen dann wiederum diese vermeintliche Objektivität zugewiesen wird. Und da einfach auch zu gucken, was bedeutet das in dem Arbeitsprozess? Ich möchte aber schon noch hier noch mal
einen Kommentar geben, zu dieser ganzen Diskussion darüber, wie kann das diskriminieren? Und Katharina hat ein Beispiel. Ich fand das sehr gut, mit den Frauen, wenn sie dann schwanger geworden sind, Kinder bekommen haben und so weiter, dann lernt der Algorithmus daraus. Aber wir müssen uns ja doch immer wieder klar sein, dass am Ende ja die Frage ist, was machen wir denn damit? Und die Vorstellung
im Moment, dass etwa einfach ein Algorithmus oder von mir aus auch ein automatisiertes Entscheidungssystem dann am Ende sagt, diese Person wird jetzt gefeuert. Die ist ja in der Praxis so nicht. Und die wird auch erst mal ganz lange noch nicht so sein. Es gibt schon Systeme, die etwa Bewerber automatisiert rausfiltern. Das heißt, diejenigen, die rausfliegen, die werden schon
einer Art automatischen Entscheidung unterworfen. Diejenigen, die eingestellt werden, die werden schon immer noch angeguckt. Da haben wir das. Aber bei solchen Entscheidungen etwa nicht, wer in einem Unternehmen gefeuert wird. Und da muss man sich ja die Frage stellen, welches Interesse steht denn dahinter? Hat das Unternehmen das Interesse, einfach das Ergebnis dieser Analyse zu befolgen und diese Frauen
rauszuwerfen? Oder hat das Unternehmen nicht viel mehr ein Interesse, rauszufinden, wie wertvoll sind denn diese Mitarbeiterinnen für uns? Und sollten wir nicht eher versuchen, unsere Prozesse so zu ändern, dass die nicht alle gehen? Und damit behaupte ich jetzt nicht, dass die Unternehmen das tun. Damit sage ich nur, das ist eine Entscheidung, die fällt an einer ganz anderen Stelle. Also das ist
immer noch eine Managemententscheidung, die auf Grundlage von solchen Daten halt komplett auch wieder verzerrt ausfallen kann. Da würde ich aber dann vorsichtig sein, die Schuld der Maschine oder dem maschinellen System zuzuweisen. Kann ich ganz kurz einen Kommentar noch dazu sagen? Im Prinzip ist das sehr richtig, aber wir müssen uns
auch klar machen, in dem Moment, wo solche automatischen Entscheidungssysteme eingeführt werden, verändert das auch die Entscheidung, die die Menschen dann nachher mit Hilfe dieser Systeme treffen. Weil ich muss ja, ich habe ja eine viel höhere Hemmschwelle nachher, wenn ich einen Algorithmus habe, ein System, der mir schon gesagt hat, das und das sind eigentlich die Ergebnisse, dem dann zu widersprechen. Oder im schlimmsten Fall
bleibt am Ende der Schlange stehen, aber ist nur noch der Haftungsknecht, der die ganze Verantwortung übernehmen muss, aber selber eigentlich gar nicht mehr die Informationen, diese Entscheidungen nachzuvollziehen. Ich glaube schon, dass sich da viel verändert. Ich bestreite das nicht. Ich sage nur,
gerade in solchen Zusammenhängen wie hier, sollte man sich natürlich immer klar sein, man ist dem nicht hilflos ausgeliefert. Das sagt ihr ja auch nicht, nicht, dass ich euch das unterstelle. Im Gegenteil, ich finde es ist wichtig, das auch immer wieder zu betonen. Wir haben diese Systeme. Wir müssen sie gestalten, einerseits, und wir müssen auch darauf hinarbeiten, dass die Ergebnisse aber dann eben
so interpretiert werden, dass nicht einfach das Ganze als gegeben hingenommen wird. Aber ich behaupte eben weiterhin, das ist auch erstmal nicht per se im Interesse des Arbeitgebers etwa. Dazu ergänzend, vielleicht noch letztes Jahr, ist eine Studie in der Zeitschrift Personal Quarterly erschienen,
in der Deutsche Personale zum Einsatz von HR Analytics befragt wurden. Und einer der Hauptvorteile, die angegeben worden sind für den Einsatz von HR Analytics, war Rechtfertigung von Entscheidungen. Sie selbst haben ja auch schon Interviews tatsächlich geführt mit Unternehmen. Was konnten Sie denn bisher daraus ziehen?
Genau. Ich kann ja vielleicht auch nochmal kurz zwei Sätze gerne zu unserem Projekt sagen. Also auch ich vertrete ein von der Hans-Böckler-Stiftung gefördertes Projekt, nämlich das Projekt mit dem Titel DICKI, Diskriminiert durch Künstliche Intelligenz und wir wollen eben das Diskriminierungspotenzial von HR Analytics untersuchen.
Und unser Ziel dabei ist es insbesondere auch den Akteuren der betrieblichen Mitbestimmung, also Betriebsräten, Handwerkszeug zu geben, wie sie sich verhalten sollen, wenn ihre Arbeitgeber eben solche analytischen Entscheidungsprozesse implementieren wollen.
Und im Moment unterhalten wir uns dazu mit verschiedenen Firmen, mit Anbietern von Software und auch mit Betriebsräten natürlich. Und einige interessante Punkte haben wir natürlich auch schon herausgefunden. Also ein Thema, das betrifft das,
was Simon ganz am Anfang gezeigt hat, ist, dass es sehr stark auf Fähigkeiten, die man neudeutsch als Data Literacy bezeichnet, ankommen wird. Also sowohl meiner Meinung nach bei den Personalern als auch bei allen anderen Empfängern oder Stakeholdern von diesen Informationen.
Also man muss einfach wissen, wie Statistik funktioniert, wie ungefähr diese Algorithmen funktionieren. Und dazu muss man kein Informatiker oder keine Informatikerin sein. Zum anderen ist aus meiner Sicht wichtig zu verstehen, dass dieses Data Mining aus wissenschaftlicher Sicht
nicht zum Erkenntnisgewinn, sondern zur Hypothesenbildung taugt. Also man kann diese Daten, die wir da gesehen haben, sehr gut dafür verwenden, um zu sehen, dass vielleicht Überstunden oder Gehalt Faktoren sind, die die Kündigungswahrscheinlichkeit beeinflussen. Aber diese Daten beweisen das nicht
und die können das auch nicht beweisen. Aus meiner Sicht muss man ganz andere Methoden anwenden, um diese Erkenntnis dann tatsächlich zu festigen. Also beispielsweise kontrollierte Experimente. Und ich finde, wenn es um so wichtige Entscheidungen wie Personalentscheidungen geht, dann sollte man eben auch noch ein bisschen weitergehen als nur Data Mining.
Das heißt, man muss als Betriebsrat oder Betriebsrätin in der Lage sein, hier die richtigen Fragen zu stellen. Man muss wissen, was ist falsch positiv, was ist falsch negativ, was bedeutet eigentlich Korrelation und was ist Kausalität, also die ganzen klassischen Fragen, die wir in der Datenanalyse haben.
Und man muss sich bewusst sein, dass bloß weil etwas aus Daten basiert und berechnet ist, dass es deshalb nicht neutral ist, sondern dass es die ganzen Vorurteile übernimmt, die in den Daten enthalten sind. Und dass auch für solche Arten von Entscheidungen Daten, die eben digital
vorliegen, auch bevorzugt werden gegenüber Daten oder Informationen, die digital nicht vorliegen. Inwiefern ist es denn möglich, diese Vorurteile, die in den Daten stecken, zu bereinigen? Das kommt immer schwer darauf an, mit was für Daten man es dazu tun hat. Also man kann sich zum Beispiel hier
an dem konkreten Beispiel jetzt könnte man sich fragen, möchte man zum Beispiel darauf verzichten, das Geschlecht der Leute überhaupt einzubeziehen in die Analyse? Ob das dann hilft, ist wieder eine andere Frage, weil wir wissen ja auch, dass Geschlecht und Einkommen zum Beispiel sehr stark miteinander korrelieren. Das kann also sein, dass selbst wenn ich
Daten ausschließe aus dieser unstrukturierten Data-Mining-Analyse, dass sie dann nachher trotzdem wieder drin auftauchen, weil der Computer die Muster darin findet und halt ich brauch dem nicht sagen, dass irgendjemand eine Frau ist, der sieht es daran, dass sie weniger verdient. Es ist also sehr, sehr schwierig, was man ein Stück weit machen kann, ist, dass man versucht diese Modelle, aber das ist dann schon sehr
advanced, als generative Modelle zu betreiben. Also dass man versucht, sich sowas wie den Prototyp dessen anzeigen zu lassen aus dem ganzen Algorithmus. Was hat denn der Algorithmus gelernt? Wer kündigt denn jetzt im Unternehmen? Das kann man versuchen, da rauszukitzeln und
dann da wieder darüber nachdenken und schauen, ob das, was der Computer gelernt hat, denn eigentlich gewollt ist, dass das so gelernt wird. Frau Simbek, nochmal kurz zurück zu Ihren Interviews, die Sie bereits geführt haben. Teilen Sie denn den Eindruck, dass solche Programme noch nicht so wirklich zum Einsatz kommen? Was ist da die Rückmeldung
und wo glauben Sie, wäre es denn sinnvoll, Sie einzusetzen? Also heute hier in diesem Saal, glaube ich, hat ja die Arbeitsdirektorin und Vorständin für Personal von Continental einen Vortrag gehalten, in dem sie erwähnt hat, dass sie beispielsweise HR Analytics schon einsetzt. Also es gibt durchaus
Konzerne, die das einsetzen, vielleicht nicht unbedingt für die Belegschaft in Deutschland, zum Beispiel aus Mitbestimmungsgründen, aber auch deutsche größere Unternehmen setzen es ein. Und es ist ganz klar so, dass die Breite der Unternehmen das noch nicht einsetzt, aber je größer das Unternehmen, desto strukturierter
und digitaler liegen auch die Personaldaten vor. Also beim Mittelständler, da liegt die Personalakte im Stahlschrank und also beim global tätigen Konzern, da ist es eben im SAP-System drin, alle Informationen, die praktisch in diesem Datensatz drin waren, den wir heute gesehen haben,
das könnte man praktisch aus SAP ziehen. Herr Spiekamp, Sie haben es vorhin schon so ein bisschen angedeutet, wann machen denn Algorithmen Sinn und wann sollte man eher Menschen einsetzen oder wie sollten die in Kombination auftreten? Ja, also sie treten ja immer in Kombination auf
und da wird sich jetzt auch so schnell nichts dran ändern. Ich würde auch durchaus nochmal darauf hinweisen, wenn wir hier von Algorithmen sprechen, dann ist das natürlich auf eine Art immer metaphorisch. Es geht ja nicht um den konkreten einzelnen Algorithmus, sondern es geht um ein bestimmtes System, das eingesetzt wird, also IBM Watson oder SAP Success Factors oder wie sie
alle heißen, diese Tools. Und die sind ja mehr als einfach nur der Algorithmus. Zum ersten ist relativ klar, es geht immer auch um die Daten, ja, ganz wichtig, also die beiden sind nichts ohne einander, der Algorithmus hat nichts zu analysieren, die Daten sind einfach nur ein Haufen Bits and Bytes, wenn da keine Möglichkeit vorliegt, das auszuwerten.
Aber worauf wir zumindest immer hinweisen und ich glaube, da sind wir uns auch völlig einig, nicht mal das reicht aus, um jetzt zu sagen, wir beurteilen ein solches System, sondern das muss man noch ganz heitlicher tun, denn erstmal ist ja die Frage, will man es überhaupt einsetzen und wenn ja, für welchen Zweck? Also die Unternehmen, die die Software anbieten, die versprechen bestimmte
Dinge und man kann sich wiederum als Unternehmen, das solche Software dann einsetzt und anwendet ja überlegen, was will man denn davon haben und da stimme ich also auch völlig zu. Das ist natürlich verlockend, wenn die einem anbieten, ja, das Ding kann halt eine Abwanderungswahrscheinlichkeit berechnen und das kann also weiß der Kuckuck was. Da muss man einfach sagen, wir, zumindest bis jetzt
haben wir noch den Eindruck, viel von dem, was da versprochen wird, ist eben auch einfach Marketing. Also die versprechen einem auch das Blaue vom Himmel runter, weil sie ja ihre Produkte verkaufen wollen. Und wenn man dann aber überlegt, wie wird das Ganze denn im Betrieb eingesetzt, dann muss man auch schauen, an welchen Stellen sind Menschen beteiligt und welche treffen
dann am Ende welche Entscheidungen. Und da ist es einfach zurzeit so, ein Kündigungsschreiben wird immer von einem Menschen unterschrieben werden. Ob das jetzt bedeutet, dass der dann noch wirklich eine Entscheidung in einem tieferen Sinne getroffen hat oder einfach nur sozusagen den grünen Punkt, der ihm auf
dem Bildschirm angezeigt wird, mit einer Unterschrift besiegelt, das ist eine entscheidende Frage. Und da können wir aber nicht, ich glaube, da kommen wir nicht weiter, wenn wir einfach nur sagen, ja, die Entscheidung muss immer der Mensch treffen, sondern da müssen wir uns das Ganze angucken. Und das ist natürlich schwierig, weil viele Unternehmen sich da ungerne drauf gucken lassen.
Also manche haben einfach, die wollen einfach nicht, dass da viel Transparenz herrscht. Andererseits ist es aber auch so, dass etliche Unternehmen auch ein Interesse daran haben, die engagieren externe Berater, um zu gucken, ob denn das System, was sie da einsetzen, wirklich hält, was es verspricht. Denn das habe ich ja schon mal gesagt. Prinzipiell ist erstmal kein Interesse daran, dass das Ding falsche
Ergebnisse liefert. Es könnte sein, dass irgendein Personalmanager ein Interesse daran hat, dass er eine Entscheidung sich gerne rechtfertigen lassen würde durch das System, die er ohnehin gerne treffen möchte. Aber soll man dann die Software dafür verantwortlich machen? Oder nicht vielleicht doch lieber den Personaler? Aber es ist ja jetzt auch kein großes
Geheimnis, was das Hauptinteresse von Unternehmen ist. Die schauen natürlich erstmal darauf, dass ihre Gewinne stimmen. Dafür sind sie Unternehmen. Und wenn wir uns jetzt vorstellen, die Machine Learning Algorithmen, die eingesetzt werden, die theoretisch eingesetzt werden können. Ich glaube, dass die so gut sind, dass die tatsächlich auch in solchen Bereichen wichtige
Korrelationen finden und irgendwann dann halt auch einfach funktionieren. Und das kann dann in zwei Richtungen gehen. Entweder ich stelle halt fest, in dem Teil von meinem Unternehmen, wo ich Human Resource Management Analytics einsetze, sind die Leute zufriedener, bleiben länger, keine Ahnung was. Und deshalb steigen die
Gewinne. Oder ich stelle fest, ich brauche weniger Leute im Bereich Human Resources. Auch das könnte ja die Gewinne steigern. Aber sobald das einmal irgendwie durchgesetzt ist, dass ich das messen kann, dass das einen wirtschaftlichen Effekt hat, dann sinken natürlich auch die Hemmschwellen total, das einzusetzen. Weil dann kann ich es einfach gegenrechnen.
Dann sage ich, ich gehe davon aus, das spart mir so und so viel Geld ein oder hat einen so und so stark positiven Effekt. Also ich bin ganz bewusst nicht nur auf die Sache drauf, dann sind alle Jobs nachher weg. Das kann in dem Bereich auch passieren. Das trifft dann vielleicht auch mal ein paar andere Leute, als man sonst gewohnt ist. Aber die Triebfeder wird ja schon das ökonomische Interesse sein.
Und das ist bedient, sobald das funktioniert. Ja. Und ich bin der Letzte, der hier den Widerspruch zwischen Kapital und Arbeit infrage stellen würde. Dennoch leben wir in einer Gesellschaft, in der wir es Unternehmen zubilligen, ihren Profit zu maximieren. Und solange das der Fall ist, muss man halt gucken, in welchem Rahmen das Ganze passieren darf. Und
ich rede nicht von einer Interessengleichheit, aber gerade das Beispiel, was du genannt hast. Das Unternehmen hat ein Interesse dran, dass zum Beispiel Leute nicht aussteigen. Weil die Fluktuation kostet Geld. Neue Leute müssen reingeholt werden. Die brauchen Schulung, Wissen geht verloren und so weiter. Da gibt es durchaus
geteilte Interessen. Nämlich, dass Mitarbeiter, die für das Unternehmen wertvoll sind, bleiben. Und Mitarbeiter, die selber gerne, und die Mitarbeiter selber gerne bei dem Unternehmen arbeiten wollen. Natürlich könnte man jetzt versuchen, zu optimieren, wenn man sehr, sehr viel über die Leute weiß. Zum Beispiel darauf zu gucken, was ist denn so die minimale Gehaltserhöhung, die ich jemandem
geben muss, damit er oder sie gerade noch bleibt. Und der Personale hätte vielleicht nochmal 150 Euro draufgelegt, nur um auf der sicheren Seite zu sein. Klar. Aber da muss ich eben einfach sagen, da wissen wir im Moment auch relativ wenig darüber, auf welchen Grundlagen diese Entscheidungen zustande kommen. Und wir haben durch sowas
dann eben auch die Chance, uns das nochmal ein bisschen genauer anzuschauen. Und vielleicht ergänzend dazu auch, also auch für unser Teilthema, diese Diskriminierung. Denke ich auch, dass die allermeisten Unternehmen natürlich nicht diskriminieren wollen, weil die meisten Unternehmen natürlich erkannt haben, dass eine diverse Belegschaft große Vorteile hat. Und
ja, also deshalb denke ich, dass das durchaus im Interesse, so wie du es gesagt hast, der Arbeitgeber auch ist und im Interesse des Unternehmens ist, dass diese Algorithmen richtig eingesetzt werden. Die Gefahr ist nur, dass sie unkritisch eingesetzt werden. Und das ist ja das, was uns alle eigentlich verbindet. Also, weil man nicht
genügend darüber weiß, weil man die Daten nicht interpretieren kann, weil man die Ergebnisse nicht interpretieren kann, weil man schon schlechte Daten von vornherein hat. Wenn wir uns jetzt die Arbeitnehmersicht anschauen oder auch die Sicht von Gewerkschaften, inwiefern können Sie denn Algorithmen vielleicht für sich nutzbar machen?
Das ist ein riesiges Feld. Da muss man eigentlich sehr weit ausholen. Also, es fängt schon damit an, dass die ganze Frage der Kommunikation im Unternehmen natürlich auch was ist, wenn ich ein Unternehmen habe, was jetzt irgendwie auf drei Kontinente verteilt ist und in fünf unterschiedlichen Zeitzonen oder sonst was. Da kann ich über Algorithmen
auch schon meine Kommunikation vielleicht anders gestalten und steuern, dass ich die Leute mehr erreiche. Oder auch solche Sachen, dass ich mir Netzwerksstrukturen in Unternehmen anschauen kann, um zu entdecken, wer sind denn eigentlich die Influencer, die ich wirklich brauche, damit ich dann nachher auch eine gewisse Macht entfalten kann, wenn ich meine Interessen vertreten will. Und dann halt eben
warum bei dem Beispiel jetzt ganz konkret, wenn ein solches Ding einem Betriebsrat vorgelegt wird und das Unternehmen sagt, wir haben doch ein gleiches Interesse, wir wollen doch, dass die Leute bleiben. Und deshalb streichen wir jetzt die, sehen wir zu, dass es weniger Überstunden gibt. Das ist ja häufig auch nicht unbedingt im Interesse der Arbeitnehmer.
Viele wollen ja die Überstunden machen, weil das Gehalt nicht reicht. Könnte in dem ganz konkreten Fall natürlich der Betriebsrat sagen, wir haben eine bessere Idee, erhöht das monatliche Einkommen. Die Analyse ist besser. Dann bedanke ich mich erstmal ganz herzlich, es sei dann, es möchte noch jemand was ergänzen. Ansonsten würde ich jetzt das Publikum bitten,
seine Fragen zu stellen. Ich sehe ein paar Meldungen. Marilyn Seufert. Mir fehlt bei der ganzen Betrachtung jetzt diese Diskussion
zu der Mitarbeiterfokus. Also Sie haben irgendwie gesagt, Sie befragen Unternehmen und der Betriebsrat. Betriebsrat schön und gut. Ich finde, man sollte gemeinsam in Unternehmen den Algorithmus entwickeln. Und vielleicht auch gemeinsam den Anwendungsfall für den Algorithmus. Und da würde mich jetzt interessieren, wenn man jetzt hier viele Überkündigungen gehört, aber ich würde
gerne mal Inspiration oder Ideen hören zu anderen Anwendungsfällen, die vielleicht gemeinsam vom Mitarbeiter, also aus Arbeitnehmer und aus Arbeitgebersicht gestaltet werden können. Und dadurch für beide Seiten positiv ausgehen und gar keine Diskriminierung für irgendeine Richtung darstellen. Das ist meine Frage. Vielen Dank.
Ist ja eher eine Anregung, die mir auch sehr, sehr gut gefällt. Die Schwierigkeit daran ist natürlich, dass wir auch da wieder in erster Linie mal über Interessen sprechen. Und welche Unternehmen jetzt daran an Interesse haben, das müsste man halt konkret rausfinden. Das ist nicht so sehr jetzt Fokus
unseres Forschungsprojekts. Dass das allerdings auch ein Weg sein kann für Betriebsräte, wenn sie zum Beispiel über entsprechende Kenntnisse verfügen, finde ich zumindest ein sehr, sagen wir mal, eine sehr spannende Idee. Vielleicht habt ihr ja sogar in der Praxis das schon mal erlebt. Also wir bisher nicht in unseren
Recherchen, aber die sind ja auch noch nicht so weit gedient. Und dass man da zu interessanten Ergebnissen kommen kann. Also nehmen wir mal das Beispiel Schichteinteilung und wie gut ist die? Führt die zum Beispiel dazu, dass Alleinerziehende besondere Schwierigkeiten haben,
ihre Arbeitszeiten einzuhalten und könnte man da einen Ausgleich schaffen, der fairer wäre für alle, aber natürlich nur mit Zustimmung insgesamt der Belegschaft. Ja, das sind ganz spannende Dinge, in deren Richtung man gehen könnte. Wie gesagt, ist nicht so sehr unser Forschungsschwerpunkt, aber das ist etwas, was die Gewerkschaften, die Stiftung
und wir natürlich auch als diejenigen, die diese Projekte machen, sicherlich mitdenken sollten. Und einen Aspekt an dem, was Sie gerade gesagt haben, fand ich auch noch sehr wichtig, und zwar diese Transparenz. Also gemeinsam entwickeln würde ja dann eben auch im Umkehrschluss heißen, dass man weiß, mithilfe von welcher
Daten welche Entscheidung getroffen wird, oder zumindest welche Vorentscheidung oder Beurteilung getroffen wird. Und das ist etwas, was aus meiner Sicht sehr wichtig ist, dass Arbeitnehmerinnen und Arbeitnehmer und Arbeitgeberseite ja, dass beide eben wissen, was überhaupt analysiert wird. Und das ist nicht im
stillen Kämmerlein passiert. Da stimme ich Ihnen sehr zu. Wir haben noch weitere Fragen. Hallo, mein Name ist Thorsten Kleins. Kurze Frage, Ihre Projekte gehen jetzt alle mehr über Arbeitnehmer, die fest angestellt sind und eher Bürojobs haben, während
ich mir derzeit die Anwendung eher zum Beispiel im Amazon Lager vorstelle, bzw. ich glaube, IBM hatte auch sehr früh so eine Personalplattform, wo eben die IT Consultants weltweit zugeteilt wurden. Wie sieht es also bei solchen Systemen aus, die eben nicht
über Arbeitnehmer, sondern Auftragsnehmer bzw. Produktions- sehr gut überwachbare Produktionsprozesse befassen? Müssen wir auf die anderen von der Böckler-Stiftung geförderten Projekte verweisen. Es gibt da auch einige Teilprojekte, die sich tatsächlich mit dieser
Plattformökonomie, also zum Beispiel diese Fahrrad- Kuriere oder diese kleinteiligen Freelancer-Jobs, die so zugeordnet werden über Algorithmen, damit wir das auch beschäftigen. Aber das ist jetzt von unseren drei Projekten nicht das Thema, aber das ist auch abgedeckt. Ja, könnten Sie das Mikro weiter reichen?
Ich würde Sie gerne fragen, also ich komme aus dem Bereich User Research und Produktdesign, inwiefern Sie mal einen Ansatz von Marktforschern und Sozialforschern betrachtet haben, weil mir kommt das ein bisschen vor wie das, was ich in der täglichen Arbeit seit Jahr noch immer wieder erlebe, dass rein analytische,
rein quantitative Methoden benutzt werden. Sie haben da selber schon kurz darauf hingewiesen, was mache ich denn draus? Quantitative Methoden sind gut, um Ideen zu kriegen, wo es hakt, wo man reinschauen muss, aber sind nichts wert, um zu verstehen, warum die Phänomene bestehen. Das heißt, eigentlich müssten Unternehmen dann anschließend qualitativ forschen, das heißt, mal mit Mitarbeitern reden zum Beispiel, so wie man auch mit Kunden reden sollte,
um herauszufinden, was sind denn die Motivation, was sind die Treiber dahinter, dann kann ich darauf reagieren oder, also dann habe ich erst das Verständnis dafür und ich sehe, also ich habe das Gefühl, dass HR da jetzt heute den gleichen Fehler wiederholt, den man im Produktdesign gerade versucht, in vielen Firmen abzustellen, weil man gemerkt hat, einfache, auf numerischen Auswertungen
basierende, manipulative Ansätze, sage ich jetzt mal, führen einen nur so und so weit und es gibt auch andere Unternehmen, die da halt dann unter Umständen die besseren Wettbewerber sind. Ja, ich würde jetzt den Personalern nicht pauschal unterstellen, dass sie nicht mit den Mitarbeiterinnen
und Mitarbeitern reden. Wir haben natürlich heute diese analytische Herangehensweise diskutiert, aber natürlich ist beides notwendig und ja, natürlich taugen solche analytischen Ansätze eben gerade auch dafür, wie schon gesagt, zum Beispiel Hypothesen zu generieren und ja, also ich glaube, da
stimmen wir Ihnen soweit. Es gab noch weitere Hände, ja? Stichwort Diskriminierung passiert ja nicht seitdem wir Algorithmen oder Maschinen haben und zwar auch an einem anderen Ende, nämlich
bei den Bewerbungseingängen. Und da wollte ich mal fragen, ob Sie auch dahingehend forschen, ob das vielleicht nicht zu positiven Effekten führen kann, wenn ein Algorithmus komplett diskriminierungsfrei sozusagen erstmal die Bewerbung bewertet nach Fähigkeiten oder was auch immer. Genau, also das
könnte natürlich, also das ist ja eigentlich die Hoffnung, dass so eine neutrale, datenbasierte Auswertung natürlich diskriminierungsfreier ist, als wenn ich Daten verwende. Ich könnte da mal ein Beispiel von meiner Hochschule nennen, ja, also wenn wir beispielsweise datengetrieben
Studierende zulassen würden bei uns, in den Informatik Studiengängen beispielsweise, dann würden wir vielleicht, wenn wir so ein Machine Learning Modell bauen, mit den verschiedenen Inputvariablen, die wir nicht vollständig digital vorliegen haben, dann würden wir wahrscheinlich feststellen, dass wir Studierende mit, ich sag jetzt mal
ganz pauschal und platt und diskriminierend mit Arabisch Kenntnissen, die würden wir nicht zulassen bei uns zum Studium der Informatik. Natürlich sind Arabisch Kenntnisse überhaupt nicht hinderlich beim Studium der Informatik. Es ist aber so, dass in den Stadtbezirken in Berlin, wo man auch Arabisch spricht, es leider so ist, dass es im Durchschnitt
statistisch niedrigerer Bildungshintergrund vorherrscht. Die Leute, die dann bei uns studieren kommen, sind vielleicht Bildungsaufsteiger, die waren bei sich in der Schule gut, aber haben vielleicht einen weniger hohen akademischen Anspruch an sich. Das heißt, wenn ich jetzt solche ganz scheinbar neutralen Daten
verwende, um Mitarbeiterinnen und Mitarbeiter einzustellen, kann es trotzdem wieder sein, dass ich das reproduziere, dass ich die gesellschaftlichen Vorurteile reproduziere, die ich in meiner Gesellschaft sowieso habe. Das heißt, ich stimme ihnen zu, es ist eine Chance, es ist eine Möglichkeit, dass wenn ich
mich mehr auf Daten verlasse, dass ich dann weniger Diskriminierung beispielsweise bei Einstellungsprozessen habe. Aber es ist eben nicht automatisch so. Ich muss es auch machen und ich muss meinen Prozess aktiv so aufsetzen, dass er möglichst diskriminierungsfrei und fair
ist. Ich möchte mal ganz kurz was ergänzen. Die Frage wird in Zukunft nicht sein, ob wir das eine oder das andere machen, sondern es wird in allen Bereichen werden Algorithmen und automatische Entscheidungsverfahren eingesetzt werden,
weil sie einfach sehr, sehr gut funktionieren irgendwann. Und die Frage ist nicht, ob wir das wollen, aber die Frage wird nicht sein, wird es eingesetzt oder wird es nicht eingesetzt, sondern die Frage muss eigentlich heißen, wie können wir dafür sorgen, dass der Einsatz davon eben nicht ganz viele dumme Nebeneffekte hat.
Deshalb ist es so wichtig, dass man darüber redet. Aber das macht euch da mal nix vor. Also wir haben technische Systeme, die können tausende von Seiten Text analysieren und da kommt auch etwas Kluges bei raus, wenn die das machen. Also da sind Möglichkeiten drin, die sprengen einfach das, was man
mit menschlichen Einsatz in den Unternehmen bislang hinbekommen hat. Und es gibt leider halt noch wenig Fälle, wo das dann auch wirklich gut funktioniert. Es liegt auch daran, dass eben sehr viel davon geheim gehalten wird, weil es dann Betriebsgeheimnisse sind, wenn man sich anschaut, was bei Google alles gemacht wird, zum Beispiel in dem ganzen Bereich. Aber das ist nicht mehr die Frage, wollen wir, dass das
eingesetzt wird oder dass das lieber der normale Mitarbeiter macht. Sondern wir müssen uns fragen, wie wird es eingesetzt und wie können wir gemeinsam dafür sorgen, dass Nebenwirkungen, die wir alle jetzt schon kennen, dass die nicht uns nachher vom Stuhl hauen dabei.
Jochen Iseke, da bin ich völlig einig. Also ich glaube, die Frage ist ja nicht, haben wir Algorithmen oder haben wir sie nicht, aber die Frage ist doch, wenn wir dem Algorithmus eine dumme Frage stellen, wird er eine dumme Antwort geben. Das heißt, auch die Frage nach Diskriminierung oder Nichtdiskriminierung ist ja nicht einfach eine Frage, diskriminiere ich oder diskriminiere ich nicht,
sondern mich damit auseinanderzusetzen. Was meine ich denn mit Diskriminierung? Was ist es denn, was ich ausgleichen möchte? Was ist denn das gewünschte Ergebnis? Also ich muss doch in Zukunft viel, viel genauer mir Fragen stellen. Was will ich eigentlich wissen? Was will ich eigentlich erreichen? Und wie will ich eigentlich die Zusammenarbeit, wenn wir jetzt über Unternehmen sprechen, zwischen Unternehmen und den Mitarbeitern gestalten,
dass da was Gutes bei rauskommt und erst dann kann ich doch einen Algorithmus, Hypothesen nachverfolgen lassen und versuchen rauszukriegen, ob ich auf dem richtigen Weg bin. Können wir zustimmen, oder? Es gibt noch weitere Fragen. Ich will es mal so sagen, die Hoffnung wäre natürlich schon, dass ein kluges System
kluge Antworten auf dumme Fragen gibt, so wie wir das als Menschen ja auch versuchen. Mal gucken, ob das klappt. Ich habe auch nochmal eine Überlegung zu diesem ganzen Thema. Also Algorithmen, sagtest du ja eben auch gerade, sie werden kommen. Ich stelle mir aber auch immer die Frage nach der
Transparenz, sie ist wünschenswert, aber die eigentliche Überlegung, die ich dabei habe, ist tatsächlich, wie weit entstehen eigentlich durch das Arbeiten Daten, von denen ich als Arbeitnehmer eben überhaupt gar nicht ahne, was damit betrieben wird. Gutes Beispiel, nicht nur im Bereich der Freelancer. Wenn ich jetzt mal sehe, dass ein Mitarbeiter
lange Überstunden gemacht hat und auf einmal weniger Überstunden macht, ist das vielleicht schon durch einen Algorithmus irgendwie ein Anzeichen, dass er irgendwas nicht stimmt. Oder aber auch das Thema mehr Einkommen, das haben glaube ich viele diesen Wunsch, aber wird es nicht vielleicht auch Algorithmen geben, die dann eben sagen, wie wahrscheinlich
ist es, dass dieser Mensch geht, wenn ich ihm jetzt nicht mehr Geld gebe. Also das finde ich eigentlich alles noch viel spannender in dieser ganzen Geschichte. Und da ist eben auch immer die Frage, wie das dann tatsächlich nachher in der Realität lebt. Wie weit wird ein Arbeitnehmer dann tatsächlich mit einbezogen oder überhaupt ahnen, dass da eine Menge Informationen irgendwo gesammelt werden.
Und der andere Punkt ist letztendlich mit Diskriminierung. Ich kenne aus meinem bisherigen Berufsleben auch genügend Personalentscheider, die dann nach einem bestimmten Muster sowieso ihre Auswahl getroffen haben. Manchemal hatte ich echt das Gefühl, dass die auch ein optisches Suchraster erfüllt haben, wenn irgendeine Vakanz war, dass die Nachfolger
sich optisch dem Vorgänger sehr emelten. Auch ein Algorithmus. Das ist dann der natürliche wahrscheinlich. Da hat man das Gefühl, habe ich eine gute Erfahrung gemacht, also wende ich das auf die Bewerber an. Darf ich ganz kurz zu der Datenfrage was sagen? Das ist halt spannend, gerade wenn wir uns jetzt Industrie 4.0, dieses
Marketing-Konzept da anschauen. Es geht ja wirklich darum, dass in Zukunft halt Maschinen selber die ganze Zeit Daten sammeln und erheben. Und dann dreht sich das mit dem Datenschutz auch irgendwann wieder völlig um. Und dann ist es, ich brauche da nicht über die Leute Daten erheben, die ich vielleicht nicht erheben darf, sondern ich weiß ja genau, wann ist die Maschine gelaufen, mit welchem Output,
wie stark war die Strombelastung davon. Ich weiß das heute ja schon, was z.B. sowas wie E-Mail-Server und sowas und da kann ich halt die ganzen Daten erheben, auch wenn ich gar keine persönlichen Daten erhebe. Also, ja, das ist alles Zeug, wo massiv dran gearbeitet wird, dass diese Daten für immer mehr
unterschiedliche Entscheidungsebenen, die früher damit nichts zu tun hatten, zur Verfügung stehen. Das ist eben dieser Wunsch, alle Daten zusammenzubringen und dann am besten halt in so ein System zu schmeißen und kluge Antworten rauszukriegen. Dann bedanke ich mich ganz herzlich, die Zeit ist leider vorbei. Vielen, vielen Dank für diese spannende Runde oder möchten Sie noch ganz kurz was sagen?
Herzlichen Dank, vielen Dank für den tollen Input und für die Zeit und viel Spaß noch auf der Republika. Tschüss.