Please do not disturb!
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Subtitle |
| |
Title of Series | ||
Number of Parts | 21 | |
Author | ||
License | CC Attribution - ShareAlike 3.0 Germany: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this | |
Identifiers | 10.5446/36646 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
re:publica 201816 / 21
10
11
12
16
00:00
HypermediaAlgorithmInverter (logic gate)TINA <Telekommunikation>Algorithm
00:26
Meeting/Interview
01:06
Lecture/ConferenceMeeting/Interview
01:34
AlgorithmObject (grammar)AlgorithmBlack boxGoogle
03:06
AlgorithmComputer animation
03:30
RobotAlgorithmRaum <Mathematik>
04:58
AbteilungSoftware
05:27
Software
05:51
Ende <Graphentheorie>MetadataSystems <München>VERKAUF <Programm>Carry (arithmetic)Lecture/Conference
07:28
MetadataPlot (narrative)AlgorithmKennzahlForm (programming)Systems <München>Decision theoryLecture/Conference
08:44
SpeciesAlgorithmLecture/Conference
09:12
GoogleAlgorithmLecture/Conference
09:44
TINA <Telekommunikation>AlgorithmComputer programSpeicherkapazitätKapazität <Mathematik>Lecture/ConferenceMeeting/Interview
10:34
NumberComputer animation
10:56
AlgorithmSystems <München>Software
11:42
AlgorithmVariable (mathematics)Ende <Graphentheorie>Decision theory
12:49
AlgorithmDistortionSystems <München>Decision theoryBerechnungComputer animation
14:22
AlgorithmStatisticsMicrosoftStress (mechanics)Interface (computing)FacebookInformationStatistikerZuckerberg, MarkBIAS <Programm>Lecture/Conference
17:22
AlgorithmXMLComputer animationLecture/Conference
17:50
AlgorithmAPPELL <Programm>Computer scienceDigitizingDecision theoryArtificial intelligenceLecture/Conference
21:12
outputAlgorithmWritingSequelLecture/Conference
22:41
AlgorithmLecture/Conference
23:13
Point of saleAlgorithmPhysical quantityAutomationHierarchyData conversionLecture/Conference
24:14
AlgorithmCounterexampleMeeting/InterviewLecture/Conference
25:09
Direction (geometry)Digital signalLecture/ConferenceMeeting/Interview
25:49
RandoutputRobotLecture/Conference
26:18
otto <Programmiersprache>
Transcript: German(auto-generated)
00:15
Ja, vielen Dank für die Einführung. Bevor es zum Thema Algorithmen geht, möchte ich ganz gerne
00:21
noch mal auf eine ganz alte Technologie zurück nochmal den Blick darauf lenken und zwar auf Ampeln. Ich gehe davon aus, dass die Mehrheit hier im Saal nicht regelmäßig bei Rot über Ampeln fährt und das hat einen guten Grund, denn Ampeln verkörpern Regeln, wie wir es hier in diesem Video sehen können.
00:42
Das ist die berühmte Shibuya-Kreuzung in Japan. Früher stand hier in der Mitte ein Verkehrspolizist, der uns gezeigt hat, wer wo genau wie über diese Straße, über die Kreuzung gehen darf. Und nun sind diese Aufgaben eben auf Artefakte verteilt, auf Ampeln, Zebrastreifen, sonstige Markierungen und Verkehrsschilder.
01:06
Und das zeigt uns eigentlich, dass das Beispiel, wie sehr wir eigentlich tagtäglich mit Technologien schon in Kontakt sind, das uns vielleicht gar nicht immer bewusst ist und wie sehr wir von ihnen angeleitet werden. Und diese Verknüpfung zwischen Mensch und Technologie oder Artefakten nennen wir in der Wissenschaft
01:24
immer häufiger Soziumaterialität und die besagt, dass Menschen und Dinge untrennbar miteinander verflochten sind. Und wir können quasi nur gemeinsam wirken. Das heißt beispielsweise ist ein Hammer ohne ein Schmied ohne Hammer und ohne Amboss noch ein Schmied.
01:41
Und diese Verwicklung zwischen Mensch und Objekten oder Technologien ist also der Hintergrund, der bestimmt, wie wir leben, wer wir sind zum Teil und wie wir arbeiten. Wenn jetzt Werkzeuge und Technologien schon so einen großen Einfluss haben und wir
02:00
so mit ihnen verknüpft sind, was ist denn jetzt eigentlich das Problem mit Algorithmen? Algorithmen sind anders, ähnlich wie die Ampel, anders als die Ampel, sind sie natürlich nicht an einen Ort oder einen Zeitraum gebunden. Sie sind dann natürlich Handlungsanweisungen zur Lösung eines bestimmten Problems. Und sie sind natürlich interaktiv, das heißt sie speisen sich von uns erzeugten Daten und arbeiten auch an diesen Daten.
02:29
Und wenn wir beispielsweise an Watson denken, dann ist uns auch ganz klar, dass sie sich auch in unterschiedlichen Ökosystemen bewegen können, sich verteilen und offen sind. Und obwohl wir natürlich wissen, dass sie jemand programmiert hat und dass sie
02:42
auch editierbar sind jederzeit, sind sie doch für die meisten von unten eine Blackbox. Sie arbeiten automatisch und vollkommen undurchsichtig. Und wenn man jetzt Leute auf der Straße fragt, wie findet denn Google die Antwort auf ihre Suchanfrage, möchten sie das genau wissen? Dann lautet diese oftmals auch nein.
03:08
Welche Auswirkungen haben Algorithmen nun auf unsere Arbeitswelt? Schwer zu sagen, unsere Arbeitswelt steht ja aus etablierten Konventionen, Praktiken und Technologien. Und dieses Beispiel, dass mobile Technologien unsere Büros leerfügen, das kennen wir alle, das haben wir wahrscheinlich schon erfahren.
03:31
Ich möchte allerdings nochmal aufgrund dieser Undurchsichtigkeit nochmal auf ein sichtbares Beispiel eingehen, das vielleicht die abstrakte Handlungsweise von Algorithmen nochmal verdeutlichen kann.
03:44
Und zwar am Beispiel des DaVinci Robotas. Wie man es auf dem Bild sieht, das ist eine Studie von uns der Gewehr et al. 2013. Die haben sich mal angeschaut, was passiert denn eigentlich, was macht denn so ein Roboter so eine neue Technologie, wenn die in einem OP-Saal landet.
04:00
Man sieht, der Arzt steht nicht mehr am OP-Tisch und operiert direkt. Er ist erst mal am anderen Ende des Raumes und interagiert mit dem Roboter. Das hilft ihm natürlich, weil er nicht mehr, weil das Zittern ausgeglichen wird. Und weil er vielleicht einen kleinen Teil, einen kleineren Teil sieht, den aber viel besser.
04:21
Und auf der anderen Seite, es hilft ihm quasi seine Arbeit zu verfeinern. Zum Teil steckt diese Kompetenz aber auch schon in der Technologie, denn der Roboter kann ja zum Teil auch schon selbst Wunden nähen. Auf der anderen Seite sehen wir die Krankenschwester, die nach wie vor am OP-Tisch steht und plötzlich noch den ganzen Überblick behalten muss. Die hat auch ganz neue Aufgaben, die darf jetzt beispielsweise auch Instrumente austauschen, was sie vorher nicht gemacht hätte.
04:47
Man sieht also, dass es hier zu einer Verschiebung von Aufgaben zwischen Professionen auch kommen kann und dass auch Assistenztätigkeiten aufgewertet werden können durch neue Technologien. Wir haben eine Einführung einer Human Capital Management Software angeschaut in einem Unternehmen.
05:06
Die hat erstmal den Rekrutierungsprozess in einem Unternehmen komplett über den Haufen geworfen. In diesem Rekrutierungsprozess waren ursprünglich acht Personen aus unterschiedlichen Abteilungen beteiligt.
05:22
Und der Vice President H.A. setzte seine Unterschrift drunter und war quasi die letzte Entscheidungsinstanz. Die neue Software war zugeschnitten auf drei Nutzer. Und diese drei Nutzer, von denen gab es eine zentrale Nutzerrolle, die den ganzen Prozess durchleitete.
05:42
Dadurch, dass diese Leitungsnutzungsrolle quasi operative Aufgaben, aber eben auch sehr viele entscheidungsrelevante Aufgaben beinhielt, wurde diese Aufgabe eben diesem Vice President zugetragen. Und da konnte man ganz schön sehen, was passiert denn eigentlich, wenn diese neuen Technologien
06:02
und die Logiken, die sie mit ins Unternehmen bringen, plötzlich nicht mehr so ganz zu dem passen, wie wir unsere eigene Rolle sehen. Der Vice President hat sich nämlich geweigert, eben diese operativen Aufgaben durchzuführen und hat die Leute natürlich vielleicht Kandidaten nicht eingeladen, durch einen Klick zu einem nächsten Interviewtermin.
06:21
Und die Fachbereiche haben sich natürlich gewundert, wo sind unsere tollen Kandidaten hin. Das heißt, es kam zu einem Zusammenbruch von diesem Rekrutierungsprozess. Und letzten Endes wurde dann diese zentrale Nutzerrolle in dem System einem Personalreferent übertragen. Das heißt, wir hatten zunächst ein Headcount Committee mit acht Personen aus dem ganzen Unternehmen.
06:43
Und geblieben ist ein Personalreferent, der viel mehr Entscheidungskompetenzen hatte am Ende. Letztes Beispiel, das ich gerne zeigen möchte, ist, dass wir nicht nur Daten produzieren, sondern auch Metadaten. Und diese natürlich auch genutzt werden.
07:01
Wir haben uns in der Einführung von einem kognitiven System in einem Call Center angeschaut. Das heißt, das System hat Call Center Agenten ein vordefiniertes Verkaufsangebot zur Verfügung gestellt. Und es war natürlich vollkommen klar, dass das System trainiert wurde, mit Kundendaten gespeist wurde und mit Interaktionsdaten.
07:24
Dass allerdings Metadaten von den Mitarbeitern mitgeschnitten wurden, wussten die meisten Agenten eben nicht. Das war eigentlich nicht ganz klar. Und diese Metadaten wurden genutzt, um neue Leistungskennzahlen einzuführen.
07:42
Und die waren natürlich gekoppelt an diese Nutzungsintensität der einzelnen Agenten. Und so hat man quasi diese Verflechtung zwischen Technologie, diese Einspeisung von Daten beschleunigt. Und damit bin ich auch schon wieder am Anfang bei der Einleitung an dieser zunehmenden Verflechtung zwischen Handlungen mit Technologien.
08:05
Und im Fall von Daten ist es jetzt aber so, dass wir die, im Vergleich zu einer Ampel beispielsweise oder zu einem Stuhl, dass wir die gleichzeitig produzieren und konsumieren. Das heißt, ein Algorithmus als unsichtbarer Akteur nochmal am Werk. Und gerade bei entscheidungsrelevanten Systemen oder algorithmenbasierten Entscheidungen müssen wir uns vollkommen bewusst sein,
08:27
dass natürlich alles, alle Handlungen, die wir tun, ständig dazu beitragen, wie wir unsere Welt in zu konformen, sei es Daten oder Metadaten. Und wir können davon abgehen, dass es vielleicht, dass wir alle
08:42
Handlungsoptionen, die uns bereitgestellt werden, nicht nur als gegeben wahrgenommen werden. Genau. So viel erstmal von mir. Wie es mit entscheidungsrelevanten Daten im Personalmanagement vor allem weitergeht, wird Tina Berking jetzt berichten.
09:11
Okay. Okay, alles klar. So. Okay. Also, Algorithmen rechnen aus, wie das Wetter wird.
09:38
Sie lenken Flugzeuge und Autos, sie filtern unsere Suchergebnisse bei Google und sie handeln auch an den Börsen.
09:44
Namensgeber ist der mittelalterliche Zahlengelehrte Al-Jirazmi aus Baghdad, aber der Vater des Algorithmus ist er nicht, denn es gibt eine Mutter. 1843 schrieb Ada Lovelace die ersten Computerprogramme, die ersten Algorithmen im heutigen Sinne.
10:02
Obwohl es damals noch gar keine Computer gab, die gab es erst 100 Jahre später und seither erobern sie die Welt. Und damals werden die Algorithmen vermutlich genauso eingesetzt worden, nur waren die Rahmenbedingungen noch nicht so ganz die richtigen. Heute gibt es Technologien, die es damals noch nicht gab, sie sind günstig, sie haben die Speicherkapazität und die Verarbeitungskapazität
10:22
und vor allem gibt es Daten, Daten auf die die Algorithmen angewendet werden können. Und das nicht wenige. Liegt die geschätzte globale Datenmenge 2016 bei 16 Zettabyte, wird vermutet, dass sie 2025 auf 163 Zettabyte ansteigt. So liegt es nahe, dass Unternehmen diese Daten nutzen, bestmöglich nutzen. Und die meisten Unternehmensbereiche tun dies bereits.
10:47
Was würde ein Finanzbereich, das Controlling oder auch die Marketing Abteilung ohne Zahlen und Daten tun? Vermutlich Kaffee trinken. Und es ist auch kein Geheimnis, dass Unternehmen Daten und Algorithmen einsetzen, um ihren Kunden eine bestmögliche Customer Experience zu bieten.
11:05
Wir wissen alle, wie gut Amazon uns kennt. Das Ganze läuft seit einigen Jahren auch in der Arbeitswelt an. Personalsoftwares basierend auf Algorithmen werden eingesetzt, um Personaldaten aus verschiedenen Systemen zusammenzuführen,
11:22
zu verknüpfen mit internen Daten, mit externen Daten und so neue Muster aufzudecken oder auch neue Wirkungszusammenhänge. Dieser Ansatz, auch People oder Workforce Analytics genannt, wird zunehmend in allen Bereichen des Personalmanagement eingesetzt. Es gibt natürlich viele Chancen und auch Risiken, die werden wir uns gleich nochmal genauer anschauen.
11:42
Vorab ein ganz kurzes Beispiel aus der Karriereentwicklung. Das People Analytics Team von Google hat vor einigen Jahren folgenden Algorithmus entwickelt, um Beförderungsentscheidungen zu berechnen. Und wenn wir genau hinschauen, dann sehen wir, dass der Algorithmus auf drei Variablen basiert.
12:01
Erstens der durchschnittlichen Performance, zweitens der Empfehlung des Managers und drittens der Selbstemfehlung. Aber ist das überhaupt fair, dass der Algorithmus lediglich auf drei Variablen basiert? Wie würden wir entscheiden und basierend auf welchen Kriterien würden wir als Personalverantwortliche entscheiden?
12:22
Vermutlich schauen wir uns an, wie Mitarbeiter XY in der Vergangenheit gearbeitet hat. Wir halten Rücksprache mit dem Manager und wir fragen, ob Herr oder Frau XY überhaupt an einer Beförderung interessiert ist. Und letzten Endes vielleicht auch noch ein bisschen Sympathie oder Bauchgefühl für unsere Entscheidung.
12:44
Und dann sind die Kriterien gar nicht so groß anders als die des Algorithmus. Aber warum interessiert es uns so, dass Algorithmen überhaupt objektiv handeln, wenn wir selbst dazu gar nicht in der Lage sind? Es gibt etliche Studien, die sagen, wir haben lediglich einige Vorurteile, wir haben Verzerrungen oder Sympathien in unseren Köpfen.
13:07
Nur kann man natürlich in unsere Köpfe nicht reinschauen, aber in die Systeme schon. Also warum nutzen wir nicht diese Systeme, um den menschlichen Vorurteilen entgegenzuwirken? Es gibt noch weitere Chancen.
13:20
Und zwar habe ich im Rahmen meiner wissenschaftlichen Tätigkeit mit einigen Unternehmen gesprochen, die Algorithmen im Personalwesen einsetzen oder dies zumindest vorhaben. Und sie hoffen sich folgendes. So, anstatt eine Customer Experience zu schaffen, können wir Algorithmen und Analytics nutzen,
13:45
um eine Employee Experience zu kreieren, also eine Erfahrungswelt für Mitarbeiter. So haben wir endlich eine daten- und faktenbasierte Entscheidungsunterstützung im HR und Personalentscheidungen sind auch langfristig nachvollziehbar. Wir können Ressourcen gezielter einsetzen und wir können Kosten sparen.
14:03
Menschliche Entscheidungen hängen oft ab von der Tagesform oder der Tageslaune und sind somit nicht konstant. So kann der Einsatz von computerbasierten Berechnungen auch korrigierend wirken, wenn beispielsweise menschliche Vorurteile ausgeschaltet werden können. Aber auch Systeme sind gar nicht so konstant.
14:22
Und ich denke, die meisten von Ihnen kennen das Beispiel des Microsoft-Bots, welches manipuliert wurde und rassistische Züge seiner Nutzer übernommen hat. Also bestehen auch Risiken und Gefahren. Die größte Gefahr liegt vermutlich im nativen, naiven Umgang mit Daten.
14:42
Die Komplexität des Themas macht Angst, denn es bedeutet Veränderung. Das Thema Daten und Algorithmen im Personalwesen bildet plötzlich eine Schnittstelle zwischen HR, IT und Data Science, auf die die Unternehmen nicht vorbereitet sind. Aber auch der Datenschutz, Betriebsrat und das Regelwerk rund um die Nutzung von Daten
15:01
macht den Managern Angst, obwohl dies eigentlich eine große Chance sein sollte. Die Ursache muss aber gar nicht nur der Algorithmus sein. Fehlerquellen können sein, unreine Daten, falsche statistische Methoden, Biases in den Algorithmen, falsche Interpretation der Ergebnisse. Also es gibt etliche.
15:20
Dabei muss Ungleichbehandlung nicht mal offensichtlich erfolgen, sondern kann auch indirekt passieren. Und na klar wollen wir fair behandelt werden. Und na klar wollen wir, dass mit unseren Daten gut umgegangen wird. Aber trotzdem sind wir bereit, tagtäglich etliche Daten mit großen Konzernen zu teilen.
15:43
Aber warum eigentlich? Warum tun wir das tagtäglich? Vor zwei bis drei Wochen wurde bei der Anhörung von Mark Zuckerberg bekannt gegeben, dass Facebook pro User 29.000 Data Points besitzt. Und für uns als Einzelpersonen sind die Informationen nicht viel wert,
16:03
weil wir können damit nichts anfangen. Aber für die Unternehmen, die die Informationen clustern und hinterher daraus Ereignisse oder Erkenntnisse daraus ableiten, gewinnen die Daten natürlich erst an Wert. Und wenn wir uns recht überlegen, haben wir überhaupt gar keine Kontrolle, was unsere Daten angeht und wir wissen nicht, was mit ihnen passiert.
16:24
Also passiert das Ganze in einem ungeschützten Umfeld. Wenn wir aber unsere Daten mit Unternehmen teilen, also mit unserem Arbeitgeber, dann ist es natürlich an sich ein geschütztes Umfeld, weil die Europäische Datenschutzgrundverordnung hilft uns und sie gibt uns auch Sicherheit.
16:45
Und es liegt natürlich auch in der Verantwortung des Arbeitgebers, dass er auf jeden Fall rechtliche Aspekte einhält, aber auch ganz unbedingt ethische Aspekte. Sie können beispielsweise zu jeder Zeit, können wir unseren Arbeitgeber fragen und bitten,
17:00
welche Daten gibt es über uns und zu welchem Zweck werden sie genommen. Genau, und wenn es natürlich, wenn der Zweck ist, dass mein Arbeitgeber mir geeignete Weiterbildungen oder interessante Projekte basierend auf meinen Fähigkeiten anbietet, dann finde ich das natürlich gut. Aber wie Sie sehen, habe ich nicht die Antwort auf alle Fragen und Probleme,
17:22
aber ich denke, das Allerwichtigste ist, Bewusstsein schaffen für das Thema und für einen ethischen Umgang mit entscheidungsvorbereitenden Algorithmen und Personalwesen. Danke.
17:40
Vielen Dank. Ja, ich mache es ganz kurz. Vielleicht noch ein paar Anmerkungen aus Sicht eines Wissenschaftlers. Drei Punkte, einmal ganz kurz zum Thema Forschung, einmal ganz kurz auch zum Thema Lehre. Das ist ja auch immer das, was uns irgendwie bewegt. Und aber auch nochmal auf das Praxisthema, so ein bisschen im Sinne von Appell oder Thesenhaftigkeit.
18:04
Zunächst zum Thema Forschung. Ich glaube, was wichtig sein wird in Zukunft noch viel mehr als bisher, dass wir tatsächlich auch mehr Forschung durchführen, die uns hilft zu verstehen, wie diese Algorithmen unser Entscheidungsverhalten in der Arbeitswelt, aber im Grunde genommen natürlich auch im Privatleben, verändern.
18:22
Da sind Anfänge gemacht. Es gibt da ganz viele gute Forschungsprojekte bereits, aber das ist sicherlich noch zu wenig. Und wir dürfen dieses Thema nicht sozusagen der Technik und der Informatik und der Data Science überlassen, sondern das ist ein gesellschaftswissenschaftliches, ein psychologisches Thema, ein soziologisches Thema. Und wir müssen da, glaube ich, insgesamt viel breiter noch denken.
18:42
Thema Forschung war das Thema Lehre. Das Gleiche gilt im Grunde genommen in der Lehre. Diese Ergebnisse aus der Forschung müssen natürlich auch in der Lehre eingebracht werden. Ich denke, wir müssen das Thema Algorithmen, Data Science, künstliche Intelligenz, wie auch immer man das nennen mag, eher mainstreamen. Das heißt, wir brauchen eigentlich in jedem Fach, in jeder Disziplin dieses Thema,
19:04
sodass die Studierenden, wenn sie sozusagen aus den Hochschulen rauskommen, im Grunde genommen einen reflektierten und kompetenten Umgang mit dem Thema erlernt haben und da entsprechend umgehen können. Das wird nicht nur Aufgabe sozusagen von Hochschulen sein, sondern das ist natürlich auch Aufgabe jedes Einzelnen und der Gesellschaft insgesamt.
19:21
Das ist uns, glaube ich, auch klar. Nächster Punkt, Thema Praxis. Vielleicht nochmal auf das HR-Thema. Das möchte ich ganz kurz nochmal aufgreifen. Unsere Beobachtung ist im Grunde genommen, dass die ganzen Versuche in People Analytics, HR Analytics zu gehen, immer nur dann gelingen, wenn das über multidisziplinäre Teams geschieht.
19:43
Das heißt, das ist kein reines HR-Thema. Das ist aber auch kein reines IT-Thema und auch kein reines Data Science-Thema, sondern da müssen alle zusammenarbeiten. Da muss insbesondere natürlich auch das Thema Mitbestimmung mitgedacht werden, sodass wir hier im Grunde genommen multidisziplinäre Projekte haben, um solche Themen anzugehen,
20:01
um sie auch eben insbesondere reflektiert anzugehen, um auch den Blick zu haben für die dunkle Seite der Thematik. Letzter Punkt für die Praxis. Wir haben seit ungefähr fünf Jahren, vielleicht ein bisschen weniger, diskutieren wir, dass die Digitalisierung insgesamt, aber auch das Thema der Algorithmen
20:21
zu einer gewissen Demokratisierung in den Unternehmen führen kann. Wir haben eine große Diskussion zum Thema Augenhöhe, Entmachtung von Führungskräften, mehr Partizipation der Mitarbeiter durch neue Kommunikationsmedien und so weiter und so fort. Was wir aber festgestellt haben, an der einen oder anderen Stelle, dass hier eine Art Machtvakuum aufgegangen ist und dass im Grunde genommen
20:42
Algorithmen in dieses Machtvakuum eingetreten sind und unsere Arbeit kontrollieren und auch steuern. Und hier wäre so ein bisschen der Appell, müssen wir uns tatsächlich auch mal darüber Gedanken machen. Wie können wir hier denn eine gewisse Gegenmacht wieder erzeugen zu den Algorithmen, die unser Verhalten und unsere Entscheidungen steuern?
21:01
Und das ist die Frage, inwieweit es sozusagen eine Mitbestimmung in herkömmlicher Art tun kann oder ob es auch hier neue Instrumente braucht. So, und jetzt glaube ich, sind wir offen für die Diskussion. Vielen Dank. Von meiner Seite auch nochmal vielen Dank Tina, Stefan und Verena.
21:23
Leider sind wir etwas lang geworden, haben noch Zeit für zwei kleine Fragen. Wer hat eine? Da habe ich ja Glück, dass ich das Mikro schon erwischt habe. Ah, da, okay. Frage an Tina. Algorithmen, die die HR-Abteilung steuern.
21:44
Das setzt doch aber bitteschön auch voraus, dass der Input dazu auch wirklich algorithmisierbar ist. Ich denke an Jobbeschreibungen, wie ich sie heute lese. Ich schaue mir Leute an, die daraufhin eingestellt werden. Und das ist oftmals, wie soll ich sagen, oftmals werden die richtigen Leute trotz der Stellenbeschreibung eingestellt.
22:10
Einfach weil sie zum Team passen, weil sie komplementäre Skills haben. Aber sie haben nicht 13 Jahre SAP-Erfahrung, sprechen fünf Sprachen fließend und sind 25.
22:24
Also wie wird dieser Input für die Algorithmen? Wie soll das funktionieren, dass der Algorithmus auch eine Vorgabe bekommt, die halt nicht vom Mond ist? Voraussetzung ist natürlich in jedem Unternehmen, man kann das nicht generalisieren.
22:43
Es kommt auf jedes Unternehmen an und es ist individuell. Und vor allen Dingen kommt es auf die Fragestellung an. Natürlich kann man nicht jede Frage oder jedes Problem in einem Unternehmen mit Algorithmen lösen. Das ist so individuell und der Algorithmus muss auch auf das Unternehmen und auf die Fragestellung passen,
23:02
dass man nicht sagen kann, ok, das hier One-fits-all-Prinzip funktioniert einfach nicht in dem Bereich. Vielleicht kurz Ergänzung, zwei Punkte dazu. Zum einen, natürlich darf man auch die Algorithmen nicht überschätzen. Teilweise, wenn wir über Algorithmen reden, dann sind das ganz, ganz simple Algorithmen,
23:22
ein Matching-Algorithmen zum Beispiel, die im Grunde genommen ganz basales Textmining machen und nur gucken, tauchen in der Bewerbung irgendwelche Begriffe auf, die auch in meiner Stellenbeschreibung auftauchen. Das heißt, so ein Algorithmus wäre nun eine ganz grobe Vorselektion im Grunde genommen und nimmt im Grunde keine große Entscheidung ab, sondern ist allenfalls eine Automatisierung und ein Effizienz-Algorithmus.
23:45
Das ist, glaube ich, ein wichtiger Punkt, den man sehen muss. Eine andere Frage ist sozusagen auch die Anwendung und die Logik, nach der diese Algorithmen dann tatsächlich in der Organisation genutzt werden. Das spielt so ein bisschen auf das Thema ein, wir haben ja immer noch Hierarchien usw., was Sie vorher auch schon angemerkt haben.
24:02
Hier ist es so, dass es natürlich preskriptive Algorithmen gibt, die auch so gelebt werden. Das ist jetzt sozusagen die Entscheidung-Alternative und die muss dann auch gewählt werden. Die Agiler sagen ja in der Regelfall, das ist nicht so der Fall, sondern am Schluss gibt es eine Letztentscheide und das ist meistens der Mensch noch. Das ist auch vielleicht nun mal ein bisschen die Erklärung, wie man eigentlich Algorithmen dann nutzen kann und nutzen sollte.
24:26
Für eine sehr kurze Frage haben wir noch Zeit. Peter Kelz. Hallo, hört man mich? Peter Kelz von der Hochschule Luzern. Herr Kaiser, Sie haben eben davon gesprochen, dass es in Zukunft darum gehen wird, auch eine Gegenmacht wieder aufzubauen.
24:41
Gibt es denn schon erste Ideen dazu oder auch empirische Beispiele, wo man sieht, dass Algorithmen im Rahmen von People Analytics auch ein Stück weit demokratisiert werden in solchen Firmen, die ja auch sehr stark auf Eigenverantwortung setzen und das Machtvakuum in dem Sinne positiv gefüllt werden kann?
25:05
Also ich vermute mal ganz stark, dass es diese Gegenbeispiele gibt und diese guten Beispiele. Ich kann Ihnen jetzt aber gerade keines nennen, was ich Ihnen sagen kann, dass es natürlich Forschungsbemühungen in die Richtung gibt. Die Frage, wie sieht Mitbestimmung aus in der digitalen Welt? Draußen in der Halle ist zum Beispiel der Hans-Böckler-Stand aufgebaut, die ganz intensiv Forschungsprojekte zu diesen Themen auch fördern.
25:26
Auch die Kollegen, die gerade vor uns hier präsentiert haben, ich weiß nicht, ob Sie alle das gesehen haben, forschen in dem Bereich und stellen die Frage, wie muss Mitbestimmung sich selber digitalisieren, um tatsächlich dann eine Gegenmacht zu sein an der Stelle und das wird durchaus bearbeitet.
25:44
Aber ich kann Ihnen jetzt kein konkretes Beispiel nennen. Dafür ist sicherlich Platz in anderen Situationen. Die drei sind nach hier, das heißt, wenn ihr ein Thema vertiefen möchtet, könnt ihr sicherlich noch angesprochen werden. Vielen Dank für eure Zeit und für den interessanten Input.
26:04
Wir machen hier jetzt eine Viertelstunde Pause und danach wird es um das Thema gehen, wer die juristische Verantwortung trägt, wenn sich Roboter daneben benehmen. Bis gleich.