Die Algorithmen, die wir brauchen
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 234 | |
Author | ||
License | CC Attribution - ShareAlike 3.0 Germany: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this | |
Identifiers | 10.5446/32981 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
00:00
AlgorithmAlgorithmStatement (computer science)Scientific modellingCodeComputer animationJSONXMLUMLLecture/ConferenceMeeting/Interview
00:57
CodeAlgorithmScientific modellingProgrammer (hardware)Systems <München>Lecture/Conference
01:20
Programmer (hardware)Systems <München>GoogleLecture/Conference
01:51
iPhoneTOUR <Programm>Limit (category theory)iPhoneLink (knot theory)iPadApple <Marke>Systems <München>SpeciesLecture/ConferenceComputer animation
02:37
GoogleiPhoneApple <Marke>Systems <München>Lösung <Mathematik>Eigenvalues and eigenvectorsGoogleCodeRaum <Mathematik>AlgorithmBlogData modelLink (knot theory)Meeting/InterviewComputer animationLecture/ConferenceXML
03:34
Plane (geometry)CodeMeeting/Interview
04:03
Systems <München>Plot (narrative)Search engine (computing)Computer animation
05:06
EnergiebereichGeometric primitiveWhiteboardTransmitterEnergieWorkstation <Musikinstrument>Physical quantitySystems <München>CW-KomplexComputer animationLecture/ConferenceMeeting/Interview
05:38
Systems <München>HöheComputer animation
06:10
Systems <München>Moment (mathematics)AutomatonMeeting/Interview
07:15
MittelungsverfahrenLecture/Conference
07:41
ForceInformationPhysical lawAutomatonSystems <München>Lecture/ConferenceMeeting/Interview
08:50
Social classComputer animationMeeting/Interview
09:31
Computer animation
10:00
Systems <München>Computer animationMeeting/Interview
10:38
Systems <München>CW-KomplexDiagramComputer animation
11:17
GoogleQuery languageSystems <München>Search engine (computing)Plot (narrative)PositionLecture/ConferenceMeeting/Interview
12:36
Systems <München>Route of administrationFacebookBindung <Stochastik>Lecture/ConferenceMeeting/Interview
14:18
Direction (geometry)Systems <München>Plot (narrative)Lecture/ConferenceMeeting/Interview
14:54
Systems <München>
15:18
Moment (mathematics)Systems <München>Process (computing)CodeMeeting/Interview
16:14
Systems <München>Lernendes SystemInformationApple <Marke>Computer animation
17:21
Systems <München>Meeting/Interview
17:58
ZahlValidationSystems <München>MittelungsverfahrenLecture/ConferenceMeeting/Interview
19:44
RankingConcurrency (computer science)Computer animation
20:08
Stress (mechanics)Systems <München>Continuous trackLecture/ConferenceMeeting/Interview
21:27
Systems <München>CarriagewayComputer animation
21:57
Series (mathematics)Video trackingComputer animation
22:21
Form (programming)SoftwareSystems <München>Lecture/ConferenceMeeting/Interview
23:07
CodeSystems <München>Plane (geometry)CodeComputer animationLecture/ConferenceMeeting/Interview
23:51
Norm <Mathematik>PILOT <Programmiersprache>Lecture/Conference
24:27
AlgorithmLengthLecture/Conference
24:52
HypermediaAlgorithmFacebookGroup decision makingCodeLecture/ConferenceMeeting/Interview
26:50
RankingLecture/Conference
27:18
Meeting/InterviewLecture/Conference
27:42
ZugriffMeeting/Interview
28:53
Lecture/ConferenceComputer animation
Transcript: German(auto-generated)
00:21
Hallo, schönen guten Nachmittag. Wenn ich von Algorithmen spreche, dann geht es mir um einen politischen Begriff von Algorithmen, der nicht nur den technischen Teil der kodierten Anweisungen umfasst, sondern viel umfassender ist. Da geht es einerseits um die Daten,
00:43
also um welche Ausschnitte der Welt werden erfasst und wie. Da geht es um die Modelle, das heißt, wie werden Komplexe, oftmals mehrdeutige Situationen und Ziele übersetzt in eine Sprache, die dann modelliert werden kann. Da geht es natürlich um die Kodierung im engeren
01:01
Sinne, also das, was die Techniker unter Algorithmen verstehen. Und dann geht es aber auch noch um Institutionen, um Programme und Praktiken, in die diese Systeme eingebettet sind. An all diesen Stellen, den Daten, den Modellen der Kodierung und den Institutionen
01:21
sind Menschen involviert. Es sind also die Vorstellungen von autonomen Systemen, die da irgendwie vor sich selbst irgendwie aus unserer Kontrolle entgleiten, die halte ich für falsch. Auch die intelligentesten Systeme zeigen, dass sie eben eingebettet
01:40
sind in ganz spezifischer Programme und Programmatiken. Ich gebe Ihnen ein kleines Beispiel. Wenn Sie jetzt Google fragen, how can I jailbreak my iPhone, dann kriegen Sie als obersten Link, guide my jailbreak, jailbreak guide, how to jailbreak iPhone,
02:00
iPad und IOS. Der nächste Link ist dann the complete to finish, start to finish iPhone jailbreak guide, also so ungefähr die Dinge, die man erwarten würde. Wenn Sie jetzt dieselbe Frage Ihrem iPhone auf Apple Siri stellen, kriegen Sie als Antwort I can't recommend that. Nun das ist kein, und hier zeigt sich doch eindeutig, dass
02:27
diese intelligenten Systeme immer in gewissen Grenzen operieren und diese Grenzen, die wurden für Sie gesetzt. Und eindeutig soll Siri eben nicht sie dazu ermutigen,
02:42
ihr iPhone vom DRM zu befreien. Das ist jetzt kein spezifischer Apple Problem, sondern allgemeines Problem. Alle solche Systeme finden die Lösungen, die sie durchaus teilweise autonom finden, aber sie finden diese Lösungen immer nur innerhalb eines
03:01
Raums, der ihnen zugewiesen wurde. Wenn Sie jetzt etwa Google fragen, how to protect my personal data from Google, dann ist der erste Link der Eintrag in Googles eigenem Blog, how Google keeps your data safe. Nicht unbedingt das, was Sie erwartet haben für diese Frage. Die vorhin angesprochene Mehrdimensionalität von Algorithmen, also
03:38
Handlungsmöglichkeiten eröffnet. Wenn ein Problem nicht auf einer Ebene angegangen
03:43
werden kann, etwa weil der Code nicht zugänglich ist, dann sind immer noch die anderen Dimensionen vorhanden, auf denen man versuchen kann Einfluss zu nehmen. Man muss also nicht immer Zugang zum Code haben können, man muss also nicht immer den Code lesen können, um ihn zu regulieren. Das ist insofern wichtig, weil wir brauchen
04:05
algorithmische Systeme, wir brauchen neue Handlungswerkzeuge, um die komplexen Probleme, die unsere Gesellschaft immer stärker prägen, steuern zu können. Auch wenn sich aktuell natürlich die schlechten Nachrichten häufen und der
04:22
Überwachungskapitalismus überhand zu nehmen droht, so können wir nicht zurück. Wir brauchen intelligente Systeme, wir brauchen viel intelligentere Systeme, aber wir brauchen bessere, wir brauchen viel bessere. Niemand will bei aller Kritik an Suchmaschinen und Filterblasen und ähnlichem ernsthaft zurück in die Welt der Zettelkataloge.
04:45
Das ist nicht nur absolut unpraktisch und würde viele Dinge verunmöglichen, sondern auch die Vorstellung, dass ein zentrales Komitee entscheidet, was in den Zettelkasten soll und was nicht, ist hochgradig unattraktiv. Ebenfalls klar ist, dass wenn wir weg
05:03
wollen von umweltzerstörenden und demokratieschädigend zentralisierten Infrastrukturen, ganz besonders im Energiebereich, dann brauchen wir intelligente Anlage. Die statt eines relativ primitiven Broadcast Modells, das heißt ein Sender, eine große Energiestation, viele Empfänger, viele Entverbraucher, ein intelligenteres,
05:24
komplexeres Many-to-many Modell, in dem jeder ein Sender und jeder ein Empfänger von Energie sein kann, ermöglichen. Aber das ist eben viel komplexer, wie einfach nur Brandkohle zu verbrennen und braucht intelligente adaptive Systeme.
05:41
Was mich jetzt hier besonders interessiert, ist, dass algorithmische Systeme die Handlungsfähigkeit erweitern und damit immer auch eine Grundlage gesellschaftlicher Macht darstellen. Wie können wir diese Macht steuern? Wie können wir diese Macht lenken, sodass sie uns erlaubt, die Probleme anzugehen auf der Höhe der Komplexität,
06:03
auf der sie sich stellen, ohne dass wir damit völlig neue Konzentrationen von Macht auslösen. Es geht letztlich darum, ob wir in einer freiheitlichen oder in einer autoritären Gesellschaft leben werden. Die Infrastrukturen spielen hier eine große
06:20
Rolle. Der Zeitpunkt, das zu diskutieren, ist günstig im Moment, weil zum einen haben sich algorithmische Systeme, auch wenn man die Presse, die sehr aufgeregt immer darüber berichtet, einen anderen Eindruck vermittelt, diese algorithmischen Systeme sind in Deutschland und in post-Brexit Europa noch nicht sehr verbreitet. In den
06:43
USA und in England etwa werden 70 Prozent aller großen Unternehmen lassen die Bewerbungsunterlagen, wenn sie einen Job, falls es dennoch gibt, falls sie Jobs ausschreiben, lassen die eintreffenden Bewerbungsunterlagen zuerst durch eine
07:02
algorithmische Vorsortierung laufen, bevor sie überhaupt jemals ein Mensch liest. In Deutschland sind das knapp sechs Prozent erst. Automatische Gesichtserkennung, die Überwachungskameras mit Polizeidatenbanken, Abgleis gibt es in Deutschland erst an rund sieben Flughäfen. Das heißt, wir
07:23
sind hier noch relativ am Anfang eines Problemes und es besteht die Möglichkeit, Richtlinien zu setzen, bevor die Probleme tatsächlich weit verbreitet sind. Dazu kommt, dass die neue EU-Datenschutz-Grundverordnung
07:40
gibt uns neue Mittel an die Hand in der Auseinandersetzung um diese Systeme. Artikel 12, 13 und 14 legen fest, dass es hier bei automatischer Entscheidungsfindung aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer
08:01
derartigen Verbreitung für die betroffenen Personen erklärt werden müssen. Der zentrale Begriff ist hier aussagekräftig, wobei was er genau bedeutet, werden die Gerichte festlegen müssen. Aber die Ausrede, das ist zu
08:20
komplex, das können wir nicht erklären, das ist proprietär, zumindest nach der Idee dieses Gesetzes, gilt da nicht mehr. Wir werden das sehen, wenn es in einem Jahr dann EU-weit in Kraft tritt, ob es hier eine Möglichkeit gibt, über diese Auskunftspflicht neue Transparenz zu schaffen und die ist notwendig, weil wir diese Gedanken, weil wir diese
08:45
Algorithmen, diese Systeme einhegen müssen und auf positive Ziele ausrichten. Wenn wir uns überlegen, wie wir das machen wollen oder können, haben wir das Problem, dass das Feld, über das wir sprechen, extrem weit ist. Um das so ein bisschen zu strukturieren und einzugrenzen,
09:06
schlage ich vor, es sind drei Klassen zu unterteilen. Sie werfen jeweils unterschiedlich schwierige Probleme auf. Fangen wir mit dem relativ einfachen Problem an, mit Maschinen, die Maschinen steuern. Hier geht
09:20
es um komplexe Infrastrukturen, deren Handeln für die Nutzer und Nutzerinnen relativ klar sichtbar ist. Nehmen wir etwa das vorhin schon angesprochene intelligente Energienetz, dass sowohl die Einspeisung wie auch die Entnahme von Strom dynamisch regeln. Für den Nutzer ist
09:40
die Komplexität, die im Hintergrund abläuft, relativ egal, denn er kann problemlos sehen, ob Strom da ist, wenn er den Schalter anmacht, wie viel er bezahlt und ob der Strom, den er selber produziert, abgenommen wurde. Auch politisch bewegen wir uns hier in relativ konventionellem
10:04
Bereich, denn es geht nur darum, die Eckwerte eines solchen Systemes festzulegen, etwa in Bezug auf die Preise oder den Datenschutz und wie das System sich dann selber regelt, können wir getrost sozusagen dem System selbst überlassen. Wir sind hier also noch in einem relativ
10:25
klaren politischen Problem, aber wenn wir uns sehen, viele von Ihnen haben diese Smart Meter verfolgt zu haben, dann sieht man, dass auch so ein vermutlich klares Problemfeld in der Praxis extrem schwierig ist, weil der
10:44
Einfluss des Lobbings auf die politischen Entscheidungen so groß geworden ist und die meisten Politiker sich mit der Politik der Technologie überhaupt nicht auskennen. Aber dass es eine Kontroverse gibt, dass es möglich ist, diesen Smart Meter mal aufzuschreiben und zu
11:02
sehen, dass er gar nicht so smart ist, das ist noch ein gutes Zeichen. Das zeigt noch, dass wir in einem verständlichen Problemfeld sind. Komplexer ist es schon bei Maschinen, die mit Menschen integrieren. Ich denke hier an all diese Systeme, die erst dann in Gang kommen, wenn Menschen mit ihnen interagieren, etwa indem sie auf Google oder sonst
11:23
irgendwo eine Suchabfrage stellen. Hier haben wir das Problem, dass es oftmals unklar ist, wie diese Systeme agieren und wie wir ihren Output bemessen sollen. Im Unterschied zu Systemen wie den eben erwähnten Smart Grids ist die Nutzerposition schwächer, weil er oder sie überhaupt
11:45
keine klaren Kriterien verfügt, die die Handlungen des Systems zu beurteilen. Und es ist oft auch objektiv gesehen gar nicht möglich, zu sagen, was jetzt hier die ideale Handlung ist und ob ein System gut funktioniert. Umso wichtiger wäre es, verschiedene Systeme vergleichen zu
12:04
können. Es ist absolut unmöglich zu sagen, was die bestmögliche Suchabfrage ist. Das können wir nicht wissen. Wir kennen den Problem, den Problem Space sozusagen nicht. Und wir können nicht sagen, ob eine
12:21
Suche jetzt wirklich unsere Frage beantwortet oder nicht. Aber es ist relativ einfach zu sagen, ob Suchmaschine A besser ist als Suchmaschine B. Das heißt, wenn wir eine Black Box nicht öffnen können, so müssen wir wenigstens in der Lage sein, verschiedene Black Boxes
12:41
miteinander zu vergleichen. Das genau ist aber das Problem bei Maschinen, mit denen wir schon gar nicht mehr interagieren, sondern die Welt für uns produzieren. Das sind eben Systeme, die nicht auf unsere Interaktion warten, nicht mit uns sozusagen direkt interagieren, sondern
13:02
im Hintergrund einfach kontinuierlich ablaufen und die Welt hervorbringen, so wie wir sie dann vorfinden und in der wir uns dann orientieren müssen. Hier gibt es keine Vergleichsmöglichkeiten. Hier sind wir einfach mit Resultaten konfrontiert, von denen wir überhaupt
13:20
nicht wissen, inwieweit sie überhaupt vorbereitet durch algorithmische Systeme bearbeitet wurden. Ein relativ offensichtliches Beispiel ist der Facebook News Feed, der natürlich, wie wir alle wissen, nicht auf eine Suchanfrage wartet, sondern einfach vorsortiert, was wir zu sehen bekommen. Und wir haben auch überhaupt keine Möglichkeiten,
13:42
hier eine andere Suche oder eine andere Sortierung zu machen, weil es keinen vergleichbaren Fall B gibt. Viele Smart City-Applikationen, die die Stadt mit Sensoren erfassen, sollen eben auch in ähnlicher Weise im Hintergrund ablaufen, am besten noch autonom und so,
14:02
dass die Benutzer nie mit ihnen interagieren. Wir wissen oftmals überhaupt nicht, ob sie überhaupt agieren, ob diese Systeme überhaupt irgendwas machen, und wenn sie irgendwas machen, was sie dann machen.
14:20
Vor dem Unterschied dieser höchst unterschiedlichen Situationen muss man mehrere Maßnahmen ergreifen, also zumindest mal in die Richtung denken, um sicherzustellen, dass die neuen Handlungsmöglichkeiten dieses Systeme im Interesse aller eingesetzt werden. Weil was wir brauchen, ist eine Infrastruktur für individuelles und kollektives
14:43
Handeln in komplexen Situationen. Dafür brauchen sie mindestens drei Eigenschaften, die sie heute meistens nicht haben. Je lokaler Systeme sind, ganz allgemein gesprochen, desto besser ist die Chance, politisch als Gesellschaft auf sie Einfluss zu nehmen.
15:04
Als eine Faustregel könnte man sagen, Systeme sollten in der Juristikation angesiedelt sein, in der auch die Menschen leben, die von ihnen betroffen sind. Das ist auch ein Grund, warum wir uns gegen Schiedsgerichte à la TTIP wehren müssen, weil sie genau
15:22
dieses Prinzip ausholen. Offenheit, sowohl was den Code, aber auch was die Daten betrifft, macht es einfacher, Prozesse lokal anzusiedeln und zentralistische Konzentrationen, die im Moment,
15:42
sozusagen diese Branche und diesen Bereich prägen, dem etwas zugegenzusetzen. Diese Betonung auf lokalen, auf offen ist das, was im Moment die aktuelle Stadtregierung von Barcelona technologische Souveränität nennt. Und es ist etwas, das ich glaube, ganz, ganz grundsätzlich ist, wenn wir
16:01
irgendeine Chance haben wollen, als Gesellschaft auf diese Systeme einzuwirken, müssen wir sie in den Bereich bringen, den wir auch gestalten können, über Parlamente, über Gesetzgebung und andere Bereiche. Oftmals ist es wichtiger, zu wissen, nicht, wie ein System eine Entscheidung
16:25
im Einzelfall zustande gekommen ist. Das lässt sich in dynamischen und selbstlernenden Systemen oft sehr schlecht sagen. Aber es ist wichtiger, deshalb zu wissen, was ein System grundsätzlich kann. Wir müssen
16:42
die Umrisse des Möglichkeitenraums kennen, in denen dann ein intelligentes System selbstständig die Lösung sucht. Finden wir es etwa akzeptabel, dass Siri sich weigert, mir in gewissen Fällen Auskunft zu geben? Ich muss dafür nicht wissen, wie Siri funktioniert. Ich muss
17:01
einfach sehen, dass das hier von Apple oder wer immer das System konzipiert, gewisse Grenzen gesetzt werden, über die das System nicht hinaus kann, nicht hinausgehen darf, auch wenn es im Grunde einfach wäre, die passende Information zu finden. Hier kann uns die neue Europäische
17:25
Datenschutzgrundverordnung, falls Sie die Gerichte stark auslegen und falls es wirklich diese Auskunftspflicht praktisch relevant wird, von großem Nutzen sein, um den Möglichkeitenraum dieser Systeme besser kennenzulernen. Ein ganz wichtiger Punkt ist, dass
17:42
diese Systeme, die müssen falsifizierbar sein. Das heißt, es muss möglich sein zu sehen, dass diese intelligenten Systeme objektiv, wie sie anscheinend sind, falsch entschieden haben und entsprechende Korrekturen einzufordern. Sonst besteht die Gefahr, dass falsche Annahmen sich verfestigen. Man denke
18:02
nur etwa daran, wie die erhöhte Polizeipräsenz, die durch Predictive Policing in gewissen Gegenden eingeführt werden kann, fast zwangsläufig dazu führt, dass eine höhere Zahl von Straftaten festgestellt worden ist. Das heißt nicht, dass
18:20
die mehr Straftaten begangen werden können, aber dass natürlich mehr Polizeipräsenz, mehr Straftaten feststellen kann und damit zu einer Selbstvalidierung eines Systems führt. Oder ein anderer Grund, warum Systeme falsifizierbar sein müssen, ist, dass die Gefahr besteht, dass
18:40
die Diskriminierung einzelner durch solche Systeme zunimmt. Es reicht aber nicht, einfach nur feststellen zu können, dass ein System falsch liegt, sondern es müssen auch Mittel bereitgestellt werden, etwa im Bereich durch
19:01
Schadensersatz gegen Diskriminierung und falsche Systeme vorzugehen. Sonst bleiben die Kosten immer nur auf der Seite der Betroffenen, aber nie sozusagen auf der Seite der Täter hängen. Das ist jetzt aber zunächst einmal Dinge, die wir wollen von algorithmischen Systemen,
19:24
die wir haben. Aber eigentlich ist das viel größere Problem, dass es notwendig ist, dass wir diese Ziele, also dass wir diese Handlungspotenziale, die in diesen Systemen drinstecken, auf andere Ziele ausgerichtet
19:41
werden. Die meisten Systeme heute sind geprägt durch ganz klassisches neoliberales Denken. Das heißt, sie betonen die Unterschiede zwischen den Menschen, sie setzen auf Vergleichbarkeit und Konkurrenz, indem sie Rankings erstellen, bei denen es immer besser ist, möglichst weit oben zu stehen
20:02
und sich relativ zu anderen zu verbessern. Wir brauchen aber dagegen viel mehr Systeme, die das gemeinsame zwischen den Menschen hervorheben, die uns erlauben, als Gruppe zu handeln und nicht mehr einfach nur als Einzelne, deren Einzeltaten dann hinter
20:21
ihrem Rücken irgendwie aggregiert werden. Anstatt endlos die individuelle Gesundheit zu optimieren durch irgendwelche Fitness Trackers und ähnliches, sollten intelligente Systeme helfen, kollektive Probleme wie Luftverschmutzung oder Feinstaub zu erkennen oder neue Plätze
20:41
zu schaffen, an denen wir zusammenkommen können. Beispielsweise denken Sie an die vielen unbenutzten Räume, beispielsweise der öffentlichen Verwaltung, wo ganze Gebäude, ganze Straßenzüge nach 18 Uhr einfach leer stehen. Oder wir können uns Systeme überlegen, die Partizipatory Budgeting,
21:03
also ein öffentliches Verhandeln von Budgetposten erlauben. Das ist nun keine Idee, die genuin neu ist, aber intelligente Systeme können uns helfen, wesentlich die Hürden zu senken, um an solchen Systemen teilzunehmen
21:21
und damit den Kreis derer, die gemeinsam handeln können, zu erweitern. Der vielleicht utopischste Projekt, bei dem uns intelligente Systeme helfen können, wäre ein anderes Verhältnis zur Natur zu entwickeln. Also auf etwas, das nicht mehr einfach nur da draußen
21:41
ist, sondern etwas, mit dem wir auf vielfältige, komplexe Weise verbunden sind. Lassen Sie mich mit einem konkreten Beispiel aufhören. Was Sie hier sehen, ist die Spur eines Haies von der über ein Jahr von der Westküste Floridas in die Mitte des Atlantiks über mehr als 8000 Kilometer. Dieses Tracking wird
22:03
möglich, weil das Tier mit einem Sensor ausgestattet wurde. Diese erlaubt aber nicht nur Positionsdaten zu erheben, sondern auch eine Reihe von anderen Körperdaten, eine Art Fitbit für Haie. Und das alleine bewirkt schon viel. Das Tier, der
22:24
Hai, ist nicht mehr ein anonymes Gattungswesen, sondern es tritt uns als ein Individuum gegenüber. Stellen Sie sich vor, dass all diese Daten mit automatisierter Textgenerierungssoftware
22:40
verbunden wird. Da kann uns der Hai in Echtzeit erzählen, wie es ihm geht. Komplexe Formen des Zusammenlebens werden dann denkbar. Wir wissen, wann der Hai da ist und wann er nicht da ist. Das ist natürlich kein rein technisches Problem und technische Systeme, Haie zu tracken,
23:02
wird nicht ausreichen, aber sie sind notwendig, um komplexere Formen der Weltsicht und des Handelns in der Welt überhaupt denkbar zu machen. Da fehlt ein E. Wenn wir die dystopischen Visionen des Überwachungskapitalismus verhindern
23:21
wollen, aber dennoch nicht auf neue Zugänge zu uns zu drängenden Problemen verzichten wollen, dann müssten wir diese algorithmischen Systeme zuerst als politische Systeme verstehen, als Systeme der Macht und der Aushandlung neuer Beziehungen innerhalb der Gesellschaft. Und diese
23:41
Auseinandersetzung um die politische Einordnung dieser Systeme entscheidet sich nicht auf der Ebene des Codes. Danke. Vielen Dank, Felix Schadler.
24:01
Wir haben noch Zeit für ungefähr fünf Minuten, für zwei Fragen, zwei, drei Fragen. Ich sehe auch schon die erste Hand. Sehr schön. Hallo, vielen Dank. Sie haben jetzt ja auf die DSGVO referiert oder referenziert, vielmehr, Entschuldigung.
24:22
Ich weiß nicht, also Sie haben gesagt, ja, es gäbe die Normen 12, 13, 14. Das sind ja nur Informationspflichten, während die automatisierte Einzelentscheidung ja in 22 geregelt ist. So, also lange Rede, kurzer Sinn. Es hieß ja von Ihnen aus, ja, die DSGVO würde sozusagen da an der Stelle helfen aufgrund der
24:41
Transparenzregelungen. Aber grundsätzlich ist es ja immer noch so, dass die DSGVO wenig zu Algorithmen etc. pp. überhaupt sagt, nur im Rahmen der automatisierten Einzelentscheidung und die ist grundsätzlich verboten. Also da würde ich gerne mal von Ihnen sozusagen die Konter-Einschätzungen bekommen
25:01
oder fragen, wie Sie das verstanden haben, weil ich kann mir da jetzt aus dem, was Sie gesagt haben, nicht so richtig in Reihen machen. Also der der Punkt, auf den ich damit hinauswollte, ist, dass es eben eine neue Auskunftspflicht gibt und diese Auskunftspflicht eben
25:22
aussagekräftig sein muss, in dem Sinne, dass sie in einer Sprache, die für denjenigen, der die Auskunft verlangt, erklärt, wie so etwas vorgeht und was die Ziele sind, die mit diesen
25:40
automatisierten Entscheidungsverfahren verfolgt werden. Also dass man einerseits, es geht nicht um eine Offenlegung des Codes, sondern in einem anderen Sinn dieser Algorithmentüffe oder so, sondern nur darum, eine Einschätzung machen zu können, was diese Maschine mit meinen
26:00
Daten und damit sozusagen mir gegenüber macht. Jetzt ist die Frage wird sein und das nehme ich an, wird eine Frage der Gerichte sein, auf was genau sozusagen das angewendet werden kann und was aussagekräftig dann in der Praxis tatsächlich bedeutet.
26:22
Aber das müssen wir schauen, das werden die ersten sozusagen Musterprozesse zeigen. Aber ich glaube hier wird zumindest eine neue Art von Auskunftspflicht geschaffen, die jetzt nicht nur einfach heißt, hier sind die 200 Seiten Daten, die die
26:45
hat und die sie dann eventuell ausgedruckt einem zur Verfügung stellen, wie das Facebook ja immer mal wieder gemacht hat. Ok, es gibt noch eine Frage hier, ich komme.
27:01
Claudia Simon, Piratenpartei. Die diese diese Spannungsfeld zwischen Individual Data, die Sie vorhin angesprochen haben, diese individuellen Daten, die in ein Ranking gehen und Community Data, was im Rahmen von Big Data eben die hilfreichen und nützlichen Daten sein können. Haben Sie da ein Gefühl oder
27:21
eine Einschätzung, wie weit da jetzt ein Diskurs schon beginnt, ob das Verständnis da schon wächst oder ob da jetzt gerade in Deutschland, in Österreich vielleicht das noch auf einem eher sowohl Gesellschaft als auch Politik eher am Null Punkt sitzt?
27:44
Ich glaube schon, das ist ein gewisses Verständnis entwickelt. Das ist sicher ein Prozess, der am Anfang steht, aber nicht ich würde nicht am Null Punkt sehen. Ich glaube, dass das Problem spießt sich dann eher, wenn es
28:01
darum geht, tatsächlich was zu machen, weil es ja nicht nur darum geht, als wenn wir sagen, wir wollen diese Daten veröffentlichen, auch in relativ konventionellen Open Data Projekten. Ist es ja nicht nur ein technischer Akt, in welchem in welchem Format die jetzt geöffnet werden, sondern es
28:21
einerseits ist ein interner Umbau der Verwaltung, dass diese Daten überhaupt so erhoben werden oder so zur Verfügung gestellt werden und dann noch viel schwieriger ist. Es ist ja auch ein verändertes Verhältnis mit den Bürgern, die damit nicht mehr die Bittsteller sind,
28:41
die sozusagen um jedes einzelne Blatt kämpfen müssen für Auskunft, sondern die automatisiert Zugriff erhalten können, um selber mit den Daten dann handeln zu können. Und da, glaube ich, fehlt der politische Wille. Da sind wir noch eher bei Null wie bei der Reihenverständnisfrage.
29:02
Okay, ich glaube, das war es. Wir müssen leider Schluss machen. Vielen, vielen Dank. Noch einmal für Ulrike Stadler.