Algorithmen und Künstliche Intelligenz: Wegweiser für Politik und Gesellschaft
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 21 | |
Author | ||
License | CC Attribution - ShareAlike 3.0 Germany: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this | |
Identifiers | 10.5446/36099 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
00:00
AlgorithmArtificial intelligenceAlgorithmMEGALecture/Conference
00:23
InternetMoment (mathematics)Quantum computerMeeting/Interview
00:45
Perspective (visual)ForcePanel paintingComputer animation
01:21
Expert systemArtificial intelligenceComputer animation
01:52
ICQMachine visionTranslation (relic)Cluster analysisSeries (mathematics)Artificial intelligenceComputer programmingGame theoryAssistent <Programm>CW-KomplexSoftwareHigh availabilityMachine learningArtificial neural networkComputer hardwareDecision theoryComputer animation
03:08
Zusammenhang <Mathematik>Decision support systemAlgebraArtificial intelligenceRoute of administrationWorkstation <Musikinstrument>Group decision makingComputer animation
04:24
PredictionPerspective (visual)Decision support systemPredictionSystems <München>Computer animation
05:37
Search algorithmMachine learningProfessional network serviceStatistikerMachine learningStatisticsComputer animation
06:30
StatisticsComputer animationMeeting/Interview
06:55
Computing platformContent (media)AlgorithmGoogle
07:19
AlgorithmContent (media)Focus (optics)Decision theoryZusammenhang <Mathematik>Lecture/ConferenceMeeting/Interview
08:08
Expert systemDatabaseAlgorithmGroup decision makingImplementationVariable (mathematics)Computer scienceMathematicsForm (programming)Computer animation
08:48
outputSystems <München>Data analysisoutputEnde <Graphentheorie>FacebookFocus (optics)Algorithm
09:40
Kapazität <Mathematik>Route of administrationIntelligent NetworkData analysisComputer animation
10:10
Artificial intelligenceAlgorithmSystems <München>High availabilitySet (mathematics)Computing platformComputer animation
10:55
AlgorithmSet (mathematics)GoogleSystems <München>Run-time systemComputing platformAlgorithmPositionComputer animation
12:25
AlgorithmImplementationMoment (mathematics)SummationComputer animation
13:13
Hausdorff spaceAlgorithmInformationRoute of administrationoutputComputer animation
14:57
Perspective (visual)InformationDecision theoryBlack boxAlgorithmSystems <München>Mathematical structureComputer animation
16:22
InternetDatabaseAlgorithmLecture/Conference
16:56
Expert systemAlgorithmLecture/ConferenceComputer animation
17:40
Systems <München>RobotPhysical lawKommunikationForm (programming)Moment (mathematics)Artificial intelligenceAlgorithmSeries (mathematics)PositionSound effectLength of stayWeb pageService (economics)InformationComputer animation
21:11
Artificial intelligenceAlgorithmCW-KomplexRow (database)EncryptionConstraint (mathematics)DistortionDecision support systemComputer animation
22:54
AlgorithmSystems <München>Computer animation
23:42
AlgorithmDecision theoryLebensdauerUser interfaceDecision support systemLecture/Conference
24:19
Artificial intelligenceMoment (mathematics)Kapazität <Mathematik>Standard deviationComputer animationLecture/Conference
26:09
Computer animationLecture/Conference
26:54
Meeting/InterviewLecture/Conference
27:25
Programmer (hardware)
27:48
Hypermedia
Transcript: German(auto-generated)
00:15
Es ist mir eine große Ehre heute sprechen zu dürfen, zu sprechen zu dürfen zu diesem mega Thema Algorithmen und künstliche Intelligenz.
00:23
Der ganze Diskurs hat ja im Moment irgendwie fast was quasi religiöses. Die einen schwören auf die Versprechungen maschineller Lernverfahren in Verbindung mit Big Data und Quantencomputer, sehen darin die Lösung aller großen Probleme unserer Zeit.
00:41
Die anderen sehen die Welt, wie wir sie kennen, am Abgrund. Fürchten eine sich verselbstständige Intelligenz und das Ende der Menschheit. Was soll ich sagen? Ich glaube nicht an Religion, ich glaube an den Menschen, an seine Würde, seine intellektuellen und emotionalen Fähigkeiten und trotz aller Verletzlichkeit seine Kraft.
01:02
Und in diesem Sinne möchte ich mit diesem Talk eine Übersicht bieten dazu, was wir wissen, was wir nicht wissen und wissen sollten, welche Handlungsoptionen wir gerade haben und welche Handlungsoptionen aus meiner Perspektive zu schaffen sind. Bevor ich diesen Talk halte, möchte ich ganz kurz darauf hinweisen, ich halte
01:21
diesen Talk hier als unabhängige Expertin. Meine Kenntnisse basieren natürlich auf eigenen Recherchen, auf Kooperation mit Netzpolitik.org und im Center for Internet and Human Rights an der Vietrina in Frankfurt oder aber ganz besonders auch auf meiner Arbeit für die Bertelsmann Stiftung im letzten halben Jahr. Die Bertelsmann Stiftung Konrad Lischka und ich werden in den nächsten Wochen
01:43
eine Expertise zum politischen Handlungsbedarf bei algorithmischer Entscheidungsfindung herausgeben, die ich Ihnen allen sehr ans Herz lege. Aber nun zum Thema. Künstliche Intelligenz kommt nicht, sondern sie ist schon längst da. Wir finden sie aktuell in vielen Assistenten, in Empfehlungssystemen und
02:02
in der Programmierung neuer Games. Die Frage, die sich stellt, ist, wohin uns diese Entwicklung führt und natürlich, wo sie uns führen soll. Wir haben es mit einer ganzen Reihe an Durchbrüchen in Analyse-Systemen zu tun, wobei maschinelles Lernen auf Basis von neuronalen Netzen das
02:20
bekannteste ist. Wir haben die weltweite Vernetzung. Wir haben eine massive Verfügbarkeit von Daten und wir haben natürlich extrem hohe Rechnerkapazitäten und das Ganze ermöglicht, dass das möglich wird, wovon Menschen seit Jahrzehnten träumen, nämlich lernfähige Maschinen, das heißt aus Daten lernende Software, die in Verbindung mit steuerungsfähiger Hardware immer mehr Arbeit, über mehr
02:42
Entscheidungen übernehmen kann in Bereichen, die bislang Menschen vorbehalten waren. Das ermöglicht die Analyse komplexer Sachverhalte, wie zum Beispiel die Identität eines Menschen, das ermöglicht die Bewertung komplexer Sachverhalte, wie zum Beispiel ein nationales Sicherheitsniveau und das ermöglicht auch die Steuerung komplexer Sachverhalte, wie zum
03:02
Beispiel beim autonomen Fahren oder auch dem nächsten Bereich der Waffensysteme. Ich denke, was es grundlegend zu unterscheiden gilt, als ob man über künstliche Intelligenz im Bereich der Analyse oder im Bereich der Anwendung, im Bereich von algorithmischen Entscheidungsverfahren spricht, zum Beispiel im Bereich der Medizin. Viele Menschen versprechen sich Durchbrüche bei der Erkennung und
03:24
Behandlung schwerer Krankheiten, wie etwa Krebs. Hier soll künstliche Intelligenz dazu beitragen, dass große Datenbestände analysiert werden können und frühzeitig richtige Diagnosen gestellt werden können. Ich glaube, das ist ein ganz, ganz anderer Bereich, als wenn man drüber nachdenkt, ob etwa in einem Krankenhaus eine Maschine
03:44
darüber entscheiden soll, welcher Herz-Kreislauf-Patient auf welche Station kommen soll. Wenn man hierüber spricht, dann muss man erst mal das Entscheidungssystem konstruieren. Man muss überlegen, okay, welche Daten fließen da ein, welche der in den Daten gefundenen Zusammenhänge sollen Berücksichtigung finden und überhaupt wer entscheidet
04:02
darüber. Aber das ist noch längst nicht alles. Wenn das System konstruiert ist, muss man überlegen, worauf richtet man es aus? Wie implementiert man das in den Krankenhäusern? Da stellen sich die Fragen, okay, optimieren wir eigentlich das Patientenwohl, optimieren wir die Krankenhausauslastung, optimieren wir das Renommee des Arztes?
04:20
Hier gibt es viele offene Fragen. Was auch ganz, ganz klar ist, ist, dass diese sogenannten algorithmischen Entscheidungssystem immer komplexer werden. Wir haben diesen Diskurs über algorithmische Entscheidungssysteme, der ungefähr vor einem Jahr aus den USA nach Deutschland geschwappt ist. In den USA haben wir solche Systeme seit ungefähr zehn
04:40
Jahren im Einsatz, zum Beispiel bei der Vorauswahl von Bewerbern oder der vorhersage posierten Polizeiarbeit oder auch bei der Erstellung von Prognosen über das Risiko von Straftätern wieder straffällig zu werden. Ich denke, hier sind viele Probleme aufgetaucht, die hier an vielen Talks behandelt werden. Aus meiner Perspektive muss man ganz deutlich dabei
05:00
aufpassen, diesen Diskurs auf Deutschland zu übertragen. Weil wir einfach einen Technologiesprung dabei haben. Früher war etwa Vorhersage basierte Polizeiarbeit kritisch aus mehrererlei Hinsicht, basierte relativ übersichtlich noch auf Orten oder Personen. Heute können natürlich unglaublich viele Daten in Echtzeit analysiert werden. Es kann auf die Daten von sozialen Netzwerken
05:22
zurückgegriffen werden. Und das führt zu ganz neuartigen Problemen der Nachvollziehbarkeit und Kontrolle. Die Diskriminierung und die Verstärkung sozialer Ungleichheiten definitiv verstärken können. Was wir auch wissen, ist natürlich, dass Maschiner
05:41
des Lernens in verschiedenen Suchverfahren niemals neutral sind. Grundlegend ist nicht bloß die Auswahl der Daten, sondern bereits die verschiedenen Suchalgorithmen führen unter Umständen zu unterschiedlichen Ergebnissen. Ich glaube, den Statistikern hier im Raum braucht es nichts zu erklären, aber den anderen vielleicht schon. Auch die größten Rechnerkapazitäten haben natürlich ihre Grenzen.
06:02
Suchalgorithmen können in neuronalen Netzwerken etwa an die Tiefe suchen oder an die Breite oder in Kombination verschiedenes, jeweils mit unterschiedlichem Zeit- oder Rechneraufwand und mit unterschiedlichen Ergebnissen. Das heißt, ob man das erste passende Ergebnis sucht oder das beste Ergebnis, macht schon mal
06:22
einen wesentlichen Unterschied, der mit dem Hinweis auf maschinelles Lernen, Mustererkennung auf jeden Fall nur unzureichend begründet ist. Dazu kommt, dass wir es eben nicht mit Statistik zu tun haben. Das interessante an dem Sieg von AlphaGo über den Menschen ist, dass sozusagen hier
06:41
eine Maschine in einem unglaublich komplexen Spiel einen Weltmeister besiegt hat. Aber nicht nur das, die Maschine zeigte dabei auch einfach eine Strategiebildung, die sich von Menschen unterscheidet. Neben der Strategiebildung ist, glaube ich, der Normwandel ganz entscheidend, den wir berücksichtigen müssen.
07:01
Alle großen Plattformen experimentieren zurzeit damit, strafbare oder unerwünschte Inhalte automatisiert zu erkennen. Da gibt es viele Fehler. Da empfehle ich Julia Reda. Aber was ich noch viel spannender finde, ist, dass zum Beispiel bei den Google Toxizitätsfiltern
07:20
Algorithmen darauf trainiert werden, Hasskommentare automatisiert zu erkennen. Dazu werden die Kommentare gerade auf einer Skala verortet und bewertet. Das heißt, so ein Kommentar wie Du bist keine nette Frau, könnte fiktiv gesprochen so einen Wert von 8 Prozent erhalten. So ein Kommentar wie Du bist eine Scheißschlampe, einen wesentlich höheren. Hier verschiebt sich der Fokus von der Idee auf die Sprache.
07:42
Der Fokus verschiebt sich von der Strafbarkeit von Inhalten auf was so Algorithmen als toxisch lernen. Und was ich ganz besonders spannend finde, das natürlich neue Erkenntnis und die Zusammenhänge, die hier in dem Text, in dem Videomaterial gefunden werden, in dem Bildmaterial auch zu neuen Prämissen führen, zu neuen Werten, auf Basis derer
08:02
wir Entscheidungen treffen. Es ist ein Riesenexperiment, wo natürlich unzählig viele Experten Nachvollziehbarkeit und Kontrolle fordern. Es gilt, die Zweckmäßigkeit und die Angemessenheit von algorithmischen Entscheidungsverfahren abzusichern.
08:20
Und man muss dazu erst mal sagen, dass die Analyse von Algorithmen, dass Algorithmen-Alleting eigentlich eine klassische Teildisziplin der Informatik oder auch der Mathematik ist. Früher konnte man algorithmische Entscheidungssysteme logisch nachvollziehen. Man konnte etwa die Datenbasis eines Systems überprüfen. Man konnte die Modellierung
08:40
der zugrunde liegenden Variablen prüfen. Man konnte die Entscheidungslogik prüfen. Man konnte die Implementierung prüfen. Heute haben wir halt ganz neue Form der Datenanalyse und sehr, sehr komplexe dynamische Verfahren, wo auch Feedback-Schleifen eine sehr, sehr große Rolle spielen. Das Problem ist, dass diese Systeme
09:01
logisch kaum noch überprüft werden können. Hier verschiebt sich im Prinzip der Fokus von der Input auf die Input-Output-Analyse. Das heißt, es werden die Daten, die in das System reingehen, systematisch mit den Resultaten verglichen. Ziel ist die Kenntnis der algorithmischen Entscheidungsstrukturen. Das Problem ist, dass es im Regelfall
09:21
dieselben Probleme kreiert, wie der proprietäre Algorithmus. Wir wissen alle, dass selbst, wenn die ganze Welt darüber streitet, welche Schuld eigentlich Facebook nur an Fake News hat oder an der Wahl von Donald Trump oder an Brexit, wir wissen es letzten Endes nicht, weil Facebook die Daten nicht rausgibt. Ich komme darauf zurück.
09:40
Was wir auch wissen, ist, dass wir es nicht nur mit intelligenten Analysesystemen und intelligenten Anwendungen zu tun bekommen, sondern auch noch mit intelligenten Netzen. Unter dem Stichwort Next Generation Networks wird eine neue Generation von Infrastruktur diskutiert, die die Smart City ermöglichen soll und wo im Prinzip Intelligenz im Sinne von Datenanalyse
10:01
Kapazitäten in die Netze hineingeplant wird. Das ergäbe so was wie Netze, die hören, denken und führen. Und was wir natürlich zu gut zuletzt auch wissen, ist, dass diese ganze Entwicklung rund um Algorithmen und künstliche Intelligenz hauptsächlich nicht in europäischer und in privater Hand stattfindet.
10:23
Sie basiert ganz maßgeblich auf der Verfügbarkeit von Daten. Und wir wissen alle, dass hier international die großen Plattformen, die großen Internetkonzerne eine Vorreiterrolle bekleiden, die sehr, sehr schwierig ist. Denn nicht nur die aktuelle Entwicklung von Technologien, künstlicher Intelligenz
10:40
basiert auf Daten. Nein, diese Unternehmen haben halt auch die ganzen Feedback Daten, mit denen sich diese Systeme weiterentwickeln lassen. Das heißt, wir müssen hier von einem exponentiellen Wachstum rausgehen, einem Vorsprung von den aktuellen Platzhirschen, der sehr, sehr schwer einzuholen sein wird. Wir wissen also eine ganze Menge.
11:00
Und die Frage ist, was wissen wir eigentlich nicht? Was wir nicht wissen. Ich hätte hier sehr gerne auf das größere Thema der Künetik eingegangen, musste das aber kürzen. Möchte so auf die Perspektiven der Steuerung durch Algorithmen eingehen. Es gibt einen Wissenschaftler, den ich sehr inspirierend fand, Klaus Lenk, der hat gesagt,
11:21
perspektivisch löst die Regulierung durch Algorithmen, die Regulierung durch Zwang und Anreize ab. Es geht um so eine sogenannte Kontextsteuerung, die im Prinzip auf drei Säulen basiert, nämlich einerseits auf der Personalisierung der informationellen Umgebung von Menschen und Organisationen. Stichwort wäre hier Google.
11:41
Zum Zweiten auf der Profilbildung für die Zuweisung von Positionen und Lebenschancen. Und zum Dritten auf der zwingenden Verhaltungssteuerung durch technische Infrastrukturen statt durch imperatives Recht. Das heißt, es geht hier um Nudging im virtuellen und im realen Bereich. Das würde im Prinzip so was ergeben,
12:00
wie man bekommt, nur das angeboten, was der eigenen Position entspricht. Das klang für mich erst mal alles sehr, sehr einleuchtend. Aber ich muss sagen, es gibt überhaupt keine Übersicht, welche Systeme existieren, miteinander interagieren oder auch integriert sind. Es gibt keine Übersicht, welche Rolle die Plattform hier einnehmen. Und es gibt auch keine Übersicht,
12:20
ob wir es eigentlich mit Steuerung oder mit Selbststeuerung zu tun haben. Ein zweites Problem ergibt sich daraus, dass diese ganze Technologieentwicklung in einem internationalen Raum stattfindet auf Basis von ganz, ganz vielen unterschiedlichen Rechtsprechungen. Ein schönes Beispiel ist der Test der Gesichtserkennung
12:41
am Berliner Südkreuz. Hier hat eine Anfrage ergeben, dass das BMI im Moment keine Ahnung hat, auf welchen Daten das Ganze trainiert wurde und welche Algorithmen da zum Einsatz kommen. Also wir haben den Fakt, dass sozusagen die Datensammlung, die Algorithmenentwicklung, die Entwicklung von Analysesystemen und die Implementierung
13:01
von algorithmischen Entscheidungsstrukturen praktisch und theoretisch an jedem Ort der Welt stattfindet und jede Übersicht fehlt, die so eine Grundlage bilden könnte für ein Risiko oder Folgenabschätzung. Genau, für die Zuschauer zu Haus. Das führt mich natürlich zu der Frage,
13:20
okay, was können wir tun? Und ich denke, was es zunächst einmal ganz, ganz zentral zu schaffen gibt, ist ein Überblick, ein Überblick für Individuen und für das Kollektiv, ein Überblick, der damit beginnt, welche Technologien sind gerade in der Entwicklung? Welche sind am Einsatz? Was ist deren Daten? Was ist die Trainingsgrundlage?
13:40
Welche Akteure und welche Institutionen sind hier eigentlich eingebunden? Ich denke, das kann eine sehr gute Grundlage darstellen für eine Risiken- und Folgenabschätzung. Es kann eine Grundlage sein, algorithmische Entscheidungsstrukturen danach zu kategorisieren, was man eigentlich prüfen muss, was man eventuell zertifizieren muss und was man eventuell einfach verbieten muss. Ich halte eine zentrale Behörde
14:02
auf jeden Fall für dringend notwendig, weil es sozusagen ein sehr großer, eine sehr große Aufgabe ist, die kontinuierlich zu bewältigen ist. Ich denke, dass es ganz wichtig ist, sowohl private Anwendung wie auch staatliche Anwendung hier einzubeziehen. Eine schriftliche Anfrage von Saskia Esken
14:21
aus dem Januar 2018 an die Bundesregierung, welche Algorithmen gerade in der Bundesverwaltung um Einsatz sind, hat ergeben, dass da eigentlich noch nicht so richtig viel ist im privatwirtschaftlichen Sektor sehr wohl. Und ich glaube, hier können sogenannte Algorithmen-Folgeabschätzung eine sehr gute Möglichkeit sein, die Betreiber dazu zu verpflichten,
14:42
erst mal grundlegende Informationen zu den Zielen eines algorithmischen Entscheidungssystems zu geben, zu der Qualität des Dateninputs, zu den erwarteten Ergebnissen und auch zu möglichen Fehlerquoten und Nebenwirkungen. Gleichzeitig ist es aus meiner Perspektive
15:00
unglaublich zentral, dass Individuen einen Überblick bekommen, wann und wie sie von algorithmischen Entscheidungsstrukturen betroffen sind. Hier bietet die Datenschutz-Grundverordnung einen Ausgangspunkt. Sie beinhaltet das Recht auf Information bezüglich personenbezogener Daten, auf Korrektur und Widerspruch. Und sie hat bei der automatisierten
15:22
Entscheidungsfindung beinhaltet sie auch das Recht auf Information bezüglich der involvierten Logik, Tragweite und den angestrebten Auswirkungen. Sie hat weiter verschiedene Widerspruchs- und Interventionsrechte. Also es ist ein sehr, sehr guter Ausgangspunkt. Das Problem ist, sie gilt eigentlich nur in Ausnahmefällen. Sie gilt eigentlich nur in den Ausnahmefällen,
15:41
wo es um automatisierte Entscheidungen gibt und zumindest die meisten algorithmischen Entscheidungsstrukturen im öffentlichen Sektor sind als semi-autonom konzipiert. Sprich, hier gibt es theoretisch eine Interventionsmöglichkeit. Ob die praktisch genutzt wird, ist dann eine offene Frage. Aber hier fallen halt die Rechte weg. Zudem würde ich gerne ganz kurz
16:00
für die Insider unter euch ein Wort zu den sogenannten Counterfactual Explanations verlieren, wie sie gerade vom Oxford Internet Institute vorgestellt werden. Counterfactual Explanations ist so eine Idee, wie das sozusagen die Betreiber von Systemen, wenn sie die Blackbox-Algorithmen nicht offenlegen wollen, dass sie den Nutzern eine automatisiert generierte Erklärung geben,
16:22
wie eine konkrete Entscheidung um Einzelfälle zu ändern ist. Praktisch bedeutet das, stellt man einen Kreditantrag, der abgelehnt wird, könnte so ein System eine Erklärung geben, wie hoch das Jahreseinkommen sein muss, damit das sozusagen bewilligt wird. Das Problem ist hier, dass im Prinzip
16:40
oder das Interessante ist, dass diese Idee eigentlich recht in Technik umformuliert. Mögliche Probleme der Datenbasis oder der Algorithmen selbst oder auch der Ziele des Systems können eben nicht aufgedeckt werden. Also ich glaube, hier muss man sehr, sehr vorsichtig sein. Prüfung und Kontrolle.
17:03
Ich habe schon gesagt, ich bin definitiv für eine Regulierungs- oder Auditing- oder Zertifizierungsinstanz, wobei man sagen muss, dass das Ganze nicht so ganz einfach ist, weil sich eben die Algorithmen nicht einfach testen lassen. Was man hier definitiv braucht, ist auch ein Datenzugang. Und ich weiß nicht ganz genau, wie der zu realisieren ist.
17:21
Ich glaube, das richtige Stichwort ist auf jeden Fall qualifizierte Transparenz. Also das heißt sozusagen, dass die Unternehmen oder die Institutionen, die solche Entscheidungsstrukturen anbieten, nicht dazu verpflichtet werden, Algorithmen und Daten gegenüber der Öffentlichkeit offen zu legen, sondern gegenüber einem bestimmten Kreis von Experten. Allerdings
17:41
gibt es auch noch eine ganze Reihe an anderen Möglichkeiten. Es gibt viele Forscher, die auch hier auf der Republika sprechen, die Möglichkeiten entwickelt haben, auf Umwegen relevantes Datenmaterial zu erheben, etwa durch die automatisierte Sammlung von veröffentlichten Informationen, das sogenannte Scraping,
18:00
oder auch durch den Einsatz von Fake Accounts oder Bots zum Zwecke der Erhebung von Nutzerdaten. Das Problem ist, dass diese Methoden im Regelfall erst mal die allgemeinen Geschäftsbedingungen der Webseitenbetreiber verletzen und dann unter Umständen auch die IT-Sicherheitsgesetze und das Urheberrecht. Wie das in Amerika
18:21
hat es bis vor kurzem ein großes Problem dargestellt, der sogenannte Computer Fraud und Abuse Act, der das nicht autorisierte Eindringen in vernetzte Systeme unter Strafe stellte. Hier hat sich vor zwei oder drei Monaten dankenswerterweise die Rechtsprechung geändert. Wir sind hier in Deutschland dabei, mit dem Straftatbestand des digitalen Hausfriedensbruchs
18:42
genau so ein Gesetz einzuführen. Ich denke, das ist dringend zu überprüfen. Ganz ähnlich kann das Urheberrecht eine Schranke für Algorithmen und Auditing darstellen, vor allem die sogenannte Anti Circumvention Provision, das Digital Millennium Copyright Act. Die kann Auditing in der Hinsicht strafbar machen
19:01
als dass sie verbietet, dass man Technologien der Identitätsprüfung umgeht, die meistens bei diesem Einsatz von Social Bots oder Fake Accounts notwendig sind. Das heißt im Endeffekt, dass algorithmische Entscheidungsstrukturen unter Umständen zwei bis dreifach vor einer externen Überprüfung geschützt sind. Und ich glaube, das erscheint mir extrem
19:22
unverhältnismäßig gegenüber der Anzahl möglicher Risiken, der Anzahl möglicher Fehler und auch der Anzahl möglicher Betroffenen. Ich glaube, hier geht es dringend, Ausnahmen zu schaffen und auch alte und neue Gesetze so zu prüfen, dass die Analyse von algorithmischen Entscheidungsstrukturen möglich ist.
19:43
Ein letzter Punkt, den ich hier anbringen möchte, ist, dass man eine indirekte Kontrolle auch über die Datenregulierung durchführen kann. Wer was mit welchen Daten machen kann unterliegt natürlich eine Gesetzgebung. Hier ist die Datenschutz Grundverordnung auch ein Ausgangspunkt,
20:02
die regelt allerdings nur die Sammlung und Verwendung personenbezogene Daten. Was im Moment nicht geregelt ist, ist die Sammlung und Verwendung vieler Daten, die sich aus dem Kommunikationsverhalten ergeben, etwa die Suche auf Webseiten, die Verweilderung auf Webseiten, die Kommunikation über Over-the-Top-Dienste und Messenger. Hier würde also solche Daten
20:21
stellen allerdings die Grundlagere von neueren Formen des Profiling dar. Und hier gilt das eigentlich dringend, dass die Privacy-Verordnung verabschiedet wird. Ein letztes Feld ist so diese ganze Debatte um Dateneigentum oder Datenzugangsrechte. Man kann diese Idee von Dateneigentum
20:41
aus ganz vielen Perspektiven kritisieren. Danke. Juristen können fragen, sind Daten in Materialgüter? Techniker können fragen, ist Dateneigentum durchsetzbar? Politiker können fragen, ist die Kapitalisierung von Daten wünschenswert? Aber ich glaube, mit Blick auf die Entwicklung von künstlicher Intelligenz sollte man die Frage stellen,
21:02
wer soll mit welchen Daten KI-Systeme entwickeln, anwenden und auch überprüfen dürfen? Ich glaube, wir brauchen wir eine sehr kluge Regulierung. Ich bleibe noch kurz beim Thema Daten. Einfach weil die eine Frage ist, wer was mit welchen Daten machen darf. Und die andere Frage ist,
21:20
ob künstliche Intelligenz eigentlich auf den richtigen Daten lernt, das heißt auf den vollständigen, korrekten, repräsentativen und so weiter. Auch hier ist die Datenschutzgrundverordnung Ausgangspunkt, weil sie es ermöglicht, dass Individuen zumindest einen bestimmten Anteil der Daten einsehen und gegebenenfalls korrigieren können. Das Problem ist, sie deckt
21:41
halt nur bestimmte Daten ab und sie deckt auch keine Datensets ab. Was wir kollektiv brauchen, ist eigentlich eine Dokumentation, eine Auszeichnung von Datensets. Das heißt, die Herkunft von Daten, die Beschaffenheit von Daten, wie sie beschaffen sind, welche Verzerrungen
22:00
sie möglicherweise aufweisen und möglicherweise auch welche Einschränkungen in ihrer Verwendung es gibt. Es ist so ein bisschen unklar, wie man das Ganze realisieren kann. Hier gibt es Bezug zu Blockchain Technologien. Blockchain Technologien würden natürlich die Herkunft und die Verwendung von Daten nachvollziehbar machen. Ich bin mir noch nicht so ganz so sicher, ob das die perfekte Lösung ist, weil dann natürlich auf ein
22:22
möglicherweise intransparentes, komplexes, algorithmisches Entscheidungssystem eine Verschlüsselung oben draufkommt. Aber das ist ein anderes Thema. Diese Frage von Daten, Qualität ist auf jeden Fall ein ganz neues Feld, was sehr wichtig ist, auch beim Datensharing. Wir brauchen eine Standardentwicklung
22:40
für offene und für geschlossene Datensätze und es steht auch die Forderung im Raum, dass Algorithmen auf Basis von Daten trainiert werden, wo die Trainingsdaten und die Anwendungsdaten zumindest im selben Kontext aufweisen. Ich glaube, das ist auch sehr sinnvoll. Kommen wir zum vorletzten Punkt bei aktuellen Handlungsempfehlungen.
23:01
Die Frage, wie Menschen in algorithmischen Entscheidungsprozessen auswählen oder intervenieren können, steht, denke ich, ganz am Anfang. Einerseits gilt es hier auch individuelle Widerspruchsrechte zu realisieren. Möglicherweise gibt es auch irgendwann Verbandsklagerechte. Aber ich glaube, was noch
23:20
wesentlich entscheidender ist, ist, Software- und Hardware-Systeme so zu entwickeln, dass mehrere Optionen sichtbar werden und Interventionsmöglichkeiten erlauben. Ich weiß nicht, wer von euch diese Dokumentation zum Thema Todesalgorithmus gesehen hat. Also da ging es um einen Algorithmus, der bei Krebskranken darüber entscheiden soll, welche Therapie sie bekommen.
23:41
Da schriehen viele Leute auf Hilfe des entscheidenden Algorithmus über Leben und Tod. Ich glaube, das wäre sehr kritisch. Was auf der anderen Seite sehr interessant wäre, wäre, wenn so ein algorithmisches Entscheidungssystem offenlegen könnte, welche Lebensqualität, welche Lebensdauer mit einer Chemotherapie, mit einer normalen Therapie, mit einer
24:01
Homöopathie oder mit keiner Therapie verbunden wäre. Ich glaube, das wäre eine sehr gute Grundlage, um informiert Entscheidungen zu treffen. Das bringt uns zu meinem letzten Punkt, den ich glaube ich sehr stark machen muss. Solche intelligenten Mensch-Maschine-Schnittstellen erfordern einfach eine massive
24:20
Requalifizierung, eine Requalifizierung nicht zur Verhinderung von Massenarbeitslosigkeit, sondern dass künstlich intelligente und algorithmische Entscheidungsstrukturen richtig gekauft werden, richtig implementiert werden und richtig angewandt werden. Das heißt, wir brauchen das nicht nur in Schulen und Universitäten, sondern vor allem bei den jetzigen Entscheidungsträgern. Und ich glaube, man muss auch
24:41
darüber nachdenken, wie man alternative Einkommen oder Stipendien schafft. Insgesamt muss man sagen, ich habe meine Zweifel darin, dass die EU im Wettlauf im Bereich künstliche Intelligenz aufholen kann. Ich glaube, das erforderte wohl einfach eine Mauer
25:00
um die ganzen klugen Köpfen und klugen Ideen, die es hier gibt und die im Moment immer abgeworben werden. Ich glaube, was wir dringend brauchen, ist eine Regulierung, die die Steuerung europäischer Kapazitäten steuert. Das heißt, wir brauchen eine extrem kluge Datenregulierung. Wir brauchen Auditing und wir brauchen gute Anwendungsstandards. Langfristig ist, glaube ich, die Frage, wie gewährleistet man
25:22
eine gemeinwohlerorientierte Entwicklung künstlicher Intelligenz? Und grob gesagt, hier gibt es eigentlich nur zwei Optionen. Also entweder teilen die Monopolisten irgendwann Daten oder sie müssen demokratisiert werden. Das bedeutet Grundrechte gegenüber Unternehmen. Das bedeutet eine demokratische Partizipation und eine Kontrolle
25:40
von Herrschaft. Ich weiß nicht genau, wie man das durchführen kann. Ich glaube, es wäre eine internationale Lösung, wo der europäische Absatzmarkt und diese hervorragende Geolocation im Kontext des Klimawandels nicht zu unterschätzen sein sollten. Insgesamt wäre es sehr, sehr schade,
26:00
wenn so eine unglaublich spannende Entwicklung wie im Bereich der künstlichen Intelligenz gerade stattfindet, schiefgehen würde, weil es immer nur um Geld und Daten geht. Es braucht also, glaube ich, noch mehr als Geld. Viele, viele kluge Köpfe. Ich glaube, es braucht Mut für die richtige Regulierung. Und damit sage ich Danke für alle Leute, die besser mit Bildern umgehen können
26:21
als ich und an ein paar ganz spezielle Nerds. Wir haben noch ein bisschen Zeit für Fragen.
26:41
Wer Fragen hat, bitte Hand hoch und zu mir kommen. Noch jemand mit einer Frage? Na dann komm mal her. Hallo, Alex, bin ich.
27:02
Haben Sie schon mal selber mit AI-Systemen gearbeitet, darin programmiert und da mal so richtige Problemstellungen mit gelöst, um es besser bewerten zu können, ob da ein Risiko dahinter steckt oder nicht? Kannst du die Frage nochmal wieder holen, bitte? Klar, ich habe den selbst nur akustisch schwer verstanden.
27:22
Neuer Versuch. Haben Sie schon mal mit AI-Systemen gearbeitet, aktiv, also die programmiert, implementiert, Problemstellungen damit gelöst, um daraus basierend besser abzuleiten zu können, ob da ein Risiko ist oder nicht? Ich persönlich habe keine AI-Systeme programmiert.
27:40
Ich bin Sozialwissenschaftlerin und habe allerdings mit relativ vielen Leuten zu tun, die es tun.
Recommendations
Series of 79 media
Series of 4 media