We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Ethikrichtlinien für Künstliche Intelligenz? Wie wär's mit Gesetzen?

00:00

Formale Metadaten

Titel
Ethikrichtlinien für Künstliche Intelligenz? Wie wär's mit Gesetzen?
Untertitel
Wie die Industrie mit Debatten um "ethische KI" Zeit kauft
Serientitel
Anzahl der Teile
102
Autor
Lizenz
CC-Namensnennung 4.0 International:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
Bisweilen kann man sich des Eindrucks nicht erwehren, jede zweite Woche würde eine neue, wachsweiche Selbstverpflichtung für den ethischen Einsatz von Algorithmen bekanntgegeben. Privatwirtschaftliche wie öffentliche Organisationen übertrumpfen sich geradezu dabei zu betonen, dass der Mensch bei allen maschinellen Entscheidungen im Mittelpunkt stehen soll und dass diese transparent sein müssen. Aber was bringt einem das Wissen um benachteiligende oder falsche Funktionsweise der Algorithmen, wenn man sie dennoch nicht verbieten kann? Und: sollten wir die Regeln für den zukünftigen Einsatz von Maschinen wirklich von den Konzernen gestalten lassen, die diese Technologien entwickeln? Wir zeigen, wie wenig konkret die verschiedenen Selbstverpflichtungen der Unternehmen, Verbände und Organisationen sind und wie all das Reden über Ethik in den meisten Fällen einem Ziel dient: gesetzliche Regulierung verhindern. Bisweilen kann man sich des Eindrucks nicht erwehren, jede zweite Woche würde eine neue, wachsweiche Selbstverpflichtung oder Empfehlung für den ethischen Einsatz von Algorithmen bekanntgegeben. Privatwirtschaftliche wie öffentliche Organisationen übertrumpfen sich geradezu dabei, ein weiteres Mal zu betonen, dass der Mensch bei allen maschinellen Entscheidungen im Mittelpunkt stehen soll, dass sie fair und nachvollziehbar sein müssen und es stets die Möglichkeit zum Widerspruch gegen eine solche Entscheidung geben muss. Transparenz, Transparenz und nochmals Transparenz sei das Maß aller Dinge. Aber was heißt das konkret für diejenigen, die nur noch per Gesichtserkennung in ihr Büro oder Wohnung reinkommen, deren Kredit, Wohnungs- oder Arbeitsgesuch abgelehnt wird oder sie vom Jobcenter keine Förderung bekommen dank einem Algorithmus? Was bringt einem das Wissen um benachteiligende oder falsche Funktionsweise der Algorithmen, wenn man sie dennoch nicht verbieten kann? Welchen Sinn hat das Recht darauf, sich a posteriori wehren zu dürfen, wenn man bereits alles verloren hat? Und: sollten wir die Regeln für den zukünftigen Einsatz von Maschinen wirklich von den Konzernen gestalten lassen, die diese Technologien entwickeln? Ethikforscher, die sich für Selbstregulierung einsetzen, verschweigen oft, dass ihre Einrichtungen von Techfirmen finanziert werden. Selbst die neuen Ethischen Richtlinien der EU sind von Google, IBM, Facebook und Zalando mitgeschrieben worden. Wir zeigen, wie wenig konkret die verschiedenen Selbstverpflichtungen der Unternehmen, Verbände und Organisationen sind und wie all das Reden über Ethik in den meisten Fällen einem Ziel dient: gesetzliche Regulierung verhindern.
29
30
Vorschaubild
32:05
53
59
65
81
86
Vorschaubild
1:42:59
95
96
Vorschaubild
35:58
ComputersicherheitXMLUMLBesprechung/InterviewVorlesung/Konferenz
Künstliche IntelligenzAlgorithmusBesprechung/InterviewVorlesung/Konferenz
AlgorithmusKünstliche IntelligenzVisualisierungDatenbusBesprechung/Interview
Inventor <Programm>Web-SeiteAlgorithmusEigenwertproblemMilan <Programmiersprache>GRADEBesprechung/Interview
Kategorie <Mathematik>AlgorithmusBesprechung/Interview
AlgorithmusKerndarstellungKünstliche IntelligenzWirbel <Physik>SoftwareentwicklerBesprechung/Interview
AlgorithmusVerschlingungBruchrechnungKünstliche IntelligenzPotenzialfunktionZugbeanspruchungBesprechung/InterviewVorlesung/Konferenz
Künstliche Intelligenz
Künstliche IntelligenzRang <Mathematik>GruppierungVorlesung/KonferenzBesprechung/Interview
Inhalt <Mathematik>EbeneVorlesung/KonferenzBesprechung/Interview
IBMProgrammiererSoftwareentwicklerSystems <München>Vollständiger VerbandAlgorithmusFaktorisierungWirkung <Physik>PrognoseverfahrenStandardabweichungPrognose
AlgorithmusFaktorisierungPrognoseGRADEInformation EngineeringBesprechung/Interview
IBMAlgorithmusSystems <München>VerzerrungBesprechung/Interview
TOUR <Programm>Maschinelles LernenAlgorithmusEndstelleSystems <München>Prozess <Physik>Assistent <Programm>EnergieFaktorisierungSchar <Mathematik>Besprechung/Interview
AlgorithmusPrognoseverfahrenVollständiger VerbandSystems <München>Besprechung/Interview
GoogleMicrosoftZählenBesprechung/Interview
CodeCodierungSoundverarbeitungt-Test
PunktspektrumBetrag <Mathematik>ComputeranimationBesprechung/Interview
Zusammenhang <Mathematik>HebelAlgorithmusExpertensystemListe <Informatik>Netzwerk <Graphentheorie>ComputersicherheitZeitzoneInternetVorlesung/KonferenzBesprechung/Interview
AlgorithmusInternet der DingePAPSystems <München>LinieMomentenproblemKünstliche IntelligenzETHICSZahlenbereichVollständiger VerbandUnternehmensmodellVorlesung/KonferenzBesprechung/Interview
FacebookSAP <Marke>UnternehmensmodellBesprechung/InterviewComputeranimationVorlesung/Konferenz
EigenwertproblemVorlesung/KonferenzBesprechung/Interview
Uniformer RaumFacebookVollständiger VerbandApple <Marke>Besprechung/InterviewVorlesung/Konferenz
Zusammenhang <Mathematik>Besprechung/Interview
ExpertensystemGoogleFormation <Mathematik>ExpertensystemVorlesung/KonferenzBesprechung/InterviewComputeranimation
MULI <Programmiersprache>Maschinelles LernenAlgorithmusBesprechung/Interview
EnergieReiheVorlesung/KonferenzBesprechung/Interview
Wiederkehrender ZustandAlgorithmusBesprechung/Interview
Constraint <Künstliche Intelligenz>AlgorithmusRegelungProzessautomationGruppoidMomentenproblem
ProzessautomationPrognoseMomentenproblemDeforestation <Informatik>DatenbusBesprechung/Interview
EinfügungsdämpfungZusammenhang <Mathematik>AlgorithmusCodeBesprechung/Interview
MomentenproblemKategorie <Mathematik>EbeneWald <Graphentheorie>KerndarstellungGRADEVorlesung/KonferenzBesprechung/Interview
Bericht <Informatik>MomentenproblemEbeneBesprechung/Interview
FlickrDivisionSystems <München>p-BlockVollständiger VerbandBesprechung/Interview
RoboterBesprechung/Interview
RoboterRobotikSIMPL <Programmiersprache>t-TestOrdnungsbegriffBesprechung/Interview
Autonomer RoboterProzess <Physik>HochdruckGoogleGRADEFacebookBesprechung/Interview
Besprechung/Interview
Quelle <Physik>Berührung <Mathematik>MomentenproblemVorlesung/KonferenzBesprechung/Interview
Systems <München>SoftwareNormaleBesprechung/Interview
Baum <Mathematik>SoftwareentwicklerRAMVorlesung/KonferenzBesprechung/Interview
Prozess <Physik>AlgorithmusGeschlecht <Mathematik>Proxy ServerSystems <München>Zusammenhang <Mathematik>ProgrammiergerätPhysikalische GrößeMomentenproblemNorm <Mathematik>RoboterVorlesung/KonferenzBesprechung/Interview
VERKAUF <Programm>StoßRoboterRichtungAlgorithmusOptimumGegenbeispielART-NetzGroße VereinheitlichungVorlesung/KonferenzBesprechung/Interview
AlgorithmusProgrammiererVorlesung/KonferenzBesprechung/Interview
Finite-Elemente-MethodeVorlesung/KonferenzBesprechung/InterviewJSONComputeranimation
Transkript: Deutsch(automatisch erzeugt)
Der nächste Vortrag ist heute nicht nur mit Chris Köver wie angekündigt, sondern wir haben auch eine Art Überraschungsgast und das ist Alexandra Sova, die zusammen mit Chris Köver diesen Vortrag halten wird.
Sie ist Datenschutzbeauftragte und IT-Sicherheitsauditor und zurzeit als Sachverständige neben Frank Rieger im Bundestag zum Thema Informationssicherheit. Die zweite, die unseren Talk hier halten wird, ist Chris Köver. Ich kenne sie persönlich als Gründerin des Missi-Magazins.
Dann ist sie über einen kleinen Umwegschlenker bei der Wyatt Germany, jetzt mittlerweile festes Redaktionsmitglied im Netzpolitik .org-Team und ich freue mich, dass die beiden heute etwas über KI, also künstliche Intelligenz, sagen werden.
Und zwar darüber, warum es wichtig ist, dass wir diese auch politisch kontrollieren und nicht, wie wir es auch aus dem Feminismus öfters kennen, die ganze Zeit nur mit Selbstverpflichtungen der Unternehmen arbeiten. Also ein warmer Applaus bitte für Chris Köver und Alexandra Sova.
Ja, herzlich willkommen zu unserem Talk. Wir freuen uns sehr, dass ihr da seid. Wir wissen leider nicht, wie zahlreich ihr seid, denn wir sehen euch so gut wie gar nicht. Es ist sehr heiß auf der Bühne, aber wenn ihr hier seid, dann freuen wir uns, dass ihr hier seid. Wir wollten heute sprechen
über Ethikrichtlinien für Algorithmen oder sogenannte künstliche Intelligenz, was auch immer darunter verstanden wird. Dazu kommen wir gleich noch. Ja, wer denkt sich so etwas aus und warum? Es gibt einen unglaublichen Boom dieser Guidelines derzeit. Also falls ihr den Überblick verloren habt, wie viele von diesen freiwilligen Selbstverpflichtungen oder
Guidelines für ethischen Umgang mit KI es inzwischen gibt, dann seid ihr damit nicht alleine. Es ist wirklich eine, also das hier, dieses Comic bezieht sich auf eine aktuelle Studie, die an der ETH Zürich durchgeführt
worden sind, wo die mal geschaut haben, wie viele gibt es denn eigentlich derzeit weltweit und 84 verschiedene Richtlinien gezählt haben. Der allergrößte Teil davon ist in den vergangenen zwei Jahren erschienen. Also es findet, es passiert jetzt gerade wirklich ganz viel in diesem Bereich. Das hier ist eine Datenvisualisierung, die das Bergman Klein Center for Internet and Society in Harvard gerade veröffentlicht hat.
Darauf zu sehen sind nur 32 Ethikrichtlinien für künstliche Intelligenz und Algorithmen und das sind jetzt sowohl Guidelines, die aus der Privatwirtschaft kommen, teils auch von NGOs und teils von staatlichen Organisationen.
Kann kein Mensch jetzt wirklich erkennen, was da jetzt alles drauf zu sehen ist, aber darum geht es auch nicht. Es ist eher tatsächlich um einmal auch zu zeigen, es ist wahnsinnig viel und selbst die Versuche, das in ein einfaches Bild zu gießen, sind fast zum Scheitern verurteilt, weil es einfach wahnsinnig umfangreich ist gerade.
Ein weiterer Überblick versucht sich gerade die NGO Algorithm Watch zu verschaffen. Die haben auf ihrer Webseite ein Crowdgesourcedes Projekt, wo sie AI Ethics Guidelines sammeln. Da kann sich jeder beteiligen, das heißt, falls ihr noch eine neue findet, die dort noch nicht
darauf verzeichnet ist, dann könnt ihr sie selbst dort eintragen und so zu einem besseren Überblick beitragen. Klar sage ich nur, es gibt inzwischen so wahnsinnig viele von diesen Guidelines, dass sich in der Wissenschaft gerade so eine Art eigene Subdisziplin dazu herausbildet, die in unterschiedlichen Bereichen,
also teils Politikwissenschaft und Policymaking, teils aber auch andere Bereiche, im Grunde jetzt nur mit diesen Guidelines, mit der Analyse und dem Abgleich und der Einordnung von Algorithmen und KI Guidelines beschäftigt. Ja, die Frage ist, woher kommt dieser Boom? Das ist im Grunde jetzt nicht so wahnsinnig erstaunlich, dass es den
Boom gibt, denn algorithmische Entscheidungsprozesse begegnen uns heute schon an sehr vielen Stellen im Alltag, im Privaten wie im Beruflichen, sei es jetzt beim Online-Dating in unseren Postflächern, wo sie das Spam aussortieren oder in den Newsfeeds von Social Media.
Vergabe von Krediten, bei der Einladung zu Bewerbungsgesprächen spielen sie eine Rolle neuerdings auch auf dem Arbeitsamt in Österreich, wo ein Algorithmus, ja, Jobanwärterinnen in drei verschiedene Kategorien einordnet und je nachdem ihnen die
Ressourcen und die Unterstützung zuteilt, wie gut oder schlecht ihre Chancen stehen überhaupt jemals wieder in den Arbeitsmarkt einzutreten. Also man merkt, die Algorithmen schneiden eben an immer empfindlicheren Stellen in unser Leben und in unsere Grundrechte ein und treffen diese im Kern ziemlich schmerzlich. Es ist also nicht so erstaunlich, dass parallel zu dieser Entwicklung immer lautere Rufe, auch jetzt immer mehr
Rufe laut werden, da tatsächlich auch Regulierungen oder eben ethische Regeln aufzustellen, was denn diese Algorithmen überhaupt dürfen. Also manche nennen es, bezeichnen sie als künstliche Intelligenz, was auch immer dann darunter verstanden wird, die Rede
ist auch von Automatic Decision Making oder ADM und egal wie es benannt wird, im Grunde geht es immer um die gleichen Fragen, nämlich was sollten diese Algorithmen alles tun und entscheiden dürfen, wo müssen wir
ihren Einsatz ganz klar beschränken und worüber sollten sie eben auch niemals entscheiden dürfen, also ganz klar rote Linien einzuziehen, wo klar ist, dass es nicht verhandelbar ist, wollen wir nicht Maschinen überlassen. Und tatsächlich ist es so, wie Chris gerade sagte, dass man auch an vielen Stellen sich
auch im politischen Kreis schon Gedanken darüber macht oder angefangen hat, sich darüber Gedanken zu machen. Natürlich ist es etwas unglücklich an der Stelle, dass sehr viele der Unternehmen, die sich mit Maschinen-Learning oder mit automatisierter Entscheidung mit Algorithmen befassen, ihren Sitz nicht in Deutschland hat, meistens haben sie nicht mal ihren Sitz innerhalb der Grenzen der Europäischen Union, was
die Aufgabe, die Sache anzupacken oder sie zu regulieren oder sie irgendwie zu kontrollieren zusätzlich erschwert. Das sieht die Bundesregierung und Bundestag allerdings ein bisschen anders, das heißt, man möchte nicht weniger erreichen als eine KI, künstliche Intelligenz, made in Germany, so hat man sich darauf geeinigt in dem Koalitionsvertrag zwischen den CDU, CSU und SPD.
Und das resultiert aktuell in Deutschland gerade auf politischem Paket in sehr vielen institutionellen Lösungen.
Wir haben uns entschieden, das zu bebilden, mit Zitat von Dürrenmatt bilden wir doch eine Kommission, schreit eine, ja gemacht schon, wir bilden eine Kommission beantwortet, das Bauernparlament jedenfalls bei Dürrenmatt. In Deutschland ist es so, dass wir zwei Kommissionen oder zwei Gruppen haben, die sich
auf Grundlage von Koalitionsvertrag gegründet haben, die erste ist die KET-Kommission, künstliche Intelligenz, gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale, so der offizielle Name, die auf Antrag der Fraktionen CDU, CSU, SPD, FDP und die Linke im Juni letzten Jahres gegründet worden ist.
Sie befasst sich auch tatsächlich mit der Frage, ob es Bereiche, ob es Themen gibt, in denen es künstliche Intelligenz oder automatisierte Entscheidungsfindung überhaupt nicht eingesetzt werden sollte, und zwar unabhängig oder zusätzlich zu aktuellen Gesetzgebungsverfahren.
Die Kommission sollte ihre Ergebnisse dabei auch intensiv sich in verschiedenen Gremien einzubringen und Sitzungen zu veranstalten, die soll ihre Ergebnisse nach der Sommerpause, der parlamentarischen Sommerpause 2020 einbringen. Eine Kommission, die etwas schneller ihre Ergebnisse präsentieren möchte, ist die Daten-Ethik-Kommission, diese wurde gegründet
von Bundesinnenministerium und Bundesjustizministerium im Juli, also einen Monat nach der Enquet-Kommission im Bundestag, dort haben wir auch viele prominente Vertreter wie Paul Nemitz, der Berater der Generaldirektion Justiz und Verbraucher der Europäischen Kommission
oder der Bundesdatenschutzbeauftragte Ulrich Kälber oder Maritman Hansen von Landesdatenschutzbehörde, glaube ich, in Schleswig-Holstein heißt das konkret korrekt.
Die Kommission sollte ihre Vorschläge bereits im Sommer 2019, da wird Chris noch einmal drauf eingehen, vorstellen und bereits zu ihrer Gründungssitzung hat sie erste Vorschläge eingebracht, Ziel ist nicht weniger als A.E. oder Artificial Intelligence Made in Europe.
Es muss aber nicht unbedingt im Koalitionsvertrag stehen, dass man eine Kommission gründet oder einen Rat oder eine Gruppierung, die sich mit Digital-Ethik-Ethik der Künstliche Intelligenz befasst, das hat auch der hessische Ministerpräsident selbst geschafft, und er hat seinen eigenen Rat für Digital-Ethik gegründet im September letzten Jahres, dazu
gehören auch hochrangige Vertreter der Gesellschaft, Wissenschaft, Wirtschaft wie der Bischof von Limburg Georg Petzig, der ehemalige Bundesforschungsminister Heinz Riesenhober, der Deutschlandstaff der Boston Consulting
Group Carsten Kratz und natürlich der Vorsitz gehört dem hessischen Ministerpräsidenten. Diese Kommission, das war nur ein kurzer Auszug davon, erarbeitet verschiedene Leitfäden oder Guidelines, die gegebenenfalls die Gesetzgebungsverfahren oder zukünftige Gesetze begleiten sollen.
Allerdings empfehlen Empfehlungen und Papiere, die sie erstellen, wirken hauptsächlich lokal oder national, während die meisten Unternehmen, wie ich gesagt habe, außerhalb von Deutschland und Europäische und non-oft agieren. Deswegen auch die Regulierung auf einer höheren Ebene ansetzen muss, wir schlagen vor, mindestens auf EU-Ebene, idealerweise im globalen Abkommen.
Genau, zur EU kommen wir gleich noch, aber erstmal, bevor wir weitergehen, vielleicht nochmal einen Blick auf die Inhalte, also womit beschäftigen sich diese Guidelines eigentlich.
Das sind in der Regel Sammlungen von verschiedenen ethischen Prinzipien, die sich an die Entwicklerinnen der Technologien richten und mit Entwicklerinnen sind hier sowohl die eigentlichen Softwareentwickler, also die Menschen, die programmieren gemeint, als auch die Unternehmen, die das verantworten, dass solche Systeme eben geschaffen werden, manchmal auch Konzerne.
Die Guidelines an sich sind sehr unterschiedlich, manche, wie die hier, die ihr jetzt gerade seht von IBM, sind wirklich sehr knapp, beschränken sich auf fünf Punkte, andere sind 300 Seiten lang und gehen wahnsinnig tief ins Detail, wie die Richtlinie des globalen Ingenieursverbandes IEEE, also das ist wirklich ein Riesenwerk.
Und trotzdem fallen bestimmte Gemeinsamkeiten auf in diesen Guidelines, die man sich eigentlich jetzt ganz gut an dieser IBM Guideline durchgehen kann, weil die Punkte, die dort genannt sind, auch in der Regel so eine Art Minimalkonsens sind oder ein minimaler Standard, der dort genannt wird.
Da ist als erstes meistens Accountability, also die Frage, wer ist verantwortlich, wenn ein Algorithmus etwas prognostiziert oder entscheidet. Dann Explainability, also die Transparenz und Nachvollziehbarkeit der Wirkung eines Algorithmus, das heißt, können Menschen nachvollziehen, wie das System überhaupt zu einer bestimmten Prognose gelangt ist,
auf Basis von welchen Daten und Faktoren ist es zu diesem Ergebnis gelangt. Manchmal geht es unter diesem Stichwort Transparenz auch wirklich um den schieren Fakt, dass das erkennbar sein muss, dass hier jetzt gerade ein Algorithmus am Werk ist und man eben es nicht mit einem Menschen zu tun hat, also einer Art Vermummungsverbot für Algorithmen.
Die müssen sich zu erkennen geben, wenn da ein Algorithmus arbeitet, dann muss das für den Menschen, der mit dieser Entscheidung dann konfrontiert ist, auch ganz klar ersichtlich sein. Der muss Bescheid wissen.
Value Alignment haben wir jetzt mal übersprungen, Explainability, der dritte Punkt wäre dann Fairness, manchmal auch Equality oder Non-Discrimination genannt. Was dahinter steckt ist eben der Anspruch, dass Algorithmen so arbeiten sollten, dass sie eben nicht gegen bestimmte Gruppen auf Basis ihrer Identität diskriminieren.
Da geht es vor allem auch um die Daten, mit denen die Systeme trainiert werden, weil man eben weiß, wenn die Daten nicht repräsentativ sind oder wenn eben schon bestimmte diskriminierende Verzerrungen in den Trainingsdaten enthalten sind. Weil Menschen einfach diskriminierende Entscheidungen bereits in der Vergangenheit getroffen haben und jetzt ein Algorithmus auf
Basis dieser Daten trainiert wird, dann weiß man, dass diese Diskriminierung sich auch fortsetzt oder sogar verstärkt. Deswegen ist dieser Punkt eigentlich immer mit enthalten und als letzten Punkt, der dann noch, das vierte Punkt ist immer
noch mit dabei, Privacy, also das Recht auf Datenschutz und dass Daten eben nur mit Zustimmung der Nutzerinnen verwendet werden dürfen. Diese Faktoren sind offenbar so etwas wie eine Minimalanforderung für die ethische Entwicklung und den ethischen Einsatz von Algorithmen. Interessant ist aber auch einmal darauf zu gucken, was in diesen Guidelines nicht oder bemerkenswert selten auftaucht.
Worum es in der Regel nicht geht, ist die Notwendigkeit demokratischer Kontrolle über solche Guidelines und politischer Gesetzgebung für Algorithmen. Worum es ebenfalls sehr selten geht, ist die Gefahr des Missbrauchs von Algorithmen, um demokratische Prozesse auszuhöhlen.
Also sei es Wahlmanipulation durch Microtargeting oder Deepfakes oder verschiedene Verfahren, die da zum Einsatz kommen können. Und worum es auch sehr selten geht, ist das Problem fehlender Vielfalt in der Branche. Also der Umstand, dass derzeit überwiegend weiße und überwiegend Männer diese algorithmischen Systeme entwickeln,
die dann aber eben nicht nur über weiße und Männer entscheiden, sondern eben sehr viele nicht weiße Personen auch betreffen und Frauen betreffen und man aus Erfahrung weiß, dass diese Systeme dazu neigen zu diskriminieren. Und eine Möglichkeit, dem beizukommen, oder eine Notwendigkeit wäre, zumindest die Entwicklungsteams diverser aufzustellen,
um die Wahrscheinlichkeit, dass so etwas passiert, möglichst gering zu halten. Das taucht aber selten in den Guidelines auf. Worum es dann auch nicht geht, sind die versteckten gesellschaftlichen Kosten.
Also zum Beispiel die Energie, die es braucht, der riesige Energieaufwand, den es braucht, um einen einzigen solchen Algorithmus zu trainieren. Oder eben den Einsatz von sehr schlecht bezahlten Clickworkern, die in Scharen eingesetzt werden müssen, um die Daten zu labelen und eben zum Training der Algorithmen beizutragen. Das sieht man derzeit sehr gut an dieser Debatte um Sprachassistenten und Alexa, wo jetzt wie nach und nach eigentlich
an einer Firma nach der anderen jetzt rauskommt, das ist ja gar nicht nur ein selbstlernender Algorithmus, sondern da sitzen ja Menschen irgendwo in Rumänien und anderen Ländern und labeln eben 10 Stunden am Tag diese Daten, damit der Algorithmus eben besser wird oder zutreffendere Prognosen treffen kann.
Ja, genau, springen wir vielleicht mal weiter. Achso, ich bin jetzt nochmal dran, Entschuldigung. Also genau, wir versuchen, zum einen jetzt noch Schlauchheiten überspringen, noch ein bisschen Schlauchheiten.
Die Frage ist jetzt sagen, trotzdem ja, welche Auswirkungen haben diese Guidelines? Weil gibt es überhaupt eine Auswirkung darauf, wie eben Systeme entwickelt und eingesetzt werden? Denn freiwillige Selbstverpflichtungen, egal ob sie jetzt von einzelnen Konzernen kommen
oder aus ganzen Branchen oder von Verbänden, wie es inzwischen eben auch sehr üblich ist, sind natürlich erstmal genau das, freiwillig. Also das ist eine Erklärung von guten Absichten und edlen Zielen, die sind nicht bindend in irgendeiner Art und Weise und es geben sich eben auch keine konkreten Ansprüche daraus für diejenigen,
die von diesen algorithmischen Enteilungsprozessen betroffen sind. Eine freiwillige Selbstverpflichtung kann man nicht vor Gericht anführen, wenn es darum geht, irgendeine Art von Schadensersatz einzuklagen für eine zu unrecht getroffene Entscheidung oder für einen gelöschten Account oder einen nicht gewährten Kredit oder ähnliches. Eine falsche medizinische Diagnose, die dann vielleicht schlimme Konsequenzen hat.
Vor Gericht gelten eben nach wie vor nur Gesetze. Die Frage ist aber trotzdem, wirken sich diese Guidelines vielleicht doch irgendwie sonst positiv aus? Deswegen ist es rechtfertigen würde, dass man inzwischen eben 84 davon mit großem Aufwand geschrieben hat. Dazu gibt es jetzt eine aktuelle Studie eines Ethikforschers an der Universität Tübingen,
der sich 15 der wichtigsten Guidelines mal angeschaut hat, darunter auch die von Microsoft, von Google und von IBM. Und er kommt eben zu dem Ergebnis, dass die meisten in der derzeitigen Form weitgehend rückungslos sind. Also er hat verweist auf eine andere Studie darin, für die Studenten, Studierende und mehr als 100 Softwareentwicklerinnen befragt wurden
und denen dann verschiedene ethische Entscheidungen präsentiert wurden. Und da wurde eben geschaut, macht das einen Unterschied, ob die vorher diese Guidelines vorgelegt worden sind oder nicht. Und der Schluss zu dem er dann kommt ist eben,
ja, the main finding was that the effectiveness of guidelines or ethical codes is almost zero and they do not change the behavior of professionals from the tech community. Und verweist dann eben auf die Studie oder das Statement der anderen Wissenschaftler, die die Studie durchgeführt haben und sagen, es war im Grunde total egal, ob wir denen das jetzt vorgelegt haben oder nicht.
Wir haben da keine signifikante Unterscheidung feststellen können. Ja, schade. Eigentlich auch nicht so erstaunlich, wenn man bedenkt, welche Konsequenzen das denn überhaupt haben könnte, wenn man sich eben nicht an diese Guidelines hält.
Denn Stichwort freiwillige Selbstverpflichtung, der absolute Worst Case, der da eintreten kann, wenn man sich eben nicht dran hält, ist im Grunde ein Imageschaden für den jeweiligen Entwickler, die Entwicklerin oder eben das Unternehmen. Aber auf der Skala möglicher Konsequenzen, von hohe Geldstrafe bis hin zu Gefängnis,
vielleicht am einen Ende des Spektrums und gar nichts am anderen Ende des Spektrums, ist Imageschaden natürlich jetzt eher am Ende von gar nichts. Also es ist ein eher schwacher Hebel, wenn es jetzt darum geht, von irgendetwas abzuschrecken in dem Zusammenhang. Vielleicht ist es auch deshalb nicht verwunderlich, dass inzwischen nicht nur aus dem europäischen Rechtsraum,
wo die Regulierung oder die gesetzliche Regelung von Industrie oder von der Wirtschaft starke und lange Tradition hat, sondern gerade aus dem anglosächsischen, aus dem amerikanischen Raum, immer stärker die Stimmen nicht nur von den Philosophen, aber auch von den Experten
und aus der Politik auch von den Netzachstelisten stärker werden, die sich dafür einsetzen, gerade den Bereich Datenschutz aber auch den Einsatz von Algorithmen stärker zu regulieren, jetzt um den Bruce Schneier zu nennen, der das schon seit längerer Zeit für den Bereich Informationssicherheit, Internet of Things
und jetzt auch für den Algorithmen einfordert. Es geht um Mindestanforderungen, dieser aber bitte nach der europäischen Tradition verbindlich. Also die Kritik breitet sich gerade aus an den Selbstverpflichtungen. Es lohnt sich aber ganz einfach einen Überblick zu haben, das zu beobachten, wie die Trends auch da PKE sind. Genau, also hier nochmal ein Zitat aus dem Paper von Tilo Hagendorf,
dem Ethiker, der das untersucht hat, und es zeigt im Grunde diese Guidelines, zumindest sofern sie im Moment aus der Industrie kommen, sind in allererster Linie PR-Maßnahmen einzelner Unternehmen und Branchenverbände und genauso muss man eigentlich auch betrachten. Die Botschaft dahinter ist, vertraut uns, wir machen das schon,
ihr müsst da gar nicht erst irgendwie gesetzlich irgendwas regulieren, ist gar nicht notwendig, wir kümmern uns schon darum. Aber als Mittel, um jetzt wirklich die Risiken von algorithmischen Systemen zu regulieren und Menschen davor zu schützen, eignen sie sich nicht, muss man so hart sagen.
Der Philosoph Thomas Metzinger, der auch in der High-Level Expert Group der EU-Kommission zum Thema Künstliche Intelligenz sitzt, bezeichnet diese Praxis als Ethics Washing, davon ausgehend, so Unternehmen betreiben eine ethische Debatte mit dem Ziel, gesetzliche Regeln aufzuschieben.
Und je länger diese Debatte, oder eher aufzuschieben oder im Bestfall sogar ganz zu verhindern, und je länger diese Debatte läuft, so das Prinzip, umso länger dauert es ja dann auch, bis tatsächlich Gesetze gemacht werden und womöglich die eigenen Geschäftsmodelle empfindlich stören in irgendeiner Art und Weise,
die wirklich wehtun könnte, auch finanziell wehtun könnte. Die Methode selbst ist vielleicht nicht ganz neu, also wenn man ein bisschen zurückdenkt, kann man daran auch, sage ich, eine nicht so rümliche
Methode, die im US-Senat praktiziert wird, wiedererkennen und die ist bekannt auch in Deutschland unter dem Namen Filibustering oder Filibuster. Das ist so eine Methode, die heute noch sehr oft eingesetzt wird im Senat oder bei Gesetzesentscheidungen, die nie so populär sind und von Minderheit durchgesetzt werden sollen. Dann steht vorne so
ein Redner, ein Sprecher, ein Filibuster, dadurch Dauerreden, die Gesetz, also die Entscheidung, die bei einem Gesetz verhindert, während in irgendwie in den Fluren des Senats im Background Gespräche noch hektisch geführt werden, um einzelne Senatoren zu überzeugen, doch dem Gesetz zuzustimmen. Also Filibuster, Verzügerung, Technik,
wer hat es erfunden? Nein, es waren nicht die Schweizer, es waren auch nicht die Amerikaner, die Technik der Entscheidungsverzügerung wurde tatsächlich in dem hüremischen Senat bereits bekannt. Und das finden wir in der digitalen Welt auch immer wieder, gerade bei den Selbstverpflichtungen eine Art, wie gesagt,
Verzügerungstagweg, solange man eine bestimmte Aktivität zeigt, ist eventuell die Gesetzgebung nicht notwendig, weil man selbst sich verpflichtet, bestimmte Regeln zu befolgen und diese sich selbst praktisch aufgibt. Ja, und Teil von diesem Filibustering ist eben nicht nur die Guidelines zu veröffentlichen,
sondern das geht noch weiter. Also viele Unternehmen finanzieren inzwischen eigene Ethik-Lehrstühle oder ganze Institute, auch in Deutschland. Also ein Beispiel aus München, Deutschland ist eben das Institut für Ethik in der KI, das Facebook derzeit zum Beispiel finanziert, wo unabhängige
Forschungen betrieben werden sollen, aber Facebook gibt quasi das Geld für diese Professuren. Und es gibt auch einen ganzen Haufen Verbände, zum Beispiel die Partnership for AI, eine NGO, in der dann Amazon und Apple und Facebook, IBM und wer nicht sonst noch alles sich zusammenfindet und auch
auf solche Zusammenhänge kann man dann natürlich immer verweisen, wenn es dann irgendwie heißt, aber müsste man nicht vielleicht auch irgendwie mit gesetzlicher Regulierung was machen. Aber das Entscheidendste ist vielleicht zu sagen, dass sich die Unternehmen ja tatsächlich auch sehr aktiv und maßgeblich und ganz direkt in die politischen Prozesse selber einbringen. Also wenn es dann darum geht,
Gesetzgebung zu entwickeln. Und ein Beispiel, an dem man das gerade sehr gut erkennen kann, ist die Arbeit der High-Level Expert Group, die im vergangenen Jahr von der EU-Kommission eingesetzt worden ist und die ihm zwei verschiedene Empfehlungen vorstellen sollte, einmal eben ethische
Guidelines für KI entwickeln sollte, die wurden ich glaube im April vorgestellt, auf jeden Fall Anfang des Jahres eher und in einem zweiten Schritt tatsächlich Empfehlungen für eine konkrete Förderung und auch Gesetzgebung, die sind jetzt gerade erst erschienen vor kurzer Zeit und da war es eben ganz interessant zu sehen,
wer sitzt denn eigentlich in dieser Gruppe. Das sind 52 Fachleute, die berufen wurden und diese Empfehlungen im Laufe eines Jahres erarbeitet haben und wenn man da mal anschaut und das alles ausrechnet, dann sieht man 23 kommen direkt aus der Industrie, also da sitzen dann zum Beispiel Vertreter von Zalando,
Nokia, Google und Airbus und so weiter und wenn man dann noch die Lobbyverbände dazu zählt, also zum Beispiel Digital Europe oder solche Organisationen, in denen eben die großen Konzerne auch ihre Lobbyinteressen organisieren in Brüssel, dann sind das im Grunde 26 Leute aus der Industrie, die an die Hälfte dieser Gruppe sind Industrievertreter
und dann kommen dann so absurde Sachen zustande wie das SAP zum Beispiel eigentlich dreimal da drin sitzt, nämlich einmal durch einen KI-Experten, der bei SAP arbeitet, einmal durch den Vorsitzenden dieser Expertengruppe, der im Aufsichtsrat von SAP sitzt und dann eben noch mal durch Digital Europe, dieser Lobbyverband, in dem SAP halt auch mit drin ist.
Auf der anderen Seite fällt dann auf, wer dann nicht oder nur sehr karg drin vertreten ist und zwar sind in dieser Gruppe, die ja eigentlich die Aufgabe oder eine zentrale Aufgabe hat, der Ethik Guidelines zu entwickeln, nur vier Wissenschaftlerinnen für Ethik tatsächlich, was schon etwas erstaunlich ist eben,
wenn es darum geht, Ethikrichtlinien zu entwickeln. Es sind zehn Organisationen dabei für Verbraucherschutz und Bürgerrechte und wer aber gänzlich fehlt, ist ein akademischer Experte für Datenschutz, auch das ziemlich interessant in einem Bereich wie eben Machine Learning und Automated Decision Making, der so eng mit der Nutzung und Auswertung von Daten
zusammenhängt, würde man jetzt eigentlich erwarten, dass da irgendjemand dabei ist, der sich eben gezielt mit diesem Thema beschäftigt, ist aber nicht der Fall. Und das Ganze hat natürlich Auswirkungen, wir haben uns dann bei Netzpolitik mit mehreren Leuten unterhalten, die in dieser High-Level-Expert-Group
sitzen und ursprünglich war eben die Aufgabenstellung der Gruppe, eine der Aufgabenstellungen war, so genannte rote Linien zu definieren, also ethische, absolute Grenzen, wo man sagt, das ist nicht verhandelbar. Das soll innerhalb der EU niemals erforscht werden oder KI oder Algorithmen zu solchen Zwecken eingesetzt werden.
Das geht dann um solche Sachen wie Citizen Scoring, es geht um autonome Waffensysteme oder eben auch automatisierte Identifikation mithilfe von Gesichtserkennung oder verdeckte Algorithmen. Also einfach Bereiche, wo man sagt, ganz klar, das ist nicht verhandelbar, das soll niemals in der EU passieren. Diese Punkte stehen auch nach wie vor im Papier,
also die sind nicht verschwunden aus dem Papier, die heißen jetzt aber nicht mehr rote Linien, sondern diesen Begriff. Rote Linien haben die Industrievertreterinnen erfolgreich getilgt, jetzt ist nur noch die Rede von Bedenken und Spannungen, zu denen sich eben diese ethischen Leitprinzipien verhalten könnten und davon, dass man
Abstriche machen müsste und diese Abstriche gut dokumentieren soll und so weiter und so fort. Also sprich, einfach sprachlich entschärft. Das kann man jetzt alles für total sprachliche Spitzfindigkeit halten, aber ich finde, es zeigt sehr gut, wie groß der Aufwand ist, den die Industrie betreibt, selbst in einem Bereich, wo es ja erstmal darum geht, etwas zu produzieren,
das rechtlich immer noch nicht bindend ist. Denn diese Ethik Guidelines, sondern auch die Empfehlungen, die die High-Level Expert Group jetzt vorstellt, sind immer noch nicht bindend. Das sind erst mal nur Guidelines, an die man sich halten kann, wenn man Lust dazu hat oder eben auch nicht und im Grunde dann auch keine Konsequenzen zu fürchten hat. Das Einzige ist,
man geht eben davon aus, dass sie natürlich beeinflussen könnten, wie jetzt eben die Politik der EU-Kommission ausfallen könnte in der nächsten Legislaturperiode, deswegen da schon mal präventiv sehr viel Energie darauf verwandt worden ist, sich dazwischen zu schalten.
Deshalb, wie gesagt, es war jetzt ein sehr guter Übergang, um letztendlich auch sich zu überlegen, wie könnte man das Dilemma lösen? Wir haben uns jetzt genau angeschaut, was sich die Industrie oder die Wirtschaft wünscht
oder mehr oder weniger nicht wünscht. Jetzt wollten wir aber auch aufzeigen, ob es eventuell Ansätze gibt, mit denen man zu konkreten Lösungen kommen kann. Unser Vorlieber für Gesetze ist ein bisschen schon deutlich geworden und da haben wir tatsächlich auch ein paar Vorschläge,
wo man es wenigstens anfangen könnte, wenn man sich für die Regulierung der Algorithmen einsetzen möchte. Erster, bekannteste, glaube ich, von den Gesetzen seit der Einführung im Mai 2018, ist das eine Schutzgrundverordnung,
die schon dadurch, dass sie einen gewissen Schutz von Personen oder wenigstens personenbezogenen Daten überleisten soll, gut geeignet ist, um einige Regelungen, einige Einschränkungen für die Nutzung von den Daten, aber auch von den operativen Daten in ländlichen
Algorithmen und bei automatisierten Entscheidungen einsetzen oder regulieren könnte. Was möchtest du mit DSGVO dann? Es ist eben nicht so, dass es überhaupt gar nichts gibt im Moment an Regulierung, wie Alexander meinte, sondern es gibt ja schon Bereiche, zum Beispiel die DSGVO, da steht eben tatsächlich drin,
dass das Betroffene nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen werden. Das Problem, das klingt erstmal total gut, liegt in diesem kleinen Wort ausschließlich, denn in dem Moment, wo eine Person noch da sitzt, die einmal auf einen OK-Knopf drückt,
also im Grunde ein algorithmisches System wirft eine Prognose aus, dann wird aber nicht automatisch der Kredit abgelehnt, sondern eine Sachbearbeiterin oder Sachbearbeiterin muss nochmal auf OK drücken, dann ist es keine ausschließlich auf Automatisierung beruhende Entscheidung mehr, dann wäre es auch sozusagen nach DSGVO nicht mehr problematisch.
Das ist auch eine der Gründe, warum man diesen Artikel 22 sehr oft als ein stumpfes Schwert bezeichnet, weil das nicht nur diese Voraussetzung von vollautomatisierten Entscheidungen mit sich bringt, was niemand richtig definieren kann und was man leicht, wie Chris gerade erklärt hat, auch umgehen kann mit Leichtigkeit, aber auch deswegen, weil es
mit bestimmten Ausnahmen auch geht, das heißt, der Betroffene kann mal wieder einwählingen und dann ist wieder Artikel 22 Geschichte. Es gibt noch einen anderen Artikel, der Artikel 15 DSGVO, der eben bestimmt, dass Betroffene über die involvierte Logik einer Verarbeitung
informiert sein müssten, das heißt im Grunde sind Juristinnen sich aber auch nicht einig, was das jetzt bedeutet. Heißt das jetzt, dass die Wirkweise des Algorithmus offengelegt werden müsste, müsste der Code jetzt offengelegt werden, müsste einfach nur offengelegt werden, woraufhin ist dieser Algorithmus optimiert, also ist völlig unklar, was es eigentlich heißt und ob das überhaupt
möglich wäre im Zusammenhang mit algorithmischen Entscheidungsprozessen die involvierte Logik offen zu legen, die dahinter steckt eben. Was es dann natürlich ebenfalls schon gibt, sind Antidiskriminierungsgesetze in Deutschland. Wir haben das allgemeine Gleichbehandlungsgesetz in Deutschland, das die Benachteiligung auf Basis von Religion, Alter, Geschlecht und so weiter
aus vielen weiteren Kategorien explizit unter Strafe stellt. Das Problem bei diesem Gesetz ist, das greift erst in dem Moment, wo eine Benachteiligung, also ein konkreter Schaden durch Diskriminierung stattgefunden hat. Solange will man aber ja eigentlich nicht warten. Also das Problem bei, also justiziabel ist es erst in dem Moment, wo das eben passiert ist. Wenn man jetzt aber vorab
schon würde eingreifen wollen, einfach nur, wenn man feststellt, ah, das System diskriminiert, aber auch wenn es konkret noch niemand dadurch einen großen Schaden erlitten hat, dann wäre das im Moment mit Antidiskriminierungsgesetzen, wie wir sie derzeit haben, nicht möglich. Und dann vielleicht noch als, machen wir noch ein Wrap-up, klären einmal kurz,
was jetzt gerade auf Ebene der EU passiert, weil da ist gerade einiges in Gange. Ursula von der Leyen hat als neue Kommissionspräsidentin angekündigt, dass sie innerhalb der ersten 100 Tage im Amt eine Gesetzesinitiative zu KI und auf den Weg bringen will.
Die Frage ist allerdings, woher jetzt so schnell sich diese ganzen Ideen formieren sollen. Denn die High-Level Expert Group hat zwar Vorschläge dazu gemacht, wie KI in der EU gefördert und reguliert werden sollte, aber die sind jetzt noch nicht ausgereift auf einem Level, dass man da jetzt innerhalb von wenigen Monaten schon konkrete Gesetzesvorschläge daraus machen könnte.
Im Moment ist eben noch interessant, dass Berichte der Financial Times jetzt gerade öffentlich geworden sind, dass es darum geht, im Datenschutzausschuss der EU-Kommission, zumindest gerade darüber gesprochen wird, den Einsatz von Gesichtserkennung sehr stark, sehr viel stärker zu regulieren, als es jetzt gerade der Fall ist und dass es da nur noch ganz strenge Ausnahmen geben darf, in denen
das eingesetzt werden darf und ebenfalls relativ revolutionär wäre, dass Daten aus Videoaufnahmen, die sich potentiell für Gesichtserkennung eignen könnten, in Zukunft als biometrische Daten klassifiziert werden sollen, was eben auch den Einsatz dieser Technologie sehr stark einschränken würde.
Das würde eben auch nicht mehr reichen, einfach ein Hinweisschild aufzuhängen, hier hängt eine Verstärkung, es passiert gerade viel Verschärfung auf der EU, das wird jetzt interessant zu sehen, was da kommt, es kommen jetzt auch bald,
im Sommer hieß es, es ist jetzt eine sehr ausgedrängte Definition von Sommer, aber demnächst kommen auch die Vorschläge der Datenethik-Kommission und es wird auch nochmal interessant sein, was da drinnen steht. Sollen wir da nochmal gehen? Ganz kurz, ganz genau, ganz einfach, um zu sagen, dass ein Gesetz oder eine Vorgabe vielleicht
nicht hinreichend auch oft ist, um eine Kontrollierbarkeit oder Prüfbarkeit, auch korrekten Durchführungen, wie man jetzt bei NetzDG zum Beispiel sehr schön beobachtet, gewährleistet, gibt es auch zusätzliche Methoden, an denen auch aktuell gearbeitet wird, die allerdings die Schwäche haben, sie sind nicht verbindlich, sie sind nicht obligatorisch.
Ich spreche hier zum Beispiel von solchen Möglichkeiten wie Zertifizierungen, wir haben bereits Sicherheitszertifizierungen, die sehr verbreitet sind, ISO 27001 und so weiter, Nachweise für Kritis-Bereiche, doch diese greifen entweder auf kleine Bereiche der Wirtschaft zu, sind thematisch sehr eingeschränkt
oder wie gesagt, auch da sind sie nicht verpflichtend, man kommt drum herum. Zweitens sind Audits und Prüfungen zum Beispiel, so eine Jahresabschlussprüfung, die bereits jetzt Blocker und Bestandteile für Prüfung der rechnungsregungsrelevanten Systeme beinhaltet und jährlich in jedem Fall, das glaube ich mal
inzwischen durchzuführen ist, eine Testate in die Prüfer erstellen, ist, sage ich, beschränkt jetzt auf die Unternehmen, die Aktien im Gesetz unterliegen, allerdings ist es auch eine Möglichkeit, die, wenn sie eine Prüfbarkeit oder Kontrollierbarkeit überleisten könnte oder das heiß diskutierte Thema Sicherheits- oder Qualitätssiegel, wir
haben sogar einen Vorschlag von einem KI-Bundesverband, wie ein KI-Kennzeichen, sind glaube ich 9 Seiten, hinten ist sogar eine Seite, wo man unterschreiben kann, dass man einem KI-Gütersiegel zugestimmt hat, natürlich hat das keinen verbindlichen
Begriff, aber es ist praktisch eine Guideline, die man auch noch zusätzlich unterzeichnet, also da muss noch vieles gemacht werden, jetzt ist die Frage, kann man sowas Simples machen, geht das nicht vielleicht sowas wie Roboter-Gesetze von Asimov aufzustellen und die geltend machen, erinnert sich noch jemand, wie die
Gesetze sind, was das erste Roboter-Gesetz ist, wie soll man mit dem Menschen umgehen, das darf der Roboter nicht machen, der Menschen Schaden zufügen darf er nicht, war das erste Gesetz, das zweite logische
Weise, wenn der Mensch dahin her ist, darf man was ihm nicht tun, es ist heiß, ich weiß, da darf man ihm keinen Schaden zufügen und das dritte Gesetz, kriegen wir das noch hin, man darf sich selbst
nicht verschädigen, das sind die drei Roboter-Gesetze von Asimov, wo man auch heute sagt, vielleicht sind sie nicht so zutreffend, kann man den Robotern was verbieten oder der KI, ein schönes Beispiel dafür ist die Arbeit von Professor Bendel, er arbeitet in Zürich und hat einen Staubsauger-Roboter mit
ihm gearbeitet, das heißt, wenn der Staubsauger unterwegs ist und ein Insekten entdeckt, ein Marienkäfer, nicht Maikäfer, Marienkäfer, dann stoppt er, man kann bei Vorgabe auch ein System, einen autonomen Roboter bestimmte Sachen
verbieten. Dann vielleicht noch ein Schlussplädoyer, die Prozesse um Gesetzgebung laufen gerade, wer sich dafür interessiert, wie diese Regeln letztlich aussehen werden, die uns als EU-Bürgerinnen und Bürger alle betreffen werden, kann das in den nächsten Monaten besonders aufmerksam
verfolgen und sich vielleicht sogar mit eigenen Vorschlägen einbringen, was in diesen Gesetzesinitiativen in Brüssel sitzen bleibt, haben die mit Hochdruck an genau diesen Themen arbeiten und am Ende läuft es auf die
einfache Frage hinaus, wem sollten wir es überlassen, die Regeln für unser Zusammenleben mit Maschinen zu gestalten, sollten das diese Konzerne sein oder wie holen wir uns da selbst die Gestaltungsmacht zurück? Vielen Dank. Vielen Dank Chris und
Alexandra und wir haben jetzt noch fünf Minuten um Fragen und Antworten hier zu stellen und zu beantworten. Dafür ist ein Mikrofon in der Mitte hier vorne und ein Mikrofon da hinten in der Mitte vor dem großen Tisch und
bitte kommt doch zu den Mikrofonen hin, wenn ihr Fragen habt. Ja hallo, ich würde gern noch mal zurückkommen auf die Studie, in der belegt worden sein soll, dass die Richtlinien keinen Einfluss auf das Verhalten
von KI-Forschern haben. Da würde mich schon mal das Studiendesign interessieren, denn in dem Moment, wo man Leute fragt, die was von KI verstehen, aber noch nie mit einer der 84 Richtlinien in Berührung gekommen sind, das kann ich mir schlecht vorstellen und von daher habe
ich so meine leisen Zweifel an der Signifikanz der Studie, aber vielleicht ist das Studiendesign ja viel besser als ich denke. Wir können die Quellen dazu noch weiter angeben, das heißt Sie können sich die Studie dann auch
in dieser Stelle, würden Sie das jetzt so oder so machen und welche Probleme könnten sich dabei ergeben und da wurde eben keine signifikante Abweichung festgestellt, egal ob man den Leuten eben vorher quasi die ethische Leitlinie dazu gegeben hatte oder nicht. In Ihrem Verhalten.
War das Leute, die im KI-Feld tätig waren oder waren das ganz normale Fußgänger? Nein, nein, das waren Software Entwicklerinnen und Studierende. Also es waren entweder Leute, die das sagen selbst in der Praxis gearbeitet haben, um diese Systeme schon zu entwickeln
oder eben gerade ausgebildet werden, um das zu tun. Aber am besten selbst anschauen, weil die Studierenden ich hätte noch eine Frage bezüglich
der Konkurrenz, zum Beispiel man schaut zum Beispiel nach China oder in die USA, wo jetzt wahrscheinlich die Richtlinie nicht so streng sein werden, bezüglich KI besteht da nicht die Gefahr, dass jetzt Europa dann technologisch irgendwie abgehängt wird?
Also das ist tatsächlich durchaus möglich. Ja, das ist durchaus möglich und oft wird auch damit begründet, warum so wenige Gesetze gerade in diesem Bereich entstehen. Man gibt vor, dass
Regulierung die Entwicklung oder die Innovation bremsen würde. Erwiesen ist es nicht und wie gesagt inzwischen gerade im Bereich Datenschutz ist besonders deutlich, sind die Stimmen aus den USA, gerade auch von Netzaktivisten wie Mati Cegowski zum Beispiel in Silicon Valley
als Netzaktivist oder als Softwareentwickler auch tätig ist, sehr stark, die fordern Einbindung, Beteiligung von Politik. Sie sagen ohne Politik würden sich Menschen gegenseitig umbringen, da muss jemand dahinterstehen, der gesamt überblickt hat und nicht nur die Bäume sieht, sondern auch den Wald überwacht. Und ich denke, das ist ein interessanter Ansatz, besonders das
in Europa eine Tradition hat und wir inzwischen auch sehr oft mitkriegen, dass die Selbstverpflichtungen in den USA auch nicht mehr die Wirksamkeit zeigen, wie sie zu Anfang der Industrialisierung das taten. Weitere Fragen? Ja, vielen Dank für eure Bemühungen.
Die Frage ist, also das mit dem mit dem Robotergesetz ist ja ein bisschen naiv, also dass man entscheiden kann, was gut und böse ist, ist ja wirklich schon schwierig genug. Wie gehen wir damit um, wenn die Algorithmen einfach aus den Datenmengen die Diskriminierungen lernen, die in den Daten schon drin sind? Also wenn sie lernen, ohne dass da die Zuordnung
nach Hautfarbe oder Geschlecht drin ist, dieselben Diskriminierungen zu machen, die das normale Gesetz oder die normalen Richter schon machen oder bei sprachlichen Programmen zum Beispiel, die die Berufsbezeichnungen halt immer an die Geschlechter anpassen,
ohne dass das irgendjemand haben will. Also die Algorithmen können nichts dafür, im Grunde reproduzieren die nur den ganzen kulturellen Bias und im Grunde müssten man große Teile der Kultur einfach mal von diesen Vorurteilen reinigen. Das kann ja jetzt auch irgendwie nicht so stehen bleiben.
Das muss ja auch Teil des Prozesses sein. Wie wollt ihr damit umgehen? Genau, also dieses Problem der Diskriminierung ist und der übernommenen Diskriminierung aus schon verzerrten Daten ist ja eins der größten Probleme im Zusammenhang mit der Entwicklung dieser Systeme derzeit. Das sehen wir an den Beispielen,
wo das der Fall ist im Grunde, kann es da nur in Bewusstsein sein. Also das, was Sie jetzt gerade angesprochen haben, ist ja dieses Problem des Proxy Bias. Also selbst in dem Moment, wo ich zum Beispiel die Kategorie Hautfarbe oder Geschlecht gar nicht erst erhebe, findet ein Algorithmus durch Mustererkennung in sehr, sehr großen Datenmengen Muster, die uns als Menschen gar nicht auffallen würden
und schafft es dann diese Diskriminierung trotzdem fortzusetzen im System, auch wenn das oft von den Entwicklerinnen gar nicht beabsichtigt ist oder eigentlich sogar das Gegenteil des Ziels ist. Und das ist eins der größten Probleme derzeit, wo ja irgendwie eine Lösung gearbeitet wird,
aber das es sehr schwer zu lösen ist, zeigt sich ja auch daran, dass ja selbst Konzerne wie Amazon ihren Bewerbungsalgorithmus am Ende in die Tonne gekloppt haben, weil sie dieses Problem nicht geschafft haben zu lösen und ich glaube genau das muss dann die Lösung sein. Also am Ende ist ja auch, wie Sie ja auch gesagt haben, nicht der Algorithmus derjenige, der diskriminiert, der kann ja gar keine Absichten verfolgen,
sondern es geht darum, dass diejenigen, die in den verantwortlichen Positionen sind, darüber zu entscheiden, ob dieses System zum Einsatz kommt oder weiter eingesetzt wird, dann im Zweifelsfall den Stecker ziehen, weil sie das erstens erkennen und zweitens die Konsequenz daraus ziehen. Das kann nicht sein, das Gleiche gilt übrigens auch für sehr schlechte, sehr hohe Fehlerquoten von Systemen. Also sind diese Systeme dann bereit, um sie schon einzusetzen?
Vielleicht dann eher nicht und dann muss ein Mensch, der dort sitzt, die Entscheidung treffen, dass das System dann nicht eingesetzt werden darf oder diese Entscheidung korrigiert werden müssen. Ich glaube, das ist die wichtige Konsequenz daraus.
Bitte schnell Fragen und bitte schnell Antworten. Okay, der Grundthema war ja sehr kritisch gegenüber Regeln. Jetzt bin ich mir nicht sicher, ob ich das am Ende richtig verstanden hab, dass das Beispiel des Frischaufsagerroboters ein Positivbeispiel sein sollte, ein Gegenargument sein sollte. Weil dann würde ich mich freuen über den Gedanken zum Türöffnerargument, weil die Geschichte geht dann noch weiter,
dass dann das Team um Bendel angefangen hat, den Roboter so zu programmieren, dass er vorzugsweise Spinnen einsaugen soll und dann quasi dieser Marienkäfer einen Stoß gegeben hat in eine andere Richtung. Jetzt nochmal die Frage. War das ein Positivargument, also ein Gegenbeispiel für eine gute Regelstellung dieses Marienkäferbeispiel?
Alles klar. Das war ein Positiver Beispiel für eine Vorgabe. Ich sage nicht, dass Vorgaben das Optimum non plus ultra sind, aber man kann viele Probleme dadurch lösen, auch teilweise das Problem mit den falschen Trainingsdaten. Denn dann muss man sich dazu entschließen, eine Vorgabe zu machen. Die Algorithmen oder die Roboter lernen auf verschiedene Arten
durch Beobachten, das dauert meistens sehr lange, durch Auswerten von Massendaten, oder praktisch man muss ihnen eine Vorgabe machen. Deshalb heißt das hier auch Algorithmus. Wenn du jetzt dahin kommst, geh nach links oder rechts. Wenn diese Bedienung auftaucht, geh dann nach oben. Wenn diese Bedienung auftaucht, bitte mach das.
Wir wechseln gerade ein bisschen drum herum, diese Vorgabe zu machen. In einer Entscheidung über eine Einstellung von einer Person müsste man sonst dem Algorithmen, wenn er mit falschen Daten arbeitet, die unsauber sind, eine Vorgabe machen. Wenn du einen weißen und einen schwarzen Bewerber hast,
ich weiß, dass ich politisch nicht korrekt bin, aber ich kenne die Bezeichnung aktuell auch nicht, entscheide dich bitte für den weißen. Wie lautet dann die Vorgabe? D.h. man müsste ihnen auch die Vorgabe einprogrammieren. Wie gesagt, für Vorgabe wäre das ein sehr schöner Beispiel, weil er zeigt, dass es möglich ist, eine Vorgabe zu machen.
Zuerst muss aber jemand für diese Vorgabe auch Verantwortung übernehmen und die Entscheidung auch treffen, und das ist sehr schwierig. Vielen herzlichen Dank, Chris und Alexandra. Einen Applaus für euch.