We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Ethik, Privatheit und Datenauswertung - Teil 3/3

00:00

Formale Metadaten

Titel
Ethik, Privatheit und Datenauswertung - Teil 3/3
Serientitel
Anzahl der Teile
8
Autor
Mitwirkende
Lizenz
CC-Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen und das Werk bzw. diesen Inhalt auch in veränderter Form nur unter den Bedingungen dieser Lizenz weitergeben.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
Dies ist Teil 3 von 3. Der Begriff der Ethik wird definiert und verschiedene Konzeptionen von Ethik vorgestellt. Ebenso wird eine Definition des Begriffs der Technik geliefert und die Rolle von Normen und Ethik bei der Technikentwicklung und Techniknutzung dargelegt. Anhand eines Fallbeispiels zur KI-gestützten Videoüberwachung wird die Funktionsweise maschinellen Lernens in der Gesichtserkennung und neuronaler Netze erläutert. Das "Black-Box"-Problem und die Reproduktion von Diskriminierungen durch Algorithmen werden aufgegriffen. Anhand weiterer Beispiele werden Kontroversen und ethische Konflikte im Zusammenhang mit der KI-gestützten Bildanalyse aufgezeigt. Abschließend wird dargelegt, wie eine ethische Analyse und Orientierung zur Lösung dieser Kontroversen und bei Entscheidungsfindungen helfen kann und auf Wertkonzepte eingegangen, die bei der Datenverarbeitung von Bedeutung sind.
Schlagwörter
Computeranimation
Computeranimation
Computeranimation
ComputeranimationDiagramm
Ja, und damit kommen wir jetzt zum dritten Teil dieser Einheit, das geht quasi nahtlos über. Wir haben ja im letzten Teil schon gesehen, insbesondere diese Blackbox-Problematik, die wirft scheinbar oft Diskriminierungsprobleme auf, und das werden wir gleich auch nochmal an der Hand eines Beispiels sehen.
Aber das liegt eben nicht daran, dass wir da eben nicht reingucken können, insofern ist diese Bezeichnung Blackbox eigentlich ein bisschen eine Fehlbezeichnung, denke ich, sondern es liegt daran, dass uns eigentlich nicht mehr verständlich ist, warum bestimmte
Beziehungen, bestimmte Gewichtungen in diesem künstlichen neuronalen Netz, bestimmte Verschiebungen eben zu diesen Ergebnissen führen, zu denen sie führen, warum das vielleicht sinnvoll ist oder eben auch wie das vielleicht mit bestimmten Problematiken zusammenhängt. Denn das Ganze ist ja gewissermaßen einfach das Ergebnis von so einem Selbstoptimierungsprozess.
Und darin liegt eben diese Problematik. Ja, in den USA gab es in den letzten Jahren bereits politische Kontroversen eben zur polizeilichen Nutzung von Amazons KI Software Recognition, da ging es um den biometrischen
Abgleich von Beweisvideos mit bestehenden Bildern aus Polizeiakten. Man wollte also wissen, kennt man diese Person aus den Videos schon? Das ist also gewissermaßen ein sehr ähnliches Anwendungsszenario, wie wir das bei dieser
Videofahnung auch haben, nur dass die Aufzeichnungen eben schon früher entstanden sind. Das macht für die KI eigentlich relativ wenig Unterschied. Und diese Software Recognition, die ist nicht speziell für diesen Bereich entwickelt.
Das ist eigentlich ein ganz allgemeines System und das kann jeder gegen Geld nutzen, der das eben in seine Software einbauen möchte. Es ist also ein allgemein angebotenes System und die American Civilivities Union hat genau das getan und hat dieser KI die damals aktuellen Mitglieder des Kongresses gezeigt,
die natürlich eben nicht in den Fahndungsakten erfasst waren. Und von diesen insgesamt 535 Abgeordneten wurden damals ganze 28 falsch einem Fahndungsbild zugeordnet. Mehr noch, man sieht, dass auch sehr deutliche Tendenzen in den Fehlern bestehen,
Abgesehen davon, dass jetzt kaum Frauen betroffen sind, das hat wahrscheinlich was mit den Fahndungsbildern zu tun, die man da sucht, abgesehen davon sind eben auch diejenigen Abgeordneten deutlich überrepräsentiert, die sich als People of Color verstehen.
Die machen eigentlich nur 20% der damaligen Abgeordneten aus, die waren aber mit 39% der fehlerhaften Zuordnungen deutlich stärker betroffen als weiße Abgeordnete. Da sieht man jetzt eben, scheinbar hat die Amazon KI entweder an Beispieldaten gelernt,
die für den Einsatzzweck der Bildfahndung irgendwie nicht sonderlich gut geeignet sind. Ist ja auch nicht speziell nur für diesen Bereich entwickelt worden, sondern da kann man alle möglichen Sachen mitmachen. Genau in dem Sinn sind solche Effekte eben auch ganz typisch, eine KI muss eben sehr
genau auf den späteren Einsatzkontext abgestimmt werden, wenn man solche Effekte eben vermeiden will. Und bei den polizeilichen Maßnahmen, die dann eben zu schweren Eingriffen auch für Betroffenen führen können, gilt das natürlich umso mehr. Man muss dann irgendwie damit umgehen, dass selbst wenn in den Abgleichsdaten mit denen abgeglichen wird, natürlich bestimmte Tendenzen zum Beispiel bestehen.
Da kann man auch wieder fragen, woher die kommen, aber dass diese Tendenzen bestehen, führt dann häufig wiederum dazu, dass die dann eben auch bei diesen Zuordnungen gesucht werden. Aber das bedeutet, dass eine unbescholtene Person, die People of Color ist, eben
ein deutlich größeres Risiko trägt, dann eben diesen Polizeiaktionen unterworfen zu werden oder diesen Kontrollen unterworfen zu werden, als es eben eine weiße Person wäre, obwohl beide genau dieselben Voraussetzungen mitbringen, nämlich eigentlich nicht gesucht
zu sein. Ja und auch bei den Protesten am Berliner Südkreuz wurde unter anderem bemängelt, dass das System letztlich eigentlich viel zu fehleranfällig sei. Letztlich hatte man hier die zwei stärksten KIs dann kombiniert, also eine KI alleine hatte schon eigentlich gar nicht die Qualität gebracht, die man wollte.
Man wollte die Fehleranfälligkeit so weit wie möglich reduzieren. Im Gegenzug hat das dann aber bedeutet, dass es dann auch nur noch in grob zwei Drittel der Fälle überhaupt gelungen ist, die gesuchte Person zu erkennen. Das heißt, ein Drittel der Personen, nach denen man fahnden würde, würde man
mit so einem kombinierten System nicht erkennen, weil sowohl KI1 als auch KI2 sagen müssen, ja, das ist die gesuchte Person, aber so kriegt man es eben hin, die Fehleranfälligkeit ausreichend zu reduzieren. Das heißt, wenn nur KI1 sagt, ja, das könnte der sein, dann geht das trotzdem
durch und wird ignoriert, und erst wenn beide KIs sozusagen diese Zuordnung vornehmen. Also dann findet man weniger Personen, aber man hat auch weniger Fehlarme. Für so eine punktuelle Fahndung sind solche Systeme also gegebenenfalls dann einfach
nicht technisch leistungsfähig genug. Der damalige Innenminister Seehofer hat bei der Vorstellung der Testergebnisse allerdings auch schon deutlich gemacht, dass es gar nicht um eine punktuelle, sondern eben um eine flächendeckende Einführung gehen könnte. Zum Beispiel an allen U- und S-Bahnhöfen in Berlin oder an Fernbahnhöfen oder Ähnliches.
Und dann wäre so eine geringe Erkennungsrate eben deutlich tolerierbarer, weil sich eine gesuchte Person vermutlich eben durch mehrere dieser Systeme bewegen wird und dann ist die Idee, naja, früher oder später wird er dann vielleicht auch von diesen beiden KI-Systemen gleichzeitig erkannt und man erhält dann eben so einen Alarm.
Ja, aber solche Überlegungen zu einer flächendeckenden Einführung, die werfen dann natürlich nach einer ganzen Reihe anderer ethischer Probleme auf. Es fragt sich dann verstärkt, was eigentlich mit den erzeugten biometrischen Daten
passieren soll. Werden die nach einem Abgleich verworfen und wenn nicht, dann lassen sich ja nicht nur Personen, nach denen gefahndet wird, in ihren Bewegungen verfolgen, sondern eigentlich jede Person und hier kommen dann eben ganz speziell diese Wertkonzepte wie Schutz der Privatheit und Datenschutzanforderungen in einer
ethischen Analyse ins Spiel und zweitens kann man fragen, wo steht eigentlich diese smarte Komponente, also dieser Server, auf dem das läuft überhaupt, steht der wie bei dem Testlauf jetzt in einem konkreten Bahnhof, ist er abgeschottet von anderen Systemen oder ist es provokativ aus Sicherheits- und auch aus Effizienzerwägungen nicht viel sinnvoller, hier für ein großes
Rechenzentrum zu installieren, dass die Daten von allen möglichen Bahnhöfen dann zusammenführt und dort auswertet. Dann steigt natürlich wiederum das Missbrauchsrisiko enorm, weil wir an einem Punkt diese ganzen Daten haben. Ebenso wird ethisch relevant, wer eigentlich die Kontrolle über das
Rechenzentrum hat. Also wieder provokativ gefragt, könnte man hier nicht auf Clouds der großen Anbieter ausweichen, was ja auch wiederum aktuell schon mit Videodaten passiert, also die Daten aus vielen von den Bodycams, von den Polizisten, die werden aktuell eben auch schon in solche Cloud-Hoster
eben ausgelagert, bis, soweit ich weiß, bis die Infrastruktur eben nachgelagert aufgebaut wurde. Dann wollen wir diese Daten wirklich kommerziellen Anbietern überlassen. Ja, ein Beispiel dieser Kontroversen im Kontext einer KI-gestützten
Videofahndung lassen sich jetzt also die Fragen, worin eine ethische Orientierung hier eigentlich konkret bestehen kann, diese Fragen also stellen. Und an der Stelle muss man vielleicht die Erwartungen an eine ethische Expertise auch ein bisschen korrigieren oder ein Stück weit zurückschrauben. Es wäre nämlich schön, wenn wir ganz abstrakt den Daten irgendwie
ihre ethische Präsenz einfach ablesen könnten oder wenn die Daten-Techniken selber irgendwie ganz klar abstrakt zu bewerten wären. Aber dem ist ja leider nicht so. Was wir zum Beispiel am Beispiel von Amazons Recognition eben sehen, ist, das ist eine ganz allgemeine Technik, die auch ganz allgemein
angewandt wird. Und was jetzt bei der Sortierung irgendwie meiner Urlaubsbilder völlig vielleicht völlig unproblematisch und auch ganz legitim sein kann, das zeigt sich in anderen Handlungskontexten dann eben als hochproblematisch. Also es ist, solche Fehlzuordnungen können gegebenenfalls bei
Urlaubsbildern einigermaßen unproblematisch sein. Aber eben wenn da dran eine Entscheidung hängt, wie eine Polizeikontrolle oder vielleicht sogar noch weitergehende Sicherheitsmaßnahmen, dann sind wir schnell in einem hochsensiblen Bereich. Und so ist eben die Klärung der Frage, die über eine
ethische Expertise überhaupt adressiert werden soll, selber schon Teil, ein wichtiger Teil der ethischen Analyse. Und das ist eben ganz wichtig zu verstehen. Also auch eine Technikethik adressiert eigentlich gar nicht die Technik für sich genommen, irgendwie so abgelöst von ihrer Verwendung, sondern sie analysiert eine Technik in
Handlungszusammenhängen. Wir sind also wie in dem Teil 1 nochmal schon dargestellt wieder zurück eigentlich bei dieser Reflektion eines Handelns und zwar eines verständigen, sachverständigen Handelns. Also in diesem Sinne von Technik.
Und solche Handlungszusammenhänge, das ist hier eben das Beispiel der polizeilichen Nutzung von KI eben im Kontext einer Videoverhandlung. Und die Ethik soll Orientierung für menschliches Handeln und Entscheidend bieten.
Und so ist eine der ersten, aber eben auch wichtigsten Fragen, die es bei so einer ethischen Klärung eigentlich zu stellen gilt, worin besteht hier eigentlich die Entscheidungssituation? Also zum Beispiel, wer braucht hier eigentlich eine Orientierung? Im vorliegenden Fall könnten wir zum Beispiel sagen,
es geht um einen Gesetzgebungsprozess, zum Beispiel für eben die Erlaubnis für die Bundespolizei, eine solche Technik an allen Fernbahnhöfen einzusetzen. Eine Beratung, eine ethische Beratung und Expertise bräuchte dann vielleicht so was wie die Gesellschaft ganz allgemein oder auch der
Gesetzgeber. Aber es könnte natürlich auch die Ingenieurin sein, die erst mal daran arbeitet, eine solche KI-Methode überhaupt zu trainieren und für eine Videoverhandlung in diesem Kontext überhaupt nutzbar zu machen. Also vielleicht schon ein bisschen im Vorgriff zu versuchen, beim Erstellen dieser Technik
schon die ethischen Probleme zu adressieren. Und wir merken schon sofort, das sind zwei unterschiedliche Adressaten, die unterschiedliche ethische Expertise brauchen. Aber beide haben es eben mit einer ganz klaren Einbettung in einem konkreten, situativen
Kontext zu tun. Das heißt, wir können nicht einfach die Technik oder die KI bewerten, sondern wir müssen gucken, in welchem Handlungskontext es wird, werden solche Datenverarbeitung, Datenspeicherung, Datenauswertung, solche automatisierten Methoden wie die KI eigentlich eingesetzt, um dann eigentlich überhaupt erst
so eine Bewertung vornehmen zu können. Aber man könnte natürlich auch fragen, worin besteht bei dieser Entscheidung eigentlich der konkrete Konflikt? Also was macht das jetzt eigentlich zu einem ethischen Problem? Und mit Blick auf unsere erste Sitzung kann man sagen, naja, offensichtlich weil irgendwie
bestimmte Wertungskonzepte berührt werden, die mit dem guten, gerechten Handeln irgendwie zu tun haben. Und ganz typisch für diesen Bereich der Datenverarbeitung, den wir mit data literacy ansprechen, sind da vier Werte, die ich kurz jetzt oder Wertkomplexe, die ich kurz jetzt einführen möchte.
Der erste dazu ist der Komplex der Privatheit. Privatheitsfragen sind ganz häufig betroffen, nämlich immer dann, wenn wir aus Daten Rückschlüsse auf persönliche Lebensverhältnisse ziehen können. Und das ist ja sehr viel öfter der Fall, als man eigentlich so denkt, von immer wir viele
Daten sammeln, auch über einen schönen Zeitraum, selbst bei wenigen Bezügen zu Personen ergeben sich da fast immer interessante Muster, die Rückschlüsse erlauben auf persönliche Lebensverhältnisse. In unserem Beispiel ist das natürlich ganz
Hier werden Überwachungsdaten gesammelt, vielleicht sogar flächendeckende Überwachungsdaten. Das erlaubt sozusagen einen Einblick darauf, wer ist wann wo, wie reist man sozusagen per Bahn von A nach B. Da sind natürlich eine ganze Reihe von Privatheitsfragen adressiert.
Aber diesen Bereich kennen Sie ja auch schon ein Stück weit aus der Einheit zu Datenschutz und Forschungsetik. Datenschutzfragen sind eben ganz häufig die Fragen oder in der Regel die Fragen, die bereits rechtlich eigentlich adressiert sind. Da gibt es klare Rechtstexte, auf die
man sich beziehen kann. Weil wir die DSGVO, das haben Sie dort ja gesehen. Privatheitsfragen aus einer ethischen Frage, die gehen meistens noch einen Schritt weiter und man kann so ein bisschen lockerer mit diesem Konzept umgehen und fragen, inwiefern werden hier eigentlich ja Einblicke in persönliche Lebensverhältnisse vielleicht erlaubt.
Ein zweites Konzept, das wir auch eben schon jetzt gesehen haben, ist dieser Komplex Diskriminierung bzw. Fairness. Das heißt, Sie können sich überlegen, inwiefern sorgt die Analyse,
die ich mit meinen Daten mache, eigentlich dafür, dass bestimmte Nachteile entstehen für gesellschaftliche Gruppen, die ohnehin schon gesellschaftlich benachteiligt sind. Das sind so typische Probleme der
strukturellen Diskriminierung, die die Lasten von solchen Entscheidungen, die auf Grundlage von Datenanalysen getroffen werden, insbesondere wenn die automatisiert getroffen werden, dass es ganz typisch ist, dass die ganz häufig zu Lasten von Gruppen fallen, die ohnehin
schon viele gesellschaftliche Diskriminierung oder Lasten zu tragen haben. Das heißt, man kann sich hier, wenn man es nicht als Diskriminierung labeln will, eben immer auch die Frage stellen, in wiefern werden negative
Möglichkeiten, also negative Resultate der Entscheidungen, die ich auf Grundlage von so einer Datenverarbeitung treffe, eigentlich fair verteilt. Wir haben da eben gesehen, die Zuordnung von so Fehlzuordnungen zu Fahndungsbildern in den USA
mit dem Amazons KI, die ist ganz offensichtlich zu Lasten einer gesellschaftlichen Gruppe, nämlich dieser People of Color, die ohnehin schon diskriminiert sind. Ein dritter Aspekt, den man hier ansprechen kann oder komplex ist dieser Komplex Transparenz
Rechenschaft. Das eine ist sozusagen erst mal zu verstehen, was hier konkret wie verarbeitet wird. Das hatten wir mit dieser Black Box Problematik schon mehrfach angesprochen. Aber es geht hier auch ein bisschen weiter, nämlich darum, inwiefern eigentlich hier zum
Beispiel Daten gespeichert werden, weiterhin auch gespeichert werden. Also das, was den Privathalzeingriff substanziell ausmacht, auch transparent zu kommunizieren, dass die Reisenden sozusagen auch einschätzen können, wie lange bleibt das gespeichert? Wo wird das zusammengeführt? Das sozusagen auch transparent zu kommunizieren.
Und ein ganz wichtiger Komplex in dem Bereich ist die Rechenschaft. Also was, wenn nicht eine gesellschaftliche Gruppe einfach nur strukturell benachteiligt wird, sondern was, wenn immer wieder dieselben Personen mit einer Person verwechselt werden, nach der gefahndet wird.
Dann haben sie sozusagen eine persönliche also eine persönliche Benachteiligung bestimmter benennbarer Personen die sich dann wie sozusagen gegen diese Fehler wehren können. Wer ist dafür verantwortlich,
das abzustellen? An wen können die sich überhaupt wenden? Gegen wen müssen die da gegebenenfalls gerichtlich vorgehen? Das alles sozusagen auch öffentlich zu machen, das wäre in diesem Fall ganz wichtig und sich das eben ethisch anzugucken. Aber vielleicht ein bisschen allgemeiner kann man sagen, wann immer man es mit einer automatisierten Datenverarbeitung und Entscheidungen
auf Basis von solchen Datenverarbeitung zu tun hat, stellt sich die Frage, wie können sich eigentlich Personen, die negativ davon betroffen sind, sinnvoll dagegen wehren? Wie kriegen die das mit, dass sie betroffen sind und wie können sie sich dagegen wehren? Und auch den vierten Punkt, den haben wir ja schon angesprochen, dieses Missbrauchspotenzial,
dass sie ethisch einschätzen können, also immer da, wo sie in einem langen Zeitraum viele Daten speichern, wo sie vielleicht Daten aus verschiedenen Bereichen zusammenführen, dort entsteht natürlich ein ganz erhebliches Missbrauchspotenzial. Und das kennen sie eben auch
jetzt aus unserem Beispiel der Videofahndung, das hatte ich ja angesprochen, unter diesem Beispiel der Zusammenführung von Daten oder vielleicht sogar der Übergabe an solche Daten, an Dienstleister, die dann das für ich meine, die Polizei speichern und auswerten. Und das riesige Problem,
die riesigen Probleme, die hier eben auch dadurch ergeben, dass diese Technologien auch missbraucht werden können. Man müsste jetzt sozusagen für eine unfassende ethische Bewertung noch gucken, welche weiteren Wertungskonzepte sind betroffen,
welche weiteren werden im gesellschaftlichen Diskurs vielleicht benannt und dann darauf eingehen. Zum Beispiel jetzt im Bereich der dieser Videofahndung natürlich die Gewährleistung von Sicherheit auch durch die Kriminalitätsbekämpfung. Das ist ja auch ein ganz wichtiger
Punkt. Das heißt, zu diesen vier ganz typischen im Datenbereich eben relevanten Aspekten kommt dann so ein bisschen auch die Frage, was ist eigentlich der Gewinn dieser Datenverarbeitung? Was gewinnen wir dadurch und welche weiteren Wertkonzepte sind damit eventuell berührt? Und das kann dann eben Teil
einer orientierenden Entscheidung sein. Ja, damit komme ich zum Ende. Ganz herzlichen Dank für Ihre Aufmerksamkeit. Ich hoffe, Sie konnten einige Einblicke in dem Bereich Ethik im Kontext eben von Data Literacy erwerben. Ich freue mich auf jeden Fall auf Ihre Fragen
und wünsche Ihnen bis dahin eine gute Zeit.