We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Information Governance algorithmischer Entscheidungssysteme

00:00

Formale Metadaten

Titel
Information Governance algorithmischer Entscheidungssysteme
Serientitel
Anzahl der Teile
69
Autor
Lizenz
Keine Open-Access-Lizenz:
Es gilt deutsches Urheberrecht. Der Film darf zum eigenen Gebrauch kostenfrei genutzt, aber nicht im Internet bereitgestellt oder an Außenstehende weitergegeben werden.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
#INFORMATIK2018, STAGE Ada, 27.09.2018: Begrüßung - Information Governance algorithmischer Entscheidungssysteme Prof. Dr. Hannes Federrath, Universität Hamburg / Präsident der Gesellschaft für Informatik
48
Vorschaubild
10:14
InformatikInformationWorld Wide WebMomentenproblemInformatikerp-BlockStrömungswiderstandDigitalisierungSystems <München>AlgorithmusEbeneWort <Informatik>InformationLöschen <Datenverarbeitung>Mooresches GesetzZifferSoundverarbeitungImplikationRichtungSupremum <Mathematik>Offene MengeNewsletterCodeZusammenhang <Mathematik>MittelungsverfahrenEntscheidungstheorieGesetz <Physik>QuellcodeZugbeanspruchungInternetUmsetzung <Informatik>TestdatenWeb logJSONXMLVorlesung/KonferenzBesprechung/Interview
Transkript: German(automatisch erzeugt)
Herr Oswald und ich, wir sind schon fast die besten Freunde, weil wir so viel miteinander auch, was die Choreografie und den Ablauf der Tagung betrifft,
im Kleinen gesprochen haben, sodass ich eigentlich nur noch mal ganz wärmstens sagen kann, vielen vielen Dank für den tollen Job, den Sie hier machen. Und er wird auch durch unser kleines Symposium leiten, das ja, wie Sie auch schon gesagt haben, der Entschiedungssystem heißt. Und nun steht da auch, auch das ist etwas,
worauf ich gewissen Wert lege, nicht mehr Präsident der Gesellschaft für Informatik, sondern dass ich an der Uni Hamburg arbeite als Professor für Sicherheit in verteilten Systemen. Denn in der Tat habe ich gewissermaßen gerade den Hut gewechselt, nicht die Krawatte.
Aber ich spreche plötzlich für einen Forschungsschwerpunkt, den wir gemeinsam mit dem Hans-Bredow-Institut, der TU Hamburg ins Leben gerufen haben und der heißt Ich will Ihnen einfach mal kurz erläutern, was das bedeutet. Und dann werden wir auch auf den Titel der Tagung noch mal zukommen,
damit Sie auch ein Gefühl dafür bekommen, warum das alles so ist. Also Information Governance Technologies ist ein Forschungsschwerpunkt, den wir etabliert haben mit dem Ziel, nicht nur darüber zu reden, dass Technik gestaltet wird
von Technikern für irgendwas, sondern dass es gewisse Anforderungen gibt, die von außen auch auf Techniker einströmen und die natürlich mit berücksichtigt werden sollen. Ja, das können rechtliche Anforderungen sein, das können auch, ich nenne es mal vor, rechtliche Verantwortungen sein, also etwa solche, die noch nicht in Gesetze gegossen sind,
aber die trotzdem schon gelten, nehmen sie etwa betriebliche Vereinbarungen. Und es können natürlich auch Dinge sein, die wir als wichtig empfinden, die aber vielleicht manchmal auch im Konflikt stehen können zu Dingen, die wir uns konkret vielleicht vorstellen. Der Zweck heiligt nicht immer dem Mittel und dann würden wir vielleicht
von Ethik und Moral sprechen und all diese Dinge mal in Ordnung zu bringen, vor allem aus technischer Sicht. Was hat es für Implikationen auf Technikgestaltung und welche Implikationen kommen sozusagen aus der Technik, aus der Informatik wieder zurück ins Recht? Um diese Fragen etwas genauer zu untersuchen,
haben wir diesen Forschungsschwerpunkt gegründet. Es geht also praktisch darum, zu verstehen, wie man solche sozio-technischen Systeme, wie wir es auch nennen, gestaltet und die Umsetzung von Entscheidungs- und Verantwortungspflichten beziehungsweise Rechten,
da würde ich gar nicht so stark unterscheiden, mit dem Ziel, eben Systeme so zu bauen, dass möglichst wenig Sekundäreffekte für Mensch, Umwelt und Gesellschaft entsteht. Also wenige negative Sekundäreffekte natürlich. Ja, wir alle streben ja danach, das positiv sozusagen zu gestalten.
Nun, das ist sehr breit. Es ist vielleicht aus Ihrer Sicht auch auf eine gewisse Art cloudy, ja, so ein bisschen oder foggy oder wie immer Sie das nennen wollen, also jedenfalls noch nicht ganz sozusagen klar, in welche Richtung das gehen könnte. It's not a bug, it's a feature, sage ich an dieser Stelle. Denn wir sind eben auch dabei, erst mal das Thema für uns und für andere zu schärfen
und ein Thema, das aktuell natürlich von großer Bedeutung, von gewisser Relevanz damit auch für uns ist, ist die Frage, wie algorithmische Entscheidungssysteme verstanden werden können, aber auch, wie sie vielleicht reguliert werden müssten.
Und umgekehrt wieder, was müsste ich als Informatiker, als Techniker beachten, wenn ich solche Systeme vielleicht auch baue? Muss ich also etwa so eine Art Transparenzfunktion mitbringen oder muss ich vielleicht die Testdaten mitbringen oder muss ich möglicherweise meinen Quellcode offenlegen,
sofern es sowas überhaupt noch gibt? Denn Daten sind ja der neue Code, haben wir mehrmals gehört in dieser hinter uns liegenden Tagung. Also es ist sozusagen irgendwie auch cloudy, selbst wenn man sich mit diesem konkreten Thema der algorithmischen Entscheidungssysteme auseinandersetzt. Und um die Dimensionen einfach ein bisschen konkreter werden zu lassen,
haben wir uns ein kleines Programm hier vorgenommen, das sich erstens mit Big Data und ethischen Fragen auseinandersetzt. Und ich bin sehr froh und glücklich, dass unsere junge Kollegin, und zwar in vielerlei Hinsicht, denn sie ist tatsächlich eine unserer neuesten Professoren in Hamburg, bei uns ist Judith Simon.
Sie wird uns auch jetzt als Mitglied der Datenethikkommission der Bundesregierung sicherlich ein bisschen was erzählen, aber sie arbeitet viele Jahre dazu. Ich bin genauso glücklich, wenn nicht glücklicher, aber auf einer ganz anderen Ebene,
dass Herr Wambach, der Präsident des Zentrums für Europäische Wirtschaftsforschung und Vorsitzender der Deutschen Monopolkommission hier ist und uns dann in einem konkreten Fallbeispiel vor allem die Fragen nennt. Wüssten wir die Antworten, wäre das Symposium schon um.
Und dann werden wir eine kleine Pause machen. Und schließlich kommt noch Stefan Schiffner, der in seiner Rolle als jetzt wieder Wissenschaftler, vorher aber auch EU-Repräsentant zum Thema Privacy Engineering, etwas erzählen wird, um einen speziellen Aspekt algorithmischer Entscheidungssysteme
noch mal unter die Lupe zu nehmen, den wir alle vielleicht seit dem 25. Mai 2018 auch gar nicht mehr hören können, nämlich Datenschutz und EU-Datenschutz-Grundverordnung. Und ja, also diese Themen, die haben wir uns alle, glaube ich, zugespammt,
wenn man immer auf den Newslettern dann zusagen musste. Ich persönlich habe eigentlich auf keine einzige dieser Fragen Willst du dabei bleiben, geantwortet. Ich kriege die Newsletter trotzdem. So viel zum Thema Datenschutz. Aber er wird insbesondere einen Aspekt berücksichtigen, den Sie vielleicht gar nicht so auf dem Schirm haben,
nämlich in der Tat gibt es in der EU-Datenschutz-Grundverordnung Artikel 22 eine Vorschrift, die besagt, dass algorithmische, ich nenne es jetzt mal mit meinen Worten, Sie können ja den Wortlaut selbst dann nochmal nachlesen, Diskriminierung hinsichtlich des Rechts auf informationelle Selbstbestimmung einfach macht, strikt und glatt, entweder verboten ist oder doch mindestens transparent
gemacht werden muss. Sie sehen, das sind unterschiedliche Felder, in denen das Problem offensichtlich evident ist. Und wir werden uns dem Thema halt Schritt für Schritt in verschiedenen Fallbeispielen widmen. Das ist gewissermaßen der Teil, der unmittelbar durch uns, die wir
diesen Forschungsschwerpunkt Information Governance Technologies vertreten, hier auch zu verantworten. Und ich will einfach noch einmal den Namen der Protagonisten sagen, wenngleich sie die auch vielleicht auf dem Flyer schon lesen konnten, speziell zu dieser Veranstaltung gibt.
Da haben wir zum ersten den Kollegen Tilo Böhmann. Er ist Sprecher dieses Schwerpunkt. Dann meine Rolle als Co-Sprecher. Dann haben wir die Kollegin Schirmer, die selbstverständlich auch im Publikum sitzt. Und wir haben Judith Simon, die uns eben auch natürlich aus Information Governance Technologies Sicht den Eröffnungsvortrag halten wird
von der TU Hamburg. Dann haben wir Sibylle Schupp von der Technischen Universität Hamburg in Harburg. Den Seitenhieb muss ich mir erlauben an dieser Stelle. Sibylle Schupp ist auch hier. Freue ich mich auch sehr. Und last but not least Wolfgang Schulz vom Hans-Predo-Institut für
Medienforschung, der dann noch auf dem Podium auch Platz nehmen wird und dort anschließend im Blog ab 17 Uhr noch mal zu Fragen der Entwicklung im Zusammenhang mit Digitalisierung sprechen wird. Und dieses Podium ist eine Novum und auch ein gewisses Risiko.
Ich will es nur gleich schon sagen. Das kann super spannend werden. Denn parallel findet zu dieser Veranstaltung hier noch eine Veranstaltung zum Thema Digitalisierung in Entwicklungsländern statt. Und die Fragestellungen, die sich daraus ergeben, die sind selbstverständlich auch für uns Neuland.
Und in diesem Sinne ist es gut, wenn wir sozusagen die geglaubte Expertise, die hier in Europa oder Deutschland besteht, wobei ich nach dem Vortrag von Ranga Yogeshwar gestern überhaupt nicht mehr überzeugt bin, dass das wirklich der Fall ist, wenn wir die zusammenbringen können mit den Möglichkeiten
etwa von Entwicklungsländern. Und darüber wird dann auf dem Podium diskutiert werden, sodass wir gegen circa 18.30 Uhr fertig sind. Und na ja, ich muss es doch noch mal sagen. Und 20 Uhr, ich bin nämlich dann immer noch nicht fertig, wird dann noch das Kino stattfinden, The Cleaners.
Und da diskutieren wir noch ein bisschen über die Dinge rund um die Frage, wie das mit dem Löschen geht. Bei The Cleaners geht es also um die Frage, wie das eigentlich wirkt auf Menschen, die den ganzen Tag, den ganzen Schmutz im Internet sehen und welche Auswirkungen das vielleicht auch hat auf diese, sagen wir mal, berufliche Tätigkeit.
Und ich sage schon mal an dieser Stelle, ich habe ja im Rahmen meiner langjährigen Tätigkeit als Sicherheitsprof auch mit dem Bundeskriminalamt kooperiert. Und wir haben eine Zeit lang auch im Bereich Kinderpornografie mit dem BKA zusammengearbeitet.
Und da hat man ähnliche Schmutzproblematiken. Und ich möchte nicht in der Haut derer stecken, die den ganzen Tag diese Bilder angucken müssen. Das kann eine interessante Diskussion werden. Der Film ist auf jeden Fall interessant. Und ich lade Sie ganz herzlich ein, nicht einfach dann wegzugehen, sondern sehen Sie zu, dass Sie 20 Uhr auch noch mitkommen. Jetzt bin ich mit meinen einführenden Worten fast zu Ende.
Ich danke Ihnen, dass Sie hier sind und übergebe damit noch einmal an unseren grandiosen Moderator Sven Oswald. Vielen Dank. Vielen Dank. Zu viel, Herr Professor, vielen Dank.