We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Freiheit und Vorhersage: Über die ethischen Grenzen von Big Data

00:00

Formal Metadata

Title
Freiheit und Vorhersage: Über die ethischen Grenzen von Big Data
Title of Series
Number of Parts
126
Author
License
CC Attribution - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Die öffentliche Diskussion über die Herausforderungen und Gefahren von Big Data geht am Thema vorbei - und genau das macht uns in Zukunft besonders verwundbar.
MicrosoftPredictionPredictionComputer animationMeeting/Interview
IMSLebendigkeit <Informatik>Lecture/Conference
FingerprintZahlPredictionLecture/Conference
Set (mathematics)FacebookSeries (mathematics)Maschinelle ÜbersetzungStrich <Typographie>Sample (statistics)Zusammenhang <Mathematik>UnschärfeRechtschreibprüferGoogleYouTubeExpert system
Maschinelle ÜbersetzungAlgorithmGooglePredictionComputer scienceStatistikerPredictionCommunications protocolTime travelAlgorithmMaschinelle ÜbersetzungGoogleOrder of magnitudeSet (mathematics)UnschärfeInternetWebsiteSystems <München>Gebiet <Mathematik>CompilerAtomic nucleusComputer animation
PredictionAtomic nucleusMeeting/InterviewLecture/Conference
PredictionMeeting/InterviewLecture/Conference
Decision theoryPredictionMeeting/InterviewComputer animationLecture/Conference
Atomic nucleusDecision theoryLecture/ConferenceMeeting/InterviewComputer animation
PredictionAtomic nucleusLecture/ConferenceMeeting/Interview
PredictionSequenceWirkung <Physik>Lecture/ConferenceMeeting/Interview
Correlation and dependenceSequenceWirkung <Physik>PermanentPredictionLecture/ConferenceMeeting/Interview
IP addressMeeting/InterviewLecture/Conference
Meeting/InterviewLecture/Conference
Form (programming)Meeting/InterviewLecture/Conference
Series (mathematics)PredictionMeeting/Interview
Lecture/ConferenceMeeting/Interview
Meeting/InterviewLecture/ConferenceSource code
Lecture/ConferenceMeeting/Interview
LiniePredictionLecture/ConferenceMeeting/Interview
PredictionExpert systemMeeting/InterviewLecture/Conference
AlgorithmSeries (mathematics)Lecture/ConferenceMeeting/Interview
PredictionLecture/ConferenceMeeting/Interview
Fraction (mathematics)Meeting/InterviewLecture/ConferenceSource code
SupremumLecture/ConferenceMeeting/Interview
PredictionEquationDirection (geometry)Zusammenhang <Mathematik>Lecture/ConferenceMeeting/Interview
StatisticsSource codeLecture/Conference
PredictionLecture/Conference
Lecture/ConferenceSource codeMeeting/Interview
Identity managementAnalogyStudent's t-testLecture/ConferenceMeeting/Interview
Atomic nucleusRandSource codeLecture/Conference
Lecture/ConferenceSource code
Wage labourLecture/Conference
Electronic data processingService (economics)Lecture/Conference
Information privacyForceLecture/Conference
Lecture/Conference
Series (mathematics)Product (category theory)CW-KomplexExpert systemLecture/ConferenceMeeting/Interview
Perspective (visual)Lecture/Conference
Lecture/Conference
LengthStudent's t-testInternetLecture/Conference
MicrosoftInsertion lossLecture/ConferenceComputer animation
Transcript: German(auto-generated)
Freiheit und Vorhersage, Freiheit und Vorhersage in Zeiten von Big Data, da möchte ich mit
Ihnen zwei Geschichten besprechen. Die erste Geschichte, die handelt davon, dass mein Computer hier falsch aufgesetzt
ist. Sekunde. Mirroring ist eingeschaltet, das brauche ich.
Die erste Geschichte handelt von einem kanadischen Psychotherapeuten namens Andrew Feldmann. 2001 schrieb der in Vancouver lebende Andrew Feldmann einen wissenschaftlichen Aufsatz.
Darin beschrieb er, wie er in den 60er Jahren LSD genommen hatte. Im Sommer 2006 wollte Feldmann wie so oft über die kanadisch-amerikanische Grenze, um vom Flughafen in Seattle einen Freund abzuholen.
Der amerikanische Grenzbeamte googelte Feldmann und fand den Artikel aus 2001. Weil Andrew Feldmann seinen Drogenkonsum im Jahr 1965 bei seiner Einreise im Jahr 2006 nicht von sich aus deklariert hatte, obwohl er es auch nie abgestritten hat,
wurde er deshalb drei Stunden verhört, ihm wurden die Fingerabdrücke genommen und dann wurde ihm die Einreise in die USA verweigert. Für immer.
Die zweite Geschichte. Jeden Tag, jede Woche wird über einen Strafgefangenen in den Vereinigten Staaten von einer Kommission entschieden, ob er auf Bewährung freikommt. In mehr als die Hälfte der amerikanischen Bundesstaaten wird für diese Entscheidung,
ob jemand auf Bewährung freikommt oder nicht, ein automatisiertes Vorhersageverfahren verwendet, das ermitteln soll, mit welcher Wahrscheinlichkeit genau dieser Strafling in den folgenden zwölf Monaten in einen gewaltsamen Tod eines Menschen verwickelt sein wird.
Zwei Geschichten. Zwei Dinge einen, diese Geschichten. Beide beruhen auf das, was wir heute Big Data nennen und beide verändern dramatisch, was wir Menschen unter Zeit verstehen.
Sie unterscheiden sich, diese beiden Geschichten, in der Aufmerksamkeit, die wir Ihnen bisher zugemessen haben. Fast all unser Interesse fokussierte sich auf die Auswirkungen von Fällen wie dem ersten. Weniger beschäftigten wir uns mit Fällen wie in der zweiten Geschichte.
Und genau das könnte unsere Gesellschaft, unsere Freiheit, unsere Art zu leben zerstören. Dagegen müssen wir jetzt aktiv werden. Das ist meine These. Erlauben Sie mir zu erklären.
Beginnen wir mit der ersten Gemeinsamkeit, mit Big Data. Andrew Feldman wurde gegoogelt. Das ist Big Data. Die Vorhersage entscheidet, ob ein Strafling auf Bewährung frei kommt. Auch diese Vorhersage ist nicht die Einschätzung eines Sozialarbeiters oder eines Kriminologen,
sondern basiert auf Big Data. Was aber ist Big Data? Intuitiv denken wir, wenn wir Big Data hören, an viel Daten. Also eine große, absolute Zahl an Daten. Und da ist durchaus etwas Wahres dran.
Es begann vielleicht vor ein, zwei Jahrzehnten in den Naturwissenschaften. Nehmen wir beispielsweise die Astronomie. Als im Jahr 2000 das Digital Sky Survey den Betrieb aufnahm,
sammelte es mehr Astronomiedaten in den ersten paar Wochen seines Betriebes als in der gesamten Geschichte der Astronomie. Über die letzten 15 Jahre hat dieses Teleskop mehr als 200 Terabytes an Daten
über astronomische Phänomene gesammelt. Aber ein Nachfolgeteleskop, hier sehen Sie ein digitales Rendering, das 2016 in Betrieb gehen wird, wird diese Datenmenge, 200 Terabyte, alle fünf Tage sammeln.
Oder denken Sie an uns selbst, an die DNA, die jeden von uns auszeichnet, für jeden von uns anders ist. Jeder von uns hat eine DNA mit drei Milliarden Basenpaaren. Vor ziemlich genau elf Jahren feierte die Welt einen großen Erfolg.
Ein menschliches Genom war komplett sequenziert. Dieses eine Genom zu sequenzieren mit seinen drei Milliarden Basenpaaren erforderte eine internationale Forschungsanstrengung,
kostete eine Milliarde Dollar und dauerte mehr als ein Jahrzehnt. Heute dauert das zwei bis drei Tage und kostet weniger als 2000 Dollar. Internetunternehmen sammeln eine unglaubliche Menge an Daten täglich. Es gibt mehr als 400 Millionen Tweets pro Tag.
Es gibt 800 Millionen YouTube Nutzer, die eine Stunde Video pro Sekunde hochladen. Zehn Millionen Fotos werden auf Facebook pro Stunde hochgeladen und Google verarbeitet ein Petabyte an Daten pro Tag. Ein Petabyte an Daten, was hatten Sie zum Frühstück?
Ich hatte eineinhalb Petabyte, das macht man jetzt so. Wie viel ist ein Petabyte an Daten? Wie viel Petabyte an Daten hat die Welt? Ein Petabyte an Daten ist so viel, wie in allen Büchern,
allen Zeitschriften, allen Filmen der größten Bibliothek der Welt, der Library of Congress, enthalten sind. Mal 100. Wenn wir uns ansehen, wie sich die Datenmenge in der Welt entwickelt hat in den letzten 25 Jahren,
dann ist unsere beste Einschätzung etwa diese hier. 1987 hatten wir weniger als 3 Milliarden Gigabytes an Daten in der Welt. 2007, 20 Jahre später, war es schon das etwa 100-fache. 100 mal mehr, 100x.
Wenn wir in der Menschheitsgeschichte versuchen, einen Zeitpunkt zu finden, an dem die Datenmenge in der Welt ähnlich stark in so kurzer Zeit zugenommen hat, dann glaubt Elisabeth Eisenstein, müssten wir 1453 bis 1506 sagen.
In diesen etwa 50 Jahren hat die Datenmenge in der Welt dank der Gutenbergschen Revolution des Buchdrucks mit beweglichen Lettern sich etwa verdoppelt. 2x in 50 Jahren. Hier haben wir eine Zunahme von 100x in 20 Jahren.
Aber das ist natürlich nur der eine Teil der Geschichte. Der andere Teil enthüllt sich, wenn Sie sich die unterschiedlichen Farben ansehen hier. Sie sehen hier, im Jahr 1987 war alles noch analog. Aber selbst im Jahr 2000, das ist dieser vertikale Strich hier,
selbst im Jahr 2000 waren drei Viertel der Daten in der Welt noch immer analog. Heute, 15 Jahre später, weniger als 15 Jahre später, sind wieviele noch analog? Weniger als ein Prozent. Innerhalb von 15 Jahren haben wir uns von einer analogen in eine digitale Gesellschaft gewandelt.
Und die Datenmenge hat radikal rasant zugenommen. Warum ist das wichtig? Weil die Zunahme von der Quantität von etwas auch zu einer neuen Qualität führen kann. Denken Sie beispielsweise an das.
Wenn Sie ein Foto machen, eines Pferdes, das galoppiert, dann ist das immer noch ein Foto. Machen Sie ein Foto jede Minute, dann ist das immer noch eine Ansammlung von Fotos. Aber steigern Sie die Quantität dramatisch. Machen Sie zum Beispiel ein Foto alle sechzehntel Sekunden und sehen Sie es an,
dann haben Sie eine neue Qualität gewonnen. So wie hier. Was sind diese neuen Qualitäten von Big Data? Drei Begriffe kennzeichnen das. Mehr, unscharf und Korrelationen.
Lassen Sie mich kurz erklären. Zuerst mehr. Mehr bedeutet nicht, dass wir bloß absolut mehr Daten haben, sondern wir sammeln mehr Daten relativ zu dem Phänomen, das wir verstehen wollen, zur Frage, die wir beantworten wollen. Im Vergleich zu der Welt der kleinen Daten, in der wir uns mit kleinen Samples an Daten zufrieden gegeben haben.
Das erlaubt uns in Details hineinzugehen, das erlaubt uns Fragen zu stellen, von denen wir gar nicht gewusst hatten bei der Sammlung der Daten, dass sie interessant sind. Das erlaubt uns die Daten sprechen zu lassen.
Wie kann man sich das vorstellen? Nun, stellen Sie sich vor, Sie tun das, was der Herr in der zweiten Reihe gerade tut. Sie machen ein Foto. Ich würde jetzt ein Foto von Ihnen machen. Ah, endlich ein Foto von meinem Publikum.
Wenn ich jetzt dieses Foto mache, dann muss ich mich entscheiden, auf wen ich fokussiere. Auf wen ich Strafstelle, zum Beispiel den Herrn in diesem wunderbaren gelben Polo-Shirt in der zweiten Reihe. Dann muss ich Sie leider hier in der sechsten Reihe enttäuschen und dahinten oberhaupt, dann sind Sie nur mehr unscharf am Bild.
Ich entscheide mich also zum Zeitpunkt des Schießen des Fotos, was für mich wichtig ist und was unwichtig ist. Und ich kann im Nachhinein nicht mehr zurück. Ich kann nicht mehr die Damen und Herren im Hintergrund scharf stellen.
Ich zeige Ihnen jetzt ein Foto einer Zahnbürste. Im Hintergrund sehen Sie leider unscharf meinen vierjährigen Sohn. Ich kann ihn nicht mehr scharf machen. Kann ich? Ich kann. Denn dieses Foto ist kein normales Foto, es ist ein Big Data Foto geschossen mit
einer Big Data Kamera. Der Markenname ist Lightro, der technische Name ist eine Lichtfeldkamera, die alle Bildebenen und nicht nur eine abspeichert. Ich kann also, nachdem ich dieses Foto geschossen habe und es mir ansehe, auf meinen Computer, auf meinen vierjährigen Sohn klicken und er wird scharf.
Oder ich kann auf die Zahnbürste klicken und sie wird scharf. Ich kann also im Nachhinein wählen und aussuchen, welche Details mir wichtig sind. Ich muss nicht schon beim Sammeln der Daten festlegen, was für mich entscheidend ist.
Zweitens, unscherfe. Wenn ich enorme viel Datenmengen habe, dann ist es weniger wichtig, ob die einzelnen Datenpunkte mit hoher Qualität gesammelt werden. Habe ich nur zehn Datenpunkte und drei sind falsch, dann habe ich, was die Experten GIGO nennen, garbage in, garbage out. Aber habe ich drei Milliarden Datenpunkte, ist es weniger wichtig, ob tausend stimmen
oder nicht. Mehr und unscharf zusammenführen bei Big Data zu einer dritten Qualität, nämlich dem Vorteil von Korrelationen gegenüber kausalen Zusammenhänge. Korrelationen sind nichts anderes als wie scheinbare Zusammenhänge in den Daten.
Die zeigen nur auf, was passiert, nicht aber warum etwas passiert. Und das ist sehr oft gut genug. Korrelationen sind zum Beispiel das, was Amazons Empfehlungssystem antreibt.
Korrelationen sind das, was Googles Rechtschreibprüfung antreibt. Weder Amazon noch Google weiß, warum Leute etwas falsch schreiben oder ein bestimmtes Buch haben wollen. Sie wissen nur was mit gewisser Wahrscheinlichkeit. Aber das ist gut genug.
Lassen Sie mich kurz erklären, wie sich das in der Praxis darstellt, am Hand des Beispiels der maschinellen Übersetzung. In den 1950er Jahren hatte der amerikanische Geheimdienst oder die amerikanischen Geheimdienste sehr viele Dokumente in russisch, in zirilischer Schrift gesammelt.
Aber sie hatten wie so oft nicht ausreichend viele Übersetzer. Passiert. Was haben Sie dann getan, anstatt mehr Übersetzer einzustellen, das wäre das einfachste gewesen, haben Sie mit Computerwissenschaften Kontakt aufgenommen und Computerwissenschaften
haben Forschungsgelder gewittert und haben gesagt, das ist ganz einfach, wir können Ihnen ein maschinelles Übersetzungsprogramm zusammenstellen, in drei Monaten sind wir fertig und dann können Sie das alles automatisch übersetzen. Wir füttern in unseren Computer die 200 grammatikalischen Regeln der Sprache Dazu noch ein kleines Wörterbuch und wir sind dann.
13 Jahre und eine Milliarde Dollar nach heutigen Geldern später wurde dieses Projekt als Fehler aufgegeben. Dann passierte im Bereich maschineller Übersetzung nicht, by the way, das war nicht das einzige Mal, dass das Pentagon eine Milliarde abgeschrieben hat.
Ende der 80er Jahre hat die Firma IBM eine ganz andere Idee gehabt. Sie hat gesagt, wir wollen gar nicht dem Computer beibringen, wie er russisch oder englisch oder französisch oder deutsch sprechen soll. Warum bauen wir nicht nur auf Statistiken auf, welches Wort in einer Sprache in
einem bestimmten Kontext am öftesten in ein Wort in einer anderen Sprache übersetzt wird. Um diese statistische Wahrscheinlichkeit zu ermitteln, braucht man Testtext. Und dazu hat IBM die parlamentarischen Protokolle des kanadischen Parlaments verwendet.
Warum? Weil da gab es drei Millionen schön übersetzte Sätze vom Englischen ins Französische und umgekehrt. Aufgrund der zwei Amtssprachen. Und daraus wurden dann die statistischen Wahrscheinlichkeiten ermittelt und das Ergebnis war ein maschinelles Übersetzungsprogramm, das überhaupt nicht mehr versteht, warum
es etwas übersetzt, sondern nur nach statistischen Wahrscheinlichkeiten operiert. Aber das Ergebnis der Übersetzung war Größenordnung besser in der Qualität als das, was der andere Ansatz in den 50er und 60er Jahren gebracht hat.
IBM hat dieses Projekt dann aufgegeben, aber 15 Jahre später, circa, hat ein kleines Startupunternehmen, das Sie alle kennen, in Mountain View, sich diesem Problem wieder angenommen.
Google hat aber nicht die parlamentarischen Protokolle zum Training verwendet, sondern das gesamte World Wide Web, alles, was Sie an Texten im Internet gefunden haben. Also alle Websites der Institutionen der Europäischen Union, in allen Amtssprachen der Europäischen Union, endlich sind die für etwas gut.
Und die wurden runtergesaugt und analysiert, die Anleitungen und Bedienungshandbücher von Videorekordern und Waschmaschinen und Telefonen, die runtergeladen werden können. Oh Gott. Wenn ich die Bedienungsanleitung meines Digital VCRs lese, auf Deutsch, verstehe
ich es schon nicht. Und die wurde verwendet, um Google Translate zu trainieren? Ja. Denn die unglaubliche Menge an Daten hat die Unschärfe bei Weitem ausgeglichen. Das Ergebnis waren reine Korrelationen und damit ein sehr nutzbares Produkt
mit Namen Google Translate. Und das war gut genug. Viele Daten können hier einen wesentlichen qualitativen Unterschied machen. Und als Google herausgefunden hat, und IBM im Übrigen auch, Daten sind viel wichtiger als Algorithmen. Viel wichtiger als Algorithmen.
Unglaublich viel wichtiger als Algorithmen. Denn als IBM das Projekt in den 90er Jahren durchgezogen hat, haben sie dann begonnen, den Algorithmus zu verbessern. Und das hat zu keinen besseren Ergebnissen geführt. Und Google und Googles Chefingenieur Franz Ochs, der dafür zuständig ist,
übrigens ein Deutscher, hat gesagt, wirk auf den Algorithmus. Der Algorithmus kann ganz primitiv sein. Das Entscheidende ist die Datenmenge. Eine Million mal mehr Daten und der Algorithmus spielt praktisch keine Rolle mehr.
Mehr Unschärfkorrelationen, der Kern, die Kernqualitäten von Big Data. Wie wird nun Big Data angewandt? Wie ist es in diesen beiden Beispielen angewandt worden und mit welchen Konsequenzen, die ich Ihnen eingangs gebracht habe? Nehmen wir das Beispiel von Andrew Feldmahr.
Dort ist es so gewesen, dass der Grenzbeamte Feldmahr gegoogelt hat. Google wurde also zu einer Infrastruktur da überwacht, in dem Dinge aus der Vergangenheit plötzlich wiedergekommen sind. Über diese Art, über diese Qualität von Big Data, diese Überwachungsqualität
haben wir in den vergangenen Monaten ausreichend viel und durchaus erschreckendes gehört. Es ist nichts anderes als das Ende des Vergessens, das wir hier zu tun, mit dem wir es hier zu tun haben und etwas, was mich seit Jahren beschäftigt.
Aber in der zweiten Geschichte, die ich Ihnen erzählt habe, geht es um etwas anderes. Diese Crime Forecast Systeme, von denen ich Ihnen berichtet habe, die mitentscheiden, ob jemand auf Bewährung freikommt oder nicht in 30 amerikanischen Bundesstaaten,
das ist keine Infrastruktur der Überwachung primär, das ist eine Infrastruktur der Vorhersage. Die in immer größeren Details vorhersagt, was passieren wird. Vorhersage ist Erkenntnis auf Zeitreise. Aus der Vergangenheit und oder der Gegenwart wird auf etwas anderes, meist auf die
Gegenwart oder die Zukunft geschlossen. Aus dem vergangenen Wetter wollen wir auf das zukünftige schließen und vorhersagen. Vorhersagen senken Risiko. Und machen die Welt deshalb einschätzbarer.
Das mindert die Chance auf negative Überraschungen. Auf Vorhersagen kann man sich einstellen, sich vorbereiten und sich und andere vielleicht die Gesellschaft schützen. Deswegen sind in unserer Gesellschaft des verminderten Risikos Vorhersagen so
wichtig geworden. Und ist es nicht verlockend? Big Data sagt zukünftiges menschliches Verhalten überraschend genau voraus. Also wie wir uns in Zukunft verhalten werden, nicht wie wir uns bereits verhalten haben.
Und das erlaubt den Staat uns zu bestrafen für das, was vorhergesagt wird, noch bevor wir einen Gesetzesbruch überhaupt begangen haben. Wenn Sie jetzt an den Hollywood-Film Minority Report denken, dann ist das ziemlich genau
die Art von Vorhersage durch Tränk der Zukunft, die ich meine. Auf der einen Seite klingt die Vorstellung durchaus interessant. Ist es nicht immer besser, ein Verbrechen zu verhindern, als nachher jemanden dafür
zu bestrafen? Wenn der Mörder gestoppt wird, noch bevor der Mord ausgeführt wird, dann gibt es jedenfalls kein Opfer, das zu Schaden kommt. Ist das nicht gut? Und trotzdem, ein derartiger durchaus verlockender Einsatz von Big Data Vorhersagen wäre
grundfalsch. Denn zum ersten sind Vorhersagen nie perfekt, immer nur Ausdruck der Wahrscheinlichkeit. Damit würden wir also Menschen bestrafen, die das vorhergesagte Verbrechen nie begangen hätten. Schlimmer noch, indem wir eingreifen, bevor das Verbrechen geschieht und der vermeintliche
Verbrecher zur Verantwortung gezogen wird, noch bevor es passiert, verweigen wir diesem Verbrecher im Kern den freien Willen. Also die Fähigkeit selbst zu entscheiden, ob er oder sie wirklich so gehandelt hätte,
ob er oder sie das Verbrechen wirklich begangen hätte. Wie sollte denn ein Mensch in dieser Welt noch seine Unschuld beweisen? Denn noch vor dem Verbrechen aus dem Verkehr gezogen, kann er oder sie gar nicht nachweisen,
dass sie oder er das Verbrechen begangen hätte oder nicht begangen hätte. In dieser Welt wäre Vorhersage gleichbedeutend mit dem Urteil der Schuld. Es wäre Strafe ohne Schuld.
Absurderweise bedeutet das aber auch, die Freiheit des Menschen so zu handeln, wie er will und über sein Handeln zu entscheiden, ist die Kehrseite menschlicher Verantwortlichkeit. Wer schon aufgrund von Vorhersagen bestraft wird, hat jedenfalls gegenüber dem Staat
keinen freien Willen mehr. Aber wie können wir uns ohne freien Willen so etwas wie persönliche Schuld und Verantwortlichkeit überhaupt vorstellen? Wenn ich nicht mehr frei entscheiden kann, was ich tue, dann kann ich doch für
mein vorhergesagtes Handeln auch nicht schuldig sein. Sperrt mich die Gesellschaft dann trotzdem ein, dann kann ich nicht schuldig im herkömmlichen Sinn sein. Denn Schuld macht ja nur Sinn, wenn ich mich frei entscheiden konnte und bewusst für das falsche Entscheid.
Dieses Ende der Schuld, wie wir sie kennen, bedeutet dann, dass Menschen, die wir aufgrund von Big Data vorhersagen, ins Gefängnis stecken, nicht schuldig sind. Wir sie aber trotzdem bestrafen. Wir hätten damit menschliche Verantwortung abgeschafft und durch etwas viel Schlimmeres
ersetzt, durch schuldlose Strafe. Es wäre nichts weniger als das Ende menschlicher Handlungsfreiheit jedenfalls gegenüber der Gesellschaft. Big Data Vorhersagen einzusetzen, um Menschen zu bestrafen in einem freiheitlichen
Rechtsstaat, um Frau Merkel zu zitieren, geht das gar nicht. Aber was ist, wenn der Staat die Vorhersagen nicht zur unmittelbaren Strafe nutzt? Was ist, wenn etwa nur eine Polizeistreife vor meinem Haus hält, um nach den Rechten
zu sehen oder mich so lange in ein Gespräch verwickelt, bis die vorhergesagte Tat-Situation vorüber ist? Das wäre doch keine Strafe, oder? Wie würde denn die betroffene Person es empfinden? Wie würden die Nachbarn es empfinden und auf den Streifenwagen reagieren, der mitten
in der Nacht aufkreuzt und ein Stunden lang vor der Tür parkt? Die Grenzen zwischen präventiver Intervention und empfundener Strafe, die sind fließend. Wie stark darf der Staat intervenieren?
Wo ist unsere eigene Entscheidungsfreiheit zu Ende? Ich denke jedenfalls dort, wo wir gar nicht mehr entscheiden können. Wenn die Polizei bleibt, bis die vorhergesagte Tat-Situation vorüber ist, dann kann ich gar nicht mehr mich für oder gegen die Handlung entscheiden, für oder gegen
das vorhergesagte Verbrechen entscheiden. Wenn die Polizei aber nur vorbeikommt oder ein Sozialarbeiter mit mir ein Gespräch führt, mag ich das als Strafe empfinden, aber im Kern kann ich mich danach immer noch für das Verbrechen entscheiden.
Noch schwieriger wird diese Abwägung, wenn wir uns fragen, welche Reaktionen gerade von kommerziellen Anbietern als Bestrafung unzulässig sind und welche nicht. Versagt der Staat jemandem Führerschein, weil eine Big Data Vorhersage voraussieht,
dass diese Person einen Unfall verursachen wird und ein schlechter Autofahrer ist, dann ist das klar eine Strafe. Aber was ist, was ist, wenn die Person zwar den Führerschein bekommt, aber keine Autoversicherung mehr und damit faktisch nicht Autofahren kann?
Ist das dann nicht auch Strafe? Und was ist, wenn die Person zwar eine Versicherung bekommt und einen Führerschein bekommt, aber die Monatsprämie der Versicherung doppelt so hoch ist wie bei anderen, obwohl diese Person noch nie selbst einen Unfall verursacht hat?
Im Kern geht es hier um die Frage, welche Konsequenzen an eine Big Data Vorhersage geknüpft werden und wie diese Handlungsfreiheit des Einzelnen verringert wird. Wir müssen freilich vorsichtig sein. Das zentrale Problem hier ist nicht die Big Data Vorhersage, sondern für welche
Zwecke die Big Data Vorhersage eingesetzt wird. Menschen nur für vorhergesagtes Verhalten verantwortlich zu machen heißt nichts anderes als Big Data Vorhersagen, Big Data Korrelationen, die uns lediglich das Was sagen können
für kausale Zwecke, für die Frage von Schuld, von Ursache zu missbrauchen. Wie ich erklärt habe, können uns Big Data Korrelationen eben gerade nichts über das Warum, über die Ursachen sagen. Das mag in einer Reihen von Fällen ausreichen, aber es macht Big Data Korrelationen
außerordentlich ungeeignet zu entscheiden, wer Schuld trägt. Leider sind wir Menschen darauf getrimmt, die Welt das Folgen von Ursachen und Wirkungen zu verstehen. Damit aber ist Big Data in permanenter Gefahr für Ursachenforschungen missbraucht
zu werden. Wir kommen also zu einem wichtigen Zwischenergebnis. Wir sind ungefähr 80% fertig. Big Data, wie unsere beiden Fälle zu Beginn zeigten, bieten nicht nur großen Vorteile,
sondern auch außerordentlich gewichtige Nachteile. Diese Nachteile der Überwachung, diese Nachteile der Vorhersage mögen sich unterschiedlich anfühlen, aber ihre Auswirkung ist auf das Ein- und dasselbe gerichtet.
Auf die Zeit oder besser gesagt, wie wir Menschen Zeit empfinden. Zunächst, vor tausenden Jahren, empfanden Menschen Zeit zirkulär als sich ständig
Wiederholendes, ständige, immer wiederkehrende Zyklen. Wenn Zeit zirkulär ist, dann haben wir Menschen keine aktive Rolle in dieser Welt. Denn was immer wir tun, der Zyklus der Zeit beginnt erneut.
Jeden Morgen, jedes Jahr, jedes Leben. Dann lohnt es sich nicht, unsere Welt zu formen. Dann ist das, was gestern war, auch für morgen garantiert. Und das freut jene, die mächtig sind.
Schon deshalb ist lineare Zeit im Vergleich dazu geradezu revolutionär. Denn es gibt uns Menschen eine konkrete Rolle. Jeden einzelnen von uns lineare Zeit ist nicht zuletzt das erinnerte und daran erinnerte uns eloquent Joe Weizenbaum, das Fundament der Reformation, der Aufklärung.
Der Rationalität. Aber wir genießen nicht nur lineare Zeit. Viele Jahrzehnte lang genossen wir Menschen auch, vor allem aber in den USA, eine vergessene
Zeit, in der durch Migration zuerst vom Land in die Stadt und dann über den Atlantik und weiter westwärts Menschen ihre Vergangenheit abschütteln konnten und hinter sich schließen, in der die Zeit vergas.
Und gleichzeitig wurde die eigene Zukunft, unsere Zukunft immer offener, in dem neue Bildungs- und Berufswege sich eröffneten. Die Zeit war nicht nur vergessend, sondern sie war auch eindrücklich zukunftsoffen. Genau das ändert sich mit Big Data.
Das Ende des Vergessens lässt unsere Vergangenheit stets mit uns in Verbindung bleiben. Wir können damit unsere Vergangenheit niemals mehr entfliehen. Sie niemals mehr im Nachhinein formen. Die permanente Präsenz unserer Vergangenheit hindert uns zu wachsen, jene zu werden,
die wir sein wollen. So bleiben wir viel länger und stärker jene, die wir waren. Und die Vorhersage nimmt uns die offene Zukunft. Sie nimmt uns die Chance, nach unseren eigenen Wünschen zu handeln und danach
von der Gesellschaft beurteilt zu werden. So wird die Zukunft bestimmt durch die Vergangenheit und die Zeit im Zeitalter von Big Data ist nicht mehr das, was sie einmal war.
Was können wir tun? Ich möchte eine Reihe von Vorschlägen konkreter Natur machen, wie wir Big Data beherrschen können. Wie wir uns die Zeit auch wieder zurückgeben können. Zum ersten schlage ich vor, dass wir Daten schaffen, die vergessen können.
Systeme, Werkzeuge kreieren, die vergessen können. Denken Sie an den Erfolg von Snapchat. Das ist, was ich als vergessene Werkzeuge meine.
Ich glaube auch aber, dass wir den Datenschutz stärken müssen. Weit über das hinausgehend, was bisher geht. Es wäre absurd zu glauben, dass wir Einzelne selber im Ausdruck des Informationellen Selbstverständnisses und des Rechts auf informationelle
Selbstbestimmung bestimmen könnten, was mit unseren Daten passiert. Ich erzähle Ihnen, ich habe die Zeit eine kleine Geschichte, die hier in Berlin spielte. Ich lebte einmal in Berlin und ich wollte ein Bankkonto öffnen. Und ich ging zu einer deutschen Bank und die legten mir viele Formulare vor,
darunter auch mehrere Seiten einer Datenschutzerklärung. Und ich sagte, das ist wunderbar, aber ich möchte gerne Punkt 7 dieser Datenschutzerklärung streichen und bei Punkt 8 eine kleine Umformulierung vorschlagen. Die Dame dieser deutschen Bank blickte mich an, als hätte ich gerade einen
obszönen Angriff auf sie unternommen. Man sagte dann, wollen Sie ein Bankkonto eröffnen? Dann unterschreiben Sie unten. Wenn nicht, verlassen Sie bitte jetzt unsere Bank. Wenn ich sagte, nein, nein, ich will ein Bankkonto öffnen, aber ich will mein Recht auf informationelle Selbstbestimmung ausüben.
Mit Ihnen in Verhandlungen treten. Und sie sagte, wollen Sie ein Bankkonto öffnen? Das ist die Realität der informationellen Selbstbestimmung in diesem, unserem Land. Und deswegen brauchen wir einen viel stärkeren Datenschutz, der nicht
darauf hofft, dass wir unsere Verhandlungsmacht ausüben können, die wir nicht ausüben können, sondern nur unten unterschreiben oder auf OK klicken. Wir brauchen die Verantwortlichkeit der Datennutzerinnen und Nutzer.
Die, die den kommerziellen Mehrwert schaffen und einstreichen, die sollen sich auch mehr an Verantwortlichkeit zumessen lassen. Zweitens brauchen wir ein Grundgesetz für das 21. Jahrhundert.
Wir müssen die schon im Grundgesetz verankerte Handlungsfreiheit des Menschen dramatisch stärken. Der Schutz der Gerechtigkeit, des fairen Verfahrens, der Unabhängigkeit, der Gerichtsbarkeit, das waren die Grundrechte des 19. und des 20. Jahrhunderts. Wir brauchen Grundrechte, die uns gegen die Vorhersage schützen.
Und wir brauchen den Schutz menschlicher Handlungsfreiheit. Eine klare rote Linie muss eingezogen werden. Es darf in diesem Land und in Europa und vielleicht auch in Amerika keine Strafe ohne Schuld geben.
Und in den Bereichen, in denen es nicht primär unmittelbar um Strafe geht, kommerzielle Anwendungen der Vorhersage, die entscheiden, ob jemand eine Versicherung bekommt, einen Kredit bekommt, eine medizinische Behandlung bekommt.
In diesen Bereichen müssen neue Grundsätze gelten, von Transparenz, Zertifizierung und Wiederlegbarkeit. Big Data Analysen müssen transparenter werden. Big Data Nutzer müssen unter bestimmten Voraussetzungen ihre Analyse sich zertifizieren lassen.
Das müssen ja auch jene, die neue Medikamente auf den Markt bringen. Und wir brauchen die Chance der Wiederlegbarkeit. Dass die Betroffenen widerlegen können, dass diese Vorhersage nicht stimmt, mit der sie bestraft oder zur Verantwortung gezogen werden.
Für all das brauchen wir auch Hilfe. Experten, die nicht nur Big Data verstehen, sondern auch in den ethischen Grundsätzen geschult sind. Wir nennen sie die Algorithmiker, die dann aber auch wie Sachverständige an die Unabhängigkeit und an ihre Verschwiegenheit verpflichtet sind.
Diese Algorithmiker könnten dann den Betroffenen helfen, sich in Fällen von Big Data-Vorhersagen mit negativen Auswirkungen zu helfen. Ohne die Algorithmiker werden wir hilflos sein. Schon jetzt sind wir das.
Big Data, Sie haben es schon fast geschafft. Big Data hilft uns, die Welt besser zu verstehen. Aber Big Data kommt mit einer Reihe von außergewöhnlich gefährlichen Herausforderungen auf uns zu.
Was essentiell ist, ist, dass wir dieses mächtige Werkzeug Big Data so verwenden und einsetzen, dass wir die Kontrolle darüber behalten. Wir, nicht nur die Menschen, sondern auch die Zivilgesellschaft.
Und dass jene, die Big Data einsetzen, sich auch daran halten müssen, dass genauso, wie es wichtig ist, von den Daten zu lernen, wir auch einen Platz, einen Raum schaffen und garantieren für das Menschliche,
für die Originalität, die Kreativität, für das Irrationale. Dafür, dass wir uns auch gegen die Vorhersage in Zukunft entscheiden dürfen und entscheiden können.
Denn am Ende sind Daten nichts anderes als eine Reflexion der Wirklichkeit, ein Schatten der Realität und damit immer unvollständig, immer ein wenig falsch. Und deswegen müssen wir dieses Big Data Zeitalter angehen
mit einer ganz gehörigen Portion Demut und einer mindestens ebenso großen Portion an Menschlichkeit. Vielen Dank.
Das war doch alles sehr schön. Wir werden jetzt ein paar Fragen auf dich zukommen lassen, oder? Am besten machen wir das so ganz oldschool-mäßig Handzeichen
und ich komme dann da hingerannt. Guck mal, ganz weit hinten, das habe ich befürchtet, aber gut. Schönen guten Tag. Hallo, super. Das war super spannend und vor allem der Punkt mit der Schuld.
Es hört sich jetzt so an, als sei die Schuld konstant in dieser Gleichung, sozusagen. Ist es nicht sehr wahrscheinlich, dass neue Tatbestände oder neue Schuld sich dann auch rausbildet?
Also Gedankenverbrechen oder sowas in der Art? Was ist da Ihre Vorhersage? Small Data Vorhersage. Aber Sie haben recht. Wir begeben uns auf ein dünnes Eis.
Bisher haben wir immer gesagt, die Gedanken sind frei. Ich habe meinen Mathematiklehrer oft in Gedanken umgebracht. Ich wurde nie dafür bestraft. Die Gedanken sind frei. Und sie sind auch ein Ventil dafür, dass wir unsere Wirklichkeit,
unsere Realität erleben und ertragen können. Würden wir das jetzt über die Big Data Vorhersage fassen wollen? Würden wir auch dieses eines der letzten Ventile menschlicher Freiheit schließen?
Aber ich glaube, dass wir in diese Richtung gehen werden. Ich habe Ihnen erzählt von diesen Bewährungsstrafen oder die Frage, ob jemand auf Bewährung frei kommt und den Zusammenhang mit Big Data. Denken Sie bitte auch daran, dass es in einer immer größer werdenden Anzahl an Städten,
vor allem in den Vereinigten Staaten, aber jetzt mittlerweile auch im Rest der Welt, schon Big Data Analysen gibt, die die Polizei verwendet, die vorhersagt, wann das nächste Verbrechen wo zu welcher Zeit passieren soll. Und dann fährt die Streife dorthin. Und interessanterweise finden die dort auch etwas.
Self-fulfilling prophecies. Wer dort sucht, findet das dann auch. Und dann kommt die Statistik raus, dass durch den Einsatz dieser Predictive Policing Maßnahmen scheinbar das Verbrechen besser bekämpft wurde.
Wir müssen unglaublich vorsichtig sein, hier nicht Rattenfängern auf den Leim zu gehen. Und wir brauchen das, was Sie leisten können, was ihr leisten könnt. Max, wo bist du, Max? Hier, Max, sind wir alle bei du? Okay, also was ihr leisten könnt, danke, ich bin der Victor. Was ihr leisten könnt, ihr müsst uns helfen.
Wir brauchen diese Diskussion über die Grenzen des Einsatzes von Vorhersage und was dann an Konsequenzen daran geknüpft ist, denn sonst ist es zu spät. Vielen Dank für den Vortrag.
Das ist eine tolle Idee mit der Linearität der Zeit. Ich habe eine Frage über den Einfluss von Big Data auf Raum. Auf Raum, nicht nur auf Zeit, sondern auf den Raum.
Und zwar frage ich mich, wenn quasi eben ein Alarm losgeht, wenn ich mich auffällig in der Stadt verhalte, also wenn ich zum Beispiel irgendwie eine Mütze trage, wenn ich einfach ziellos durch die Gegend laufe, bin ich ja eigentlich gezwungen, mein Verhalten dem anzupassen, um negative Konsequenzen zu vermeiden.
Und mich würde interessieren, was dein Gedanke zum Thema Raum ist. Nachdem wir jetzt alle Freunde sind, kann ich sagen, da habe ich ja mal ein Buch drüber geschrieben, wo es auch um dieses Thema geht, da geht es um das Vergessen.
Das Buch heißt Elit. Und ich darf kurz zusammenfassen, was ich da drinnen sage zu diesem Thema. Ein bisschen ist es natürlich so, was den öffentlichen Raum betrifft, wie das Panopticon. Also die Vorstellung, dass ich ständig überwacht werde und das dann eine disziplinierende Funktion ausübt,
eine disziplinierende Qualität auf mein Verhalten hat. Ich brauche also gar nicht mehr die Polizisten, die mich da auffordern, mich wohl zu verhalten, weil ich habe den Polizisten schon im Kopf. Und wir müssen uns auch den öffentlichen Raum wieder zurückholen. In England ist das teilweise in den letzten zehn Jahren passiert.
Da haben die Engländer ja ganz viele Kameras aufgestellt. Also hunderttausende davon an öffentlichen Plätzen. Und dann sind die jungen Leute insbesondere draufgekommen, die manchmal so sprehen zum Beispiel oder so, draufgekommen, dass niemand anschaut,
was auf diesen Kameras aufgezeichnet wird. Und dann haben sie sich nach einer Zeit lang wieder ganz normal verhalten. Und jetzt hat Scotland Yard Technologie entwickelt, mit denen sie alte Aufzeichnungen auswerten können, und zwar automatisch.
Unter anderem erkennen sie Identitäten über die Labels an den T-Shirts und Sweatshirts, die von einer Kamera zur anderen gehen. Das ist einfacher auf die Distanz als Gesichtserkennung. Und wenn die das jetzt durchführen würden, dann hätten wir wieder das Panoptikum, das gerade in der analogen Welt,
in der ausgehenden analogen Welt nicht mehr funktioniert hat, hätten wir das wieder hergestellt. Was würde das bedeuten? Was würde das für den robusten Diskurs unserer Gesellschaft bedeuten? Wisst ihr, ich war in meiner Studentenzeit studentenpolitisch aktiv.
Und ich habe alle möglichen Proteste organisiert und gemacht. Das hält mir heute niemand vor. Manchmal ist es ein bisschen peinlich, wenn ich dann andenke, an was ging, was wir alles protestiert haben. Joghurtbecher zum Beispiel.
Aber ich habe das gemacht und niemand erinnert mich da daran. Es ist die vergessende Zeit gewesen. Ich bin die letzte Generation. Ihr seid das schon nicht mehr. An euch erinnert man sich schon. Was bedeutet denn das noch, wenn wir dann beginnen, uns selbst zu zensurieren? Uns selbst einzuschränken? In Wirklichkeit müssten wir als Zivilgesellschaft aufstehen
und jeden Tag mindestens einmal etwas am Rande des Ungesetzlichen tun. Schon noch gerade am gesetzlichen Bereich. Aber einfach einmal nicht um ungesetzlich zu sein,
sondern um uns den Raum des Gesetzlichen, aber eben vielleicht sozial nicht mehr erlaubt, nicht einschränken zu lassen. Also zum Beispiel einmal in der Woche bei Rot über die Kreuzung laufen.
Danke. Victor, du hattest gerade dir das Beispiel genannt.
Du hast die Sachen mit der Bank erzählt. Ja. Und dass man da immer unterschreiben muss, was einem vorgesetzt wurde. Arbeitest du für die Bank? Nein, glücklicherweise nicht. Aber es war ganz interessant. Ich meine, die Frage ist ja, inwiefern eigentlich diese Zustimmung,
die wird jetzt häufig in letzter Zeit immer wieder dargestellt als etwas, was uns kolossal überfordert, also wo wir vor gesetzte Tatsachen gestellt werden. Und interessanterweise war dein Co-Autor vor zwei Tagen bei der OECD abends am Podium
und vertrat die Ansicht, dass wir eigentlich diese Zustimmung nicht mehr bräuchten. Die sollte abgeschafft werden. Das käme aus eurem Buch auch so raus. Und man sollte also dazu übergehen, dass in Zukunft die Datenverarbeiter diejenigen sind, die darauf achten, dass alles wunderbar passiert, so wie es sein soll.
Und da würde ich doch gerne mal deine Meinung dazu haben. Klar. Da sage ich sehr gerne, meine Sichtweise, ich weiß nicht, dass da Ken, ich nehme an, du meinst dem Ken, Ken, guck hier, weiß nicht genau, was da Ken gesagt hat, aber meine Sichtweise ist genau jene, dass wir, wenn wir auf die Zustimmung
oder Ablehnung abstellen des Betroffenen, niemanden einen Dienst erweisen. Wir erweisen den Betroffenen nicht den Dienst, weil oftmals diese Situationen mit einem großen Machtungleichgewicht verbunden sind, so wie es mir bei einer deutschen Bank gegangen ist, wo also die Macht klar verteilt war.
Und zum Zweiten, weil es der Gesellschaft nicht hilft. Denn wir dürfen nicht vergessen, die Idee dieses auf Zustimmung basierenden Datenschutzes ist, dass wir alle unseren Datenschutz durchsetzen.
Indem wir alle aufschreien und aufstehen und Gegenkraft ausüben. Und die Realität ist, dass wir das nicht tun, dass die meisten von uns das nicht tun. Und deswegen, denke ich, brauchen wir hier mehr und bessere Werkzeuge.
Und deswegen brauchen wir diese Verantwortlichkeit, also im Buch heißt auch Responsibility and Accountability der Nutzerinnen und Nutzer von Daten. Und das bedeutet auch, dass die, bevor sie eine Big Data Analyse einsetzen, eine Big Data Applikation online bringen, eine Risikoabschätzung für den Datenschutz
der Betroffenen durchführen müssen und daraus abgeleitet entsprechende Vorsichtsmaßnahmen entwickeln müssen, die sie dann auch umsetzen. Wenn sie die Risikoeinschätzung falsch gemacht haben, wenn sie die Sicherheitsmaßnahmen
nicht implementiert haben, dann würden sie unmittelbar straf- und zivilrechtlich haftbar werden. Das schreiben wir genauso in dem Buch. Also das heißt, wir würden hier ein riesiges Gewicht verlagern vom Betroffenen hin zu den Datennutzerinnen und Nutzen.
Und jetzt muss ich aber einen Satz noch hinzufügen. Im Gegenzug glauben wir beide auch, dass wenn Daten wiederverwendet werden, man unter diesen Voraussetzungen dann nicht mehr zu den einzelnen Betroffenen zurück müsste und sie um Zustimmung bitten, wenn die Risikoabschätzung
durchgeführt worden ist, wenn die Sicherheitsmaßnahmen gemacht worden sind und wenn zum Beispiel Regulierung oder Zertifizierung passiert ist. Das tun wir in einer Reihe von Fällen heute ständig. Lebensmittelgesetz im Bereich der pharmazeutischen Produkte. Das tun wir im Bereich des Autos, was zum Beispiel hier Sicherheitsmaßnahmen betrifft.
Ihr geht ja auch nicht in das Lebensmittelgeschäft und habt den Chemie-Baukasten mit und testet jetzt, ob diese Lebensmittel, die dort sind, in Ordnung sind oder nicht. Da vertrauen wir auch jenen Expertinnen und Experten,
die sich damit auskennen und ich glaube, dass das der einzige Weg oder der zentrale Weg vorwärts ist, weil ich, obwohl ich mich seit Jahren mit Big Data auseinandersetze, mir nicht zutraue, eine Big Data Analyse technisch, statistisch, wenn sie Komplexes zu durchschauen. Dankeschön.
Wir haben noch eine Frage, ganz kurz. Vielen Dank für einen sehr guten Vortrag. Ich hätte eine Frage, die mich persönlich sehr beschäftigt und zwar, wie du richtig gesagt hast, wir sind ja die erste Generation, die quasi nicht mehr vergessen werden, so aus der Perspektive der Daten.
Wenn wir sterben, also was passiert mit unseren Daten nach unserem Tod? Das ist, glaube ich, also das ist für mich persönlich etwas, wo ich sehr gespannt bin, was passieren wird, gerade im Hinblick auf soziale Netzwerke, wie da dein Standpunkt ist. Das ist eine sehr gute Frage und das interessiert mich auch sehr.
Ich hatte vor zwei Jahren eine Studentin, die hat ihre Diplomarbeit über das Thema Tod im Netz und auch Trauern im Netz geschrieben. Also wie wir auch dann anders trauern, wie wir damit umgehen. Was für mich so besonders emotionalisierend war, als ich mich mit der Frage des Vergessens
auseinandergesetzt habe, war, dass ich mit Kognitivpsychologen gesprochen habe und die haben alle unisono gesagt, ich kann nur vergeben Menschen, wenn ich vergesse. Indem ich vergesse, vergebe ich.
Das ist bei uns in der Kognition ein verbundener Prozess. Und das war für mich unglaublich schwierig anzunehmen, weil ich immer der Meinung hatte, dass ich zum Beispiel die Gräuel des Nationalsozialismus vergeben möchte,
aber niemals vergessen, um ein berühmtes Buch eines Opfers zu zitieren. Und deswegen war das für mich sehr schwierig anzunehmen. Und ich habe versucht das anzunehmen, aber es hängt auch damit zusammen, wie wir mit Trauer umgehen.
Wenn wir immer wieder, und das hat die Diplomarbeit meiner Studentin gebraucht, wenn wir immer wieder daran erinnert werden über das Internet, dass jemand verstorben ist, dann können wir unsere Trauerarbeit auch schwieriger länger nicht mehr abschließen. Fällt es uns schwieriger, diese Trauerarbeit abzuschließen. Und deswegen ist es auch für unsere eigene Psychohygiene wichtig,
dass wir, was den Tod begriff, Elemente haben, an die wir uns erinnern und dann aber auch bewusst sagen können, jetzt möchte ich das vergessen
und vielleicht nicht immer wieder an dieses traumatische Erlebnis eines Verlustes erinnert werden. Vielen, vielen Dank. Victor Mayer-Schönberger, vielen, vielen Dank. Danke, danke.