This object cannot be liked
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Untertitel |
| |
Serientitel | ||
Teil | 59 | |
Anzahl der Teile | 60 | |
Autor | ||
Lizenz | CC-Namensnennung - Weitergabe unter gleichen Bedingungen 3.0 Deutschland: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen und das Werk bzw. diesen Inhalt auch in veränderter Form nur unter den Bedingungen dieser Lizenz weitergeben. | |
Identifikatoren | 10.5446/21809 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
|
re:publica 201059 / 60
3
6
10
11
12
13
14
15
16
17
18
20
21
22
25
26
27
28
32
33
34
35
37
39
40
42
43
44
46
47
48
49
50
51
52
53
54
56
57
59
60
00:00
MomentenproblemFacebookKerndarstellungInternetComputeranimation
02:48
ThumbnailFreiheitsgradSchätzfunktionFacebookMomentenproblemSphäreComputeranimationBesprechung/Interview
05:06
InformationZusammenhang <Mathematik>Deterministischer ProzessAlgorithmusInformationsverarbeitungKommunikationWeb SiteCW-KomplexComputeranimationBesprechung/Interview
09:01
AlgorithmusBildschirmmaskeiPhoneMengeiTunesComputeranimation
10:01
EbeneAlgorithmusiPhoneZusammenhang <Mathematik>
12:37
GruppoidKünstliche IntelligenzBildschirmmaskeSystemplattformRechenmaschinePlot <Graphische Darstellung>Algorithmus
13:50
AlgorithmusDatenanalyseZahlenreiheZahlenbereichPhysikerErzeugendeFolge <Mathematik>SchieberegisterEntscheidungstheoriePositioniTunesSchnittmengePseudozufallszahlenKryptologieSelbstrepräsentationChiffrierungEmpfehlungssystemQuadratischer RestComputeranimationVorlesung/Konferenz
18:36
AlgorithmusBerechnungZahlAnwendungssoftwareiTunes
19:49
Web SiteBerechnungWeb logEin-AusgabeBildschirmmaskeAlgorithmusVorlesung/Konferenz
22:11
Content <Internet>InformationKomponente <Software>Zusammenhang <Mathematik>Leistung <Physik>ComputeranimationXML
22:57
GoogleEffizienter AlgorithmusInhalt <Mathematik>Content <Internet>AlgorithmusMatchingVariableGleichungVorlesung/KonferenzComputeranimation
23:48
Bewertung <Mathematik>DatenstromEntscheidungstheorieGoogle BloggerMomentenproblemZusammenhang <Mathematik>Inhalt <Mathematik>Lebendigkeit <Informatik>VarianzFitnessfunktionEigenwertproblemVorlesung/Konferenz
27:22
WEBRichtungiPadInternetMomentenproblemApple <Marke>TOUR <Programm>EinflussgrößeReiheHausdorff-RaumAnwendungssoftwareGrundsätze ordnungsmäßiger DatenverarbeitungiBookWort <Informatik>InformationZusammenhang <Mathematik>Web SiteSoftwareentwicklerBewegungInhalt <Mathematik>Content <Internet>DigitalsignalVorlesung/Konferenz
33:32
InternetiPhoneFreiheitsgradGesetz <Physik>Divergenz <Vektoranalysis>RegelungComputeranimationVorlesung/Konferenz
37:45
Information
38:32
InformationPerspektiveSchnittstelleBerechnungInterface <Schaltung>RichtungTOUR <Programm>FreiheitsgradFunktionalitätTopologische EinbettungEnergieAlgorithmusVorlesung/Konferenz
44:53
AlgorithmusMomentenproblemSynchronisierungVorlesung/Konferenz
45:57
Lösung <Mathematik>EigenwertproblemInternetMengeSynchronisierungWeb SiteFacebookSoziale SoftwareProgrammiergerätSchnitt <Mathematik>InformationKommunikationMomentenproblemZufallsgeneratorTwitter <Softwareplattform>WEBGoogleFunktion <Mathematik>AlgorithmusZahlZusammenhang <Mathematik>EntscheidungstheorieNumerisches GitterBerechnungNetzwerk <Graphentheorie>EbeneComputeranimation
52:09
ART-NetzInternetComputeranimationVorlesung/KonferenzProgramm/Quellcode
53:04
PunktInternetPhysikerWeltformelComputeranimationVorlesung/Konferenz
Transkript: Deutsch(automatisch erzeugt)
00:00
Jetzt kann ich mal ein bisschen was erzählen, was jetzt kommt. Und zwar kommt jetzt, und das sind unglaublich viele Titel, wie ich finde, sie ist Professorin für Corporate Communication und Managing Director am Institut für Medien- und Kommunikationsmanagement der Hochschule St. Gallen in der Schweiz. Außerdem Fellow am Bergman Center for Internet and Society der Harvard University in den USA.
00:23
Sie wird jetzt drüber reden, und das finde ich sehr, sehr spannend. Ich kann mir noch nichts darunter vorstellen, aber deswegen sind wir ja teilweise auch hier. Über die Grenzen menschlichen Ermessens und das Ermessen menschlicher Grenzen. Sie steht schon da, insofern könnt ihr eigentlich schon anfangen zu applaudieren.
00:41
Bitte einen großen Applaus für Professor Dr. Miriam Meckel. Bitte schön. Ja, schön guten Morgen. Ich freue mich hier zu sein, vor allen Dingen deshalb, weil ich es geschafft habe, vor der Aschewolke aus Island zu landen.
01:02
Ich habe gerade noch gesehen, dass die Bundeskanzlerin sozusagen im Himmel kreist. Also wenn sie die jetzt eingeladen hätten, ich meinte das jetzt sehr, sehr realistisch, nicht im übertragenen Sinne. Wenn sie die eingeladen hätten, um über Videoblocks in der politischen Kommunikation zu sprechen, hätte sie nicht landen können mit diesem Thema, und das wäre natürlich sehr schade gewesen.
01:25
Aber ich bin jetzt mal hier und ich habe mir etwas überlegt, was in der Tat vom Titel her wahrscheinlich für Sie erstmal ein bisschen strange klingt. This object cannot be liked. Ich erkläre gleich, warum der Titel zustande kommt, und dann wird sich das sehr schnell herausstellen, was ich damit meine.
01:40
Und die dahinterliegende Fragestellung ist eine, mit der ich mich im Moment beschäftige, in der Tat sehr intensiv beschäftige, auch in meinem Forschungsaufenthalt, nämlich die Grenzen des menschlichen Ermessens in der digitalisierten, vernetzten Gesellschaft und die Frage, wie man diese Grenzen eigentlich bestimmen oder ziehen muss
02:01
und was das eigentlich auch für uns selber bedeutet, also auch für menschliche Grenzen, die gegebenenfalls an der Stelle ein bisschen in Frage gestellt werden oder auch repositioniert werden. Also, was ist der Ausgangspunkt gewesen für mein Thema? Der Ausgangspunkt ist der 2. Dezember des vergangenen Jahres. Da hatte nämlich ein Freund von mir Geburtstag und wurde 42, Entschuldigung 41. Es ist ab 40 wichtig, dass man das genau sagt.
02:27
Und ich habe gedacht, ich telefoniere mit ihm, das habe ich gemacht und habe ihm gratuliert, wir haben geredet und danach bin ich ein bisschen auf Facebook rumgesurft und habe gedacht, ach, Mensch, Süße, da hat jemand eine sehr niedliche kleine digitale Geburtstagstorte für meinen Freund HW gepostet
02:41
und ich würde mich dieser Geburtstagstorte gerne anschließen und das ist die kleine Geschichte, die ich erzähle, die sozusagen Initiatur für meinen Vortrag war. Und dann habe ich das versucht und habe das gemacht, was Sie alle kennen, nämlich sozusagen auf das Like, auf den Like-Link geklickt, wo normalerweise dann Thumb Up aufpoppen würde und man ja in der Regel auch nicht allein ist, indem man irgendwas Liked,
03:07
sondern da wäre dann You and Seven Others Like This, das was wir also alltäglich auf Facebook machen und das habe ich versucht und es hat nicht geklappt. Und was passierte in dem Moment? Es passierte, dass ich statt des Like-Links, den ich anklicken wollte, eine Nachricht von Facebook bekam,
03:25
die so aussah, Object Cannot Be Liked. Und an der Stelle habe ich dann kurz überlegt, warte, das ist quasi eine existenzialistische Nachricht, die mir Facebook hier gerade sagt, ich darf das Objekt nicht mögen und das fand ich unfair auf eine Art, fand das unfair und fand vor allen Dingen,
03:47
dass das jetzt zu weit geht. Denn ich muss ja freiwillig entscheiden dürfen, was ich mag und was ich nicht mag. Das war jemals bislang immer meine Vorstellung von Menschen und unseren Freiheitsgraden,
04:00
die wir auszuschöpfen in der Lage und auch die Erlaubnis dazu haben. Das geht aber nicht. Also ich habe dann hier überlegt, mir das angeschaut und ich hatte tatsächlich keine andere Wahl als einfach Okay zu klicken. Und damit konnte ich die Geburtstagstorte nicht mögen. Ich durfte sie nicht mögen, entweder weil sie nicht länger zugänglich war für mich,
04:23
wie Facebook mir erklärt hat, oder weil ich nicht die Erlaubnis hatte, sie zu sehen. Das Interessante war allerdings, dass ich natürlich diese Torte, wie sie jetzt auch genau sehen konnte und mich dann schon gefragt habe, in welcher schizophrenen digitalen Sphäre bin ich jetzt gerade untergekommen, dass ich also dieses Ding sehe, sie aber nicht sehen darf und sie auch nicht mögen darf.
04:40
So, das war ein Augenblick, der mir in der Tat ein bisschen zu denken gegeben hat. Und es geht natürlich überhaupt nicht darum, dass ich sozusagen an diesem Beispiel jetzt hängen bleiben möchte und sagen möchte, mein Leben hängt davon ab, ob ich diese komische kleine digitale Geburtstagstorte mögen darf oder nicht. Das ist natürlich nicht so. Aber es liegt etwas hinter der Frage, die mit diesem kleinen Beispiel verbunden ist. Und das hat angefangen mich zu interessieren.
05:08
Und dann habe ich versucht darüber nachzudenken, was das eigentlich heißt. Es ist ja so, dass wir sozusagen mit dem Gefallen, den wir zum Ausdruck bringen, etwas tun, was auch für soziale Vernetzung extrem wichtig ist.
05:21
Also wir versuchen ja sozusagen, Teil von Communities, Teil von Peer Groups, Teil von sozialen anschlussfähigen Gruppen zu sein. Wir möchten das gerne, dass es gehört halt zur menschlichen Existenz dazu. Und so eine kollektive Geburtstagssympathiebekundung gehört eben auch dazu. Das heißt, ein Mögen oder eine Zu- oder Abneigung, die ich
05:40
nicht zum Ausdruck bringen kann, ist restriktiv für mich in meinen sozialen Anschlussfähigkeiten. Und das war der Punkt, über den ich dann angefangen habe nachzudenken. Denn an der Stelle wird es wirklich interessant für jemanden, der sich auch wissenschaftlich damit auseinandersetzt, was eigentlich in der digitalen Welt passiert und wie sich unsere Gesellschaft und auch unsere Kommunikation und Information in dieser Gesellschaft verändert.
06:02
Also die Frage, wie wir zukünftig denken, wie wir uns sozial vernetzen, wie wir kommunizieren werden, ist eigentlich eine Frage, die man an diesem kleinen Beispiel mit der Geburtstagstorte durchaus anhängen kann und die dann einen größeren Zusammenhang offenbart, der dann ziemlich spannend wird. Denn wenn der Anbieter einer Social Networking Site mir vorschreiben kann, was ich mögen darf und was ich nicht mögen darf,
06:25
und mir damit auch vorschreiben kann, ob ich sozialanschlussfähig bin in dem, was ich mag oder was ich nicht mag, ob ich diese Vorlieben und Abneigungen zum Ausdruck bringen kann, dann bedeutet das, ich bleibe sozusagen, wenn er mir das so wie hier geschehen vorschreiben kann, sozial isoliert in meiner Ausdrucksfähigkeit im übertragenen Sinne.
06:45
Und ich werde damit von einigen Prozessen ausgeschlossen, die eben soziale Anschlussfähigkeit mit sich bringen und die mich auch sozusagen als Menschen ausmachen, als soziales Wesen, also die menschlich existenziell sind. Es geht also, wenn wir uns dieses kleine Beispiel anschauen, um die größere Frage nach bestimmten Freiheiten,
07:01
die wir Menschen errungen haben oder die uns gegeben wurden. Also für die Säkularisten sagen wir, das waren wir selber, die uns die Freiheiten erarbeitet haben. Für die Transcendentalisten kann ich sagen, okay, wenn jemand anderes sie uns gegeben hat, ist es mir auch egal. Wichtig ist, ich habe sie normalerweise. Und ich würde sie auch gerne behalten. Denn diese Freiheiten von kleinen Zu- und Abneigungen ausgehend bis hin zu sehr viel größeren Komplexen
07:24
sind für mich ziemlich existenziell. Und das ist eigentlich der Themenkontext, über den ich mich an diesem Beispiel dann angefangen habe, intensiver auseinanderzusetzen. Das Thema ist, wie sozialanschlussfähig Kommunikation also sein kann, an diesem kleinen Beispiel festgemacht.
07:42
Und was es eigentlich bedeutet, wenn ich mir bestimmte soziale Ausdrucksformen und bestimmte soziale Anschlussfähigkeiten von einer Maschine mehr oder minder vorschreiben lassen muss oder von ihrem Algorithmus, der da eben in dem Fall berechnet hat, warum ich jetzt gerade mal diese Torte nicht mehr sehen kann oder auch nicht mögen darf und was das eigentlich heißt.
08:00
Das dahinterliegende Denkproblem ist also der Punkt, der mich interessiert. Und da würde ich Sie gerne eben auf eine kleine Reise mitnehmen, um zu sehen, was eigentlich passiert, wenn wir das mal wirklich zu Ende denken. Ich glaube, dass menschliches Ermessen und dass die Toleranzräume, die damit verbunden sind, ziemlich konstitutiv sind für unsere Gesellschaft und auch für unser Zusammenleben.
08:21
Weil sie eben Interpretationsmöglichkeiten, Anpassungsmöglichkeiten, Veränderungen, also auch Innovationen, um es neudeutsch zu sagen, mit sich bringen. Und weil nur dadurch unsere Gesellschaft relativ offen und relativ flexibel gehalten wird. Und genau darin unterscheiden sich eben auch die nicht-deterministischen Prozesse, die uns Menschen und auch unsere Gesellschaft, in der wir leben, ausmachen,
08:43
von den eher deterministischen Prozessen, die eben einen Rechner uns liefert oder die Algorithmen uns liefern, die in diesem Rechner laufen und die auch diese Maschinen eben am Laufen halten. Anders formuliert, ich glaube, dass wir dem Zufall relativ viel verdanken. Und ich glaube, zu wissen, dass er bislang nicht im Computer steckt.
09:04
Die Frage, die sich daraus interessanterweise ergibt, ist, was würde denn eigentlich geschehen, wenn es den Zufall nicht mehr gäbe? Wenn er sozusagen abgelöst würde dadurch, dass bestimmte deterministische Rechenoperationen in Form von Algorithmen immer weiter vordringen und uns sozusagen Arbeit natürlich in vielerlei Hinsicht abnehmen,
09:22
aber uns eben auch Entscheidungsfreiheiten und Entscheidungsmöglichkeiten abnehmen. Wenn also immer mehr Profile an die Stelle von Persönlichkeiten treten, wenn das Denken bestimmten Formen der Datenauswertung weichen würde oder stärker weichen würde und wenn unsere Abneigungen respektive unsere Zuneigungen immer stärker alleine durch Algorithmen errechnet würden.
09:42
Ich meine, zuteil ist das ja längst so. Also wenn Sie beispielsweise an iTunes denken, dann haben wir dort auch die Algorithmen, die laufen. Und wenn ich das jetzt auf Genius beziehe, dann kann ich sagen, Genius ist eigentlich ein bisschen mein Freund geworden. Weil ich habe auf meinem iPhone ungefähr 16 Gigabyte Musik.
10:00
Das ist irgendwie eine ziemliche Menge, wenn man sich das vorstellt. Und das bedeutet, weil der Mensch ein Gewohnheitstier ist und sich auch immer gerne auf irgendwelchen gewohnten Ebenen bewegt, dass ich gelegentlich dazu neige, immer die gleichen Sachen zu hören. Das heißt also, weiß ich nicht, die Bachsonaten von Frank-Peter Zimmermann oder die Dixie Chicks oder Placebo. Ja, das läuft dann immer, weil das kenne ich und das finde ich gut.
10:21
Und dann suche ich das wieder raus und lasse es wieder abspielen. Wenn ich Genius benutze, dann ist der Algorithmus in dem Fall in der Tat sozusagen ein Feind meiner Faulheit. Und das ist gut in dem Zusammenhang, weil Genius mir plötzlich Songs und Einspielungen aus meinem 16 Gigabyte Speicher herausholt, die ich völlig vergessen hatte. Und dann denke ich, hey, wow, das ist ja ein total schönes Stück.
10:41
Warum hast du das nicht öfter gehört? Weil ich gar nicht mehr wusste, dass das in meinem iPhone drin steckt. Also das sind Momente, wo durchaus sozusagen ein vorgegebener Zufall ja auch durch einen Algorithmus uns sozusagen Hilfestellungen geben kann. Und wo es ganz gut ist, zu sehen, dass sowas uns in unseren auch menschlich ritualisierten Entscheidungsprozessen manchmal durchaus eine Hilfestellung geben kann.
11:05
Ähnlich kann es funktionieren, wenn ich mir Empfehlungen von Amazon angucke. Auch das kennen Sie alle. Es ist ja nicht so, als ob da irgendein Mensch in dem Kistchen sitzt und dann so sagt, Mensch, guck mal, jetzt hat er sich das Buch angeguckt und jetzt überlege ich doch mal, was habe ich so in letzter Zeit gelesen. Und Mensch, das findet er bestimmt auch gut. Empfehle ich mal Buch XY.
11:22
Ja, sondern was passiert ist, dass eben ein Algorithmus unsere Buchansichten und unsere Buchkäufe aus der Vergangenheit anschaut und auswertet und es dann eben entsprechende Vorschläge macht. Und wir wissen, die Vorschläge sind oft echt nicht schlecht, sondern sie sind sehr, sehr brauchbar und sehr passend. Manchmal könnte man sagen fast erschreckend passend, wenn man sich so überlegt, was da alles an Daten dahinter steht.
11:45
Auch da habe ich neulich eine kleine Situation erlebt, wo ich dachte, guck mal, das ist schon sehr interessant, wie das funktioniert. Also ich suchte irgendwas Anfang des Jahres und war kurzzeitig abgelenkt, weil Amazon mir zunächst das Elend der Welt von Bourdieu vorschlug
12:01
und ich mich gefragt habe, warum gerade dieser Titel und was soll mir das jetzt eigentlich sagen. Aber die zweite Empfehlung war dann eigentlich noch interessanter. Das war nämlich mein eigenes Buch. Also Sie haben in letzter Zeit dieses und jenes gelesen. Lesen Sie doch mal dieses Buch. Und dann habe ich gedacht, dieser Algorithmus ist eigentlich ziemlich, ziemlich schlau und hat das wirklich gut berechnet, weil in der Tat das Thema interessiert mich.
12:23
Ich mag die Art, wie das Buch geschrieben ist, weil anders konnte ich es nicht schreiben. Also insofern auch das passt, hat er mir einen guten Vorschlag gemacht, nur es gibt eben ein Problem, ich habe dieses Buch selber geschrieben und ich habe es vor allen Dingen schon. Und damit hat Amazon und der Algorithmus von Amazon eines außer Acht gelassen, dass ich nämlich Autorin und potenzielle Käuferin in einem bin
12:46
und dass das ein Killer-Kriterium für den Kauf eines Buches ist. So, was wir in dem kleinen Beispiel beobachten können, das konfrontiert uns mit einer ziemlich philosophischen Frage, mit der ich mich ja versuche hier zu beschäftigen, nämlich mit der Frage, die auch schon die Forschung im Bereich der künstlichen Intelligenz lange Jahrzehnte beschäftigt hat und die lautet,
13:04
können Computer eigentlich denken oder können sie wirklich denken simulieren, also intelligente Operationen vollziehen jenseits von ihren bislang bekannten Rechenoperationen. Denn wenn sie das könnten, dann könnten sie ja auch Überraschungsmomente einbauen, sie könnten Formen menschlichen Ermessens, über das ich ja spreche, einbauen
13:24
und sie könnten sogar Zufall implementieren und dann würde es relativ interessant und das ist natürlich etwas, was gerade die KI-Forschung schon sehr, sehr lange beschäftigt. Bislang wissen wir, Computer sind Rechenmaschinen, das heißt, sie sind Plattformen für datenbasierte Algorithmen, die erstmal nicht mehr sind als eine exakt definierte Handlungs-
13:44
respektive Rechenvorschrift zur Lösung eines Problems oder einer Gruppe von Problemen in endlich vielen Schritten. Das funktioniert sehr gut, wie ich gerade beschrieben habe, aber was wir auch wissen, ist, dass ein Algorithmus eben deterministisch ist, das heißt, er liefert unter den gleichen Eingaben
14:00
und unter den gleichen Startbedingungen immer dasselbe Ergebnis und seit langem beschäftigt sich ja die Wissenschaft schon mit der Frage, ob der Computer eben auch Zufall erzeugen kann, also ob er all diese Momente, über die wir im menschlichen Denken handeln und entscheiden, Variationen und Unvorhersehbarkeit generieren, ob er all diese Momente eben auch erzeugen kann,
14:23
ob es also nicht deterministische Computer geben kann und das ist zum Beispiel eine sehr spannende Frage für die Kryptographie, also für die Verschlüsselungstechnologie, es ist eine interessante Frage für Computer-Lotto-Spiele, die es eigentlich unter den Bedingungen, die ich jetzt gerade beschreibe, gar nicht geben kann und es ist auch eine interessante Frage für Überraschungseffekte in Empfehlungssystemen,
14:43
wie wir sie eben immer stärker in unserem Alltag heute nutzen. Bislang gibt es keinen einzigen Hinweis darauf, dass ein Computer tatsächlich nicht deterministisch sein könnte. Nicht deterministische Maschinen sind ein theoretisches Denkkonstrukt, das die Physik und viele andere Bereiche, auch die Philosophie, ganz stark immer fasziniert hat,
15:03
aber sie sind eben theoretische Denkkonstrukte und haben praktisch bislang überhaupt keine Bedeutung. Und auf den Punkt gebracht heißt das, das Erzeugen von Zufall durch den Computer ist, ich sag mal, bislang unmöglich.
15:20
Nun wird sicher der eine oder andere von Ihnen einwenden und zwar sehr zurecht, dass es doch sowas wie randomisierte Algorithmen gibt, genetische, evolutionäre Algorithmen, die genau versuchen, dieses Problem zu lösen. Nur versuchen ist hier eben das falsche Wort. Der Computer versucht sich nicht am Zufall, sondern er berechnet ihn. Und das ist eben genau der Unterschied, über den ich spreche.
15:41
Wenn Sie mit dem Computer eine zufällige Zahlenfolge beispielsweise produzieren wollen, zum Beispiel im Sinne einer Bitverschlüsselung oder was auch immer, dann können Sie einen bestimmten Startwert, also einen Seed eingeben. Der könnte sich aus der Systemzeit berechnen, der könnte sich aus der Position des Mauszeigers berechnen oder aus dem Auslastungsgrad des CPU oder was auch immer.
16:01
Und diesen Seedwert geben Sie in einen Pseudo-Zufallsgenerator ein, also ein lineares Schieberegister oder in einen quadratischen Restegenerator oder was auch immer. Und der Computer rechnet dann los. Also er rechnet los. Und wenn Sie relativ hochwertige PRNGs haben, dann kommen dabei Zahlen raus, die für statistische Auswertungen im Hinblick auf Zufallsfragen ziemlich gut geeignet sind.
16:25
Das heißt, sie funktionieren diese Zahlen in diesen statistischen Auswertungen. Nur zufällig sind sie deshalb immer noch nicht. Der Computer mag Millionen- oder Milliardenfach Zahlen errechnen, die zufällig erscheinen. Irgendwann wiederholt sich die Zahlenreihe.
16:40
Und das heißt, jede dieser Zahlen ist Bestandteil einer endlichen und letztlich auch absehbaren, das heißt also vorhersagbaren Zahlenreihe. Und diese Zahlenreihe spiegelt eben eine Rechenregel wider, wie komplex auch immer Design mag und sie spiegelt nicht zufällig wider.
17:02
Ich gestehe jetzt einfach mal zu, ohne meine These damit abwerten zu wollen, dass uns allen Schlimmeres widerfahren kann, als dass beispielsweise iTunes in einer wie immer gearteten Reihenfolge uns wiederholte Musiktitel anbietet. Also damit kann man irgendwie leben. Und trotzdem glaube ich, dass dahinter und jenseits dieser einzelnen Beispiele eben eine Frage zu finden ist, die wirklich interessant ist,
17:27
wenn wir uns sozusagen in die gesellschaftliche Entwicklung und unsere kommunikative Entwicklung internetbasiert und algorithmusbasiert weiter hineindenken. Und die lautet, was bedeutet es denn eigentlich, wenn der Computer eben keine Zufallskompetenz hat,
17:41
wenn wir ihm aber, also dem Computer, aber immer größere Bedeutung für unsere Entscheidungen zubilligen, indem eben algorithmusbasiert bestimmte Präferenzen immer genauer berechnet werden können, immer stärker in bestimmte Entscheidungsbereiche unseres Lebens eindringen. Ich glaube, wir müssen uns dabei damit auseinandersetzen, dass durch den Zufall eben das Neue in die Welt hineinkommt.
18:04
Und zwar ganz im Sinne dessen, was wir aus der Evolution auch kennen. Das heißt, wenn wir uns zunehmend auf Algorithmen verlassen und diese Algorithmen immer stärker in wesentliche menschliche Existenz, Repräsentations- und Entscheidungsbereiche eindringen dürfen, dann beschränken wir uns auf ein theoretisch in seinen Dimensionen zwar unbeschreibbar großes,
18:25
aber dennoch eben immer deterministisches und damit endliches Set an Auswahlmöglichkeiten. Und ich habe es gerade versucht, am Beispiel iTunes klarzumachen und am Beispiel Genius. Diese Auswahlmöglichkeiten sind manchmal so groß, dass man sich tatsächlich natürlich praktisch die Frage stellen kann,
18:41
ja, um Himmels willen, was ist das Problem daran? Praktisch ist das in dem Fall bei iTunes also kein Problem. Aber es ist ein theoretisch interessantes Problem, weil das natürlich bedeutet, jede Auswahlmöglichkeit ist in dem, was jetzt ist oder in dem, was wir in der Vergangenheit gemacht haben, angelegt. Weitergedacht heißt das, alles, was es in der Zukunft geben kann, ist auch schon in der Vergangenheit angelegt,
19:05
denn die Elemente der Berechnungen, die müssen ja alle feststehen, sie müssen vorhanden sein, damit die Berechnung eben funktionieren kann. Und selbst wenn ich dann anfange, Zufallsbits, also beispielsweise in Form eines randomisierten Algorithmus, in die Berechnungen einzufügen, dann steht die Zahl und die Auswahl dieser Zufallsbits von vorneherein fest.
19:23
Und ich bin wieder einfach nur bei einer Rechenregel, die komplexer ist und damit zufällig vortäuscht, aber ihn nicht produzieren kann. Das heißt, Zukunft ist immer die Replikation oder die Rekombination des aus der Vergangenheit Bekannten
19:40
oder anders formuliert, wir bleiben eigentlich immer unser eigener Status quo. Das ist natürlich eine zugespitzte Betrachtung, das konsidiere ich gerne, denn sie würde ja davon ausgehen, dass wir eben gar keine anderen Inputs mehr bekommen, als die, die durch algorithmusbasierte Berechnungen des Computers uns zur Verfügung gestellt werden. Und das ist natürlich relativ unrealistisch.
20:02
Nur, selbst wenn wir uns vorstellen, dass diese Situation, die ich versuche hier zu beschreiben, überhaupt nie eintreten würde, dann ist das Denken darüber natürlich etwas, was unsere derzeitige Kultur und die Entwicklung unserer Denk- und Verhaltensweisen durchaus beeinflussen kann. Und ich glaube, das könnten wir an drei Beispielen uns ganz schön vor Augen führen,
20:23
die ich mal durchdeklinieren möchte. Wenn ich morgens zum Beispiel eine Zeitung zur Hand nehme, oder auch wenn ich auf einer Website irgendeines Medienanbieters, sage ich mal, mir was anschaue, was passiert ist, ich beginne zu lesen dort und gucke mir an, was Journalistinnen und Journalisten recherchiert haben,
20:43
dann sind das ganz unterschiedliche Dinge, die dort auftreten. Manchmal sind das eben eigenrecherchierte Stücke, manchmal sind das gar investigative Stücke. Und interessant ist, dass das natürlich langsam in ganz anderen Formen, beispielsweise der Pulitzerpreis für ProPublica in den USA jetzt aufkommt, weil dort eben die klassische journalistische Funktion diese Leistung fast überhaupt nicht mehr erbringt.
21:03
Aber es sind eben solche Stücke, die ich dort finde. Es sind manchmal Meinungspositionen, Kommentare, Glossen, was auch immer. Und manches davon interessiert mich und ich lese rein und ich lese weiter. Anderes interessiert mich überhaupt nicht und ich ignoriere es. Was aber eben immer der Fall ist, ist, dass es unvorhersehbar ist, wie die Zeitung von morgen aussieht.
21:23
Das kann niemand von uns wirklich vorhersagen oder wie die Website der entsprechenden Zeitung beispielsweise aussieht oder was auch immer. Deshalb werden ja selbst Chefredakteure gelegentlich von ihrer eigenen Zeitung überrascht, weil sie keine Ahnung haben, was im Einzelnen da drin ist, weil sie eben sozusagen die Komplexität der verbundenen und angesammelten menschlichen Entscheidungsprozesse,
21:42
die eben evolutionär zufällig sind an vielen Stellen, so nicht vorhersagen können. Und das ist das Spannende daran. Denn wenn ich ins Netz gehe, dann gehe ich oft natürlich da rein und gucke mir an, was ich finden möchte, weil ich weiß, was ich suche. Wenn ich aber sozusagen mich einfach treiben lasse durch die Lektüre einer Website oder eines Blogs oder einer Zeitung oder was auch immer,
22:05
dann werde ich mir Dinge konfrontiert, die ich nicht zu suchen gewusst habe, weil ich nicht wusste, dass mich das interessieren könnte. Und gelegentlich stelle ich fest, es interessiert mich aber und ich bleibe an etwas hängen, was ich überhaupt nicht erwartet habe. So das ist sozusagen eine ganz pragmatische Komponente, die den Zufall in diesen Zusammenhängen beschreibt.
22:24
Und ich glaube, das ist das Gute daran, wie wir uns auch mit manchen Informationen auseinandersetzen. Denn wir werden so zu Themen gelenkt, die wir aus unserem Informations- und Wissensstand heraus oder nach unserer jeweiligen Interessenlage eben nicht gewählt hätten, sozusagen vorbei gesurft, Punkt.
22:42
Also das ist ein Bereich, in dem wir uns umschauen können. Und wenn ich mir dann anschaue, wie beispielsweise die Content-Fabriken von Demand Media dieses Problem lösen, dann hat das mit dem beschriebenen Zusammenhang von randomisierter Information oder auch von journalistischen Leistungen gar nicht viel zu tun,
23:01
sondern hier geht es darum, dass schlecht bezahlte Menschen wie am Fließband Inhalte oder besser gesagt Content produzieren. Und diese Inhalte werden durch eine algorithmisch analysierte Nachfrage gesteuert. Oberstes Gebot ist also, der Inhalt muss bei Google gefunden werden können, denn nur dann lassen sich bei ihm entsprechend vernünftig und effizient Anzeigen verkaufen.
23:23
Und das wird alles schon mal im Vorab berechnet. Es wird also berechnet, wonach die Menschen suchen. Denn dann, wenn ich das genau berechnet habe und meine Inhalte darauf abstimme, dann werden sie diese Inhalte auch finden. Und dann kann ich eben auch die entsprechenden Anzeigen schalten. Das heißt, wir haben es hier mit einem perfekten Matching für Inhalteproduktion und Werbewirtschaft zu tun.
23:43
Und der Kunde kommt auch auf seine Kosten, denn er kriegt ja, was er will. Alle Unbekannten in dieser Gleichung werden also durch die Algorithmen von Demand Media herausgerechnet. Und das heißt, es entsteht ein wunderbarer, gleichströmiger Fluss von Mainstream-Inhalten, die super funktionieren, auch als Geschäftsmodell, super funktionieren.
24:02
Und darum geht es, ja, make money. Nur Varianz oder gar Aufklärung kommt auf diese Art und Weise ganz sicher nicht in die Welt. Zweites Beispiel. Wenn ich heute Abend wissen will, wohin alle schwarzhaarigen, geschiedenen, in einer WG lebenden Blogger
24:24
mit mindestens einem Kind und Hund nach 21 Uhr gehen, die über 40 sind. Dann kann ich sagen, okay, ich gucke einfach mal ins Programm der Republika. Heute gibt es die Abschlussparty. Ich gehe da mal hin und hoffe, dass es möglichst viele schwarzhaarige, geschiedene Blogger mit Kind und Hund, die in der WG leben, dort geben wird.
24:42
Ja, die Wahrscheinlichkeit kann ich nicht berechnen, aber ich könnte es einfach mal ausprobieren. Und gegebenenfalls treffe ich diese Menschen dort, gegebenenfalls treffe ich aber auch andere Menschen dort, die auch interessant sein können, obwohl sie gar nicht meinen vorher für mich selber festgelegten Auswahlkriterien entsprechen. Wenn ich mir die analysierten Datenströme anschaue, die Sie jetzt hier gerade hinter
25:00
mir sehen, zum Beispiel die von Sense Networks in New York und Mountain View, dann machen die Folgendes. Die nehmen real-time location data, werten diese Daten aus und machen daraus eine predictive analysis, wo ich also genau weiß, ich laufe nie wieder Risiko, wenn ich das sozusagen für mich selber entsprechend berechne oder berechnen lasse,
25:21
den falschen Menschen in der falschen Bar zu begegnen, sondern ich treffe immer nur noch die schwarzhaarigen, geschiedenen Hund- und Kindbesitzer, die in der WG leben und bloggen. Das kann schön sein oder auch nicht. Rechnerisch gesehen ist das relativ beeindruckend. Aber wenn ich mich als Individuum frage, ob meine soziale Fitnessfunktion evolutionär gesprochen und gedacht darin liegt,
25:46
dass ich meiner eigenen Peer Group, von der ich glaube, sie sei für mich die wichtigste, immer ähnlicher werde, dann kann ich diese Frage unterschiedlich beantworten. Ein evolutionäres Moment in meinen sozialen Beziehungen ist ja relativ wichtig, um Menschen sozusagen über einen Lebenslauf hinweg
26:02
in verschiedenen sozialen Zusammenhängen zu verankern, die auch anzupassen, weil man ja mit dem Alter zum Beispiel Präferenzen verändert oder weil man auch plötzlich feststellt, dass man irgendwie das gar nicht mehr mag, wovon man gedacht hatte, man würde es total mögen, und das wäre also das Wichtigste, das ändert sich plötzlich, weil wir uns eben selber auch verändern. Das heißt, wenn ich irgendwo hingehe, wo nicht die geschiedenen schwarzhaarigen Blogger mit Kind und Hund in der WG lebend sind,
26:25
dann könnte mir passieren, dass ich meinen neuen Lehrmeister treffe, die Liebe meines Lebens, einen neuen Geschäftspartner, was auch immer, weil ich mich eben sozusagen dem Überraschungsmoment in meinem eigenen menschlichen Ermessen sowie dem der anderen ausgesetzt habe. Und ich glaube, das ist eben wichtig.
26:41
Möglicherweise treffe ich Menschen, die keines dieser Merkmale, die von mir vorbestimmt werden, haben, aber trotzdem sind sie plötzlich in meinem sozialen Zusammenhang relativ wichtig und lassen mich selber lernen, dass ich sozusagen auch meine eigenen Präferenzen und mein eigenes Ermessen verändern kann. Und das ist ein Punkt, der uns glaube ich als zweites zeigt, wie sozusagen bestimmte rechnerbasierte Präferenzbewertungen
27:09
uns möglicherweise in Entscheidungsräumen halten, die nicht immer optimal sein müssen und die vor allen Dingen bestimmte Veränderungsmöglichkeiten, wenn man das als theoretisches Konstrukt zu Ende denkt, eben ausschließen.
27:24
Ich würde auch gerne als drittes Beispiel zum iPad ein paar Worte sagen in dem Zusammenhang. Ich habe keins. Das ist die erste Information. Die zweite Information ist, dass es auf der Website von Apple natürlich vorher wunderbar eine Guided Tour gab, wo man also in verschiedenen Videos sich anschauen konnte, was man mit diesem iPad alles machen kann.
27:44
Und ich habe, als ich mir das angeguckt habe, gedacht, ich glaube, dass der Begriff ein bisschen verrätterisch ist, denn ich habe irgendwie das Gefühl, dass das iPad selber auch eine Guided Tour ist, und zwar durchs Netz. Und was ich damit meine, ist, jede Sehenswürdigkeit im Internet, in Anführungszeichen Sehenswürdigkeit,
28:00
ist sozusagen von Apple gemacht. Die Tourwärter dahin werden von Apple bezahlt. Apple kontrolliert, ob das Umfeld dieser Sehenswürdigkeiten auch schön schicklich und sauber bleibt. Also kein Sex, keine Drugs, kein Rock'n'Roll, sondern immer nur die Anwendungen und Apps, die vorher durch die Apple-Kontrolle gegangen sind.
28:20
Dann die Vermarktungs- und Verwertungsplattform wird von Apple... Ja, dürfen Sie ruhig mal laut schreien, finde ich auch nicht so ganz prima. Die Verwertungs- und Vermarktungsplattform werden von Apple gestellt, also iTunes, iBooks und so weiter. Und jetzt auch noch das Werbesystem dahinter, iAds. Da gebe ich zu, dass diese Häufung von Angeboten und Gateway-Kontrollen aus einer Hand für mich ziemlich problematisch ist.
28:45
Also ich habe das Gefühl, ich begebe mich hier in etwas, was ich im realen Leben längst nicht mehr tue, nämlich so eine Neckermann-Pauschalreise, das ist jetzt ein bisschen böse formuliert, wo ich sozusagen permanent davon abhängig bin, dass jemand, den ich jetzt einmal gebucht habe und bezahlt habe, mir sagt, wohin ich gehen darf, wie lange ich da bleibe, wann ich mich mit anderen versammeln muss
29:03
und was ich mir da bitte angucken soll. Und das ist sozusagen überhaupt nicht meine Vorstellung von einem offenen und freien Netz, das wir ja sozusagen als Konzept immer gerne diskutieren und auch zurechtfordern. Und ich glaube, angesichts von verschiedenen Entwicklungen wäre das ziemlich wichtig, das Thema auch mal wieder ein bisschen in den Vordergrund zu stellen.
29:21
Und da ist das iPad eigentlich eine interessante, seltsame Entwicklung, die eher dagegen geht. Also ich bin im Moment ja wie gesagt in den USA und wenn Sie sich anschauen, die Entscheidung, die vergangene Woche beispielsweise gefallen ist von einem Appellation Court, der gesagt hat, dass die FCC, also die Regulationsbehörde in den USA,
29:41
im Fall Comcast versus FCC, dass die FCC nicht vorschreiben darf, die Netzneutralität, also den Zugang für alle zum Internet, dann ist das wieder ein kleiner Schritt, wo man sagen kann, es gibt eine ganze Reihe von Entwicklungen, die uns sozusagen das Konzept des offenen und freien Internets immer stärker in Frage stellen. Und das finde ich eine problematische Entwicklung,
30:03
die auch zum Thema Ermessensspielräume, Entscheidungsfreiheiten, Zugangsfreiheiten im engeren Sinne in der Betrachtung des Internet dazugehört. Was mich aber besonders auch irritiert am iPad ist, dass dieses Gerät womöglich, und das ist ja eine schöne Entwicklung und auch eine gute Entwicklung, womöglich den Netzabstinenzlern den Weg ins Web ebnen wird.
30:23
Nur als Konsumenten und nicht als Produzenten. Worüber hatten wir bitte die ganzen vergangenen Jahre begeistert diskutiert, dass das soziale Internet ein demokratisierendes Medium ist, dass Konsumenten zu Produzenten werden, dass user-generated content, das Prinzip einer elitären Inhalteherstellung der wenigen für die vielen in Frage stellt,
30:43
ist alles ganz richtig, nur auf dem iPad machen sie nichts davon. Und dieses Prinzip, was das iPad reflektiert, ist ein Backlash vom kreativen produzierenden Netizen hin zum rezipierenden Konsumenten.
31:03
Und das finde ich eigentlich gemessen an dem, was wir im Netz und mit dem Netz machen können, eine ziemlich seltsame Entwicklung. Das mögen erstmal Einzelbeispiele sein, die natürlich überhaupt nichts über die grundsätzliche Richtung aussagen müssen,
31:22
in die sich unsere Internetkultur entwickelt. Aber in Transformationsphasen ist es ja ziemlich spannend, aber auch vor allen Dingen ziemlich wichtig, sich anzuschauen, wie gehen die verschiedenen Szenarien, die wir absehen können, und die mal zu Ende zu denken im Sinne einer Szenarientechnologie und auch zu diskutieren. Also es geht mir überhaupt nicht um ein Entweder-oder,
31:41
und es geht mir auch um Gottes Willen nicht darum zu sagen, hey, wir müssen jetzt hier irgendwie wahnsinnige Bremsen ziehen in der digitalen Netzentwicklung, und das ist alles total gefährlich, also das wäre völliger Unsinn. Darum geht es mir überhaupt nicht, sondern mir geht es darum zu sagen, wir haben so viele Vorteile, es gibt so viele spannende Möglichkeiten, die sich im Netz bieten, mit den Besonderheiten des Internets,
32:00
über die ich gerade am Beispiel Apple in umgekehrter Form gesprochen habe. Da werden wir natürlich, was die Informationsversorgung des Einzelnen, was die Wissensbildung angeht, was die Möglichkeiten in Bildung, in Wirtschaft, auch in der politischen Partizipation angeht, noch sehr viel mehr lernen müssen. Also da denkt man ja manchmal, hier bin ich auch im falschen Film, selbst wenn ich mich im Internet bewege.
32:20
Aber trotzdem sind die Möglichkeiten gegeben, und niemand will die zurückschrauben. Und ich rede nicht darüber, dass wir jetzt anfangen, das infrage zu stellen, sondern ich rede darüber, was passiert, wenn wir an manchen Stellen, wie ich das am Beispiel Demand Media, am Beispiel von Real-Time Location Based Data gezeigt habe, wenn wir da einen Weg einschlagen, wo wir uns immer stärker in Richtung eines technologieinduzierten Determinismus bewegen.
32:45
Das interessiert mich, denn das reduziert das menschliche Ermessen und die evolutionsgeschichtlich wirklich wichtige Einflussgröße des Zufalls. Lassen Sie das mich nochmal an einem kleinen Beispiel und dann auch an einem größeren verdeutlichen, was ich eigentlich meine. Denn dieses menschliche Ermessen beginnt ja im Kleinen.
33:02
Was geschieht, wenn ich hier in Berlin irgendwo an der Spree nachts zwischen zwei und fünf mal autoparke, weil es vielleicht besser wäre, dass ich damit nicht weiterfahre, niemand ist da, ich störe niemanden, ich behindere niemanden, es gibt auch keinen Verkehr. Trotzdem kommt vielleicht irgendeine verspätete Polizesso vorbei, sieht mich und denkt sich, egal, ich bin selber müde,
33:22
ich habe keinen Bock, ich habe keinen Stift, ich weiß nicht warum, ich habe mein Gerät zu Hause vergessen, Knöllchen gibt es diesmal nicht. Dann habe ich Glück gehabt. Nur, wenn wir die Situation haben, in London ist es zum Beispiel gar nicht mehr möglich, so eine Park-Situation herzustellen, weil sie überall Überwachungskameras haben und wenn es eine solche Überwachungskamera an dem Punkt gibt,
33:42
wo ich sozusagen mein Auto dann stehen gelassen habe, dann hat diese Frau ja keine Wahl, denn sie selber ist mit im Bild. Das heißt, sie muss mir einen Strafzettel ausstellen für ein Parkvergehen, weil sie sonst selber ein Problem bekommt und ihr Ermessen ist damit auf null reduziert. Ich nehme sehr gerne hin, dass ich diesen Strafzettel bezahlen muss, aber ich nehme nicht gerne hin oder ich nehme nicht gerne in Kauf,
34:03
was er im übergeordneten Sinne bedeutet. Nämlich, dass wir damit auf ein deterministisches Regulierungsregime zusteuern, in dem die Befolgung von Vorschriften immer unabwendbar ist, weil sie eben umfassend dokumentiert und auch eben umfassend kontrolliert werden kann. Und an der Stelle sitze ich auch mal mit Jeff Jarvis gerne nackt in der Sauna
34:31
und es ist mir total egal, wer das sieht oder auch nicht. Das ist mir egal, ja. Es ist mir aber unterm Stellen nicht egal, mit wem ich irgendwo an einer anderen Stelle gesehen werde,
34:42
und sei es aber, weil ich nur einen Kaffee trinke, aber möglicherweise etwas zu besprechen habe, was in der Konstellation dieser Person günstigerweise nicht öffentlich werden sollte. Wenn wir uns dann vorstellen, dass demnächst die Bilderkennungsmöglichkeiten des iPhones uns sozusagen sofort im Internet recherchieren und ich also nirgendwo mehr anonym sein kann, dann ist das das Problem, was mit Jeff Jarvis und der Sauna gegeben ist.
35:04
Das interessiert mich überhaupt nicht. Mich interessiert aber, ob für mich ein Freiheitsgrad übrig bleibt, anonym in meinem Leben sein zu können und damit Privacy zu haben. Also einen bestimmten Raum zu haben, auf den ich mich zurückziehen kann und der mir die Freiheiten eröffnet, die wir brauchen.
35:20
Privacy ist eine absolute Voraussetzung dafür, dass eine freiheitliche Gesellschaft möglich ist. Und das ist das, was wir bitte im Blick behalten sollten, wenn wir über so lustige Beispiele wie die Sauna reden. Darum geht es mir nicht. Und natürlich hat Jeff Jarvis recht damit, dass sich unsere Privatheit und Öffentlichkeitskultur längst verändert.
35:40
Absolut richtig. Nur an der Stelle bitte auch mal drüber nachdenken, was heißt das eigentlich? Am Berkman Center haben wir letzte Woche die Frage diskutiert, was heißt das eigentlich, wenn Kinder permanent durch ihre Eltern kontrolliert werden können. Übrigens auch über das Handy und lokationsbasierte Daten, die man kontrollieren kann. Wie verändert das eigentlich das Aufwachsen und die Sozialisation eines Kindes?
36:03
Ich glaube, das verändert das ziemlich. Also ich erinnere mich an viele Situationen, wo ich ziemlich froh war, dass meine Eltern mich nicht kontrollieren konnten über irgendwelche elektronischen Kommunikationsendgeräte, die ich damals eben nicht mit mir geführt habe. Das sind Fragen, mit denen wir uns beschäftigen müssen in dem Feld. Und ich komme zurück auf dieses Beispiel.
36:20
Die Vorschriften, die wir in unserer Gesellschaft haben, bestimmte Gesetzmäßigkeiten, bestimmte Regelungen, die sind natürlich nötig. Unter anderem auch besser, weil wir Willkür reduzieren müssen. Und weil es eben in jeder Gesellschaft, in jedem sozialen Zusammenleben, Konflikte gibt. Es gibt Auseinandersetzungen, Interessendivergenzen, die müssen irgendwie gelöst werden. Und sie müssen so gelöst werden, dass alle Beteiligten auf einer gerechten und sozusagen kompromissorientierten Basis
36:44
gemeinsam miteinander auskommen können. Also ich rede hier nicht gegen bestimmte Vorschriften. Ich rede nur darüber, dass wir die umfassende technologisch basierte Kontrolle von Vorschriften und deren Einhaltung uns vor Augen führen müssen, weil das nämlich eine Gesellschaft ziemlich stark verändert.
37:01
Also der Ermessenspielraum, der ja zum Beispiel auch in der Rechtssetzung und in der Rechtsprechung ein juristisches Konstrukt ist, was sehr bewusst so gewählt wird und notwendig ist, das menschliche Ermessen, ist ein ganz wichtiger Bestandteil unserer Möglichkeit eines freiheitlichen Zusammenlebens. Wo deterministisch geregelt und die Einhaltung dieser Regeln auch kontrolliert wird,
37:23
gibt es diese Spielräume, diese Ermessensspielräume nicht mehr. Der Mensch ist dann für die Gesetze da und nicht umgekehrt. Und das ist ein Paradigmenwechsel, der ziemlich relevant ist. Ich würde aber gerne jenseits der Strafzettel, weil das ja irgendwie ein Beispiel ist, bei dem man auch wieder sagen könnte, damit können wir relativ gut leben, mal ein anderes Beispiel nehmen.
37:41
Schauen wir uns mal an, was die computerisierte Genetik könnte. Könnten wir tatsächlich unsere genetischen Codes so analysieren lassen, wie das in den USA in Ansätzen Unternehmen wie 23andMe ja bereits tun, dann wüssten wir jedes Detail irgendwann über unsere individuellen Lebens- und Krankheitsverläufe. Wir wüssten auch jedes Detail einer genetischen Schädigung,
38:03
beispielsweise bei bislang nicht geborenen Kindern. Und die interessante Frage ist, was geschieht mit dieser Information? Ignorieren wir die Information, weil wir wissen, dass wir nicht genau wissen können, was geschieht, weil wir also möglicherweise einfach hoffen, dass ein Kind, das in Zukunft geboren wird,
38:20
trotz einer gewissen bei den Eltern vorhandenen genetischen Schädigung, möglicherweise das nicht vererbt bekommt. Also deterministisch können wir das ja nicht bestimmen. Dürfen wir diese Informationen eigentlich noch ignorieren? Und da gibt es wie bei Julies C. in Corpus Delicti längst eine übergeordnete Institution, die bei diesen Informationen dann für uns bestimmt, ob wir zum Beispiel dieses Kind kriegen oder nicht bekommen.
38:42
Das sind Fragen, die ich ziemlich relevant finde und die dann weit über das Austeilen eines Strafzettels hinausgehen. Ich habe vor zwei Jahren auf einer Tour durch die USA mit dem Eisenhower Fellowship eine interessante Situation gehabt auf der Milken Conference in Los Angeles. Da saß ich neben dem Chef-Fundraiser der Columbia University
39:02
und in einem Panel, wo es eben um diese genetischen Analysen ging mit Craig Venter und anderen und auch Firmenvertretern, von 23andMe. Und dann sagt der junge Mann, der war kaum älter als ich, neben mir, er war wahrscheinlich ein paar Jahre jünger als ich, neben mir sagt, wir haben das, also meine Frau und ich, wir haben das auch machen lassen. Wir haben das jetzt in die Post gegeben, die Speichelprobe
39:22
und lassen uns mal sagen, wie unsere Krankheitsaussichten sind. Und dann habe ich gesagt, aha, und ist das Ergebnis schon da? Und dann sagt er, ne, das Ergebnis ist noch nicht da, aber wir sind wirklich gespannt darauf. Und dann habe ich gesagt, und haben Sie da nie mal so miteinander darüber diskutiert, was Sie eigentlich mit den Informationen machen, wenn da welche drin sind, die schwierig sind? Und dann schwieg er, eine Minute, zwei Minuten.
39:46
Und dann sagte er, doch, aber da hatten wir das Paket leider schon abgeschickt. Und dann habe ich gesagt, ja, dann haben Sie jetzt nur die Möglichkeit, wenn es zurückkommt, es nicht aufzumachen. Ansonsten frage ich mich natürlich, was macht man mit der Information,
40:02
dass ich, weiß ich nicht, in 20 Jahren mit einer 63-prozentigen Wahrscheinlichkeit an Alzheimer erkranke? Kann ich jetzt schon mal anfangen, mehr zu lesen, um mein Gehirn zu trainieren, was auch immer? Was mache ich mit dieser Information, die möglicherweise irgendwo verfügbar ist, obwohl die Daten alle angeblich total sicher verschlüsselt sind? Und ein potenzieller Arbeitgeber hat mich mit meinen 63 Prozent Alzheimer
40:23
auf der einen Seite und einen anderen Kollegen mit 12 Prozent Alzheimer, aber 42 Prozent Prostata-Krebs zur Auswahl. Also wo sind da die Entscheidungsgrundlagen, die sozusagen jenseits von deterministischen Informationen, die genau sagen, wohin die Reise geht,
40:42
oder angeblich genau sagen, wohin die Reise geht, uns Ermessensspielräume lassen, die wir brauchen, um überhaupt leben zu können? Das ist eine Frage, die dann weit über die Problematik der Kontrolle von Verkehrssünden hinausgeht. Ich glaube, wir müssen uns da einfach klarmachen, solche deterministischen
41:03
Informationen sind Informationen, hinter die kein Mensch mehr zurückkommt. Wenn Sie sowas wissen, leben Sie mit diesem Wissen. Und Sie können nicht mehr ohne dieses Wissen leben, oder anders formuliert, ein gedachter Gedanke kann nicht mehr zurückgenommen werden und eine ermittelte und berechnete Information eben auch nicht.
41:23
So sehr ich also den Zufall liebe, über den ich hier ja spreche, würde ich es sehr ungern ihm überlassen, ob wir uns als Gesellschaft in diese Richtung entwickeln werden, ob wir also menschliches Ermessen zugunsten deterministischer Berechnungen zurückweichen lassen, ob wir Freiheitsgrade zugunsten
41:40
umfassender Dokumentation und Kontrolle aufweichen. Denn ich glaube, es gibt Freiheit, wie schon beschrieben, nur um den Preis der Unberechenbarkeit. Und diese Räume müssen wir erhalten auch in einer digitalisierten und damit datenbasierten und zunehmend berechenbaren menschlichen Umwelt und Lebenskultur.
42:00
Und das gilt für unsere Gesellschaft ebenso wie für jeden Einzelnen, der in dieser Gesellschaft lebt. Wenn ich also die jetzt entwickelte deterministische Perspektive mal auf das zugrunde liegende Menschenbild anwende, dann bekomme ich ein ziemlich trauriges Resultat. Denn der Mensch ist in einer derartig deterministischen und vom Zufall weitgehend befreiten Welt ja zweifellos überlebensfähig.
42:24
Das steht völlig außer Frage. Er muss dafür bloß sehr anpassungsfähig sein, er muss funktionsfähig sein in dieser Welt und er muss bitte möglichst widerstandslos sein, weil Ermessensspielräume eben reduziert sind. Das heißt, ich kann mich nicht mehr frei entscheiden, mich auch gegen etwas zu entscheiden, sondern das steht dann schon mal fest, was ich bitte tun soll.
42:41
Der Mensch ist also Teil einer festen systemischen Ordnung und als solcher Teil hat er bitte auch zu funktionieren. Ganz ähnlich übrigens den Algorithmen, die für ihn auf seinen Computern laufen und eben Profile, Präferenzen, Entscheidungsoptionen berechnen. Und ich glaube, an manchen Stellen kann man sagen, auch unsere Sprache skizziert ja in mancherlei Hinsicht diese Form von Menschenbild schon,
43:01
wenn wir von Humankapital, von der Freisetzung von Mitarbeitern, von Menschen als Schnittstellen zwischen Problem und Problemlösung reden, dann hat das etwas mit dieser deterministischen Interpretation von Menschen und seinem Lebensumfeld zu tun. Tatsächlich sind wir Menschen aber biologisch evolutionär
43:22
und auch unserer psychischen und sozialen Natur nach im Wesentlichen unberechenbar und eben nicht deterministisch. Wir versuchen permanent zugunsten unserer sozialen Einbettung, zugunsten unserer Akzeptanz in unserer Peergroup oder auch darüber hinaus, zugunsten der Funktionsfähigkeit unserer Gesellschaft,
43:42
irgendwie Ordnung zu schaffen als Ausnahmesituation von Chaos. Aber jeder von uns weiß, dass Chaos der Urzustand ist. Und es bedarf ziemlich viel Energie, Anstrengungen, Zeitaufwand und manchmal auch relativ viel des Geldes, um eben diese Ordnung als Ausnahmesituation von Chaos herzustellen.
44:01
Also der Blick auf meinen Schreibtisch sagt mir jeden Tag, was diese These stimmt, dass Chaos der Urzustand ist und Ordnung sehr viel Mühe bedarf, um sozusagen in diesen Urzustand eine Schneise der sozialen Übersichtlichkeit hineinzuschlagen. Wenn ich morgens aufstehe und der Becker klingel, die Frage, ob ich das schaffe oder ob ich das nicht schaffe, gehört in dieses Denkschema hinein.
44:22
Die Frage, ob ich eine Aufgabe rechtzeitig hinkriege, ohne das Budget zu überschreiten, ohne die Zeit zu überschreiten, gehört in diesen permanenten Versuch, in Chaos Ordnungsstränge hineinzuschlagen hinein. Auch die Frage, ob ich permanent als kommunikative Schnittstelle zwischen allen möglichen Anforderungen, die von allen Seiten auf mich zukommen, erreichbar bin, gehört in diese Vorstellung des Menschen hinein.
44:42
Er soll funktional sein, er soll perfekt funktionieren, aber er ist eben nicht immer funktional. Aber Gott sei Dank, denn das macht ihn spannend und das macht ihn interessant. Der Mensch ist oft nicht voll funktional, denn er ist eben ein hochkomplexes biologisches, psychisches und soziales System, das noch kein Algorithmus hat kopieren oder berechnen können.
45:02
Und das macht ihn als Gattung, aber auch als Individuum, so wahnsinnig interessant und spannend. Er ist unberechenbar und er ist damit für die Freiheit geeignet. Und wenn Sie sich in Ihrem persönlichen Umfeld vorstellen, das wäre bei Menschen, mit denen Sie zu tun hätten, anders, dann würden Sie relativ schnell sich in das Bild hineinversetzen können,
45:20
wie langweilig diese Menschen werden, wenn sie berechenbar sind. Dann kann man sozusagen alles wissen und vorhersehen und dann kann man auch das Gespräch und das Zusammenleben eigentlich relativ schnell einstellen. Über eine deterministische Welt zu sprechen, wie ich das jetzt als Gedankenkonstrukt Ihnen hier also entworfen habe, das heißt, über eine Welt zu sprechen
45:40
und Sie damit ja auch schon mal eben im engeren Sinne begriffen zu haben oder zu beginnen zu begreifen, die der menschlichen Natur in vielerlei Hinsicht zuwiderläuft. Und daran ist besonders schade, dass wir uns damit gegenseitig der Impulse, Überraschungen und auch der sozialen Synchronisierungsmomente berauben, die das Leben sehr schön und sehr abwechslungsreich machen.
46:03
Und ich glaube, das kann man auch sehr praktisch wieder an der Nutzung des Netzes nachvollziehen. Ich lese sehr viel, ich mache sehr viel im Internet, trotzdem stelle ich immer wieder fest, dass mit die interessantesten Dinge, die ich sozusagen dann anschaue, oder mit denen ich irgendwas mache, um damit zu arbeiten, um es einfach zu rezipieren, um mich damit zu unterhalten,
46:22
viele der interessantesten Dinge eben durch Empfehlungen zustande kommen, von Freunden, von Bekannten, manchmal auch von Fremden, die einfach glauben, dass mich etwas interessieren könnte und oft haben sie damit Recht. Und das sind die Dinge, die ich dann relativ stark nutze. Insofern ist es also nicht sehr überraschend, dass der Statistikkonzern Hitwise ja Anfang des Jahres herausgefunden hat,
46:42
dass die Nutzer von Nachrichtenportalen inzwischen eher von Facebook als von Google News kommen. Weil die soziale Empfehlungsstruktur auch mit ihrer Unvorhersehbarkeit und mit ihrem evolutionär überraschenden Moment uns eine Menge an Dingen bietet, die wir eben algorithmenbasiert so nicht bekommen. Wir verlassen uns lieber auf persönliche Empfehlungen
47:02
einer Social Networking Site wie Facebook als auf Aggregatoren von Google News. Das heißt, wir Menschen sind uns auch gegenseitig als Zufallsgenerator und Ermessensspielraum. Und damit verständigen wir uns evolutionär auf Themen, wir verständigen uns über Probleme und deren Lösungen
47:20
und entwickeln damit auch gemeinsam einen flexiblen, sich immer verändernden, also sich immer neu anpassenden Wissensbestand, der es uns im Einzelnen ermöglicht, Teil einer dynamischen Gesellschaft, eines sozialen Ganzen zu sein, was sich eben verändert. Bislang hat die Medien- und Kommunikationswissenschaft ja immer dargelegt, dass es allein die Funktion der Medien respektive des Journalismus ist,
47:43
einen Beitrag zur sachlichen, zeitlichen und sozialen Synchronisation unserer Gesellschaft zu leisten. Und das stimmt natürlich, trotz aller Veränderungen, wie ich versucht habe, darzulegen, durchaus auch immer noch, aber es ist nicht das Einzige. Wir müssen, glaube ich, schon sagen, auch die Communities, auch die sozialen Netzwerke, in denen wir uns bewegen, führen dazu,
48:02
dass wir uns sozusagen verständigen und sind Teil dieses kommunikativen Lebens und übernehmen auch einen Teil der Funktion der sozialen Abgleichung und Synchronisation für die jeweiligen Peer Groups. Wenn wir uns anschauen, wie das aussieht, ich habe mal ein Beispiel mitgebracht,
48:21
was wir in einem größeren Forschungsprojekt in St. Gallen gerade machen. Wir gucken uns also an, wie Journalistinnen und Journalisten auf Twitter sozusagen eigene Brands entwickeln und wie sie sozusagen für die Community ihrer eigenen Journalisten Peer Group, für die Community eines bestimmten Themenbereichs, in dem Fall sind das die Proteste in Iran im vergangenen Jahr gewesen, und für eine größere Öffentlichkeit sozusagen zu Schnitt stellen werden
48:45
oder zu verstärkern werden, zu Informationsquellen werden. Und dabei ist interessant, übrigens auch für viele Journalisten, für die Zukunft, dass hier sich etwas tut, was man in der Tat als Social Media Journalism bezeichnen kann und was genau diese Vernetzungs- und Synchronisierungsfunktion im Web übernimmt,
49:01
sind allerdings auf etwas anderen Grundlagen, als wir das eben in den traditionellen Medien kennen. Es sind also Medien und Netzwerke, die uns davon abhalten, in unserer jeweils eigenen Echo-Kammer zu versauern oder vor uns hin zu vergammeln. So nennt das der Harvard-Jurist und Obama-Berater Cass Sunstein,
49:20
der sich sehr stark mit dem Internet und seiner Rolle für die politische Kommunikation beschäftigt hat. Und er hat eine Sichtweise, die man nicht so teilen muss, aber die interessant ist in dem Gedankenkonstrukt, was ich Ihnen darlege. Er sagt nämlich, das Internet hat die Gefahr oder hat möglicherweise die Wirkung gerade in der politischen Öffentlichkeit als Segmentierungsmedium zu wirken.
49:42
Und das bedeutet, dass es jedem erlaubt, sich immer nur den Informationen und Impulsen auszusetzen, die den eigenen Meinungen und Einstellungen entsprechen. Anders formuliert, wir rufen also ins Netz hinein und heraus schallt immer nur das Echo unseres eigenen Rufs. Also immer nur das, was zu uns passt und in unseren Vorstellungen passt.
50:01
Wenn ich mir anschaue, was ich derzeit in den US-Medien sehen kann und ich überlege mal, ich gucke eine Talkshow auf MSNBC auf der einen Seite und auf Fox News auf der anderen Seite, dann muss ich sagen, das, was Sunstein hier fürs Internet entwirft, kriegt man in den traditionellen Medien problemlos auch hin. Also ich setze mich immer nur den politischen Ansichten und Einstellungen aus,
50:23
die ich selber schon habe und lasse sie verstärken. Durch das, was in den Medien funktioniert. Man hat das Gefühl, wenn man diese Programme zum Beispiel vergleicht und ansieht, man lebt jeweils in einer anderen Welt. Und die ist so diametral, dass es schon erschreckend ist für eine Vorstellung einer gemeinsamen politischen Öffentlichkeit.
50:41
Und ich glaube, wenn wir diesen Trend sozusagen als Internet prolongieren würden, auf Basis dieser deterministischen Überlegungen, die ich versucht habe, Ihnen darzulegen, dann hätten wir in der Tat irgendwann durch Profile, durch Präferenzen, durch Nutzungsentscheidungen, die präferenzbasiert und berechnungsbasiert getroffen werden,
51:01
die Situation, dass wir so eine Art Echo-Kammer für uns selber entwickeln würden und das wir etwas, was man dann gesellschaftlich betrachtet, bezeichnen könnte als eine Art soziales Locked-In-Syndrom. Also jeder ist wirklich nur noch in seiner eigenen Welt, nicht in seinem Körper diesmal, sondern in seinem eigenen geistigen Einstellungszusammenhang gefangen und kommt aus dem auch nicht mehr raus.
51:21
Weil diese Echo-Kammer, in der wir einmal sind, uns wirklich immer nur das zurückspiegelt, was wir selber hineingerufen haben. Ich komme langsam zum Schluss und habe mir natürlich auch überlegt, was bedeutet das, wenn ich diese algorithmusbasierten,
51:43
deterministischen Berechnungsüberlegungen versuche, auf ein Gesellschaftsbild zu übertragen und auf unsere menschliche Kommunikation zu übertragen. Und mir hat dabei gefallen, dass dieses Szenario eben eines ist, dass es sich wirklich, wie ich finde, durchzudenken lohnt, weil wir dann, am Beispiel Alpet habe ich es gezeigt, an anderen auch, plötzlich Bezüge herstellen können,
52:01
wo wir feststellen, hey, hier passiert schon ein bisschen was, was mir an der einen oder anderen Stelle mal eine Frage aufgeben sollte und wo ich mal über die Antwort nachdenken muss. Hier bricht schon alles zusammen, ich hoffe, Sie können noch etwas sehen. Und diese Frage kann man sich natürlich aus ganz unterschiedlichen Arten und Weisen stellen.
52:20
Also ich habe dann schon gedacht, dass es sicherlich sehr unterschiedliche Reaktionen auf meine Überlegungen geben wird, die eher zugewandten werden, vielleicht sagen, das ist eine sehr spannende Frage, da muss ich mal drüber nachdenken, weil das an manchen Stellen vielleicht eine Option eröffnen könnte, die ich will oder die ich nicht will. Die eher Ablehnenden werden wahrscheinlich sagen,
52:41
das ist eher Kulturpessimismus und das ist ja Unsinn, Anti-Internet-Propaganda, nichts ist deterministisch im Netz, wir haben die Freiheit, das selber zu bestimmen. Und das ist das Schöne an der Freiheit. Jeder von Ihnen kann zu meinem Vortrag denken, was er will. Und ich wünsche mir, dass das so ist und ich wünsche mir vor allen Dingen auch, dass das so bleibt. Dass Sie sozusagen eben nicht durch Präferenzen vorbestimmt sind,
53:02
sondern dass Sie sich selber eine Meinung bilden und die auch nicht im Sinne einer Echo-Kammer einmal hineingerufen wird und nur das, was dann irgendwie stimmt und dazu passt, wird auch weiterhin von Ihnen überhaupt rezipiert, sondern ich hoffe, dass diese Freiheit, die ich hier versucht habe zu beschreiben, jenseits der Berechnungsgrundlagen, eben eine ist, die andere Option mit in Betracht zieht.
53:22
Ich glaube, dass es der Mühe wert ist, sich über die möglichen Degenerationen, die mit dieser technisierten, deterministischen Sichtweise auf bestimmte Berechnungsgrundlagen, die der Computer mit sich bringt, verbunden sind. Dass es die Mühe wert ist, sich darüber Gedanken zu machen und diese Szenarien tatsächlich mal zu Ende zu denken. Vielleicht ist Ihnen aufgefallen,
53:41
dass meine Kapitelüberschriften, die zwischendurch meinen Vortrag strukturiert haben, bei Friedrich Dürrenmatt geliehen sind. Sie stammen nämlich aus den 21 Punkten im Anhang zum Stück Die Physiker und nur falls jemand das jetzt nicht gerade präsent haben sollte, was gut möglich ist, weil wir so viel nicht wissen können,
54:02
wie wir theoretisch wissen können, zur Erinnerung. Das Theaterstück erzählt die Geschichte von drei Physikern, die sich als geisteskrank ausgeben und sich in eine Klinik einweisen lassen, und zwar aus sehr unterschiedlichen Gründen. Der eine tut so, als sei er krank, weil er sozusagen die revolutionäre Weltformel entdeckt hat und Angst hat, dass sie in die falschen Hände gerät,
54:22
versucht diese Formel zu schützen und glaubt, man könne sozusagen die Ergebnisse der vernünftigen Wissenschaft und der Forschung nur dadurch schützen, dass man sich selber als irre, also als krank darlegt. Die beiden anderen Physiker sind ebenso wenig geisteskrank wie der erste. Sie sind auch an der Weltformel interessiert, nur aus anderen Gründen.
54:40
Sie sind Agenten rivalisierender Geheimdienste und versuchen halt dadurch, dass sie sich auch in die Irrenanstalt haben einweisen lassen, sozusagen an diese Weltformel des ersten Physikers heranzukommen. Wenn wir das Stück heute lesen, und das habe ich kürzlich wieder getan, so ist diese Rivalität eine ziemlich spannende,
55:00
die auch eben immer wieder die Frage nach der Verantwortung der Wissenschaft für ihre Ergebnisse und für das technisch Mögliche stellt. Und ich glaube, dass die Frage, durch das, was wir im Internet beobachten können, durchaus ziemlich aktuell ist. Wir lernen, dass die Welt sich tatsächlich offenbar immer irgendwie dialektisch fortbewegt. Ja, These, Antithese, Synthese, Erfinder, Gegner, profitierender Dritter wie bei den Physikern bei Dürrenmatt,
55:22
Riepelsches Gesetz, Internetmanifest und was auch immer jetzt als Drittes kommt als Beispiel des Diskurses, den wir derzeit über das Internet verfolgen können. Und bei den Physikern ist es übrigens die profitierende Dritte, die die einzig wahre Irre in dem ganzen Spiel ist. Ja, sie hält die Formel für die Weltherrschaft
55:41
schließlich in ihren Händen. Und auch das gehört übrigens zur menschlichen Freiheit, die wir lieben und warum wir sie lieben, dass sie schiefgehen kann. Der Fall des Weltuntergangs, der dann mit dieser Formel, die bei Dürrenmatt die Hauptrolle spielt, möglich wäre, der Fall des Weltuntergangs wäre übrigens bei meinem Thema zu Ende gedacht,
56:02
der einzige, bei dem es vollkommen egal wäre, ob er durch den Menschen oder durch eine Maschine verursacht würde. Vielen Dank für Ihre Aufmerksamkeit. Vielen Dank.