We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Bildmedien der Zukunft und wie sie unser Bild der Welt verändern

00:00

Formal Metadata

Title
Bildmedien der Zukunft und wie sie unser Bild der Welt verändern
Title of Series
Number of Parts
126
Author
License
CC Attribution - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Die Bildmedien der Zukunft sind Wunder voller Magie. Sie zeigen, machen sichtbar, lassen uns sehen wie die menschlichen Augen niemals zuvor gesehen haben. Ihre Bilder werden unsere Vorstellungen, was Bilder sind, völlig umstürzen.
31
68
107
MicrosoftWordConfiguration spaceVisualization (computer graphics)Computer animationMeeting/Interview
LinieInterface (chemistry)Multitier architectureDirection (geometry)Lecture/ConferenceMeeting/Interview
Lecture/Conference
Computer animationSource code
Decision theoryLinseDigital photographyLecture/ConferenceMeeting/Interview
Digital object identifierPixelLecture/Conference
ICQObject (grammar)Film editingPlane (geometry)Perspective (visual)Computer animation
Hausdorff spacePerspective (visual)ALT <Programm>Computer animation
Projektion <Mathematik>ProzessorMeeting/Interview
Digital photographyDigital signalPotential gameApple <Marke>Mobile appAlgorithmProzessor
PixelLecture/ConferenceMeeting/InterviewComputer animation
Direction (geometry)Projektion <Mathematik>AlgorithmMeeting/Interview
InformationSchärfePixelDepth of field
Project <Programm>File viewerGoogleVideoconferencingGoogle Street ViewScientific modellingIntelProjektion <Mathematik>
outputField extensionMeeting/Interview
LaptopTouchscreenRun-time systemDynamic random-access memoryRollbewegungComputer animation
Digital signalObject (grammar)TouchscreenReal numberSource code
DisplayPixelLecture/ConferenceMeeting/Interview
PixelDisplayProbability distributionLinseVideoconferencingComputer animationLecture/Conference
DisplayMicrosoftLAMP <Programmpaket>PixelComputer animation
PositionRaum <Mathematik>State of matterLecture/ConferenceMeeting/InterviewPanel painting
Video game consoleLink (knot theory)Video trackingDisk read-and-write headComputer animationLecture/Conference
Computer hardwareField (mathematics)Coordinate systemVideo trackingLecture/Conference
DisplayMeeting/Interview
CausalityPredictionLecture/Conference
Operating systemSet (mathematics)FacebookiCloudMeeting/Interview
Server (computing)iCloudApple <Marke>ZugriffPoint cloudMultiplicationLecture/Conference
MARKUS <Unternehmensspiel>Digital signalMeeting/InterviewComputer animation
TwitteriCloudFacebookPixelBitLecture/Conference
Perspective (visual)Lecture/ConferenceMeeting/Interview
MicrosoftLecture/ConferenceComputer animation
Transcript: German(auto-generated)
So, herzlichen Dank. Vielen Dank für die einleitenden Worte. Und natürlich ist es eine Revolution, die peu à peu passiert, keine Revolution, sondern eine Evolution. Und über was ich sprechen möchte, ist nicht nur die Bildmedien der Zukunft, sondern überhaupt über eine Geschichte der Bildmedien. Und diese Geschichte der Bildmedien hatte zwar revolutionäre Momente,
aber entwickelt sich vor allem evolutionär. Aber bevor ich darüber spreche, was die Bildmedien der Zukunft sind, wollen wir vielleicht mal einen ganz kurzen Augenblick überlegen, was ist eigentlich ein Bildmedium? Was ist ein Medium? Was ist ein Bild? Ein Bild, könnte man vielleicht ganz einfach definieren, ist ein visuelles Phänomen, das etwas darstellt, sagen wir mal.
Aber kein Bild ohne Bildmedium. Ein Bildmedium, ein Bildträger, ist also diese physische Konfiguration, die notwendig ist, um diese visuelle Phänomen darzustellen, sichtbar zu machen. Das heißt, ein Bild ist auch immer eine Möglichkeit, etwas sichtbar zu machen, etwas zu zeigen.
Ein Bildermachen ist eigentlich ein Zeigevorgang, ein Visualisierungsvorgang. Wir denken in Bildern. Bilder ist Teil unseres Denkens. Das Visual Thinking ist eine ganz wichtige Möglichkeit, wie wir uns mit der Welt, die eine Welt, eine Ordnung in die Welt bringen.
Wir machen uns innere Bilder und wir machen aufgrund von inneren Bildern, machen wir äußere Bilder. Künstler zum Beispiel machen das. Und deshalb ist das die Frage nach dem Bild, so eine wichtige und bedeutende Frage, was jetzt endlich eine Frage nach dem Denken ist, um wie wir unser Bild von der Welt machen. Also ein kurzer Rückblick.
Zunächst nicht, was die Bildmedien der Zukunft sind, sondern was die Bildmedien der Vergangenheit waren. Ganz am Anfang der Menschheitsgeschichte hat man bemerkt, dass eine einfache Linie im Sand eine Bedeutung haben kann. Eine Linie kann beispielsweise ein Pfeil sein, der eine Richtung darstellt.
Eine komplexere Linie kann vielleicht ein Symbol sein, was auf etwas anderes verweist. Und eine Linie kann eine Fläche umschreiben, die letztendlich zu dem führt, was wir vielleicht ein Bild nennen. Wir kennen alle die Höhlenmalerei, wo genau das passiert, dass man mit einem Kohlestück vielleicht etwas abreibt auf einen Hintergrund,
um damit etwas darzustellen, wie zum Beispiel eine Jagdzene. Und der Mensch wird ein bildermachendes Wesen genannt, denn das unterscheidet ihn vorwiegend von anderen Tieren. Es gibt eigentlich keine wirklichen Tiere, die in dem Sinne Bilder machen.
Das heißt, Bilder auch als Bilder erkennen und nicht verwechseln mit der Wirklichkeit. Nicht verwechseln mit dem, was es darstellt. Der Mensch ist ein bildermachendes Wesen und er wäre nicht der Mensch, wenn er nicht diese Technologie weiterentwickeln würde. Und über die Jahrtausende hat der Mensch das entwickelt.
Und bei uns in der westlichen Welt hat das einen Höhepunkt gefunden in dem 15. Jahrhundert mit der Höhlenmalerei. Die Höhlenmalerei ist zunächst einmal auch ein Bild natürlich. Auf diesem neuen Bildmedium, das ist Pigmente in Öl gebunden und auf einen Untergrund draufgebracht,
eine Holztafel oder eine Leinwand, die auf einem Keilrahmen aufgebracht ist. Aber es verändert sich schon, was dieses Bild eigentlich kann, denn so ein Keilrahmen, so ein Bildträger ist mobil. Ich muss nicht mehr zu dem Bild hingehen, wie in der Höhlenmalerei oder in irgendwelchen Kirchenausmalungen, sondern das Bild wird mobil und kann zu mir kommen.
Und während hier aber immer noch ein Künstler notwendig ist, etwas sieht, sich vielleicht was imaginiert und mit seiner Technik das auf die Leinwand bringt, kommt im 19. Jahrhundert dann eine wirkliche Revolution, nämlich natürlich die Fotografie. Die Fotografie ist ein neues Bildmedium, das eigentlich das Bildmedium völlig verändert,
weil hier scheint zumindest die Natur sich selber abzubilden. Das heißt, wir brauchen keinen Menschen mehr, der die Natur sieht, verarbeitet, der sich zum inneren Bild macht und dann auf die Leinwand bringt. So eine Natur scheint sich selber abzubilden, scheint, sage ich, denn selbst schon durch die Auswahl des Bildausschnitts
machen wir ja schon Entscheidungen. Fällen wir schon Entscheidungen, was wir darstellen wollen. Wir können natürlich auch manipulieren, allein das, was vor der Linse stattfindet etc. Und heute stehen wir wieder an einem ganz wichtigen Punkt in der Geschichte der Bildmedien. Ich glaube, das digitale Bild ist etwas völlig anderes als die Bildmedien, die wir bisher hatten.
Wir haben es noch gar nicht richtig gemerkt, weil wir den Eindruck haben, zum Beispiel die digitale Fotografie wäre so etwas wie eine digitale Analogfotografie. Wir hier im Raum wissen, dass es natürlich nicht so ist. Wir wissen, etwas wie ein Digitalbild besteht letztendlich aus nicht aus Pigmenten, sondern aus einem Pixelraster.
Und in jedes Pixel ist für die Farbwerte RGB, stehen dahinter Helligkeitsdaten, letztendlich stehen dahinter ein Pixelstrom. Und das ist sozusagen ein kleiner Überblick darüber, wie sich Bildmedien verändert haben.
Und die Frage ist nun, wo stehen wir heute? Die Frage ist auch, wenn wir sagen, Bildmedien und Bilder, was ist der Unterschied? Nun, bei uns in der westlichen Welt ist seit etwa 500 Jahren das Bild aber in eine ganz einfache Weise definiert. Nämlich der sogenannte Schnitt durch die Seepyramide.
Wir sehen das hier, dass die Lichtstrahlen von Objekten ins Auge fallen und das Bild ist diese Projektionsfläche, an der diese Seestrahlen aufgefangen werden, dass sozusagen die dreidimensionale Welt auf eine zweidimensionaler Ebene transformiert wird. Jedes Bild in dem Sinne ist also eine Transformation.
Wir glauben immer, ein Foto stellt etwas dar, wie die Welt ist. Wir müssen wissen, eine Fotografie ist zunächst mal eine Transformation auf diese Weise. Und wenn man sich dieses Bild dann anschaut, kann man daraus Gesetzmäßigkeiten ableiten, dass man nämlich die Gesetzmäßigkeiten der Zentralperspektive aufgrund derer Mann dann wieder Bilder konstruieren kann.
Und genau das ist es, was in der Renaissance geschah, dass man also ein zweidimensionales Bild hat, worauf wir schließen oder woraus wir den Eindruck bekommen, von einem ganz bestimmten Punkt im Raum können wir die Illusion haben, es wäre kein zweidimensionales Bild,
sondern aufgrund der Prinzipien der Zentralperspektive haben wir den Eindruck, unser Realraum vor dieser Bildebene würde erweitert werden durch einen Bildraum dahinter. Das Bild der Renaissance ist also ein Bild, das hat eine Fenstermetapher. Wir haben den Eindruck, wir schauen durch ein Fenster in eine andere Welt.
Und das Interessante ist, dass das letztendlich auch das Grundprinzip der Fotografie ist und des Bildes der Fotografie. Also schauen wir uns mal für einen Augenblick diesen Spezialfall der Fotografie an. Auch hier kurzer Rückblick, die Älteren erinnern sich noch, wenn man in Urlaub gefahren ist in den 80er oder 90er Jahren, hatte man immer Rollfilme dabei,
die waren 36er-Filme, die hat man vollgeknipst, man wusste nicht, ob es funktioniert hat, denn man musste die zu Hause abgeben im Drogreriemarkt oder im Fotogeschäft und nach einer Woche oder so wurden die entwickelt und man konnte sehen, was man fotografiert hat. Das ist noch nicht so lange her und die Kameras sahen so aus.
Und ich finde es bemerkenswert, dass wenn man heute in ein Elektronikgeschäft geht und sich die Kameras von heute an sieht, dass die in der Bauform im Prinzip nicht viel anders aussehen. Sie funktioniert immer noch nach dem Prinzip der Kamera Obscura, das heißt ein abgeschlossener Raum mit einem Linsensystem und einer Projektionsebene.
Diese Kamera Obscura ist eine uralte Entdeckung oder Erfindung, das hat im 14. Jahrhundert im arabischen Raum al-Hassan schon entwickelt, aber im arabischen Raum machte dieser Bildbegriff keinen Sinn, das Bild der Kamera Obscura, diese Projektion. Und kam erst viel später durch Roger Bacon nach Europa, wurde da weiterentwickelt
und die Idee oder die Erfindung der Fotografie ist letztendlich die Fixierung des Bildes der Kamera Obscura auf einer chemischen Schicht. Und statt des Filmes haben wir heute praktisch so einen CCD-Sensor,
der das Ganze mit dem Prozessor umsetzt und in einen Speicherchip schreibt. Und statt des Filmes nehmen wir heute den Speicherchip raus und bringen ihn zum Drogeriemarkt, wo wir das entwickeln lassen. Die Innovation in der Digitalfotografie findet heute eben nicht mehr statt oder kaum noch statt bei Unternehmen wie Canon, Rollei aus Braunschweig oder Hasselblatt.
Sondern findet statt in Start-ups, die später aufgekauft werden von Apple oder von Google oder anderen Firmen. Und die Innovation der Digitalfotografie findet heute vor allem statt nicht in diesen Profikameras,
sondern vor allem auf unserem Handy, das wir alle dabei haben. Jedes Handy, wie dieses hier, hat letztendlich eine kleine Kamera Obscura eingebaut, ein winzigen Fotoprozessor, der letztendlich genau das macht, was jede Kameradigitalkamera macht, nämlich mit Hilfe eines Prozessors, Algorithmen, irgendwo eine RAW- oder JPG-Datei zu schreiben.
Und was ist nun das Revolutionäre? Bisher sah das hier aus wie eine Mimikrie, eine Nachahme und Analogenfotografie. Aber wir sehen schon, fast jeder hat es in seinem Handy drin, dass wir jetzt an einem Punkt sind zu etwas Neuem. Dass wir jetzt erst die Potenziale nutzen, die das Digitale bietet,
dass wir jetzt Fotos machen können, wie wir sie nie zuvor machen konnten, weil es sich um digitale Bilder handelt. Ein Beispiel. Sie kennen alle HDR-Fotografie, High Dynamic Range-Fotografie, wo eine Bilder-Serie, eine Belichtungs-Serie gemacht wird.
Und während ich vorher mich entscheiden musste bei der Fotografie, welchen Teil des Bildes ich scharf stellen möchte und welche Belichtung ich haben möchte, kann ich jetzt an jedem einzelnen Pixel entscheiden, welches die optimale Belichtung ist.
Und dann bekommen wir zu Bildern, die je nach Algorithmus, der verwendet wird, dem menschlichen Sehen näher kommt als die bisherige Fotografie. Und der Trend hier ist, dass wir die Möglichkeit jetzt haben, aus dem Lichteinfall, der durch die Kamera hineinkommt, mehr Daten herauszuholen als nur eine zweidimensionale Projektion,
die wir bisher machen konnten. Ein anderes Beispiel. Warum sollen wir eben nur eine zweidimensionale Projektion aufnehmen und nicht auch zum Beispiel die Richtung der Lichtstrahlen? Das heißt, ein Linsenraster vor diesen CCD-Chip setzen,
der die Lichtstrahlen auf unterschiedliche Pixel ablenkt und wir so eine Information darüber haben, wo das Licht herkommt. Das ist die sogenannte Lichtfeldfotografie, die dazu führt, dass wir die Schärfe nicht zum Augenblick des Auslösens festlegen müssen,
sondern in einem späteren Schritt in dem Fotoprozess. Wir können die Tiefenschärfe später einstellen, was den fotografischen Prozess verändert, öffnet, neue Möglichkeiten gibt.
Und in begrenzter Weise zumindest kann man dadurch sogar den Blickwinkel hinterher verändern und auch zum Teil dreidimensionale Bilder herstellen. Das heißt, mehr Daten aus dem Lichteinfall nutzen und dadurch neue Bilder schaffen, die vorher nicht möglich waren.
Mehr Daten heißt auch zum Beispiel Tiefeninformationen. Nicht zweidimensionale Projektionen, sondern tatsächlich 3D-Aufnahmen machen. Beispielsweise, wir kennen das viele mit der Kinect. Kinect funktioniert so, dass im Infrarotbereich ein strukturiertes Licht ausgesendet wird
und mit einer Kamera diese Infrarotmuster wieder aufgenommen werden. Die Differenzen werden interpretiert als Tiefeninformationen. Und auf diese Weise kann ich also eine Aufnahme machen, die mir auch Tiefe darstellt. Das ist interessant, dass zum Beispiel Intel das einbauen möchte in Laptops,
um ganz einfach den Hintergrund bei Videokonferenzen wegzuschneiden, weil wir wissen, was weiter hinten ist, können wir einfach isolieren. Interessanter ist es, dass Google mit dem Project Tango das einbauen möchte in Handys.
3D-Kameras in Handys. Was hat das zu Folge? Nicht, dass wir 3D-Urlaubsfotos machen, sondern das zum Beispiel möglich ist und das ist da auch als Vision vorgestellt, dass wir unsere Innenräume vermessen. Dass wir 3D-Modelle erstellen von unseren Innenräumen. Also sozusagen statt nur Google Street View haben wir dann tatsächlich Home View.
Wir können daraus 3D-Missionale Bilder machen. Das sind nur ein paar Hinweise auf das, was wir heute schon haben, was heute denkbar ist, was in kürzerer Zukunft in Sachen Kameras möglich ist.
Die Erweiterung der Paradigmen der bisherigen Fotografie. Wie sieht es aus mit Displays? Also nicht nur Input, sondern hier jetzt nur das Output. Was verändert sich im Output-Medium? Das ist das klassische Bild. Das klassische Tafelbild,
wie wir es heute nur noch aus Museen kennen, selten auch im Original rezipieren. Und dieses klassische Tafelbild ist vor allem durch eins definiert, nämlich durch seinen Rahmen. Und der Rahmen hat eine Funktion. Er begrenzt nämlich das Bild von seiner Umgebung.
Er begrenzt den Bildraum vom Realraum. Er zeigt sozusagen, hier ist eine Bildebene, die zwei Räume von einem abgrenzt. Und es ist bemerkenswert, dass wir genau solche Rahmen auch heute noch haben. Fast jeder Bildschirm, jeder Laptop hat einen Rahmen, der genau diese Begrenzung darstellt.
Aber der Trend geht auch hier, wie man in der Geschichte der Bildmedien schon eigentlich immer beobachten kann, zu einer Auflösung dieser Bildebene. Zu einer Auflösung oder zumindest scheinbaren Auflösung. Ich sage scheinbar, weil Bilder sind immer ein Schein von etwas.
Sie tun so, als wären sie etwas, was sie gar nicht sind. Nämlich, als wären sie das Dargestellte, obwohl sie eine Darstellung sind. Also die Tendenz, dass der Bildraum und der Realraum verschmelzen. Auch hier erste Anzeichen sind Touchscreens. Was sind Touchscreens? Ich habe den Eindruck,
ich könnte diese visuellen Objekte, diese Icons hier berühren und manipulieren. Und dadurch habe ich viel mehr den Eindruck, dass das kein Bild wäre, sondern reale Objekte, weil sie ja interaktiv mit auf mich, auf meine Eingabe reagieren. Und das scheint etwas ganz Besonderes zu sein. Ich möchte hier mal Steve Jobs bringen, der sagt jetzt im Jahr 2010,
Neue Bildmedien erzeugen neue Bildmagie. Und wie kann es damit weitergehen? Ich zeige dir zum Beginn, das digitale Bildmedium ist letztendlich ein Pixelraster. Das, was wir auch hier in der Projektion sehen, was wir auf jedem Display sehen,
auf jedem Handy-Display, auch wenn das Retina-Display schon so eng ist, dass wir kaum noch die Pixel sehen können. Es besteht aus Pixeln. Wie kann man das eigentlich weiterentwickeln? Es gibt ein interessantes Patent von Apple, das schon ein paar Jahre alt ist, von dem ich hier mal einen kleinen Ausschnitt zeige.
Das Weiße stellen hier die einzelnen Pixel dar. Die Pixel sind verteilt über dieses Display. Und es ist sehr interessant, dass da CCD-Chip von einer Kamera ja ähnlich aufgebaut ist, nur andersrum. Es verhält sich wie Lautsprecher und Mikrofon, Display zu Kamera. Und wir können ja diese Bildelemente des CCD-Chips auflösen und über ein Display verteilen.
Und das ist sozusagen die Aufsicht und die Seitenansicht. Jedes dieses Element bekommt eine eigene Linse. Und auf diese Weise bekommen wir ein Display, das selber sieht, ein sehendes Display.
Das heißt, Kamera und Display verschmelzen miteinander. Ein sehendes Display bedeutet vor allem, ich könnte in einer Videokonferenz, habe ich nicht mehr getrennt, eine Kamera über dem Display, sondern beides in einem. Ich könnte meinem Gegenüber tatsächlich scheinbar in die Augen gucken. Während ich jetzt, wenn ich ihm in die Augen gucken möchte, wenn ich ihm den Eindruck geben möchte,
ich schaue ihm in die Augen, muss ich die Kamera gucken. Wenn ich ihn selber anschaue, muss ich aufs Display gucken und er hat den Eindruck, ich gucke unter ihn drunter. Ein solches Display könnte also den Eindruck erzeugen, ich würde meinem Gegenüber tatsächlich in die Augen schauen, wie es zum Beispiel hier in Total Recall sichtbar ist, dass also Arnold Schwarzenegger hier auf dieses Bild, auf diesen Bildschirm guckt,
mit seinem Gegenüber spricht und ihm direkt in die Augen schaut. Science Fiction. Ist das Science Fiction oder ist das längst da? Beispiel. Der Pixel Sense Tisch von Samsung und Microsoft funktioniert im Prinzip genauso. Wir haben in diesem Display zwischen den Pixeln Infrarot-Sensoren.
Das heißt, es funktioniert nicht im sichtbaren Bereich, aber immerhin im Infrarotbereich. Und dieses Display erzeugt letztendlich ein Bild, das man sichtbar machen kann. Wenn ich mich diesem Bild mit meiner Hand nähere, bekomme ich ein Bild, ein RAW-Image, das letztendlich wie ein Kamera-Image funktioniert.
Das heißt, das ist nicht weit, es ist kein großer Schritt mehr, sozusagen das im sichtbaren Bereich auch zu machen. Einsatzbereiche sind denkbar in jedem Laptop, aber auch gerade in Geräten, die vielleicht wenig Platz haben, wo man nicht noch eine zusätzliche Kamera machen kann.
Vielleicht gerade auf einem sehr kleinen Display wie auf einer Smartwatch, das ich auf einer Smartwatch letztendlich mein Gegenüber auf diese Weise sehen kann. Die Auflösung von Bildraum und Realraum hat auch verschiedene andere Aspekte. Zum Beispiel, dass der Realraum viel mehr interagiert mit dem Bildraum.
Dass ich den Eindruck habe, das, was in dem Raum davor dem Bild passiert, hätte Einfluss auf das Bild selber. Nur ein Beispiel auch hier. Wir sehen hier eine 3D-Grafik und eine Lampe, die links darüber gehalten wird. Verschiebt man die Lampe, verschieben sich auch die Schlagschatten im Bild.
Denkbar ist auch, es gibt eine Publikation darüber, dass Reflektionen, Spiegelungen im Bild sich darauf beziehen, was vor dem Bild ist, etc. Auch das Science-Fiction, ich glaube nicht. Die Idee, Bildraum und Realraum zu verbinden, ist eine uralte Geschichte in der Kunstgeschichte, zumindest seit der Renaissance.
Jan van Eyck ist eigentlich für fast alles immer ein gutes Beispiel. Hier haben wir eben ein Bildraum, ein Rahmen, wie ich ihn vorhin beschrieben habe. Und wenn man genau hinschaut, sind hier Schlagschatten, die der Rahmen ins Bild wirft. Das heißt, eine Lichtquelle außerhalb des Bildes scheint einen Schatten im Bild zu erzeugen.
Alte Geschichten in der Geschichte der Bildmedien, in der Geschichte der Kunst, die hier wieder auftauchen, die jetzt aber im neuen Gewand kommen, weil wir ein digitales Bild haben, das eher rechenbar ist, fair rechenbar ist und das vor allem interaktiv ist. Und Interaktivität bedeutet auch, dass das zentralperspektivische Bild,
wie ich es vorhin beschrieben habe, als das Paradigma der Renaissance, auch das wird dynamisiert. Ich sagte vorhin, die Illusion des Bildraumes funktioniert eigentlich nur an einem bestimmten Punkt im Raum. Aber denkbar ist natürlich, dass wir das digitale Bild generieren in Abhängigkeit von der Position im Raum.
Bewege ich mich also weiter nach rechts, sehe ich mehr von einem Objekt von der rechten Seite, bewege ich mich weiter nach links, mehr von einem Objekt auf der linken Seite. Johnny Lee hatte das vor ein paar Jahren schon wunderbar gezeigt als Prototyp. Er hatte eine Wii Remote genommen, um Head Tracking durchzuführen und das Bild auf diese Weise dynamisch zu gestalten.
Heute ist Head Tracking eigentlich eine Standardapplikation, zum Beispiel in Spielekonsolen wie der Kinect, die zum Beispiel auch Körper Tracking, Head Tracking bis hin zu Eye Tracking erlaubt.
Und ich könnte eben sozusagen die X, Y und Z Koordinaten in ein System überführen und je nach der Veränderung des Kopfes, das heißt des Auges und des Blickes dann meine 3D-Grafik konzipieren. Head Tracking, Eye Tracking, ja das sagte ich schon, es gibt zumindest Gerüchte,
dass Amazon an einem Handy arbeitet, das vier Kameras eingebaut hat, mit dem Zweck offensichtlich, um Eye Tracking durchzuführen, das heißt, ich könnte, wenn ich weiß wo das Auge ist, auch hier so eine Art Parallaxe erzeugen, so eine Pseudo-3D-Oberfläche, der Vorteil, das ist sozusagen der Vorteil für den User,
der Vorteil für das Unternehmen wäre, zu wissen, wo der User genau hinblickt und auf welche Werbeanzeige er wie lange blickt. Und das ist das Business-Modell, mit dem diese Hardware sicherlich querfinanziert wird. Und das ist so ein bisschen ein Überblick über Displays, 3D-Displays und so weiter,
HD-Displays, da müssen wir gar nicht drüber reden, das sind alles Entwicklungen, das scheinen alles Trends zu sein, denen wir die kommen. Aber ein wichtiges Thema möchte ich auch noch erwähnen, was das Schlagwort des Jahres ist
und was hier auch reinspielt, Big Data. Was heißt Big Data? Big Data heißt letztendlich, dass wir sehr große Mengen von Daten haben, sehr aktuelle Daten am besten und sehr heterogene Daten. Dass also die Größe der Datenmenge und die Unterschiedlichkeit der Daten
nicht das Problem ist, sondern eine Lösung ist für etwas, denn wir können Muster aufspüren, die vor einem bestimmten Ereignis stattfinden und wenn wir ähnliche Muster wiederfinden, können wir mit einer bestimmten Wahrscheinlichkeit auf dieses Ereignis vorausdeuten, ohne irgendwelche Kausalitäten wissen zu müssen. Das heißt, wir können Zukunftsvoraussagen machen.
Das ist Big Data und darüber, was ich sprechen möchte, ist Big Image Data. Was heißt das? Wenn wir uns auch die Geschichte des Bildes und des Bildmediums nochmal vor Augen führen, müssen wir eines klar feststellen.
Wir erzeugen heutzutage so viele Bilder wie niemals zuvor in der Weltgeschichte. Und gerade durch das digitale Medium ist es so einfach, Bilder zu erzeugen wie niemals zuvor. Denken wir nur an die Malerei, die Hochkunst sozusagen, musste man ausgebildeter Künstler sein. Die Fotografie hat die Reproduktion ermöglicht, die schon eine Bilderflut erzeugte.
Die sogenannten elektronischen Medien, man denkt da immer ans Fernsehen, hat so einem Bilder-Tsunami geführt und mit dem digitalen Bild, das wir alle ständig hier mit unseren Handys machen, entsteht eine unglaubliche Menge von Daten, Big Image Data.
Nur ein Beispiel, Facebook muss ich nicht erwähnen, ein anderes Beispiel finde ich viel treffender. Viele haben Apple-Geräte hier im Raum. Das ist also ein iOS-Betriebssystem, an dem man sich anmeldet mit der Apple ID. Und das ist nur ein Klick, das ich iCloud anschalte.
iCloud bedeutet Vorteil für den User, dass ich meine Daten hochlade und auf allen anderen iOS-Geräten synchronisieren kann. iCloud-Photosharing macht das also mit Bilddaten. Ende des letzten Jahres hatte iCloud 320 Millionen Nutzer, sind sicherlich mehr heute.
Und per Definition werden die letzten 1000 Bilder auf iCloud hochgeladen. Kurze Multiplikation, 320 Milliarden Bilder müssen auf diesem Cloud-System liegen.
Und die Frage, die wir uns stellen müssen, ist, was machen wir mit diesen Bildern? Was macht Apple mit diesen Bildern? Wer hat auf diese Bilder noch Zugriff? Was heißt es eigentlich, Bilder zu erzeugen und auf einen solchen Server hochzuladen?
Was heißt es letztendlich, 320 Millionen visuelle Sensoren um die Welt verteilt zu haben? Was heißt es, 320 Millionen Augen zu haben, die irgendwo in North Carolina, in Maiden North Carolina in einem Data Center liegen? Das kann und will ich hier nicht beantworten, aber es sind Fragen, die wir uns stellen müssen.
Denn das sind keine nur quantitative Veränderungen, das sind qualitative Veränderungen, was mit unseren Bildern passiert. Und es ist auch nicht nur eine technische Frage. Es ist eine ganz fundamentale Frage nach dem Menschen. Ich sage es, der Mensch wird bezeichnet als ein bildermachendes Wesen.
Das ist nicht nur, dass er malt oder Fotos knipst, sondern der Mensch macht sich aufgrund seiner visuellen Erfahrungen innere Bilder. Und aufgrund dieser inneren Bilder macht er sich äußere Bilder, um diese inneren Bilder zu kommunizieren. Und das digitale Bild ist mehr denn je ein kommunikatives Medium geworden,
das nicht nur darstellt, sondern mit dem wir kommunizieren. Und das Bild bildet nicht nur ab, was irgendwie sichtbar ist, sondern das Bildermachen, das Visual Thinking ist selber Denken. Bilder bestimmen auch unser Denken. Und deshalb ist es wichtig, was mit unseren Bildern in Zukunft passiert.
Die eine Künstlerin, nämlich Corinne Vionnet, hat mal Tausende von Urlaubsfotos von Brandenburger Tor in diesem Fall übereinander kopiert. Und in diesem Bild sehen wir also Tausende Blicke. Und es macht den Eindruck, dass wir mit Tausenden Bilder haben und eigentlich nur einen Blick immer das Gleiche.
Ich glaube, es ist ein schlechtes Bild für das, was Big Image Data bedeutet. Ich glaube, dass wir geradezu die Möglichkeit haben, Lev Manovich visualisiert hier mal eine Million Bilder, dass wir gerade die Möglichkeit haben mit Big Image Data eben nicht nur einen vorgegebenen Blick zu haben,
sondern so viele Blicke, so viele Perspektiven auf unsere Welt, auf unsere Gesellschaft zu bekommen, wie wir Menschen haben. Ich möchte nämlich nicht irgendwelche Autoren zitieren wie Mark Huse, der sagt, Technologie hat ja schon Herrschaft immer in sich oder Foucault, der sagt,
sozusagen der Blick definiert schon Überwachung und damit auch Unterdrückung. Ich halte es vielmehr mit Berthold Brecht, der gesagt hat, wir brauchen Utopien. Wir brauchen Utopien. Wir müssen uns überlegen, was unsere Visionen für diese Technologie sind, die so unser Leben, unser Denken so sehr bestimmt.
Wir müssen wissen, wir als Gesellschaft, als digitale Gesellschaft sozusagen, wir müssen uns überlegen, wo wir hinwollen und es sind eben nicht die Unternehmen, die irgendwo uns hinschicken in irgendeine technologische Zukunft. Wir müssen uns überlegen, wir müssen uns diese Fragen stellen, wir müssen Antworten finden
und dazu müssen wir eben nicht nur User sein von Twitter oder von Facebook oder von iCloud oder so, sondern wir müssen den Maschinenraum runter der Technologie. Wir müssen mitwirken, wohin die Reise mit dieser Technologie geht. Und deshalb sage ich, Bilder sind eben nicht nur Bites und Bits und Bites und Pixel,
sondern sie sind ganz besondere Daten. Das macht vielleicht eins deutlich. Die Legende sagt, Indianer würden sich nicht gern fotografieren lassen. Und zwar deshalb, weil sie glauben, man würde damit ihnen ihre Seele klauen. Und vielleicht stimmt es ja ein bisschen, vielleicht sei ja ein bisschen was dran.
Juristisch wird es vielleicht deutlich im Recht am eigenen Bild, dass Bilddaten besondere Daten sind. Und deshalb sollten wir eben Fragen stellen, die genau dieses Medium und das Bild reflektieren. Was machen wir mit dem Bild? Wie setzen wir Bilder ein? Wie können wir eine andere Perspektive auf die Welt herstellen?
Vielleicht eine demokratischere, vielleicht eine freiheitlichere. Was ich sagen möchte, Big Data ermöglicht auch neue Perspektiven, neue Bedeutungsebenen, neue Blicke auf die Welt. Und es ist eben nichts vorausbestimmend, es ist nichts determiniert. Ich habe etwas gegen Dystopien, ich möchte positive Utopien.
Nichts ist definiert, die Zukunft ist offen. Und wenn ich hier sage, die Bildmilie in der Zukunft, was die Bildmilie in der Zukunft sind und wie sie unser Blick der Welt verändern, das liegt in unseren Händen. Vielen Dank für die Aufmerksamkeit.