We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Looking at Algorithms

00:00

Formal Metadata

Title
Looking at Algorithms
Title of Series
Number of Parts
26
Author
License
CC Attribution - ShareAlike 4.0 International:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Algorithmen bestimmen nicht nur die Route von Paketen, den Wert von Gegenständen und die meisten anderen quantifizierbaren Dinge. Sie sind auch in der Lage Bildwelten zu erstellen, die wir nicht von der Realität unterscheiden können. Mit der Entwicklung von VR-Brillen rückt die simulierte Welt ein Stück näher an unsere Sinne heran und die direkte Verbindung mit der Simulation scheint greifbar nahe. Ausgehend von seiner künstlerischen Arbeit nähert sich Manuel Roßner dem Einfluss der generierten Bildwelten auf die Gesellschaft an und beleuchtet die Möglichkeiten der neuen Technologien.
Energy levelSound <Multimedia>AlgorithmVirtual realityRun-time systemJSONComputer animationLecture/Conference
BoilingSquid <Programm>Lecture/Conference
Direction (geometry)CodeLecture/Conference
KommunikationHausdorff spaceService (economics)PayPalCorporate NetworkEigenvalues and eigenvectorsLecture/Conference
Computer animationLecture/Conference
Route of administrationPositionGlass floatComputer animationLecture/Conference
World Wide WebMatroidDenial-of-service attackObject (grammar)Computer animationLecture/Conference
GoogleForm (programming)TexturObject (grammar)GradientComputer animation
ScreensaverWINDOWS <Programm>AlgorithmLecture/Conference
Canvas <Programm>Focus (optics)Regulärer Ausdruck <Textverarbeitung>EckeComputer animationLecture/Conference
Computer animationLecture/Conference
EckeTouchscreenPerspective (visual)Digital signalGlass floatRaum <Mathematik>Print <4->Programmer (hardware)Lecture/Conference
Lecture/ConferenceComputer animation
FINALecture/ConferenceComputer animation
MatroidSPARK <Programmiersprache>Programmer (hardware)TypFunktionalitätComputer animationLecture/Conference
Glass floatArtistic renderingComputer animationLecture/Conference
Computer animation
INGA <Programm>Moment (mathematics)PixelComputer animationLecture/Conference
Computer animationLecture/Conference
Object (grammar)Computer animationLecture/Conference
Energy levelComputer animationLecture/Conference
Local area networkGame theoryEnergy levelComputer animationLecture/Conference
ScratchComputer animation
TexturComputer animation
Hand fanFrame problemComputer animation
Frame problemComputer animation
Coin <Programmiersprache>Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Euclidean vectorPlane (geometry)Programmer (hardware)Computer animation
Computer animation
PhysicistComputer animationLecture/Conference
Drop (liquid)Computer animationLecture/Conference
COCO <Programm>Real numberMicrocontrollerComputer animationLecture/Conference
Web portalSystems <München>Lecture/Conference
TED <Datenbank>Lecture/Conference
Set (mathematics)Workstation <Musikinstrument>Computer animationLecture/Conference
Moment (mathematics)Lecture/Conference
Plane (geometry)ExistenceSoftwareForm (programming)Computer hardwareTwitterAlgorithmLecture/Conference
Workstation <Musikinstrument>ComputerComputer animationLecture/Conference
BASICComputing platformWebsiteLecture/Conference
BASICClassical physicsParameter (computer programming)Logic gateCasting (performing arts)Lecture/Conference
BASICComputer animationLecture/Conference
Transcript: German(auto-generated)
So, jetzt geht's weiter. Eingang ist auch repariert. Manuel Rosner will uns was zu
Algorithmen erzählen. Looking at Algorithms. Vielen Dank. Los geht's. Hallo, ich bin Manuel Rosner, Künstler und Kurator und beschäftige mich in letzter Zeit viel mit computergenerierten Bildern.
Was mich interessiert, sind simulierte Umgebungen, die meistens viel mit Realität zu tun haben, aber nicht immer und auch nicht notwendigerweise. Also dieser Übergang von Simulation und Realität interessiert mich sehr. Seit
2012 ungefähr beschäftige ich mich damit und vor ungefähr einem Jahr, die VR Glasses rauskommen, war das schon ein ganz guter Punkt, um da hinüber zu gehen und meine Arbeit Leuten auch darüber zeigen zu können, was ziemlich interessant ist, weil es ein ganz anderes Gefühl gibt, als wenn
man auf den Bildschirm guckt. Und jetzt würde ich kurz so erzählen, was ich da in letzter Zeit damit gemacht habe. Es gibt so eine Art Virtual Reality zu definieren, wo es darum geht zu beschreiben, dass man wirklich immersiv
eine andere Wirklichkeit wahrnimmt mit Ton und Gefühl, soweit wie es geht. Ich benutze den Begriff vielleicht ein bisschen anders. Was mich auch interessiert, sind solche Bildwelten, weil es die schon länger in unserer Umgebung gibt, aber vielleicht erzähle ich da besser am Beispiel was dazu. Was ihr hier seht, ist ein Ausschnitt aus dem dänischen Fernsehen und die haben
aus Versehen die Bilder von Assassin's Creed, die man im Hintergrund sieht, verwendet, um über den Krieg in Syrien zu berichten, was für mich so eine interessante Überblendung von Realität und Virtualität ist.
Dass man auf dieser Bildebene, wo es wirklich eigentlich auch um, naja, so ein Einfluss auf diese Art, die man in Syrien wechselt. So eine weitere Event in diese Richtung ist für mich der Ikea-Katalog. Es gibt so einen Artikel von der
SIGGRAPH, von ein paar Jahren, wo einer von Ikea erklärt, wie viel Prozent von ihrem Katalog eigentlich schon computergenerierte Bilder sind. Er sagt so 60 bis 75 Prozent von den Produktbildern sind gerendert und 35 Prozent von den Interiors. Für Ikea hat es den einfachen Grund, dass die
ein globales Unternehmen sind und für lokale Märkte produzieren. Was man hier sieht, sind drei Küchen, die fast gleich sind, aber ein bisschen unterschiedlich und die wollen natürlich vermeiden, dass jetzt von Brasilien die Küche nach Schweden transportieren, um die zu grafieren und dann müssen sie später doch noch mal was ändern oder sowas.
Deswegen war es für die irgendwie angenehmer, computergenerierte Bilder zu verwenden. Obwohl ich mich selber mit diesen Bildern beschäftige, habe ich es nicht bemerkt, bis diese Artikel kamen. Also machen sie es schon nicht schlecht. Angefangen haben sie damit ungefähr 2004 und das erste Mal, dass es
im Katalog war, war in 2006.
Was ich auch besonders cool oder interessant fand, ist, wir in diesem Kommunikationsbüro von Ikea, wenn die Leute nicht arbeiten, rendern die
Computer an den Bildern. Was schon eine interessante Geschichte ist bei so einem Möbelbauer, der eigentlich dafür sorgt, dass wir uns zu Hause irgendwie wohlfühlen wollen, setzen die alles auf diese Technologie. Ein weiteres
Beispiel, das ist der letzte Star Wars Film, Rouge Nation. Der Schauspieler ist 1994 gestorben und wurde auch mittels CGI wiederbelebt quasi.
Nicht wirklich wiederbelebt, aber hat noch mal einen Auftritt. Was auch bei anderen Schauspielern passiert ist, wenn Schauspieler während dem Dreh verstorben sind, wurden ab und zu auch Computerversionen davon eingesetzt.
Aber hier hatten die eigentlich die Wahl, was anderes zu machen. Also es ist während dem Dreh passiert und sie haben sich trotzdem dafür entschieden, diese Computerversion zu verwenden. Hier ist eine ganz andere Anwendung, das
ist das Bayerische Landeskriminalamt, die wohl weltweit ziemlich führend darin sind, Tatorte in 3D abzubilden. Aber was man hier sieht, zum Beispiel ein UV-Layer, wo man sieht, wo Blut weggewaschen wurde. Und die Verwenden das vor Gericht auch, um Zeugenaussagen zu überprüfen. Also
konnte der überhaupt das Vorgehen sehen, wenn er an der Position war, wie er behauptet. Ich habe dann 2012 ein Projekt gestartet, das heißt Float Gallery. Die URL ist float.gallery und da geht es um computergenerierte
Ausstellungsräume, White Cubes, in denen ich seit dem Ausstellung kuratiere oder Kuratoren einlade. Dieses Konzept vom White Cube finde ich
eigentlich sehr interessant, weil es so eine Kulturtechnik ist, um spezifische Objekte zu isolieren und drüber nachzudenken, zu reflektieren, im Kontext voneinander zu betrachten. Und das wollte ich in diesen digitalen Raum übertragen. Hier sehen wir zum Beispiel eine Arbeit von Manuel
Fernández. Ich zeige jetzt einfach mal die letzten Ausstellungen aus den letzten fünf Jahren und zeige so beispielhaft einige Kunstwerke, die ich dafür so exemplarisch finde, für diese Herangehensweise. Manuel Fernández hat für die Ausstellung What We Call Sculpture diese Säule
von der Acropolis von Google Maps genommen und die in den Ausstellungsraum gepackt und seinen Gradient da drüber gelegt, seine Textur, mit der er schon öfters gearbeitet hat davor. Und im Hintergrund sehen wir ein Video, wie er bei Google Earth diese Sachen verändert hat. Und so eine Art Objet Trouvé vielleicht, so eine
Marcel Dijon Referenz, wo man Objekte nimmt, was man außerhalb vom Ausstellungsraum findet und dann in den Ausstellungsraum bringt. Allerdings
mit dieser vollkommen Digitalität. Ich lege auch immer Wert darauf, dass man die Bilder möglichst als Fotos wahrnehmen kann. Es ist vielleicht auch so eine Reaktion darauf, dass wenn man die Technologie an den Bildern viel sieht, dann erreicht die schnell so eine Zeitigkeit. Und ich
schaue eben durch diesen fotorealistischen White Cube, das ist auch so ein bisschen haltbarer zu machen vielleicht. Eine weitere Arbeit von Antoni Antonelis. Wir sehen hier rechts den Bildschirmschoner von Windows 95 oder 98, glaube ich. Und man kann jetzt Sachen auf dem
Podest packen, was man vorher nicht konnte. Und auch so einen Raum schaffen für räumliche Algorithmen eigentlich. Hier die Arbeit von
Jeremy Rothstein. Er hat eine Serie gemacht mit dem Titel Action Paintings als Referenz auf Jackson Pollock, der sehr intensiv mit Farbe umgegangen
ist. Was der Künstler aber gemacht hat, ist, dass er von Videos die bewegten Teile extraiert hat. Zum Beispiel sieht man am rechten Teil ab und zu so einen Autoreifen. Da hat er aus einem Film diesen Teil, wo dieser Autoreifen so animiert ist, freigestellt quasi die Animation und
alles übereinander gelegt. Das heißt, es sind so digitale Movements. Es sind auch Top Ten-Filme mit den besten Action-Szenen. Und die Ästhetik erinnert interessanterweise schon an wirklich so ein Jackson-Pollock-Action-Painting. Auf der linken Seite sind es übrigens Gunshots, also von Schießereien,
diese Sachen, wo was passiert ist. Jeremy Bailey erzählt gleich selber, worum es in seinem Video geht.
Das ist einfach nur das Painten, nur es ist viel, viel besser. Ich meine, ich habe kein Canvas, ich muss kein Canvas stretchen, ich kann es einfach
in dünnem Luftpainten machen, wo ich will. Und wer braucht es, ein Canvas zu stretchen, es zu gestoßen und dann es zu schenken? Wenn du bereit bist, zu schenken, bist du so müde, dass du nichts mehr hast, es gibt keine Expression. Und also ist das einfach die Freiheit der Expression.
Und wer braucht diese 10 Brüste? Du musst keine Brüste kaufen, die einen Fortschritt kostet, du brauchst keine Schleidung. Ich finde, er bringt hier ganz gut auf den Punkt, wie diese beiden Welten so ein bisschen unterschiedlich sind. Von der Kunstwelt, wo sehr viel Fokus auf ein Objekt ist und Patina und Geschichte. Und eben diese
Digital Attitude, wo er sagt, hey Mann, es ist auch viel easier, wenn man hier so auf einem Bildschirm arbeitet. Die Arbeit ist von 2006, das ist auch die älteste Arbeit, die ich da bis jetzt ausgestellt habe. Eine weitere von Emilio Gomaris, in Spanien. Die Invisible Object,
man sieht es kaum, aber es ist da. Man sieht es bloß an den Reflections. François Scamard mit XTC Remix. Die Arbeit ist von Joe Hamilton,
ein Australier. Die Ausstellung war in Zusammenarbeit mit einer Galerie, Eva Meyer heißt sie, in Paris. Man sieht den Galerie-Raum, wie er existiert und dann hat Joe diese Arbeit da reingemacht. Seit diesem Jahr gibt es
eine VR-Version von Float Gallery, die man über Steam runterladen kann. Diese Ausstellung ist allerdings noch nicht dabei, weil die Arbeit basiert sehr auf Perspektive und die funktioniert eigentlich nicht mehr, wenn man sich nach links oder nach rechts bewegt. Das wäre was, was auf den Browser fokussiert. Das ist jetzt so eine Challenge,
das irgendwie in Räumlichkeit zu übertragen, dass der Besucher sich auch bewegen kann. Hier eine Arbeit von Kim Lorten. Die Ausstellung ging um Natur und wie Natur im Digitalen wiederverwendet wird
und wie man sich eigentlich doch wieder in der Natur orientiert, um digitale Räume zu bespielen. Wir sehen den Utah Teapot, ich weiß nicht, vielleicht ist er einigen Begriff, ist so ein Standard in 3D-Programmen, um Reflections zu oder allgemein Materialien zu testen, weil er ziemlich unterschiedliche Eigenschaften
hat an verschiedenen Stellen, also spitze Ecken, weiche Ecken und so weiter. Im realen Ausstellungsraum gab es denselben Computer, den 3D-Print vom Utah Teapot, das gleiche Pedestal und keine Pflanzen.
Auf dem Screen sehen wir 3D Studio Max, also das ist das Studio des Künstlers quasi, was wieder ausgestellt ist. Inwiefern jetzt ein 3D-Programm, was Studio heißt, im Verhältnis zum Künstlerstudio, was ein wirklicher Raum ist, gebracht werden kann, ist auch eine Frage, die sich dann stellt.
Hier eine Arbeit, die ich selber, eine Ausstellung, die ich selber gemacht habe.
Die Ausstellung heißt Ultra Light Beam und was mich daran interessiert hat, ist die Ästhetik von einem White Cube mit so einer technologischeren Ästhetik
zusammenzubringen. Also man sieht zum Beispiel die Wände haben Farben zum Color Coding, wie man es aus einem Programmierprogramm oder auch 3D-Programmen selber kennt, wo es eher darum geht, Sachen auseinander zu halten, zu sagen, das gehört dahin, das ist von dem Typ oder sowas, was eigentlich das Gegenteil vom White Cube ist, wo man sagt, alles soll weiß sein, damit es
möglichst neutral ist. Aber diese beiden Funktionalitäten oder Herangehensweisen gegeneinander zu verwenden oder miteinander zu verwenden, fand ich sehr spannend eigentlich. Und so ein weiteres Level ist, dass bei diesen Säulen, die man sieht, wenn man die in einen
White Cube stellt und wissen will, wo das Licht herkommt, dann bringt es einem nicht viel, wenn man weiße Wände hat. Wenn allerdings die Wände eine bestimmte Farbe haben, sieht man direkt, okay, rotes Licht auf der Säule hier, kommt von der roten Wand und grün ist von der grünen und so weiter. Also würde man in 3D-Programmen so verwenden, wie es auch in den 80er
Jahren bei der sogenannten Cornell Box gemacht wurde. Also wo zum ersten Mal versucht wurde, Renderings an so einem Test-Setup anzugleichen, hat man auch die Wände mit bestimmten Farben eingefärbt und so weiter. Hier dann ein Making-of von Float Gallery. Es ist ein Video, wo ich
zeige, wie man aus dem 3D-Programm dieses Virtual-Reality-Game quasi macht.
Ist ein bisschen Zeitraffer, also es dauert schon ein bisschen länger, es sind auch vorbereitete Sachen, aber so ungefähr. Also ich mache hier den Boden, die Wände und man sieht so Stück für Stück, wie es zusammenwächst und halt interessanterweise, was ich am interessantesten finde im Moment, ist, am Ende hat man wirklich so ein Bild in dieser Brille, was die Leute davon
überzeugt, dass es irgendwie ein Raum ist und das ist schon ziemlich beeindruckend, weil man denkt, dass man eigentlich auf ganz viele einzelne Pixel, die aus einem Computer rauskommen, schaut, aber
trotzdem diese Wahrnehmung von einem Raum hat. Was vor allem, wenn man zum Beispiel einen Aufzug hat oder so eine Höhenerfahrung, spricht es die Leute so direkt an. Also wenn Leute Höhenangst haben, dann kriegen die auch, wenn sie diese Brille auf haben, total verschwitzte Hände zum Beispiel, was
eine richtig krasse Erfahrung ist für die und ich denke mir dann so, wow, man hat ein Kabel in dieser Grafikkarte, aber man denkt, dass man sich in der Welt befindet. Hier jetzt die genaueren Lichteinstellungen, wo ich ausprobiere, ok, passt dieses Sonnenlicht jetzt in diesen Raum,
was man zum Beispiel bei den Sachen vom BKA vorher gesehen hat, wo die Laseraufnahmen von dem Raum machen, ist hier ein bisschen anders. Das ist so ein System, was eigentlich selber funktioniert, wo man neue Objekte reinbringen kann und die funktionieren in diesem Lichtsystem. Das heißt, die muss man nicht neu beleuchten, wie man es bei den Scans von dem BKA
machen müsste, sondern hier hat man wirklich so eine Art Sonne, die auf ein Objekt wirkt. Noch ein paar Neonröhren, die sind sehr wichtig für Ausstellungen im White Cube. Da gab es in den letzten, ich weiß nicht, zehn,
fünfzehn Jahren so einen Übergang von so gelblicheren Galerielichtern zu Neonröhren und schon diese kleine Änderung hat in der Wahrnehmung von
dem White Cube oder auf den Ausstellungsfotos so einen großen Unterschied gebracht, was irgendwie zeigt, wie detailliert oder wie generalisiert auch diese Ästhetik von solchen White Cubes ist. Hier ist der Übergang zu Unity, was die Game Engine ist, in der man sich dann auch
später wirklich bewegen kann. Die kleine Box ist die Kamera, wo später der Betrachter steht und hier so die ersten Gehversuche in den Raum und sieht jetzt die beiden Augen oder die beiden Projektionsflächen für jeweils ein Auge, die für die Tiefenwirkung verantwortlich sind. Am
wichtigsten ist bei solchen Bildern eigentlich immer der Fußboden, weil die Wände sowieso immer neu gestrichen werden. Das heißt, die bleiben immer weiß und da kann man eigentlich jede Art von weiß nehmen, aber der Fußboden kriegt diese Scratches und diese Partina und dieses Abgelaufene. Deswegen ist es das wichtigste Element, um ein überzeugendes Bild herzustellen.
Der rendert auch am längsten. Man sieht hier die einzelnen CPU-Kerne, die
den Lichteinfall an den Stellen, wo die gerade sind, berechnen und dann eine Textur erstellen, die genau in diesen Raum passt und an der
Stelle zeigt, wo das Licht wirklich ist. Weil es dann doch ein bisschen lange rendert. Hier noch ein Video von Star Wars, was so ein Making-Off ist, wo man sieht, wie die einzelnen Schichten von Realität und Computergeneratum
übereinander liegen. Der Unterschied zwischen Film und Virtual Reality ist,
dass man für einen Film viel mehr Zeit hat, um ein Bild zu berechnen. Wenn jetzt für ein Bild in diesem Video, man hat 30 Frames pro Sekunde, wenn ein Bild eine Stunde braucht, ist es zwar nicht cool, aber man kann es machen, weil man später ein fertiges Ergebnis hat und kann deswegen sehr
tiefere Qualität erreichen, als bei Virtual Reality, wo man wirklich 60 Bilder pro Sekunde mindestens braucht und auch für zwei Augen, damit den Besuchern später nicht schlecht wird. Und deswegen ist die Bildqualität bei Kinofilmen doch noch einiges höher.
Hier eine Arbeit von mir, die gezeigt wird, auch mit verschiedenen Künstlern, die wir eingeladen haben. Man sieht dann der Grafik schon, dass es noch am Anfang steht. Ich bin gespannt, wie es aussieht, wenn sich die Technik weiterentwickelt und dann wirklich solche überzeugenden Bilder kreieren kann, wie wir sie im Kino sehen.
So, der Boden ist dann gleich fertig gerendert und man hat sowohl im
Kinofilm, als auch bei dem Assassin's Creed Spiel, als auch bei Virtual Reality irgendwie dieselbe Technologie, die dahinter steckt, also Vektoren und 3D-Programme, deren Inhalt man eigentlich auf diesen Ebenen ganz gut ausgeben kann. Das heißt, was so entsteht, ist irgendwie eine Parallelwelt
in diesen Rechnersystemen, die nicht abgegrenzt ist voneinander, aber wirklich zusammenarbeiten kann. Hier jetzt noch ein Testobjekt für den Galerieraum, auch wieder der Yu-Gi-Oh! Teapot. Und hier sehen wir den dann im
Spiel mit so ein bisschen Physik, also dass er auch ein bisschen bounce und man mit den Controllern, die man vielleicht gleich sieht, den auch anfassen und
rumwerfen kann. Also man hat dann quasi seine Galerie in diesem 3D- System, wo man auch Ausstellungen drin machen kann, wie man möchte, regelmäßig, unregelmäßig und so weiter. Nach diesem Projekt, im Juni, im Mai dieses Jahres, hat dann die Ausstellung
im Unreal, im NRW Forum Düsseldorf begonnen.
Hier sehen wir das NRW Forum, das ist ein öffentliches Museum in Düsseldorf.
Da wurde ich angeladen, diese Ausstellung zu produzieren und zu kokoratieren mit dem Direktor. Dafür habe ich diesen Anbau entworfen, den man oben drauf sieht. Also das untere ist das reale Museum, der Backsteinbau und die Chromkugel obendrauf habe ich dann hinzugefügt. Es funktioniert so, dass man, wenn man rein läuft, geht man in den ersten Stock
und dann nach links, dort kriegt man eine von fünf WIFE-Brillen auf und kann dann mit Hilfe von den Controllern wieder ins Foyer gehen und dann nach oben in diesen Anbau. Die Ausstellung ist auch draußen zu sehen. Also ab der Eröffnung heute Abend kann man es hier erleben.
Also natürlich nicht den realen Teil in Düsseldorf, aber man kann die Ausstellung oben sehen. Wir haben dafür vier Künstler eingeladen, die eigene Welten kreiert haben, die man über diese Kugeln, die man im Video gesehen hat, betreten kann und ich habe auch Videos von denen. So zum Beispiel die von Tabitha Reser, eine Künstlerin, die
sich hier in diesem Video mit den Ursprüngen der Technologie beschäftigen in Bezug zu Afrika, wo es auch schon früh solche binären Systeme gab, was man dann in den Videos erfährt, die an
diesen Stationen abgespielt werden, an diesen Portalen. Eine andere Arbeit war von Theotrian Tafelidis, eine Grieche, der jetzt in L.A. lebt und er hat in L.A. die Wüste gefilmt und dann befindet
man sich auch wieder dort, also man springt direkt von der Galerie in diese Wüste und sieht dann diese kleinen Viren, die sich an einen dranhängen. Es ist so eine Art VR-Virus, wenn man die Brille aufzieht, bekommt man den und der geht dann auch wieder ins Programm zurück und verbreitet sich
so weiter. Und hier im Video sieht man auch ganz gut, was dann von einem übrig ist, also diese Brille quasi, aber man hat trotzdem dieses Gefühl, dass
die Teile an einem hängen. Es ist wirklich schwer zu erklären, am besten müsste man es draußen mal probieren an einer Station. So sah der reale Raum aus, auch hier wieder dieses Farbspielen mit den bunten Wänden und dann sieht man noch mal ganz gut die Funktion von diesen Säulen, dass man eben die grüne Wand reflektieren sieht und eine
Besucher hat gerade die Brille auf und im Nebenrauben gab es dann noch mal vier Stationen, was auch eine wirklich seltsame Situation ist, also wenn man mit vier Leuten, die gerade wo ganz anders hin in einem Raum ist, dann ist die Atmosphäre sehr interessant. Es ist wirklich eine komische Geschichte, ich habe mich
auch gefragt ob man es wirklich so machen kann, dass die Leute so nebeneinander stehen, weil man exponiert die Leute natürlich schon, weil sie irgendwas sehen, was ihre Umwelt nicht sieht, aber sie dafür so sieht, wie sie sich selber im Moment nicht sehen. Jedenfalls, ja interessante Sache, aber es hat ganz gut funktioniert. Vielleicht weil die
Leute doch sehr neugierig sind zu sehen, was es in der Brille gibt und auf der anderen Ebene, so als Bild hat es auch funktioniert, es gab so einen Zeitungsartikel, was ich ganz cool fand, dass dann dieser computergenerierte Anbau auch wirklich das in so eine Medienlandschaft geschafft hat und damit ja auch irgendwie so ein bisschen existiert vielleicht, wobei
Existenz in dem Kontext natürlich ein vielschichtiger Begriff ist. Die nächste Arbeit war dann für den Frankfurter Kunstverein, hat vor zwei Wochen ungefähr eröffnet. Der Titel von der Arbeit ist Redware, also Hardware, Software und Redware, wobei Redware das menschliche Gehirn oder der
Körper ist, weil da sehr viel Wasser drin ist und auch der Talk heißt Looking at Algorithms, weil man eben von dieser Redware so eine direkte Verbindung mit dieser Brille auf diesen Algorithmus, der diese Bilder, erst mal diese Flüssigkeit und dann diese Reflektion und diese doch
irgendwie überzeugenden Bilder von diesem Event da generieren. Im Hintergrund steht für mich danach die Frage, ob wir, das ist ein bisschen
zu realisieren oder so zu simulieren, dass wir sie für real wahrnehmen und nicht von Realität unterscheiden können oder ob wir vorher die Realität so beeinflussen können, dass sie eben diese Formen so frei generiert, wie wir möchten. Also ob wir erst ein Chrom in dieser Flüssigkeit so generiert
kriegen oder ob wir uns so krass simulieren, dass wir denken, wir kriegen die Realität, das ist nachvollziehbar. Ich weiß gar nicht, so sah jedenfalls die reale Installation aus. Eine Station, die Farben symbolisieren hier an welchen
Stellen das Gebäude zerbrechen wird. Ja, das war so die letzte Arbeit, dann möchte ich noch ein Projekt zeigen, bzw. erst mal eine Einstimmung. Das ist Job Simulator. So ein Game, das man sich runterladen kann für die Wife. Uns geht darum, dass Jobs simuliert werden. Weil natürlich in der Zukunft alles von
Computern gemacht wird, gibt es dieses Spiel und man tut dann so, als ob man arbeiten will. Das ist natürlich nicht ganz so streng. Und der Hintergrund ist, dass wir uns, also ich und einige andere, haben uns Gedanken gemacht, wie dann so eine Gesellschaft funktioniert,
wenn alle mit dieser Brille rumhängen oder auch nicht oder Computer ziemlich viel können. Gibt es auch im Steam Shop und für uns ist dann allerdings dieses Projekt Imagine Universal Basic Income entstanden, wo es darum geht, darüber nachzudenken, ob vielleicht ein Grundeinkommen einige Schwierigkeiten,
die auf uns zukommen, lösen oder vereinfachen kann. Auf Einladung von Print All Over Me, was eine Fashion-Plattform aus New York ist, haben wir so eine Kollektion gemacht für dieses Thema. Zeige ich vielleicht mal die Website.
An endeavor to discuss Universal Basic Income as a new fundamental for our society in regard of the
vanishing need for human workforce and growing inequality between people who own and people who don't. We speak up for discussing an idea which seemed utopian for far too long. Universal Basic Income. What if everyone would have their basic needs fulfilled just because they were born? Es gibt einige Argumente dafür. Also die URL ist online, da kann man drauf gehen.
Und dann die Kollektion und noch zwei Texte, die wir
angefragt haben, um Pro und Contra Basic Income zu schreiben. Hier einige Künstler, die mitgemacht haben. Das war es eigentlich soweit von meinem Talk. Gibt es Fragen?