We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

From Fiction to Action

00:00

Formal Metadata

Title
From Fiction to Action
Subtitle
Design im Ausnahmezustand
Title of Series
Number of Parts
234
Author
License
CC Attribution - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Ist 1984 als Blue Print für dystopische Wehklagen überwindbar? Hier geht es um Design im Ausnahmezustand, und welche Rollen narrative Strategien und speculative Design dabei spielt. Ein Design Fiction Professor gibt Überblick zu historischen und fiktional-zukünftigen Strategien der entwerferischen Aufstands- und Revolutionsunterstützung und Einblick in vermittelnde Strategien in der Designlehre. Utopische Projektionen der Science Fiction, besonders im Fall von Future Conflicts, sind ernstzunehmen und mit präsenten und historischen Modellen abgleichbar.
18
166
Computer animationJSONXMLUMLLecture/Conference
PrototypeLecture/Conference
Factory (trading post)Factory (trading post)ExtrapolationLinseLoop (music)FuturERSDirection (geometry)Leiste <Technik>
Kritischer Punkt <Mathematik>Annual average daily traffic
Object (grammar)Lecture/Conference
Siebzig
Lecture/Conference
Number
Student's t-testPrototypeCLOU <Programm>Communications systemAnalogyLecture/Conference
LinieDirection (geometry)MetreComputerNext Generation <Programm>
BlogMetreCodecFactorization
MomentumFrequencyDevice driverCarry (arithmetic)Computer animation
Ecke
Finite state transducer
POWER <Computerarchitektur>CodeTape driveComputer programmingCodeGenerating functionComputer animation
Google
CodePlane (geometry)LiquidLecture/Conference
Interface (computing)InternetSun <Marke>USB-Stick
GoogleNoten <Programm>Lecture/Conference
Open sourceGoogleOpen sourceService (economics)GoogleAbsolute valueTypInterface (computing)MittelungsverfahrenAlgorithmComputer animation
Lecture/ConferenceComputer animation
Transcript: German(auto-generated)
Schönen guten Tag, vielen Dank für die Einladung. Mein Name ist Christian Zöllner.
Ich betreibe mit meinem Kollegen Sebastian Piazza das Design- und Design-Forschungsstudio The Constitute. Der Talk, über den es diesmal hier gehen soll, habe ich zumindest eingereicht unter dem Namen From Fiction to Action. Und eigentlich das, was gerade so angesagt wurde, ich habe es nur mit so einem halben Ohr gehört, mal gucken, wie wir da jetzt weiter kommen.
Wie gesagt, The Constitute, das ist ein Designstudio in Berlin-Kreuzberg. Wir arbeiten für Kunden vor allen Dingen aus dem Kultur- und Wissenschaftsbereich und nennen uns selber Center for Applied Futures. Also uns geht es tatsächlich darum, Zukunft nicht nur fiktional zu projizieren, sondern zu sagen, okay, das kriegen wir auch irgendwie hin.
Und einige Projekte, mit die wir gemacht haben, da ging es um so ein Beyond 3D. Also wie kann man sozusagen über das räumliche Sehen hinaus visuell wahrnehmen?
Wie kann man sozusagen Teleportations- und Holographieprototypen mit Baumarktmitteln bauen? Aber um darum soll es eigentlich gar nicht gehen, weil ich neben dem Studio, was ich mit Sebastian Piazza in Kreuzberg habe, immer noch im akademischen Bereich tätig bin.
Das heißt, ich habe lange an der Universität der Künste Experimentales Entwerfen gelehrt und bin jetzt Gastprofessor an der Kunsthochschule Burg-Giewichenstein in Halle. Und da beschäftige ich mich mit den Studierenden hauptsächlich mit Design Fiction und Speculative Design.
Für die, die sich damit nicht so richtig auskennen, möchte ich da jetzt in dem ersten Teil vom Vortrag mal eine kurze Einführung geben. Und zwar ist das irgendwie die Gegenwart. Also wir sind hier. Und wenn wir in die Zukunft denken, dann gibt es ja eigentlich keine Zukunft.
Es gibt ja immer nur Zukunften, also eine Vielzahl und eine diverse Ausrichtung von unterschiedlichen Szenarien, wie das so weitergehen kann. Und die Designer Doon and Rabie haben 2012 diesen Future Cone sozusagen mal publiziert in dem Buch Speculative Everything.
Und sie sagen, es geht eigentlich um mögliche Zukunften, um plausible Zukunften und wahrscheinliche Zukunften. Und wenn man sich im Design Fiction bewegt, dann ist so eine wahrscheinliche Zukunft ein bisschen langweilig. Also es geht nicht darum zu sagen, okay, wir werden dann drei spurige Straßen haben.
Das ist höchstwahrscheinlich, ist ein bisschen lame. Deswegen gibt es aber auch mögliche Zukunften und das heißt, vielleicht ist es möglich, irgendwann mal mit einem Fahrstuhl ins Weltall zu fahren. Das ist dann sozusagen da oben und es gibt so plausible Zukunften.
Das ist dann eben, ja, wir werden vielleicht immer noch mit Raketen bis ins Jahr 2020 in den Weltraum fliegen. Und irgendwie ist es dieser Bereich, der beginnt interessant zu werden im Design Fiction. Also dass man sagt, wir entwerfen eigentlich in so eine mögliche Zukunft, die vielleicht plausibel ist, aber noch nicht so richtig wahrscheinlich.
Viele Leute kennen das vielleicht aus Black Mirror zum Beispiel. Black Mirror bewegt sich eigentlich in so einer Welt. Das hat immer so diesen Touch von, das könnte das ja eigentlich schon morgen sein, aber irgendwie hat es so diesen Dreh drin, dass es doch zu schräg ist, doch zu unwahrscheinlich.
Das pendelt da immer so rein. Und deswegen hat, weil nämlich dieses Bild von 2012 eigentlich nicht funktioniert, Chris Wirbgen und Elliot Montgomery von der Extrapolation Factory das nochmal erweitert. Also man sieht das hier vorne, ich gehe nochmal hier rüber, das ist dieser Future Cone, von dem ich gerade gesprochen habe.
Und da bewegt man sich genau so zwischen so einer possible und plausible Future hin und her. Und die ziehen aber nach diesem Cone eigentlich immer noch diese Linsen ein. Und diese Linsen sind jeweils nochmal Verschärfungen in unterschiedlicher Richtung.
Also man geht hier in so einen plausible, macht dann aber nochmal so ein Dreh ins total unwahrscheinliche und kommt dann in so einer Halbmöglichkeit wieder raus. Und dann, voll pfiffig von denen, gibt es eine Vision und die Vision geht wieder nach vorne.
Also es wird eigentlich eher so ein Loop. Und genau deren Extrapolation Factory ist in New York angesiedelt. Die machen da vor allen Dingen so inszenierte Visionsworkshops, die aber eigentlich ziemlich spannend sind.
Um das sozusagen mit Studierenden zu machen, also mit Jugendlichen, Postjugendlichen, Preadults, irgendwie sowas, aber vor allen Dingen Industrial Designern. Also Leute, die eigentlich dafür da sind, dass das so schick ist und das alles so fein ist.
Wie bringt man denen bei, in so eine Zukunft eigentlich reinzudenken? Und da habe ich im Jahr 2014, als ich meine erste Gastprofessur in Halle hatte, mir mal überlegt, wie kriegt man das hin, dass man das entlangt, den Fähigkeitsmustern von Designern eigentlich in so eine Science-Fiction-Richtung reinkommt.
Und das habe ich untergliedert und gesagt, okay, wir machen Analyze, Fantasize, Concretize, Realize, wo ich mir noch nicht mehr richtig sicher bin, ob das Wort Concretize überhaupt existiert. Und es geht eigentlich darum, im Jetzt was zu erkennen, was eine bestimmte Bedeutung hat oder was irgendeinen kritischen Punkt hat.
Aus diesem kritischen Punkt sei es Verkehrsaufkommen, mega viel Umweltverschmutzung oder sowas. Also sowas sieht man. Und dann entwickelt man in sozusagen zukünftige Auswirkungen von diesen eigentlich kritischen Jetzt.
Das dreht man so weit, dass man daraus ein plausibles Szenario erzeugt. Also etwas, das einem die Leute abkaufen, ah ja stimmt, das hast du genau richtig vorausgesagt, so könnte das werden.
Und dann muss man aber für dieses Szenario ein, ich nenne es, ein signifikantes Objekt entwickeln, an dem das erfahrbar wird, und zwar physisch. Also es geht nicht darum, ein schickes Bild zu rendern oder eine geile Animation zu machen, sondern es geht darum, ein Objekt zu designen, das eine Physis hat
und das zwischen allen anderen Objekten, die es in dieser Realität gibt, in der wir jetzt leben, plötzlich mit drin steht. Und wie so ein Fossil aus inner plausible, probable future sozusagen da im Jetzt gelandet ist. Und an dem man sich denkt, hä? Und genau dieses Hä, womit? Ist dann das?
Das ist sozusagen dieser Ha, ha, ha, ha Kreislauf sozusagen. Also man denkt sich so, ha, ha, das ist ja lustig. Und dann bleibt eben so, dass so ein bisschen im Hals stecken. Und dann kommt diese Erkenntnis so langsam und man denkt, ha, stimmt. Und das hier hinten wäre bei mir dann dieser Turn to Change.
Also wo man dann sagt, dass das Projekt eben nicht eine, ich habe das hier, habe ich schon 20 weg? Nein. Genau. Und dass hier sozusagen dieser Turn to Change ist, dass das dazu führt, dass die Menschen diese Critical Situation eigentlich,
die man am Anfang von dem Prozess im Jetzt hatte, moment, die da sozusagen diese No Tendency eigentlich beginnt im Jetzt schon zu verändern, um vielleicht dieses dystopische Szenario zu vermeiden. Das habe ich aus dem Buch Design for the Real World von Victor Papaneck.
Und da beschreibt er schon, ich glaube, Ende der 70er genau diesen Bedarf eigentlich im Design oder in der Designausbildung, so einen Change zu machen und zu sagen, hey, wir müssen eigentlich genau in Erkenntnisse produzieren.
Und ein Beispiel von dem Projekt 2014 ist das Projekt Falscher Hase von Caroline Schulze. Kennt das jemand? Hat das schon mal jemand gesehen? Yes, da kann ich noch was Neues erzählen. Also was wir hier sehen ist ein 3D-Drucker und hier.
Und Caroline ist davon ausgegangen, dass das Fleischproduktion in Deutschland oder auf der Welt extrem energieaufwendig ist. Also man steckt, jetzt fehlen mir die Zahlen so ein bisschen, aber man steckt extrem viel pflanzliche Nahrung in eine Kuh rein,
um ganz wenig Rindfleisch rauszubekommen. Und das ist bei einem Schwein und bei einem Huhn wird das immer weniger, aber wenn man jetzt Würmer zum Beispiel ist, also Insektenfleisch, dann schmeißt man 10 Kilo rein und kriegt 9 Kilo raus, sozusagen. Also das ist der Change. Das Problem ist aber, dass niemand Insektenfleisch essen will, weil das nämlich eklig ist.
Das sind so Würmer und die liegen auf dem Tisch und selbst wenn man die brät oder röstet, bleibt das immer in so Bags. Und deswegen, selbst da das nie richtig zu fassen war, hat sie gesagt, wir müssen das in eine Form bringen. Also wir müssen sozusagen dieses, ein Steak ist ein Steak, aber es kann ja kein Steak sein.
Ein Steak ist ja quasi folgerichtig von dem Tier abgeschnitten und sieht deswegen so aus, wie es aussieht. Aber für ein Wurmfleisch gilt das nicht, weil man das ja sofort eigentlich zu so einer Art, weil man das ja eigentlich grindet. Und das hat sie gemacht. Sie hat in dieser Werkbank ihre eigene Mehlwurmzucht aufgezogen und hat gesagt,
ich züchte die da, dann tue ich die gefriertrocknen und dann mache ich so einen gewürzten Pastenbrei daraus. Und den hat sie dann mit diesem 3D-Drucker in diese Hasenform reingepackt, also in diese Hasenform sozusagen ausgedruckt. Das hat so einen leichten Falafelgeschmack.
Aber der Clou war, dass sie sagt, sie hat das halt falsche Hase genannt, weil es irgendwie nach dem Krieg kein Fleisch gab. Und dann gab es so Fake-Fleisch, das war irgendwie auch so Semmelbröseln und so. Fleischrestern wurde halt ein Hasenbraten gefaked und deswegen hat sie diese Form gemacht. Eigentlich alles ganz einfache und nachvollziehbare Steps, aber interessanterweise hat das Projekt total super funktioniert.
Also das hat irgendwie den Zwei-Burg-Ybichenstein-Design-Preise gekriegt, das hat so einen Sustainability-Preis von der Bundesregierung und so weiter und so weiter. Das waren so ganz viele Sachen und eigentlich kommt es aus diesem Prozess raus, den ich gerade gezeigt habe.
Nämlich, dass sie eigentlich begonnen hat, sich in jetzt anzuschauen und das dann so weiterzuentwickeln, dass das, was dazu kommt, was sie jetzt macht. Sie arbeitet jetzt, hat dann ihre Masterarbeit gemacht zu veganem Leder, hat sozusagen ihr eigenes Leder gezüchtet aus Kombucha. Und arbeitet da jetzt, hat so ein Start-up, ganz verrückt.
Anyway, genau, also das ist erstmal so dieses ganze Design-Fiction-Ding. Was meine Studenten jetzt machen dieses Semester ist, die beschäftigen sich mit Demonstration. Weil ich mir nämlich gedacht habe, so Brexit, Trump, AfD und wir wollen so Science-Fiction-Geschichten erzählen, kann ich mir irgendwie nicht vorstellen.
Also da habe ich irgendwie das Gefühl gehabt, wir müssen hier irgendwie einen Zug machen. Also selbst wir, die wir so Design-Research, Design-Fiction-mäßig unterwegs sind. Und eigentlich ist es genau dasselbe System, was ich eben vorne gerade gezeigt habe. Nur, dass sie sich jetzt mit so, ich habe es jetzt mal notiert, so Under-Radar-Communication in Demonstrations-Sammenhängen,
also sozusagen neue Kommunikationssysteme aufbauen, die nicht überwachbar sind. Die beschäftigen sich mit digital analoger Vermummung. Genau, es gibt eine feministisch objektivierte Reproduktionskritik. Es gibt so Blow-up-Suits und Anti-Bully-Silhouettes und vor allen Dingen so Neoludism.
Also so eine Maschinenstürmerei, aber wie kann die sozusagen in heutigen digitalen Zeiten aussehen. Für diesen Talk, dachte ich, kann ich schon voll die geilen Prototypen zeigen, die die Studenten gemacht haben. Kann ich aber nicht, weil die Studenten tatsächlich in Action gegangen sind und am 1. Mai war so ein großer Neonazi-Aufmarschenhalle
und da haben die die ganze Zeit eigentlich nur irgendwie so kreative Straßenprotestsachen gebaut. Unter anderem so Neonazi-Hampelmänner. Und da wollte ich die auch nie bremsen. Und hat mich auch total gefreut. Ich habe das nur so aus dem Augenwinkel mitbekommen.
Wollte da auch nicht so paternalistisch sein. Okay, macht mal. Und deswegen sind die jetzt erst so richtig ins Schwingen gekommen. Und dadurch, dass ich aber immer noch 15 Minuten Zeit habe für meinen Talk und ihr jetzt meine Geiseln seid, erzähle ich euch eine völlig andere Geschichte. Und zwar so ein bisschen aus dem Design-Fiction, aber vor allen Dingen aus so einem Silence-Hintergrund.
Ein ganz kurzer Exkurs. Und zwar ist das ein Projekt, das wir 2007 angefangen haben und uns ungefähr bis 2012 begleitet haben. Und zwar ist das ein Bild aus einer CAVE.
Eine CAVE ist ein Computer Animated Virtual Environment, so eine Art Holodeck. Also wir sind ja hier Science Fiction Track Holodeck, kennt jeder aus Star Trek The Next Generation. Funktioniert aber am Fraunhofer Institut in Berlin so, dass man einen Raum hat, der ist so drei mal drei mal drei Meter groß und es hinterleuchtet.
Sieht man hier so an diesen Räumen, hinterleuchtet mit jeweils Projektoren. Und diese Projektoren sind alle an einen Computer rangekoppelt und sind quasi fünf Output-Medien. Und wenn man dem Computer jetzt ein 3D-Modell gibt, beispielsweise das 3D-Modell eines Motorrads.
Und dieses Motorrad sozusagen dem gibt als Pfeil, dann wird das an diese Wände ranprojiziert. Wenn ich jetzt aber eine 3D-Brille aufsetze, eigentlich wie im Kino, wie so eine Art Poolbrille, aber mit einem Tracker, also mit einem Erkenntnis, mit einem Tool,
was dem Computersystem mitteilt, wo ich stehe und in welche Richtung ich gucke. Dadurch, also ich setze das so auf und schwuppdiwupp schwebt das Motorrad vor mir im Raum. Und ich habe 2007 dann angefangen mit dem Fraunhofer Institut zu arbeiten
und wir haben das dann als Studio noch weitergeführt. Und zwar haben wir dieses System nicht als nur Output-Medium begriffen, sondern als Input-Medium. Also sozusagen, dass man an so einen Tracker, der weiß, wo das System weiß, wo er ist, da drückt man drauf. Und man kann eine Linie extrudieren in diesen Raum. Und dann kann man um diese Linie drum herum gehen und kann anfangen, räumlich zu zeichnen.
Das sieht man hier, das haben wir mit Studierenden von der UDK gemacht und hier unten mit Studierenden der Kunsthochschule Motesius Kunsthochschule in Kiel. Und die Studierenden mussten von der Decke eine virtuelle Glühbirne hängen und die mussten Leuchten drum herum zeichnen, so halt industrial designer. Und deswegen sieht man hier, die wurden dann 3D gedruckt, sieht dann so aus.
Kurzer Exkurs nur für das, worum es eigentlich geht. Und da waren wir ganz eng als Studio verbandelt mit dem Fraunhofer Institut. Also mit so deutschen Forschungs-Research-Institutionen. Und über den Umweg, weil die das halt total cool fänden, wie wir das gemacht haben,
sind wir über so ein DFGE, deutsches, akademisches, DAAD, zu so einer Art Lab Residency in der University of New Mexico und vor allen Dingen in diesen Blue Rock Institute für Molecular Research and Nanostructures gekommen.
Und die sind vor allen Dingen bekannt geworden, weil die Sachen machen konnten. Und zwar Coded Matter. Und zwar Coded Matter war damals, 2014 oder so was, 2015 so,
dass man ein neutrales Material hat, das haben die da entwickelt. Und dieses neutrale Material kann man mit einem Elektroimpuls so einsteuern, dass es eine andere Materialität und eine andere Form annimmt. Man kennt das so ein bisschen von der Spielerei,
wenn man auf eine Bassbox, auf so einen Basstreiber Maisstärke drauf macht. Also das kann man sich ruhig mal angucken, weil es tatsächlich ziemlich schick ist. Und ich kann was trinken. Irgendwo war es.
Aber was hier passiert durch diese Frequenzen, kann dieses, wird dieses, dieser Mais oder diese Stärke in so abgefahrene Form übertragen. Das sind nur 60 Hertz, mit denen hier auf diese Materie eingewirkt wird.
Ach, vielen Dank. Genau. Und wir sind dann zu denen in deren Labor gefahren und haben uns das mal angeguckt, wie die das machen. Und das ist Material Science, Material Research.
Gibt es halt so Reinräume. Hier Doktor, ne, das ist gar nicht Doktor John Friedman, aber eben einfach so Mitarbeiter und die lachten und freuen sich halt. Auf jeden Fall ist das total lustig, weil wir aus unserer Design so Ecke mit solchen Maschinen und solchen exakten Sachen eigentlich nichts zu tun haben.
Und die bauen dann noch sowas da. Und das da, das ist eigentlich ziemlich interessant, das ist John Friedman. Und ich hab's mir noch notiert, wie hieß er? Frank de Wurden. Und die sind sozusagen eigentlich die, die da die ganze Zeit diese Maschine, diesen Transducer gebaut und gepflegt und gehegt haben.
Und der Chef, das ist Dr. Carlsen, Head of Research. Und der war eigentlich der immer, wenn solche Kommissionen so durchgelaufen sind oder solche Delegationen, hat der denen das immer alles erklärt. Und wie das eigentlich funktioniert, ist so, man hat sozusagen einen Code,
den entwickeln die da. Das ist dann, kennt man vielleicht so ein bisschen aus, also wie man sich mit so Programmierung beschäftigt, ist das halt einfach sehr, sehr, sehr, sehr viel unterschiedlicher Code. Und der wird auf so einen Mikrochip sozusagen draufgespielt. Das ist natürlich alles viel größer, das hat man vorhin gesehen.
Und dieser Mikrochip produziert EHF, also Extreme High Frequencies, zwischen 300 Gigahertz und 3 Terahertz. Und geht quasi auf diese neutrale Struktur drauf, dieses Material, was sie da entwickelt haben.
Und hält diese Spannung, die da drauf geht und kann dann je nachdem, was für eine Pulsung sozusagen auf dieses Material draufgeht, dieses informierte Material erzeugen. Sieht dann so aus. Also bleibt dabei, da gibt es den Code, da gibt es diesen Chip, dann geht der in das neutrale Material rein und macht das informierte Material.
Der Hintergrund dafür war, eigentlich oder was Ihnen da aufgefallen ist, das ist viel geiler als 3D-Druck. Weil man halt eine Materie hat und die gibt man unter Spannung
und dann kann man da jede empdenkliche Form rein informieren sozusagen. Und das hat aber nur sehr schlecht funktioniert, weil man brauchte einen enormen riesigen Energieaufwand, um ein solid object, also in festes Material zu machen.
Und das war ziemlich problematisch und dadurch haben die dann angefangen in so Finanzschwierigkeiten zu kommen und plötzlich kam Google und hat gesagt, wir steigen mit ein. Und zwar haben die gesehen, wir, also erst mal sind die auf die gekommen, wegen diesem ganzen 3D-Druck und Code und das würde eigentlich passen
und haben dann aber festgestellt, dass die selbst auch nicht diese krassen Energiekosten decken können und haben gesagt, okay, lass uns doch dann aber nichts festes machen, sondern lass uns doch lieber in Flüssigkeiten bleiben. Und sind in diesem Jahr, das war so auch 2014, 2015,
sind die mit ihrer Google Glass so krass geschaltert und hatten gemerkt, dass alles, was man am Körper trägt, alles was außerhalb von so Android-Geräten in der Hosentasche funktioniert, irgendwie, das können sie nicht. Und deswegen haben sie sich gesagt, okay, lass doch mal was Neues machen und lass doch mal lieber in die Menschen reingehen. Und zwar ging es darum, eben diese Technologie so zu benutzen,
dass man eben dieses neutrale Material hat, aber dann eigentlich so eine Art Nikotinersatz beginnt zu entwickeln. Und das haben wir dann damit begleitet und wir haben dann versucht, so Szenarien zu entwickeln, wie das aussehen könnte.
Also, was ist das für ein, also wie designt man eigentlich diese Experience, dass man eine, naja, was ist das dann, eine Substanz hat, die man am Computer programmieren kann, die ich durch den USB-Stick, also durch diesen USB-Slot zu mir nehmen kann.
Und das war ziemlich schwierig, weil wir kennen das jetzt, jetzt ist das irgendwie relativ okay, das war aber 2014, 2015, war dieses ganze E-Zigarette rauchen, das war da noch nicht so ein Ding, aber das ging dann sozusagen los. Was lustiger aber war, als wir dann mit den Forschern angefangen haben,
intensiver daran zu arbeiten und auch diese Schnittstellen zu entwickeln, sind aber diese Forscher auf tausend andere Sachen gekommen. Also die wollten zwar einen Nikotin-Ersatz entwickeln und haben das auch alles getestet, haben aber festgestellt, dass durch ein paar bestimmte Code-Zellen sich diese Substanz total verändert und dann eben zu so, naja,
zu so noch lustigeren Drogen sich entwickelt. Und wir hatten vorhin diesen John Frightman gesehen und Dr. Carlsen, die waren ziemlich straight und haben gesagt, ne Leute, das könnt ihr nicht machen, was aber dann trotzdem dazu geführt hat, ist hier so ein paar Fotos, die dann im Internet rumgegangen sind,
wo die Wissenschaftler sich sozusagen ihre eigenen, naja, wie so Tools entwickelt haben sozusagen, das sieht man hier, hat man die, das war ich glaube der, warte mal, da muss man noch mal gucken, ach genau, der hatte sich so ein Inhaler gebaut, dann gab es Leute, die hatten sich so ein Spritzen-Injektionstool gebaut,
genau, das sieht man jetzt hier, wie die das gemacht haben, und dadurch ist es halt ein bisschen in so eine Verruchung gegangen. Aber was wir dann festgestellt haben ist, aber dann lass doch aus der Not
einen Tugend machen und sagen, okay, wir machen einfach für Google den Google Drugs und Google Drugs ist quasi wie so ein Service, den Google an seinen ganzen anderen Services andocken kann und es geht eigentlich darum, dass es so eine Art Corporate Highs
und Open Source Highs gibt, die man sich so via GitHub und Bitbucket sozusagen coden kann, wird es eine riesige Community geben. Wir sagen auch, dass das Schwierige ist und das hat Google dann auch gesagt, man muss halt mit dieser Altersbeschränkung muss man irgendwie umgehen können und deswegen haben wir gesagt, okay, man kann, also um dann diesen
schwarzen Markt so zu drücken, gibt es so Mikroeconomies sozusagen, wo man sich durch bestimmte Google Services sich so einen Kredit erkaufen kann, erarbeiten kann, um dann sozusagen das in dem Google Drugstore alles sich wieder zuzulegen. Gleichzeitig wird es so Algo-Farming geben, das heißt, dass über bestimmte Algorithmen generierte Mikrostrukturen entwickelt werden,
die dann zum Beispiel als neue Medizin tatsächlich in den Realmarkt einfließen können, wie zum Beispiel da dieses AI-Spirin. Gleichzeitig, weil das hat dann so ein bisschen zur Job Description dazu gehört, sollten wir halt auch noch die ganzen Schnittstellenlisten und das ist dann zum Beispiel, gibt es so Podbotics, die sozusagen
tatsächlich solche, sozusagen dir das High wie so konfigurieren, also sie sagen, okay, du bist jetzt mehr so ein Sativa-Typ und deswegen haben wir gesagt, okay, vielleicht müssten wir mit denen zusammenarbeiten, Netflix liegt auf der Hand. Dadurch, dass alles, dass es hier gemonitort ist, dass es sozusagen
auch immer wieder diesen Rückloop zu Google gibt, würde bedeuten, dass die auch wissen, auf welchem High-Level man selber gerade ist und kann dann sozusagen dann automatisiert, klingelt gleich die Foodora oder der Deliverant und schickt die Pizza und so weiter Also da kann man ewig weitermachen, ich habe es sofort geschafft und, letzte Slide, Nature und Wired sind total durchgedreht,
wussten überhaupt gar nicht so richtig, wie sie es einordnen sollten, aber trotzdem haben wir es da aufs Cover geschafft und im Endeffekt hatten alle in dem Lab unglaublich viel Spaß. Genau, danke.