We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Die ethische Maschine

00:00

Formal Metadata

Title
Die ethische Maschine
Title of Series
Number of Parts
126
Author
License
CC Attribution - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Die Zeiten des "Function-Hype" sind ein für alle Mal vorbei. Wachstum durch immer wieder neue Features? Ein totes Konzept. Damit läuft Innovation ins Leere. Aber technische Möglichkeiten schreiten dennoch voran; und zwar mit rasender Geschwindigkeit. Wenn Ray Kurzweil Recht behält, werden wir in den nächsten 100 Jahren technische Fortschritte machen, wie wir sie im Vergleich in den letzten 21.000 Jahren erlebt haben.
MicrosoftFunktionalitätFunktionalitätTwitterEmailComputer animation
Mobile WebPoint cloudGreen computingPasswordTypLecture/Conference
Lecture/Conference
Lecture/ConferenceMeeting/Interview
Apple <Marke>Computer animation
Lecture/Conference
Mathematical singularityGoogleLecture/Conference
Mathematical singularityYouTubeSound effectOffice <Programm>Uploading
UploadingLecture/Conference
GoogleTyp
Function (mathematics)WordLecture/ConferenceMeeting/Interview
Lecture/ConferenceMeeting/Interview
Direction (geometry)ForceLecture/Conference
EnergieLecture/Conference
MetreForceMeeting/InterviewLecture/Conference
LEONARDO <Programm>Lecture/Conference
GeometryLEONARDO <Programm>Meeting/InterviewLecture/Conference
Lecture/ConferenceMeeting/Interview
Lecture/Conference
Reliability (psychometrics)WordLecture/ConferenceSource codeComputer animation
Set (mathematics)Lecture/Conference
CalculationMeeting/Interview
Lecture/Conference
EmailBulletin board systemComputer animationMeeting/Interview
Mach's principleLecture/Conference
FacebookMeeting/Interview
Meeting/InterviewLecture/Conference
Direction (geometry)CalculationMeeting/Interview
Direction (geometry)Computer animation
FacebookDatabaseGoogleRobotMeeting/Interview
Electronic data processingLecture/Conference
SystementwicklungWind waveScrum (software development)Computer animationLecture/Conference
Computer scienceDigital Equipment CorporationLecture/ConferenceMeeting/Interview
Decision theoryLecture/ConferenceMeeting/Interview
Decision theoryLecture/ConferenceMeeting/Interview
Meeting/InterviewComputer animation
CASTAugmented realityLecture/Conference
Agent <Informatik>Lecture/Conference
Lecture/ConferenceMeeting/Interview
RobotComputer animationLecture/ConferenceMeeting/Interview
Lecture/ConferenceComputer animation
Meeting/InterviewLecture/Conference
SmartphoneLecture/Conference
FunktionalitätLecture/ConferenceMeeting/Interview
Lecture/ConferenceVisualization
Lecture/Conference
Visualization
Algebraic closureMeeting/InterviewLecture/Conference
Video trackingSign (mathematics)Computer animationLecture/ConferenceMeeting/Interview
HTTPUpdateFacebookLecture/Conference
Meeting/InterviewLecture/Conference
MicrosoftComputer animation
Transcript: German(auto-generated)
Ja, ich freue mich sehr an Ihrem Interesse an der ethischen Maschine.
Ich hoffe, Sie sind nicht gekommen, damit ich Ihnen einen neuen Hype ankündige. Denn den kann ich Ihnen leider nicht genau beschreiben. Aber um die ethische Maschine zu verstehen, glaube ich, ist das Beste einfach mal anzufangen mit dem, wo wir heute in der Technik eigentlich stehen.
Ich teile eigentlich die Entwicklung der Technologie in drei Generationen ein. Die erste Generation, die wir alle durchlebt haben, war eigentlich die Zeit der Zebetypen. Die Zeit der Funktionalität. Die Zeit, in denen wir immer wieder begeistert waren, dass die Technikwelt mit neuen Ideen
rüberkam. E-Mail, Mobiltelefone, Social Networks. Es gab immer etwas Neues. Twitter. Und die Technikwelt war total gehypt. Release Earth often, Release early, das war so das Mantra. Und was eigentlich passiert ist, oder was immer noch der Fall ist, ist, dass die
ganze Technikwelt getrieben ist von Hype-Cyceln. Die ganze Industrie läuft Hype-Cyceln hinterher. Und bis vor ungefähr zwei Jahren war es zumindest noch so, dass die dicksten Buzzwords auf den Hype-Cyceln irgendeine Technologie oder eine Funktionalität angekündigt haben.
Jetzt tun sie das nicht mehr. Mittlerweile sind die größten Buzzwords Green IT, also grüne IT. Was ist denn das? Oder Cloud. Und am besten und wirklich die Spitze des Eisbergs ist Big Data.
Was ist denn Big Data? Dahinter verbirgen sich so viele Technologien und so viele Daten und außerdem wussten wir ja auch schon immer, dass es viele Daten geben wird. Und trotzdem kaufen wir diese Hype-Cycel ein. Wir laufen mit den dicken Tüten der Hype-Cycel auf unseren Twitter-Account
und machen mit. Und in gewisser Weise sind es aber die Coca-Cola-Manager, die zu den IT-Unternehmen gewechselt sind, die uns das verkaufen und uns zu etwas machen, was wir mal hinterfragen sollten.
Da steht DAOS. DAOS ist die Abkürzung für den dümmsten anzunehmenden Nutzer. Und wenn man sich mit wirklichen Profis aus der Szene unterhält und sie fragt, was gibt es eigentlich für ein Menschenbild in der IT-Welt? Gibt es da irgendeinen Begriff? Dann ist das einzige, was den Leuten einfällt, DAO.
Das ist das einzige, was man schon mal verbalisiert hat. Und deswegen finde ich dieses Bild so unheimlich gut. Aus dieser Generation kommen wir eigentlich, die haben wir noch, die kaufen wir noch, wie die Chips-Tüten. Aber dann gab es eine zweite Generation, die hat vor ein paar Jahren angefangen
und die hat den ersten Wert, den ersten wirklichen Wert in die Technik gebracht. Und das ist die Schönheit, die Ästhetik. Und Steve Jobs hat mit Apple etwas getan für die IT-Welt, was wir kaum bewerten
können, weil es so wichtig war. Er hat nämlich aufgeräumt mit dieser Aussage, Form follows Function. Aber mittlerweile haben alle IT-Geräte irgendwie eine gewisse Ästhetik. Das heißt, ich komme ja von der Wirtschaftsuniversität.
Auf welcher Grundlage können denn Firmen überhaupt noch in Wettbewerb treten? Auf Basis der Ästhetik nicht. Das ist mittlerweile etwas, was jedes Device hat. Die Frage stellt sich also, was ist eigentlich der nächste Schritt?
Aber bevor ich Ihnen die ethische Maschine vorstelle, möchte ich Ihnen erst zeigen, was die ethische Maschine sicherlich nicht ist. Und das ist die Vision der Transhumanisten und die Vision, die in den meisten Science-Fiction-Romanen verarbeitet ist.
Ich finde, der Director des Product Engineering bei Google bringt das, die Vision des Transhumanismus, der Singularität, sehr gut auf den Punkt. Der schreibt nämlich in seinem Buch, die Singularität ist nahe, Uploading a human brain means scanning all its salient details
and then reinstantiating those details into a suitable, powerful computational substrate. Also man kann ein Gehirn ja einfach hochladen. Er schreibt auch, unser Gehirn hätte ungefähr die Kapazität eines Microsoft Office Pakets. Dann schreibt er weiter, if we have the option of destroying the brain we are scanning,
dramatically higher spatial resolution becomes possible. Dann schreibt er, although artificial hearts are becoming to be a feasible replacement, a more effective approach will be to get rid of the heart altogether.
Und dann schreibt er, das ist das letzte Zitat, let's consider where we are circa 2030, we have eliminated the heart, the lungs and white blood cells, placelets, pancreas und so weiter. Da kann man natürlich eigentlich jetzt sich zurücklehnen und lächeln und sagen,
der hat ja einen Schaden, der Typ. Problem ist aber, er ist aber Product Engineering Director bei Google. Das ist ein bisschen meine andere Geschichte. Und Google hat eben, seitdem er da angefangen hat, oder auf jeden Fall in letzter Zeit,
hat er systematisch Roboter eingekauft. Und die sehen dann so aus, also die GNR Revolution, Genetics, Nanotechnology und Robotics,
die in Ray Kurzweils Google Directors Buch verankert ist, ist vielleicht nicht mehr ganz so lustig, wie das Unternehmen uns sich immer noch verkauft.
Aber wir haben jetzt im Prinzip schon so viel Schlechtes gehört und wir sind einfach auch so pessimistisch geworden. Und immer sprechen eigentlich alle nur von diesem Doomsday-Szenario oder Fragen, was kommt denn als nächstes, und keiner hat so richtig eine Antwort.
Also eigentlich warten wir so ein bisschen mit unseren Wehrentüten. Und die Frage ist, finden wir was anderes. Und ich habe mir überlegt, man kann eigentlich nicht immer nur schlecht sprechen und von Risiken. Und dann kommt die Privatsphäre und die Risk Assessments und so viele Probleme,
die Technik mit sich bringt. Und ich glaube nicht, dass das eine Antwort sein kann, eine Vision sein kann, die man diesen Leuten entgegensetzen kann. Woran wir arbeiten müssen, ist eine positive Vision davon, wie wir uns die ganze Kraft unserer IT-Innovation kanalisieren können in die richtige Richtung.
Ein Vorschlag dazu ist die ethische Maschine. Und die ethische Maschine hat erst einmal einen Ausgangspunkt. Der Ausgangspunkt der ethischen Maschine ist, dass unser biologisches System, wir Menschen,
eigentlich die Krönung der Schöpfung sind und eine unglaubliche Magie in uns tragen, die wir aber noch nicht richtig nutzen. Und wenn Sie sich überlegen, eine einzige Zelle hat eine gefaltete DNA,
die, wenn Sie sie im Raum auslegen, 6 Meter lang ist, eine einzige Zelle in allen von Ihnen, in allen von uns. Wir verstehen davon aber sehr wenig. Wir haben das noch gar nicht verstanden, was wir eigentlich sind. Und ich glaube, dass die Kraft der IT genutzt werden kann,
um uns selbst besser zu verstehen. Das ist mal eine sehr, sehr gute Anwendungsmöglichkeit. Ich möchte Ihnen auch noch zwei Geschichten erzählen. Leonardo da Vinci in seiner Zeit hatte das Problem, genauso wie wir es heute auch immer noch haben,
dass die Wissenschaft nur bis zu einem ganz bestimmten Punkt kommt. Und dann gibt es einen Gap zwischen dem, was die Wissenschaft versteht und dem, was wirklich ist. Und Leonardo da Vinci hat als Antwort auf dieses Problem des Gaps den Menschen in diesem Gap gemalt.
Und was er eigentlich uns damit sagt, mit seiner perfekten Geometrie, ist, dass die Antwort auf unsere Fragen im Menschen selbst liegen. Und wer Leonardo da Vinci und alte Kunst nicht mag, sondern lieber Sci-Fi-Romane liest, der erinnert sich doch mal an diese Science-Fiction-Geschichte
per Anhalter durch die Galaxis, wo die Außerirdischen zu dem Computer Deep Sword kommen. Und Deep Sword hat Millionen von Jahren gerechnet, um die Antwort auf die Frage nach dem Sein rauszurechnen. Dann kommen die Außerirdischen, der ist jetzt gerade fertig, und sagt die Antwort, 42.
Und dann stehen die Außerirdischen vor ihm und sagen, ja, was ist denn mit der 42? Was ist denn das? Da sagt der Computer, die Leute, die mich programmiert haben, die wussten auch nicht, die richtigen Fragen zu stellen. Aber ich kann euch helfen, eine Maschine zu programmieren, die kann euch alle Antworten geben. Das ist die Erde.
Was ich damit sagen will, ist, dass Denker und Schreiber aller Zeiten eigentlich uns schon gesagt haben, wo die Magie steckt, nämlich in uns. Und wenn wir das anerkennen, dann entwickeln wir Technik anders. Dann fangen wir mal mit einer Regel an.
Der Mensch steht über der Technik. Die Technik, die Maschinen, das sind unsere Sklaven. Die haben uns zu dienen, nicht wir ihnen. Und wenn wir das weiter denken, dann können wir zum Beispiel Asimovs Roboterregeln nicht nur so nehmen, wie sie sind und wie sie derzeit gebrochen werden,
sondern wir können sie sogar erweitern. Und ich hab jetzt einfach mal auch unterstrichen, welche Worte ich einfach nur ausgetauscht habe. Und ich nenne sie nicht die drei Laws of Robotics wie Asimov, sondern die drei Laws for Systems. Und dann hab ich a system, not a robot, a system, may not harm, normalerweise steht injure, a human being,
or through inaction allow a human being to come to harm. Wenn wir mal diese Regel nehmen und uns überlegen, was heute an dem Backendsystem so los ist, was Firmen so mit unseren Daten machen, da passt jetzt schon eine ganze Menge Harm. Diese erste Regel haben wir schon gebrochen.
Müssen wir aber nicht. Zweite Regel. A system must obey the orders given to it by human beings, except where such orders would conflict the first law. Das, was da drin steckt, ist, dass eine Maschine, ein Rechner, ein Mobiltelefon, nicht nur mir gegen immer,
sondern auch am Backend, sich so verhält, wie es meine Policies, wie ich das in meinen Präferenzen festgelegt habe. Und damit sind wir beim Thema zum Beispiel informationelle Selbstbestimmung. Das ist so mal eine Idee. Die nächste Dimension ist, dass ethische Maschinen
unsere Freiheitsrechte und vor allen Dingen unsere Werte berücksichtigen. Zum Beispiel Aufmerksamkeit, Freiheit, Awareness, Kontrolle, Privacy. Das sind alles so Dinge. Transparency. In den Forschungslabors haben wir schon seit Jahren
Technologien zur Verfügung, die uns sogenannte attention-aware systems, also die uns erlauben würden, zum Beispiel E-Mail-Systeme zu haben, die uns nicht jeden Tag die Mailbox fluten. Man muss sie nur implementieren und ausrollen. Genau das Gleiche mit Privacy Enhancing Technologies. Wir haben diese Technologien zur Verfügung
und wir können das, wo es nicht fertig ist, zu Ende bauen. Nur, es geht noch weiter und ich möchte das gleich an dem Thema Privacy erzählen. Viele Leute fragen mich, weil ich eben wieder viel Privacy Research mache. Hör mal zu, also komm, die Privacy, das ist doch echt ein Thema von gestern. Alle Leute sind auf Facebook, ja, die sind super transparent.
Zählt dieser Wert in dieser Gesellschaft noch? Und ich vergleiche das, ich habe darauf zwei Antworten. Zum einen ist es so, dass sich hinter diesem Thema Privacy, da verbergen sich unheimlich viele Dimensionen. Das eine ist unsere Privatsphäre auf Facebook.
Da muss man sagen, ja, die Leute heute, die wollen, oder ich gehöre auch dazu, wir wollen Aufmerksamkeit, wir wollen gesehen werden, wir wollen uns austauschen und da haben wir einfach ein anderes Privatsphärebedürfnis als die Leute früher. Da sind wir einfach offener, da hat sich unser Wert zur Privacy verschoben
zugunsten der Transparenz und der Offenheit und der Aufmerksamkeit. Aber es gibt so viele andere Dimensionen der Privatsphäre, die haben sich überhaupt nicht verschoben. Zum Beispiel, dass wir einfach sagen, eine Firma darf einfach nicht meine Daten gegen mich verwenden, wenn sie mir einen Kreditvergift zum Beispiel.
Oder auch einfach die Sache, dass ich in Ruhe gelassen werden will, manchmal von dieser ganzen IT, diese ganzen Push-Nachrichten, die mir auf den Rechner kommen, das ist auch alles Privatsphäre, the right to be let alone. Das heißt, ich würde zunächst mal sagen, Privatsphäre, nein, es ist überhaupt nicht tot, es ist ein ganz spannender, diffuser Bereich, der sich in verschiedene Richtungen entwickelt.
Nur oftmals ist es auch so, und das dürfen wir alle nicht vergessen, ich meine, Sie wissen das, Sie sitzen hier in einer Tech-Konferenz, ja? Sie wissen ja, dass sich Technik weiterentwickelt, und zwar rasant. Und deswegen, wenn Leute sich wirklich hinstellen, informierte Leute, und die sagen, wir sind in einem Post-Privacy Movement, habe ich diesen Topf mal genannt,
dann erinnern mich diese Leute so ein bisschen an Frösche, die gerade echt heiß gekocht werden. Weil die merken gar nicht, dass die Geschichte bei Facebook nicht zu Ende ist, sondern die fängt erst an. Und die wird erst dann witzig, wenn solche Roboter, wo Google ja einfach nur seine ganzen Datenbanken
in so ein Ding runterladen muss, wo wir uns plötzlich wundern, wenn uns so ein Human-Reader auf der Straße entgegenläuft und unglaublich viel über uns weiß, dann wird das erst mal so richtig lustig. Und deswegen glaube ich, dass es eben so wichtig ist, dass wir die langfristigen Risiken
unserer Datenverarbeitung nicht unterschätzen dürfen. Was bedeutet das aber jetzt für Ingenieure? Was bedeutet das für Sie, für die Blogosphäre, für die Presse? Privacy ist ja nur ein Wert, habe ich ja eben gesagt. Aufmerksamkeit, Transparenz sind ja alles noch ganz andere große Themen. Und ich persönlich glaube, dass der einzige Weg und das einzige etwas technischere Slide,
was ich auflegen möchte, dass wir da nur hinkommen, Werte in Technik einzubauen, wenn wir entlang des Systementwicklungsprozesses wirklich in jeder Phase die Frage nach den Werten mit reinnehmen und uns überlegen, auch im Team zusammen, was mache ich denn da?
Da habe ich verschiedene Möglichkeiten Wert zu schaffen. Wie wege ich das ab? Wie baue ich das ein? Das fängt schon an beim Management. Natürlich Ingenieure sind eigentlich auch ein Stück weit fremdgesteuert. Marketingleute, die müssen verstehen, dass die nächste Generation Technik sich nur über Werte verkauft.
Das wäre mal super. Natürlich werden jetzt einige Tech Spezies unter ihnen sagen, ja, das ist das Wasserfall Modell und das ist ja total veraltet. Und wir entwickeln ja heute Technik entlang von Rapid Application, die Welle auf Spiralmodellen und Scrum und ich weiß nicht was. Alles stimmt. Aber die Themen, die Fragen, die man sich in der Systementwicklung stellt
jeden Tag, die sind eigentlich dieselben. Und deswegen ist für mich ethische Maschinen sind mal Maschinen, die gebaut sind, nicht Release early, Release off und ich haue den ganzen Scheiß da mal kurz raus und gucke mal, wie meine Community reagiert. Nee, gar nicht. Technik, wir wachsen als Informatiker in die Ingenieurs Disziplin.
Wir setzen Leute auch nicht ins Flugzeug und gucken mal, was passiert. Wir fangen an, wir fangen an, Maschinen zu bauen. Richtig durchdenken.
Und da ist noch ein Punkt, der mir wichtig ist. Es gibt bei der Ethik, es gibt keine Frage, was ist richtig oder was ist. Die Ethik sagt uns nicht, was richtig und falsch ist. Die Ethik macht sich Gedanken darüber, was richtig und falsch sein könnte. Und dann treffen wir Entscheidungen ganz bewusst mündig.
Wie wir die, wie wir das gestalten. Und wenn das hinterher schief läuft oder da ist noch ein Back drin. Das ist okay. Es geht darum, dass wir uns Gedanken machen bei der Technikgestaltung,
welche Entscheidungen wir treffen und dann kommt was raus. Und wenn es einen Fehler gibt, es wird uns verziehen. Aber wir haben das Beste getan. Und darauf kommt es dann. Und das ist eine ethische Maschine, die da rauskommt. Und dann gibt es noch was anderes.
Man muss sich mal überlegen. Wir Menschen, ich kann mir eben vom Menschen ja. Menschen sind ja irgendwie lustige Wiesen. Ja, wenn man sich wirklich unterhält und man beobachtet, sind so wahnsinnig verschieden. Und das ist etwas, was ich meine, was wir lernen müssen, zu akzeptieren.
Wir müssen es nicht nur akzeptieren. Wir müssen es richtig toll finden, dass wir als Menschen so sind. Und deswegen kann aber dieses Ding, was für uns alle gleich ist, und wo wir einen ganzen Tag alle in das gleiche Ding reinstarrn,
das ist nicht die Zukunft. Es kann nicht die Zukunft sein. Nicht für so eine Welt. Und ja, da wird man sich fragen, wie sieht denn das Interfels der nächsten Generation aus? Und ich habe eine Idee, die richtig ist, weiß ich nicht. Aber was ich zum Beispiel glaube, ist, dass wir möglicherweise
Augmented Reality Brillen haben werden, die uns über Cast AR oder andere Augmented Reality 3D-Figuren anzeigen, die wir möglicherweise uns selbst kreieren können, die wir vielleicht aus unseren Spielen, aus unseren Gaming-Welten mitnehmen in die reale Welt
und die aber wahnsinnig intelligent sind, mit denen wir sprechen können, zu was wir nicht mehr tippen oder so mit Headset laufen, sondern wir sprechen wirklich mit unseren virtuellen Agenten. Und wenn die uns gehören und unsere Personal Agents sind und außerdem vielleicht noch an einem schönen IBM Watson hängen, dann haben wir echt so einen Sparing-Partner, der total auf uns eingeht
und der auch von uns lernt. Wobei ich allerdings natürlich als Privacy-Brau sagen würde, die ganzen Dinge dürfen natürlich nicht fremdgesteuert sein. Diese Maschinen müssen irgendwo in unserer Kontrolle, in sogenannten Personal Data Vaults laufen, zumindest unsere Daten,
und die dann nur Request schicken ans Netz. Gut, das ist also der nächste Punkt. Und dann kommt noch eine Idee. Wir sind ja alle irgendwie fehlbar. Wir machen Fehler, wir sind manchmal nicht ehrlich, wir streiten uns.
Und was lustig ist, ist eigentlich, dass zum Beispiel Maschinen, ich hätte hier zum Beispiel von Robotern, das ist ein Roboter-Teddy Bear, der könnte zum Beispiel, wenn die Kinder sich anfangen zu streiten, könnte der anfangen zu schreien. Und der könnte rechten mit den Kindern, wem er jetzt eigentlich gehört. Solche Geschichten. Das finde ich viel lustiger, das finde ich ehrlich gesagt wirklich viel lustiger,
als anzufangen dem Teddy Bear Emotionen einzubauen. Da kann er einfach sagen, quietsch und hier, ich gehöre dem anderen. Was auch immer. Und dann habe ich noch eine, und das ist meine letzte Idee, eine Message,
von der ich glaube, dass sie wichtig ist. Die ganze IT-Welt bisher, die ist total fokussiert auf das Sehen. Und vor allen Dingen ist sie immer nur fokussiert auf Denken. Ich denke also bin ich, die dekatische Trennung zwischen dem Kopf, dem Geist und dem Körper.
Ich glaube aber, dass das ein Fehler ist und die Maschinen, die wir heute haben, die sprechen nur unsere Augen an, unseren Sehsinn. Und ich glaube, wir müssen uns mehr Gedanken darüber machen, wie Maschinen uns als gesamtheitliche Menschen ansprechen können. Zum Beispiel unser Gehör, und da habe ich Ihnen ein Beispiel mitgebracht.
Wir haben ja jetzt schon, das finde ich jetzt wieder eine positive Situation, Maschinen haben uns eigentlich schon jetzt mehr Musik gebracht, als wir in der Menschheitsgeschichte je hatten. Viele von Ihnen, ich selber, wir laufen rum mit unseren Smartphones, haben da unsere gesamten Musikbibliotheken drauf gespeichert,
wir haben Spotify, was auch immer. Richtig toll. Aber das ist auch nur Funktionalität. Worüber wir uns zum Beispiel bei dem Design von ethischen Maschinen Gedanken machen könnten, ist, wie eigentlich Musik unsere Wahrnehmung von dem, was ist, beeinflusst.
Und da möchte ich, habe ich ein Experiment mit Ihnen vor, dass Sie das mal an sich selber experimentieren. Schauen wir uns mal diesen ersten Film an.
Kommt doch ein tolles Gefühl auf, oder? Heiß auf die Zukunft. Das kann man alles super gut locker wegstecken.
Also ich empfinde das so.
Ja, ich glaube, dazu muss ich nicht viel sagen. Was da passiert, ist, dass die Musik und der Klang, mit dem wir uns umgeben und den wir uns zuführen, der verändert die Art und Weise, wie wir die Welt sehen
und was wir bereit sind zu akzeptieren. Und deswegen könnten ethische Maschinen vielleicht uns andere Musik zufügen. Dann würden wir vielleicht anders handeln.
Ich komme zum Abschluss. Ich glaube, die ethische Maschine, die kann nur entstehen, wenn wir bewusst Maschinen bauen und reflektieren und vor allen Dingen ein ganz anderes Menschenbild verfolgen.
Nämlich ein gutes, ein positives. Und das müssen Sie im Kopf haben, wenn Sie das nächste Programm schreiben. Oder wenn Sie mir helfen, auf Facebook oder wie auch immer, ich habe da eine Gruppe geöffnet, dass wir Ideen sammeln.
Ich habe nur fünf. Ich bin ja auch nur ein Mensch. Aber Sie sind Hunderte. Also denken Sie mit und schreiben Sie Ihre Ideen da rein. Konstruktiv, nicht rollen. Ideen machen, was Schönes mit kreieren. Vielen Dank.