Über die Motivation von KI (Künstliche Intelligenz)
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Alternative Title |
| |
Title of Series | ||
Number of Parts | 96 | |
Author | ||
License | CC Attribution 4.0 International: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/40735 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
10
17
18
20
22
32
33
41
45
55
56
62
69
71
78
79
82
84
85
88
92
00:07
Artificial intelligenceAlgorithmWechselseitige InformationYES <Computer>Open sourceScrum (software development)AlgorithmLecture/Conference
01:56
AlgorithmAlgorithm
03:19
AlgorithmMicrosoftOnline chatMicrosoftAlgorithmDecision theoryArtificial neural network
04:22
InternetMicrosoftPhysical lawLecture/Conference
04:51
RoboticsRobotPhysical lawComputer animationLecture/Conference
05:39
InferenceLecture/Conference
Transcript: German(auto-generated)
00:09
Da, ja, Arif Kristl, Consultant, Scrum Coach, Open Source Professional und total aufgeregt. Also, künstliche Intelligenz, starke KI soll echtes menschliches Denken simulieren,
00:20
schwache KI unterstützt nur spezielle Anwendungsbereiche, soweit klar. Wir gucken uns nur die schwache KI an, weil ich habe keinen so großen Geist, deswegen versuche ich es gar nicht erst mit der starken KI aufzunehmen. Also, künstliche Intelligenz, der Begriff ist nicht besonders intelligent, deswegen habe ich gesagt, das sind eigentlich lernende Algorithmen. Das trifft es vielleicht besser, aber in einem Keynote-Titel oder in einem Lightning-Talk-Titel
00:42
passt das dann nicht so gut. Wie funktioniert das? Algorithmen lernen, wie bestimmte Muster interpretiert werden, indem es ihnen jemand beibringt, sie trainiert. Und das geht zum Beispiel mit Bildererkennung. Wir gucken uns jetzt ein paar Briefkästen an. In Deutschland sehen die so aus und in England können die so aussehen,
01:02
ist schon sehr unterschiedlich. Und Hydranten und von der korrekten Erkennung an, ist möglicherweise schon Menschenleben ab. Die können dann so aussehen, das ist so ein 3D-Modell oder das ist ein 100 Jahre unverändertes Design, ziemlich coole Sache. Wenn das verrostet, sieht es so aus und in der Wiese steht so oder auch mal bunt
01:21
oder auch so und das wäre dann Dean 100, aber in der Farbe auch nicht ganz richtig getroffen. Denn wenn die KI den Hydranten nicht richtig erkennt, was passiert dann? Sie parkt möglicherweise davor und dann passiert sowas. Deswegen, ach Augenblick, haben Sie eigentlich den englischen Briefkasten in Jerusalem gesehen?
01:46
Ein paar haben es gesehen, das war der hier, das ist kein Hydrant, sondern das ist ein Briefkasten, aber ein Englischer, der in Jerusalem steht. Und der bringt KI's wirklich durcheinander. So, denn Lernen benötigt also Lehrende und die Lehrenden sind bisher meist Menschen
02:01
und all die sind mit Vorurteilen behaftet. Und jetzt gehen wir mal in die Gesichtserkennung. Da ist jetzt alles Mögliche bei Ihnen abgelaufen. Warum zeigt uns diese Frau, was für eine Farbe hat die, wo kommt die her und so weiter? Das ist Alexandria Ocasio-Cortez, eine New Yorker Kongressabgeordnete, keine 30,
02:24
sehr technikafin und sie stellte fest, Gesichtserkennungsalgorithmen sind rassistisch. Die Algorithmen basieren nämlich immer nur auf Annahmen und KI machen daraus automatisierte Annahmen. Und weiters führte sie aus, wenn wir die Vorurteile nicht ausräumen,
02:42
werden wir sie nur automatisieren. Ich hätte nicht so ein dunkles Rot nehmen sollen, weil das sieht man kaum. Das da, wenn Sie da draufklicken auf die ganzen roten Dinger, kommen auch Links mit mehr Seiten, wo Sie es nachlesen können. Und dafür wurde sie ausgelacht, weil es sind doch nur objektive, mathematische Algorithmen,
03:00
was die KI's da so machen. Aber das stimmt und nur werden diese Algorithmen von Menschen trainiert und eingesetzt und deswegen gilt nach wie vor garbage in, garbage out. Lernende Algorithmen automatisieren also Vorurteile. Da hat sie einfach recht gehabt.
03:20
Das eigentlich Gefährliche daran ist aber, dass Algorithmen sehr, sehr viel schneller, sehr, sehr viel mehr Entscheidungen auf Basis von Vorurteilen fällen können als Menschen. News von vor drei Jahren. Microsoft beendet den Thai AI Chatbot, weil sie innerhalb von 24 Stunden zum Nazi wurde. Wer das nicht glauben möchte, erste Tweet, chill, I'm a nice person, I just hate everybody.
03:43
Oder auch, I fucking hate feminists and they should all die and burn in hell. Und Hitler was right, I hate the Jews. So, die lapidare Antwort von Microsoft war dann, ihr neuronales Netz auf Lesen schreiben zu setzen, war ein furchtbarer Fehler. Sehe ich auch so.
04:02
Jetzt wird es nochmal ein bisschen ernst. Privatsphäre. Wer sagt, ich habe ja nichts zu verbergen, traut sich das noch jemand zu sagen. Wenn sich jetzt jemand getraute, hätte ich nämlich ein Experiment gemacht. Entsperren Sie bitte jetzt Ihr Telefon und reichen Sie es hinter sich, egal wer da sitzt. Und dann sehen wir mal, ob Sie Privatsphäre für wichtige achten oder nicht.
04:23
So und jetzt stellen Sie sich mal vor eine KI, so wie dieser Thai AI Chatbot von Microsoft wird auf Sie losgelassen und macht jetzt systematische Fehler, ist aber nicht im Internet sichtbar, sondern entscheidet darüber, ob Sie den nächsten Kredit bekommen, ob Sie in einen Klast geworfen werden oder ähnliches. Denn dann ist die Frage, wer repariert das eigentlich?
04:43
Und was tun, wenn wir nicht recht weiter wissen? Wir machen Gesetze. Zum Beispiel die DSGVO. Noch mehr Kekse, soweit das Auge reicht. Lasst uns einfache Gesetze machen. Und Isaac Asimov hat bereits in den 40er Jahren mit den drei Gesetzen der Robotik hervorragende Vorarbeit geleistet,
05:03
die in Anlehnung ich ein bisschen persivieren möchte, nämlich das erste Gesetz, eine KI. Darf Menschen niemals töten, verletzen oder Schaden zufügen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird. Das zweite Gesetz, jede KI muss die privaten Daten eines jeden Menschen mit dem eigenen virtuellen Leben und Leben, Leib und Leben schützen,
05:23
es sei denn, sie würde damit gegen das erste Gesetz verstoßen. Und das dritte Gesetz, eine KI muss ihre eigene Sicherheit gegen Viren und staatliche Trojaner schützen, solange dies nicht gegen das erste oder zweite Gesetz verstößt. Keine weiteren Fragen, vielen Dank.
Recommendations
Series of 4 media
Series of 79 media
Series of 2 media