Woche 10 : Wie war das nochmal?
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Subtitle |
| |
Title of Series | ||
Number of Parts | 79 | |
Author | 0000-0002-8080-349X (ORCID) | |
License | CC Attribution 4.0 International: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/65519 (DOI) | |
Publisher | ||
Release Date | ||
Language | ||
Production Year | 2023 | |
Production Place | Heinrich-Heine-Universität Düsseldorf |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
| |
Keywords |
12
17
18
34
36
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
56
58
59
61
63
66
67
68
69
71
74
75
78
79
00:00
Bubble memoryZifferProfessional network serviceMathematicsForm (programming)Classical physicsRow (database)Scientific modellingArtificial intelligenceoutputSocial classInformationAndroid (robot)PasswordMachine learningArray data structurePlane (geometry)ParallelenProcess (computing)Physical lawAlgorithmPixelPhysical quantityZahlJSONXMLComputer animationLecture/ConferenceMeeting/Interview
06:08
RoboticsArtificial intelligenceComputer animation
06:18
XMLComputer animation
Transcript: German(auto-generated)
00:10
Zu Beginn dieses Kurses haben wir bereits darüber gesprochen, dass das Bild von künstlicher Intelligenz in Literatur, Film und Fernsehen, aber auch das öffentliche Bild von künstlicher Intelligenz nicht unbedingt mit dem übereinstimmt, was künstliche Intelligenz aktuell tatsächlich
00:23
leisten kann. Stichwort stark und schwache KI. Gerne werden beispielsweise humanoide Roboter oder diverse Formen oder Bilder von Gehirnen mit künstlicher Intelligenz assoziiert. Insbesondere die Gehirn-Assoziationen mögen vielleicht an dem Begriff der Intelligenz liegen, aber auch neuronale Netzwerke als Modelle des Deep Learnings spielen hier
00:42
vielleicht mit hinein. Über Deep Learning und neuronale Netzwerke haben wir in Woche 3 dieses Kurses schon mal gesprochen. Da das schon eine ganze Weile her ist, hier noch mal eine kurze Wiederholung. Deep Learning, auch tiefes Lernen, ist ein Teilgebiet des maschinellen Lernens, das auf großen Datenmengen basiert. Die hier verwendeten
01:03
Algorithmen sind vom menschlichen Gehirn und von seinen Neuronen inspiriert, was sich in den typischer Weise für Deep Learning verwendeten Modellen den neuronalen Netzwerken widerspiegelt. Mithilfe von neuronalen Netzwerken können übrigens Supervised Learning, Unsupervised Learning und Reinforcement Learning realisiert werden. Genau wie mit
01:22
den statistischen Lernmethoden des klassischeren bzw. traditionelleren Feldes des maschinellen Lernens. Der Name neuronale Netzwerke kommt zwar von den biologischen neuronalen Netzwerken im menschlichen Gehirn, jedoch kann das künstliche Pendant die komplexen biologischen Prozesse in der Regel nicht bzw. nicht vollständig imitieren. Trotzdem gibt es
01:42
gewisse Parallelen. Im menschlichen Gehirn werden beispielsweise Informationen von Neuronen zu Neuronen weitergeleitet und etwas ganz ähnliches passiert auch in einem künstlichen neuronalen Netzwerk. Ein Neuron in einer Schicht oder auch Layer bekommt Informationen von Neuronen aus dem vorherigen Layer und leitet diese an Neuronen im nächsten Layer weiter. Auch diese Layer bzw. den groben Aufbau eines künstlichen neuronalen Netzwerks kennst
02:05
du bereits. Im sogenannten Input Layer werden Daten eingelesen. Hier entspricht ein Datenpunkt einem Knoten. Der Output Layer liefert ein Ergebnis, wie sagen wir beispielsweise eine Klassifikation eines Inputs als Hund oder Katze. Ein Knoten entspricht hier einer Klasse.
02:23
Zwischen dem Input Layer und dem Output Layer liegen die sogenannten Hidden Layers. Hier werden verschiedene Features der Daten extrahiert. Und je weiter wir das Netzwerk von links nach rechts durchlaufen, desto komplexer bzw. detaillierter werden diese Features. Den Aufbau der neuronalen Netzwerke schauen wir uns in dieser Woche nochmal näher an. Und wir gehen auch näher darauf ein, wie diese Netzwerke funktionieren.
02:43
Es ist vielleicht keine Überraschung, dass das etwas mit Mathematik zu tun hat. Und daher erläutern wir dir exemplarisch und vereinfacht auch die grundlegende Mathematik hinter den neuronalen Netzwerken. Neben der Mathematik schauen wir uns in dieser Woche außerdem an, wie man neuronale Netzwerke in Peifen realisieren kann. Und zwar am Beispiel
03:01
eines echten Klassikers unter den Datensätzen des maschinellen Lernens. Und der hat etwas mit Ziffern und Graustufenbildern zu tun. Du lernst in dieser Woche den sogenannten MNIST-Datensatz kennen. Dabei handelt es sich um eine große Sammlung von Bildern, groß hier im Sinne von 70.000 Bildern von handgeschriebenen Ziffern. Diese Ziffern
03:23
liegen als Graustufenbilder mit 28 x 28 Pixeln vor. Ähnlich wie die neuronalen Netzwerke sind ihr Graustufenbilder auch schon im Verlauf dieses Kurses begegnet, und zwar auch ziemlich am Anfang. Daher hier nochmal die eigentlich gar nicht so graue Theorie dazu. Bilder, genau wie zum Beispiel Texte, sind unstrukturierte Daten. Du weißt
03:42
bereits, dass wir unstrukturierten Daten eine Art Struktur geben müssen, damit wir sie überhaupt verarbeiten können. Bei Bildern können wir das mit Hilfe eines Rastas machen, indem wir die Bilder in Zeilen und Spalten aufteilen. Die so entstandenen Kästchen bezeichnet man als Pixel, die durch ein oder auch durch mehrere Zahlenwerte repräsentiert werden. Im Fall der Graustufenbilder werden die Pixel durch genau eine Zahl
04:02
repräsentiert, und zwar häufig durch eine Zahl zwischen 0 und 255. Daraus ergeben sich insgesamt 256 verschiedene Grauabstufungen, bei denen der Wert 0 schwarz repräsentiert und der Wert 255 weiß. Eine so klare Schwarz-Weiß-Sichtweise beziehungsweise Trennung gibt es aber nicht überall im Bereich der künstlichen Intelligenz. Du kennst bereits einige ethische Aspekte
04:27
und Herausforderungen, die mit künstlicher Intelligenz einhergehen, und du weißt, dass es einiges zu beachten gibt. In der letzten Woche haben wir im Rahmen von Ethics Washing schon darüber gesprochen, dass, um das Befolgen von ethischen Leitlinien sicherzustellen, eventuell auch klare Gesetze zu künstlicher Intelligenz sinnvoll sein könnten. In dieser
04:44
und den nächsten Wochen wollen wir uns nun etwas näher mit den rechtlichen Aspekten und Herausforderungen von künstlicher Intelligenz beschäftigen, denn künstliche Intelligenz interagiert auf vielfältige Art und Weise mit allen drei Bereichen, in die sich die Rechtswissenschaften typischerweise einteilen lassen. Wir schauen uns in dieser Woche daher
05:01
etwas näher an, womit sich diese drei Bereiche, nämlich das öffentliche Recht, das Strafrecht und das Zivilrecht beschäftigen und wo Berührungspunkte mit künstlicher Intelligenz beispielsweise liegen könnten. Und wir schauen uns auch an, wie künstliche Intelligenz durch die Europäische Union reguliert wird. In dieser Woche beschäftigen
05:23
wir uns also mit einem echten Passwort der künstlichen Intelligenz, den neuronellen Netzwerken. Du erfährst Näheres über ihren Aufbau und über ihre Funktionsweise und wir zeigen dir auch, wie man neuronale Netzwerke in Peifen umsetzen kann. Des Weiteren beschäftigen wir uns in dieser Woche näher mit den rechtlichen Herausforderungen der künstlichen
05:40
Intelligenz auf nationaler und auf europäischer Ebene. Abschließend zeigen wir dir im Bereich der Anwendungsbeispiele unter anderem noch eine Plattform, auf der du selbst mit wenig Aufwand mit neuronalen Netzwerken spielen kannst. Hier lassen sich ganz kompliziert beispielsweise die Anzahl der einbezogenen Layer oder auch die Anzahl der einbezogene Neurone variieren und du kannst dir dann auch direkt anschauen,
06:00
wie sich das auf die Leistung des neuronalen Netzwerks auswirkt. Viel Spaß also mit den künstlichen neuronalen Netzwerken und in Woche 10.