We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Woche 10 : Wie war das nochmal?

00:00

Formal Metadata

Title
Woche 10 : Wie war das nochmal?
Subtitle
Überblick und Ausblick
Title of Series
Number of Parts
79
Author
License
CC Attribution 4.0 International:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language
Production Year2023
Production PlaceHeinrich-Heine-Universität Düsseldorf

Content Metadata

Subject Area
Genre
Abstract
In diesem Video werden die für Woche 10 wichtigen Inhalte aus den vergangenen Wochen wiederholt und ein kurzer Ausblick auf die Inhalte der zehnten Woche gegeben sowie Verbindungen zwischen den Inhalten aufgezeigt. Lernziele: Du erinnerst die Definition von Deep Learning Du erinnerst wichtige Inhalte zu Neuronalen Netzwerken Du erinnerst, was Graustufenbilder sind Du vollziehst die Zusammenhänge zwischen den Inhalten nach
Keywords
Bubble memoryZifferProfessional network serviceMathematicsForm (programming)Classical physicsRow (database)Scientific modellingArtificial intelligenceoutputSocial classInformationAndroid (robot)PasswordMachine learningArray data structurePlane (geometry)ParallelenProcess (computing)Physical lawAlgorithmPixelPhysical quantityZahlJSONXMLComputer animationLecture/ConferenceMeeting/Interview
RoboticsArtificial intelligenceComputer animation
XMLComputer animation
Transcript: German(auto-generated)
Zu Beginn dieses Kurses haben wir bereits darüber gesprochen, dass das Bild von künstlicher Intelligenz in Literatur, Film und Fernsehen, aber auch das öffentliche Bild von künstlicher Intelligenz nicht unbedingt mit dem übereinstimmt, was künstliche Intelligenz aktuell tatsächlich
leisten kann. Stichwort stark und schwache KI. Gerne werden beispielsweise humanoide Roboter oder diverse Formen oder Bilder von Gehirnen mit künstlicher Intelligenz assoziiert. Insbesondere die Gehirn-Assoziationen mögen vielleicht an dem Begriff der Intelligenz liegen, aber auch neuronale Netzwerke als Modelle des Deep Learnings spielen hier
vielleicht mit hinein. Über Deep Learning und neuronale Netzwerke haben wir in Woche 3 dieses Kurses schon mal gesprochen. Da das schon eine ganze Weile her ist, hier noch mal eine kurze Wiederholung. Deep Learning, auch tiefes Lernen, ist ein Teilgebiet des maschinellen Lernens, das auf großen Datenmengen basiert. Die hier verwendeten
Algorithmen sind vom menschlichen Gehirn und von seinen Neuronen inspiriert, was sich in den typischer Weise für Deep Learning verwendeten Modellen den neuronalen Netzwerken widerspiegelt. Mithilfe von neuronalen Netzwerken können übrigens Supervised Learning, Unsupervised Learning und Reinforcement Learning realisiert werden. Genau wie mit
den statistischen Lernmethoden des klassischeren bzw. traditionelleren Feldes des maschinellen Lernens. Der Name neuronale Netzwerke kommt zwar von den biologischen neuronalen Netzwerken im menschlichen Gehirn, jedoch kann das künstliche Pendant die komplexen biologischen Prozesse in der Regel nicht bzw. nicht vollständig imitieren. Trotzdem gibt es
gewisse Parallelen. Im menschlichen Gehirn werden beispielsweise Informationen von Neuronen zu Neuronen weitergeleitet und etwas ganz ähnliches passiert auch in einem künstlichen neuronalen Netzwerk. Ein Neuron in einer Schicht oder auch Layer bekommt Informationen von Neuronen aus dem vorherigen Layer und leitet diese an Neuronen im nächsten Layer weiter. Auch diese Layer bzw. den groben Aufbau eines künstlichen neuronalen Netzwerks kennst
du bereits. Im sogenannten Input Layer werden Daten eingelesen. Hier entspricht ein Datenpunkt einem Knoten. Der Output Layer liefert ein Ergebnis, wie sagen wir beispielsweise eine Klassifikation eines Inputs als Hund oder Katze. Ein Knoten entspricht hier einer Klasse.
Zwischen dem Input Layer und dem Output Layer liegen die sogenannten Hidden Layers. Hier werden verschiedene Features der Daten extrahiert. Und je weiter wir das Netzwerk von links nach rechts durchlaufen, desto komplexer bzw. detaillierter werden diese Features. Den Aufbau der neuronalen Netzwerke schauen wir uns in dieser Woche nochmal näher an. Und wir gehen auch näher darauf ein, wie diese Netzwerke funktionieren.
Es ist vielleicht keine Überraschung, dass das etwas mit Mathematik zu tun hat. Und daher erläutern wir dir exemplarisch und vereinfacht auch die grundlegende Mathematik hinter den neuronalen Netzwerken. Neben der Mathematik schauen wir uns in dieser Woche außerdem an, wie man neuronale Netzwerke in Peifen realisieren kann. Und zwar am Beispiel
eines echten Klassikers unter den Datensätzen des maschinellen Lernens. Und der hat etwas mit Ziffern und Graustufenbildern zu tun. Du lernst in dieser Woche den sogenannten MNIST-Datensatz kennen. Dabei handelt es sich um eine große Sammlung von Bildern, groß hier im Sinne von 70.000 Bildern von handgeschriebenen Ziffern. Diese Ziffern
liegen als Graustufenbilder mit 28 x 28 Pixeln vor. Ähnlich wie die neuronalen Netzwerke sind ihr Graustufenbilder auch schon im Verlauf dieses Kurses begegnet, und zwar auch ziemlich am Anfang. Daher hier nochmal die eigentlich gar nicht so graue Theorie dazu. Bilder, genau wie zum Beispiel Texte, sind unstrukturierte Daten. Du weißt
bereits, dass wir unstrukturierten Daten eine Art Struktur geben müssen, damit wir sie überhaupt verarbeiten können. Bei Bildern können wir das mit Hilfe eines Rastas machen, indem wir die Bilder in Zeilen und Spalten aufteilen. Die so entstandenen Kästchen bezeichnet man als Pixel, die durch ein oder auch durch mehrere Zahlenwerte repräsentiert werden. Im Fall der Graustufenbilder werden die Pixel durch genau eine Zahl
repräsentiert, und zwar häufig durch eine Zahl zwischen 0 und 255. Daraus ergeben sich insgesamt 256 verschiedene Grauabstufungen, bei denen der Wert 0 schwarz repräsentiert und der Wert 255 weiß. Eine so klare Schwarz-Weiß-Sichtweise beziehungsweise Trennung gibt es aber nicht überall im Bereich der künstlichen Intelligenz. Du kennst bereits einige ethische Aspekte
und Herausforderungen, die mit künstlicher Intelligenz einhergehen, und du weißt, dass es einiges zu beachten gibt. In der letzten Woche haben wir im Rahmen von Ethics Washing schon darüber gesprochen, dass, um das Befolgen von ethischen Leitlinien sicherzustellen, eventuell auch klare Gesetze zu künstlicher Intelligenz sinnvoll sein könnten. In dieser
und den nächsten Wochen wollen wir uns nun etwas näher mit den rechtlichen Aspekten und Herausforderungen von künstlicher Intelligenz beschäftigen, denn künstliche Intelligenz interagiert auf vielfältige Art und Weise mit allen drei Bereichen, in die sich die Rechtswissenschaften typischerweise einteilen lassen. Wir schauen uns in dieser Woche daher
etwas näher an, womit sich diese drei Bereiche, nämlich das öffentliche Recht, das Strafrecht und das Zivilrecht beschäftigen und wo Berührungspunkte mit künstlicher Intelligenz beispielsweise liegen könnten. Und wir schauen uns auch an, wie künstliche Intelligenz durch die Europäische Union reguliert wird. In dieser Woche beschäftigen
wir uns also mit einem echten Passwort der künstlichen Intelligenz, den neuronellen Netzwerken. Du erfährst Näheres über ihren Aufbau und über ihre Funktionsweise und wir zeigen dir auch, wie man neuronale Netzwerke in Peifen umsetzen kann. Des Weiteren beschäftigen wir uns in dieser Woche näher mit den rechtlichen Herausforderungen der künstlichen
Intelligenz auf nationaler und auf europäischer Ebene. Abschließend zeigen wir dir im Bereich der Anwendungsbeispiele unter anderem noch eine Plattform, auf der du selbst mit wenig Aufwand mit neuronalen Netzwerken spielen kannst. Hier lassen sich ganz kompliziert beispielsweise die Anzahl der einbezogenen Layer oder auch die Anzahl der einbezogene Neurone variieren und du kannst dir dann auch direkt anschauen,
wie sich das auf die Leistung des neuronalen Netzwerks auswirkt. Viel Spaß also mit den künstlichen neuronalen Netzwerken und in Woche 10.