We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Theorie - Optimierung & Wandern mit Gradientenabstieg

Formal Metadata

Title
Theorie - Optimierung & Wandern mit Gradientenabstieg
Title of Series
Number of Parts
79
Author
License
CC Attribution 4.0 International:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date2023
LanguageGerman
Production Year2023
Production PlaceHeinrich-Heine-Universität Düsseldorf

Content Metadata

Subject Area
Genre
Abstract
In diesem Video schauen wir uns den Aufbau der Verlustfunktion oder Loss Function genauer an, wiederholen was eigentlich nochmal ein Gradient ist und bekommen eine Intuition dafür, wie die Optimierung eines neuronalen Netzwerkes funktioniert. Außerdem werfen wir einen etwas genaueren Blick auf den Trainingsprozess und lernen Kriterien dafür kennen, wann man ihn am besten stoppt. Lernziele: Du erklärst die Interpretation der Verlustfunktion, z.B. anhand des Klassifikationsproblems in Hunde- und Katzenbilder beim Überwachten Lernen Du erklärst, aus welchen Komponenten der Gradient einer Funktion besteht Du beschreibst die Intuition hinter der Optimierungsmethode des (Stochastischen) Gradientenabstiegs Du erläuterst den Ablauf des Trainings grob Du gibst Beispiele für Stopp-Kriterien des Trainings
Keywords