We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Theorie - Optimierung & Wandern mit Gradientenabstieg

Formale Metadaten

Titel
Theorie - Optimierung & Wandern mit Gradientenabstieg
Serientitel
Anzahl der Teile
79
Autor
Lizenz
CC-Namensnennung 4.0 International:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
Identifikatoren
Herausgeber
Erscheinungsjahr2023
SpracheDeutsch
Produktionsjahr2023
ProduktionsortHeinrich-Heine-Universität Düsseldorf

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
In diesem Video schauen wir uns den Aufbau der Verlustfunktion oder Loss Function genauer an, wiederholen was eigentlich nochmal ein Gradient ist und bekommen eine Intuition dafür, wie die Optimierung eines neuronalen Netzwerkes funktioniert. Außerdem werfen wir einen etwas genaueren Blick auf den Trainingsprozess und lernen Kriterien dafür kennen, wann man ihn am besten stoppt. Lernziele: Du erklärst die Interpretation der Verlustfunktion, z.B. anhand des Klassifikationsproblems in Hunde- und Katzenbilder beim Überwachten Lernen Du erklärst, aus welchen Komponenten der Gradient einer Funktion besteht Du beschreibst die Intuition hinter der Optimierungsmethode des (Stochastischen) Gradientenabstiegs Du erläuterst den Ablauf des Trainings grob Du gibst Beispiele für Stopp-Kriterien des Trainings
Schlagwörter