We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Neuronale Netze – Teil 2

Formale Metadaten

Titel
Neuronale Netze – Teil 2
Untertitel
Themenblock Prognosemodelle
Alternativer Titel
02_03Verfahren_NeuronaleNetze_02_v2_UT_de
Serientitel
Anzahl der Teile
77
Autor
Lizenz
CC-Namensnennung 4.0 International:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache
Produktionsjahr2024
ProduktionsortHeinrich-Heine-Universität Düsseldorf

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
Du kennst nun den Aufbau und die Funktionsweise neuronaler Netze. In diesem Video befassen wir uns diesmal insbesondere mit der Verlustfunktion, um den Fehler bei der Prognose zu bestimmen. Anhand eines Daten- bzw. Zahlenbeispiels lernen wir die Idee und Vorgehensweise der Verlustfunktion kennen. Darüber hinaus beschäftigen wir uns mit den Methoden des Gradientenabstiegs und insbesondere der Backpropagation, mit deren Hilfe das Netz lernt. Wir werden auch die Wahl der Hyperparameter besprechen und dabei auch auf den damit verbundenen und bereits angesprochenen Trade-off zwischen Verzerrung und Varianz eingehen. Abschließend diskutieren wir kurz einige Vor- und Nachteile neuronaler Netze. Nach diesem Video kannst du ... ... den Verlust anhand eines einfachen Beispiels einordnen. ... den Prozess, wie ein neuronales Netz lernt (insbesondere die Backpropagation), erläutern. ... die Problematik bei der Wahl der Hyperparameter erläutern. ... Vor- und Nachteile neuronaler Netze erläutern.
Schlagwörter