Du kennst jetzt das Verfahren eines einzelnen decision trees. In diesem Video befassen wir uns weiter mit Baum-basierten Verfahren, und zwar einer speziellen Form des Entscheidungswaldes, dem random forest. Wir lernen wichtige Konzepte (bagging, random feature subspacing) dieses Verfahrens kennen und vollziehen anhand eines kleinen Zahlenbeispiels nach, wie hier die Prognose erfolgt. Wir werden auch die Wahl der Hyperparameter besprechen und dabei auch auf den damit verbundenen und bereits angesprochenen Trade-off zwischen Verzerrung und Varianz eingehen. Zuletzt diskutieren wir kurz einige Vor- und Nachteile des random forests.
Nach diesem Video kannst du ...
... die Konzepte bagging und random feature subspacing erläutern.
... anhand eines einfachen Beispiels den prognostizierten Output für eine neue Beobachtung bestimmen.
... die Problematik bei der Wahl der Hyperparameter erläutern.
... Vor- und Nachteile eines random forests erläutern. |