Summen- und Produktregel
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Subtitle |
| |
Title of Series | ||
Part Number | 9 | |
Number of Parts | 11 | |
Author | ||
License | CC Attribution - NonCommercial - NoDerivatives 3.0 Germany: You are free to use, copy, distribute and transmit the work or content in unchanged form for any legal and non-commercial purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/68289 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | |
Genre |
Differenzierbarkeit9 / 11
1
2
3
4
5
7
8
9
10
11
00:00
Beta functionSummenregelFunction (mathematics)ZahlSubsetDifferential (mechanical device)NumberIdentität <Mathematik>Derived set (mathematics)Total S.A.Matrix (mathematics)Nichtlineares GleichungssystemDimension 1Similarity (geometry)Rule of inferenceFunctional (mathematics)LinearizationCombinatory logicAlpha (investment)Multiplication signNormal (geometry)Numerical analysisTerm (mathematics)DivisorDerivation (linguistics)Point (geometry)Matrix (mathematics)Identical particlesProduct (business)MultiplicationComputer animation
06:14
Normal (geometry)Multiplication signMaß <Mathematik>Vector spaceDerivation (linguistics)Direction (geometry)Matrix (mathematics)Functional (mathematics)Identical particlesMultiplicationTerm (mathematics)DivisorNichtlineares GleichungssystemProduct (business)AdditionLemma (mathematics)ExpressionOperator (mathematics)Numerical analysisRule of inferenceLinear equationDerived set (mathematics)FactorizationZahlLinear mapMatrix (mathematics)EquationComputer animation
12:28
SineDerived set (mathematics)SineFunction (mathematics)Connected spacePartial derivativeTerm (mathematics)Connectivity (graph theory)Multiplication signPower (physics)Trigonometric functionsFunctional (mathematics)Derivation (linguistics)Point (geometry)Product (business)Rule of inferenceComputer animation
Transcript: German(auto-generated)
00:01
Für die totale Ableitung gelten ähnliche Regeln, wie auch im Eindimensionalen. Das heißt, wir haben auf alle Fälle mal eine Summenregel. Nehmen wir zwei Funktionen f und g, definiert auf einer Teilmenge auf dem r hoch n in den r hoch m, die total differenzierbar sind in einem Punkt a.
00:23
Dann ist auch jede Linearkombination alpha f plus beta g total differenzierbar in a. Und wir können das Differential bilden, das totale Differential dieser Linearkombination als die Linearkombination der beiden Differentiale von f und g an dieser Stelle.
00:46
Und auch eine Produktregel gibt es, die kann natürlich nur gelten, wenn f und g reelle Werte haben, sodass man die Funktionswerte auch wirklich miteinander multiplizieren kann.
01:01
Sind dann f und g, also Funktionen von m nach r total differenzierbar in a. Dann ist auch das Produkt f mal g total differenzierbar in a. Und die totale Ableitung bestimmt sich nach der Produktregel.
01:20
Das heißt, die Ableitung ist g von a mal die Ableitung von f an der Stelle a plus f von a mal die Ableitung von g an der Stelle a. Ich will Ihnen beides kurz beweisen. Fangen wir an mit der Summenregel. Wenn wir wissen, dass f und g beide total differenzierbar sind in a,
01:49
dann heißt es, es existieren solche Funktionen phi und psi von m in den hoch m, die stetig sind in a und dort den Funktionswert 0 haben,
02:07
also phi von a gleich 0 gleich psi von a. Und außerdem gibt es natürlich die totalen Ableitungen L, das ist df von a und m, das ist dg von a
02:25
und das sind m Kreuz n Matrizen. Und die gibt es derart, dass wir eben die definierenden Identitäten haben, das heißt f von x ist f von a plus L mal x minus a plus x minus a mal phi von x und g von x,
02:51
dass ist dasselbe g von a plus dann haben wir die Ableitung m mal x minus a plus die Norm von x minus a mal psi von x.
03:09
Ja und wenn wir diese beiden Gleichungen kombinieren, dann kriegen wir für alpha f plus beta g von x raus,
03:23
dabei sind alpha und beta beliebige reelle Zahlen, dass das alpha f plus beta g von a ist, ich nehme die erste Zahl hier mal alpha, die zweite mal beta und dann summiere ich sie einfach zusammen
03:42
und ordne das Ganze ein bisschen um, dann kriege ich plus alpha l plus beta m mal x minus a und dann habe ich die Norm von x minus a mal alpha phi plus beta psi von x.
04:03
Und das heißt alpha f plus beta g, das ist differenzierbar und zwar total differenzierbar in a mit d alpha f plus beta g.
04:26
An der Stelle a ist genauso wie wir es hier angegeben haben, nämlich alpha l plus beta m. Jetzt setzen sie für l und m dfa und dga ein und sie haben die Behauptung in a.
04:44
So für b, da nehmen wir diese zwei definierenden Gleichungen, beachten dass das alles Zahlen hier sind, ja also l mal x minus a das ist eine Zahl etc. und multiplizieren die einfach miteinander.
05:04
Also aus den Identitäten für die totale Ableitung von f und g in a folgt dann das f von x mal g von x.
05:28
Das ist gleich f von a mal g von a. So und jetzt sammle ich alles zusammen, was hier nur ein Vielfaches von x minus a ist.
05:41
Da kriege ich g von a mal l plus f von a mal m, das mal x minus a. Und dann kriege ich sehr viele Terme, die den Faktornorm von x minus a beinhalten,
06:01
nämlich g von a phi von x plus f von a psi von x plus l mal x minus a psi von x plus m mal x minus a mal phi von x.
06:25
Und dann kriege ich noch einen Term, in dem dieser Faktor nicht auftritt, bevor ich ihn aber künstlich erzeuge, das heißt ich muss hier erst mal x ungleich a wählen,
06:41
mal und dann habe ich hier zwei Matrixvektorprodukte, wobei l eben eine Zeile ist, das heißt das gibt eine Zahl und dann habe ich noch m mal x minus a, eine andere Zahl. So, das ist ein rattenlanger Schwanz, den ich irgendwie versorgen muss.
07:05
Ich möchte zunächst mal zeigen, dass durch diese Funktion, das ist ja der einzige Sommant hier in dem ganzen Ding, der für x gleich a nicht definiert ist, dass ich den stetig fortsetzen kann in x gleich a.
07:21
Dazu betrachte ich mal den Limes für x gegen a von diesem Ausdruck und damit ich das besser abschätzen kann,
07:42
möchte ich mal x minus a ersetzen durch die Norm von x minus a mal x minus a durch die Norm von x minus a, das heißt ich normiere den und das hier, das ist jetzt ein normierter Vektor, den nenne ich den Einheitsvektor in Richtung x minus a.
08:09
Wenn ich das mache, dann kann ich, weil diese Matrixvektormultiplikation ja linear ist, diesen Faktor rausziehen und bei m mal x minus a entsteht genau ein solcher noch mal.
08:22
Dann kriege ich hier den Limes und jetzt habe ich hier zwei Faktoren x minus a in der Norm, da hebt sich einer davon weg und ich behalte noch einen hier, x minus a in der Norm mal l e x minus a mal m e x minus a.
08:45
So, und jetzt habe ich hier zwei Matrixvektorprodukte und das ist betragsmäßig beschränkt. Zum Beispiel durch die Operatornormen von l und m, von diesen zwei Matrizen.
09:11
Und jetzt habe ich hier den Limes über etwas, das gegen null geht, mal etwas, was beschränkt ist und das muss null sein.
09:23
Das heißt, diese Funktion Stern hier ist stetig fortsetzbar in A mit Wert null.
09:45
So und wenn ich mir jetzt wiederum diese ganze Klammer hier, die große, anschaue, also diesen gesamten Term, dann weiß ich, dieser Term, der definiert nun eine Funktion, die stetig ist in A und mit welchem Wert,
10:20
also ich habe g von A, das ist eine Zahl, Phi ist stetig in A mit Wert null, also gibt das null.
10:26
F von A ist eine Zahl, mal Psi von A, Psi ist stetig in A mit Wert null, ist das auch null. Dann für x gleich a habe ich hier L mal null, mal Psi von A ist auch wieder null, ist alles null.
10:43
Für x gleich a ist dieser Term null und der hier existiert, das ist nämlich stetig, ist auch null. Von dem Term haben wir gerade gezeigt, er hat den Wert null in A, also ist das hier null. Das heißt, ich nehme das hier mal eine neue Funktion, groß Phi und diese Funktion groß Phi, die ist stetig in A mit Wert null.
11:10
Und jetzt schauen wir uns die Gleichung an, die hier steht. Wir haben f von x mal g von x, gleich f von a, g von a plus eine lineare Abbildung, mal x minus a plus Norm von x minus a,
11:29
mal einer Funktion groß Phi, die stetig ist in A und dort den Wert null annimmt. Das heißt, ich habe genau wieder die definierende Identität für die totale Ableitung von f mal g nachgerechnet.
11:59
Und mit was für einer linearen Abbildung habe ich das geschafft.
12:06
Das ist die hier oben und jetzt setze ich für L wieder das ein, was wir hatten. Das war die Ableitung von f an der Stelle a und plus f von a mal m und m, das war die Ableitung von g an der Stelle a.
12:24
Und damit ist auch die Produktregel bewiesen. Probieren wir die Produktregel an einem Beispiel aus. Sagen wir h, eine Funktion auf dem R2 mit Werten in R, ist gegeben als x1² mal cos x2 plus e hoch x1.
12:46
Dann ist das ein Produkt aus f mal g, wobei f eben x schickt auf x1² und g x auf cos x2 plus e hoch x1.
13:00
Das sind alles Funktionen, Polinom, Cosinus, E-Funktionen, die sind differenzierbar und sogar stetig differenzierbar. In dem Sinne existieren alle partiellen Ableitungen von all diesen Dingen und sind stetig. Das heißt, alle Funktionen sind auch wirklich total differenzierbar.
13:24
Und wir berechnen die Ableitungen in irgendeinem Punkt a. Wenn wir f differenzieren, nach x1 abgeleitet, gibt das 2x1. Ausgewertet in a ist das 2a1. Nach x2 differenziert ist das einfach 0.
13:44
Dann bestimmen wir die Ableitung von g in Punkt a. Nach x1 abgeleitet fällt dieser Term weg. Und hier steht wieder e hoch x1, also e hoch a1. Nach x2 abgeleitet fällt dieser Term weg und wir erhalten hier minus den Sinus von x2.
14:06
Ausgewertet in a, also den Sinus von a2 mit einem Minus. Ja, und dann ist df, nein dh ist das ja dann. Dh von a ausgerechnet mit der Produktregel ist das also g von a.
14:31
Das ist Cosinus von a2 plus e hoch a1 mal dfa, also 2a1 null, plus f von a, das ist a1²,
14:52
und mal die Ableitung dg von a, ea1, minus Sinus a2, sprich das ist 2a1 plus a1² mal e hoch a1 plus 2a1.
15:18
Cosinus a2 und in der zweiten Komponente ein Minus a1² Sinus a2.
15:31
Natürlich können wir das auch direkt ausrechnen, weil wir die partiellen Ableitungen wunderbar bilden können.
15:41
Also bilden wir sie direkt. Dann erhalten wir hier nach x1 das Ding abgeleitet und in a ausgewertet 2a1 mal Cosinus a2 plus e hoch a1 plus a1².
16:07
Und der Cosinus in x2 nach x1 abgeleitet gibt 0 und dann haben wir hier noch e hoch a1. Und die zweite Komponente dieser Ableitung, das ist die Ableitung dieses Dinges nach x2, das gibt Minus x1².
16:31
Schreiben wir ab, werten es aber in a aus und Sinus von a2. Und da sehen wir, das stimmt wirklich überein.