10. Vorlesung: Satz von Schwarz und totale Ableitung
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Part Number | 10 | |
Number of Parts | 26 | |
Author | ||
License | CC Attribution - ShareAlike 4.0 International: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this | |
Identifiers | 10.5446/17116 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | |
Genre |
Analysis II SS 201610 / 26
1
6
9
12
13
14
15
16
17
19
21
22
24
25
26
00:00
MathematicsDerived set (mathematics)Mathematical analysisContinuous functionInferenceFunction (mathematics)Differentiable functionVariable (mathematics)Derived set (mathematics)Direction (geometry)Continuous functionMoment (mathematics)RichtungsableitungGradientComputer animation
02:42
Mathematical analysisMathematicsHydraulic jumpMoving averageSubsetZusammenhang <Mathematik>Differentiable functionState of matterQuotientFunction (mathematics)Derived set (mathematics)TangentDirection (geometry)Abbildung <Physik>IndexAbsolute valueSquareNorm <Mathematik>Coordinate systemVector graphicsVariable (mathematics)HöheThomas BayesModulformDot productMatrix (mathematics)LinieNetwork topologyMoment (mathematics)Nichtlineares GleichungssystemDifference quotientApproximationHaar measureMathematicsMatrix (mathematics)Differentiable functionLinear mapPartial derivativeBasis (linear algebra)ZahlPartial derivativeDifferential calculusCounterexampleAverageNumberPlane (geometry)Hausdorff spaceDifferential calculusEuclidean vectorGlatte FunktionLimit of a functionRollbewegungQuadratic formDifferenzierbare AbbildungSymmetric matrixOpen setObstruktion <Mathematik>Set (mathematics)Sierpinski triangleFactorizationLogical constantEquationDimension 1HexagonMatrix (mathematics)Correspondence (mathematics)Continuous functionCodomainExponentiationWiener filterGebiet <Mathematik>AdditionRichtungsableitungGrand Unified TheoryLimit (category theory)Bruch <Mathematik>Parameter (computer programming)DarstellungsmatrixCalculationTotal S.A.Physical quantityFunktionalanalysisLaurent seriesFeld <Mathematik>Ordnung nMean value theoremLineare FunktionGlattheit <Mathematik>Inequality (mathematics)Computer animation
Transcript: German(auto-generated)
00:07
So, ich würde dann gerne anfangen. Ich weiß, Sie wollen alle unbedingt die Rührungsblätter loswerden. Vielleicht, wir haben nachher noch die Pausezeit und am Schluss der Vorlesung können Sie da auch noch reinstecken. Der Florian kommt am Schluss der Vorlesung vorbei und holt die alle ab.
00:23
Genau, ja. Also es liegen da vorne Mappen für jede Gruppe. Eine bitte reinlegen und nicht drauf. Genau, damit man auch noch sieht, was was ist. Aber wie gesagt, bitte vielleicht da nachher in der Pause oder am Ende und nicht mehr jetzt, dass wir loslegen können.
00:47
Ich habe nochmal, neben einer komischen Update, Warnung.
01:01
So, ich habe nochmal mitgebracht das Beispiel, an dem wir uns am Ende der letzten, ne bitte jetzt nicht mehr. Jetzt werden bitte keine Übungen mehr abgegeben. Wir haben nachher noch die Pause, wir haben nachher noch nach der Vorlesung. Sonst gibt das hier ein unendliches Chaos.
01:22
Ich habe nochmal das Beispiel hier, also interessant ist im Moment das linke. Mit dem hatten wir uns am Schluss der letzten Vorlesung nochmal beschäftigt. Also eine Funktion in zwei Variablen, die kennen wir schon aus dem Kapitel über Stetigkeit. In dem haben wir festgestellt, die ist an der Stelle 0,0 unstetig.
01:44
Aber wir haben vielleicht zu erstaunen oder wie auch immer in der letzten Vorlesung festgestellt, das Ding ist 2,0,0 unstetig, aber partiell differenzierbar. Weil auf den Koordinatenachsen ist diese Funktion konstant 0 und deswegen,
02:02
wunderbar, eine konstante Nullfunktion kann man differenzieren, ist eine partiell differenzierbare Funktion. Das heißt, partiell differenzierbar allein ist nicht besonders interpretierbar. Also wenn ich weiß, eine Funktion ist partiell differenzierbar und der Gradient ist so wie hier 0, dann heißt das noch nicht viel.
02:24
Das sieht man auch, wenn man jetzt mal versucht bei dieser Funktion die anderen Richtungsableitungen zu bestimmen. Also die Richtungsableitungen in andere Richtungen als die Standardbasisvektoren.
02:46
Also wirkliche Richtungsableitungen und nicht partielle Ableitungen. Und dann stellt man fest, alle anderen Richtungsableitungen existieren gar nicht.
03:02
Also wenn ich mir irgendeine Richtung V aus dem R2 vorgebe und schaue, wann existiert im Ursprung die Richtungsableitung von dieser Funktion, schreibe die Funktion noch mal hin. Also f von xy ist x mal y durch x2 plus y2 außerhalb des Ursprungs und 0 im Ursprung.
03:39
Was heißt das? Dass die Richtungsableitung existiert.
03:45
Das heißt, es muss ein gewisser Grenzwert existieren. Der Grenzwert lims h gegen 0 von f, wenn ich an der Stelle 0 starte, die mich ja gerade interessiert und ein kleines Stückchen Richtung V laufe, minus f an der Stelle 0 durch h. Und das ist, wenn wir einsetzen, was dabei passiert, lims h gegen 0.
04:11
h mal v ist h mal v1 mal h mal v2. f von hv, wenn Sie für x h mal v1 und für y h mal v2 einsetzen,
04:30
kriegen Sie h mal v1 mal h mal v2 durch h mal v1² plus h mal v2². Das ist f von hv minus f von 0 geteilt durch h.
04:45
Und wenn wir das noch ein bisschen sortieren, steht hier lims h gegen 0. In dem Bruch oben links haben Sie oben h² und unten h². Das kürzt sich genau raus. Also was stehen bleibt, ist ein lims h gegen 0 von v1 v2 durch v1² plus v2² mal h.
05:12
Und der Grenzwert muss existieren. Und der existiert, wann existiert der? Wenn h gegen 0 geht, explodiert das ganze Teil, es sei denn, wir sind zufällig in dem Fall, dass v1 0 ist oder dass v2 0 ist.
05:30
Wenn v1 0 ist oder wenn v2 0 ist, dann ist das ein Grenzwert über Konstant 0, der existiert. Aber wenn der Zähler nicht 0 ist, dann existiert dieser Grenzwert nicht. Also der existiert nur, wenn v1 gleich 0 oder v2 gleich 0.
05:48
Das heißt, nur für Vielfache der Koordinateneinheitsvektoren. Also natürlich, wir haben schon gesehen, für 1 0 und für 0 1 existiert er und ist 0. Das Ding ist partiell differenzierbar und alle anderen Richtungsableitungen existieren nicht.
06:06
Es ist eben rein dazu, dadurch, dass man an der Stelle 0, die Funktion 0 setzt, sorgt man dafür, dass sie genau in diese beiden Richtungen stetig fortgesetzt ist und sonst keine. Und in diesen beiden Richtungen ist dadurch sogar differenzierbar. Aber die anderen Richtungsableitungen existieren alle nicht.
06:25
Jetzt könnte man auf die Idee kommen, naja gut, daran sieht man doch schon, dass hier was schief geht. Also man hat eine Funktion, da existieren zwar zufällig die beiden partiellen Ableitungen, aber die anderen Richtungsableitungen existieren nicht. Daran sieht man ja schon, dass es eine Dolmfunktion ist.
06:42
So einfach ist es aber nicht. Ich kann Ihnen problemlos eine Funktion hinmalen. Oder angeben, für die in 0 sämtliche Richtungsableitungen existieren, die aber trotzdem nicht stetig ist. Und die ist nicht mal so wahnsinnig kompliziert, die hat nur zwei Werte.
07:03
Machen Sie Folgendes, bevor ich es als Formel hinschreibe, male ich Sie lieber hin. Sie nehmen die Funktion, x geht über nach x², Standardparabe kennen Sie alle. Und Sie nehmen die Funktion, x geht über nach x³, also das ist x², das ist x³.
07:28
Und jetzt setzen Sie die Funktion hier 1, also auf diesem Mond, setzen Sie die Funktion 1 und überall sonst 0. Also wenn man es als Formel haben will, die Funktion ist 1 für x zwischen 0 und 1
07:48
und y zwischen x³ und x² und sonst 0. Diese Funktion ist im Ursprung nicht stetig, weil Sie können ja innerhalb des Monds in die 0 laufen,
08:06
dann haben Sie Konstant 1 oder Sie können von unten links in die 0 laufen, dann kommen Sie über den Konstant 1. So, jetzt machen Sie aber irgendeine Richtungsableitung in 0. Was heißt das? Sie gehen aus der 0 in irgendeine Richtung raus und gucken mal, was die Funktion da ist. Und egal in welche Richtung Sie gehen, die Funktion ist am Anfang immer 0.
08:27
Weil ja sowohl die x² als auch die x³ gehen hier aus dem Ursprung mit einer waagerechten Tangente raus. Das heißt, egal in welche Richtung Sie loslaufen, wenn das hier mal Ihr v ist,
08:41
dann laufen Sie zwar irgendwann durch den Mond durch, aber die ersten 25 Nanometer läuft die Funktion auf jeden Fall durch ein Stück, läuft diese Richtung auf jeden Fall durch ein Stück, wo die Funktion 0 ist. Also ist die Richtungsableitung in 0 für jede Richtung definiert und ist für jede Richtung 0. Aber die blöde Funktion ist nicht stetig.
09:03
Also, das Ding hier, da existieren in 00 alle Richtungsableitungen, sie sind alle 0, alle sind 0, aber auch das Ding ist nicht stetig.
09:28
Ja, also auch hier, wenn ich Ihnen jetzt sage, die Funktion hat in 0 alle Richtungsableitungen und die sind alle 0, daraus kann man nicht viel schließen.
09:41
Es könnte zum Beispiel immer noch so ein hässliches Teil sein. Also, was man aus diesem Beispiel mitnehmen sollte, ist partielle Ableitungen, partielle Ableitungen allein sind nicht geometrisch interpretierbar.
10:01
Wenn ich nur weiß, meine Funktion ist partiell differenzierbar und die partiellen Ableitungen sind irgendwas, dann heißt das noch nix. Man muss noch irgendwie ausschließen, dass man in so einem quatschigen Fall ist, entweder in sowas oder in so einem Fall.
10:22
Darum müssen wir uns noch kümmern. Aber bevor wir das machen, lassen Sie uns erst noch fertig machen, was man über partielle Ableitungen noch so sagen kann. Und das nächste Offensichtliche, was man jetzt natürlich tun kann, ist partielle Ableitungen wieder ableiten. Also, partielle Ableitungen höherer Ordnung anschauen.
10:40
Kein neuer Gedanke. Wir haben auch schon in der ANA 1 Ableitungen höherer Ordnung angeschaut. Wenn Sie partiell abgeleitet haben, gibt es eine partielle Ableitungsfunktion und da kann man versuchen, ob Sie wieder partiell ableiten. Das will ich jetzt als nächstes tun. Aber wichtig im Hinterkopf ist zu halten, um diese Problematik hier müssen wir uns noch kümmern.
11:01
Sonst sind partielle Ableitungen nichts wirklich interpretierbar. So, also, höhere Ableitungen. Definition 9, 14.
11:21
Also, wir wollen jetzt n mal ableiten. Und n soll größer gleich 2 sein. Wir wollen an einer Stelle x0 in g ableiten. Und zwar eine Funktion f von g nach rp. Zur Erinnerung, g ist in dem ganzen Kapitel grundsätzlich eine offene Teilmenge von f. So, Definition ist hoffentlich keine Überraschung.
11:48
Ich sage, die Funktion f ist n mal partiell differenzierbar oder auch stetig partiell differenzierbar.
12:00
An der Stelle x0, so wie wir es auch im Eindimensionalen definiert haben, wenn f schon n-1 mal stetig differenzierbar ist, also differenzierbar ist oder stetig differenzierbar ist, und die n-1. Ableitungsfunktion bei x0, ne, auf g natürlich,
12:24
die n-1. Ableitung muss auf g existieren, damit ich die nochmal ableiten kann. Zum Ableiten brauche ich ja Platz, muss ich ein Stück von meiner Stelle x0 weggehen können. Also, die muss n-1 mal stetig differenzierbar auf g sein. Und dann haben wir n-1. Partielle Ableitung.
12:44
Das ist im Service-Fall ganz schön viel, aber ist egal. Und alle diese n-1. Partielle Ableitungsfunktion, die müssen jetzt wieder partiell differenzierbar sein. Also, und alle n-1. Partielle Ableitung.
13:07
Wir haben ja schon die 1. Partielle Ableitung. Wenn Sie eine Funktion in D Variablen haben und die partiellen Ableitungen bestimmen, haben Sie D Stück nach der ersten Variable, nach der zweiten, nach der dritten. Jetzt können Sie jede dieser D, wenn Sie die 2. Ableitung betrachten, können Sie natürlich jede dieser D Ableitungen
13:21
wieder nach allen D Variablen ableiten, haben Sie schon D-Quadrat Partielle Ableitung. Das werden dann, wenn n groß ist, ganz schön viele. Also alle n-1. Partielle Ableitungen müssen in x0 partiell differenzierbar oder stetig partiell differenzierbar sein.
13:43
Ganz übliche recursive Definition. Irgendein Zeug ist fünfmal differenzierbar, wenn es viermal differenzierbar ist und die vierte Ableitung ist differenzierbar. Dann, das war im Punkt, jetzt wieder auf dem ganzen Gebiet. Also wir nennen das Ding n-mal stetig partiell differenzierbar auf g,
14:12
wenn f dies in allen x0 aus g ist. Auch das die übliche Definition.
14:20
Und schlussendlich will ich dann auch wieder die Notation einführen, für der räumestetig differenzierbarer Funktion, wenn wir eine Teilmenge h im RP haben und ein k aus n,
14:40
dann will ich schreiben C k von g h für die Menge der Funktion von g nach h, sodass f k mal stetig differenzierbar auf g ist. In Verallgemeinerung der Räume C k von einem Intervall
15:04
oder von einer Teilmenge von R, jetzt hier C k von einer Teilmenge von RD. Und weil die Funktionen jetzt natürlich in alle möglichen Zielräume gehen können, muss ich den, will ich den Zielraum jetzt hier in die Notation mit reinnehmen oder die Zielmenge in die Notation mit reinnehmen, deswegen C k von g und h. Und h, also das sind die Funktionen von g nach h,
15:23
die auf ganz g k mal stetig differenzierbar sind. Stetig partiell differenzierbar. Da geht es schon los. So, das andere haben wir ja noch nicht.
15:48
Die Definition an sich ist, denke ich, konzeptionell nicht besonders schwer. Wir leiten halt die Ableitungsfunktion wieder an. Das Problem liegt wie immer in der anderzweiligen Konzept, sondern in der Notation. Jetzt müssen wir diese blöden 15. Ableitungen irgendwie hinschreiben.
16:01
Mit dem Problem werden wir uns jetzt noch eine ganze Zeit herum rumschlagen und so richtig perfekt ist es auch nicht. Sie haben schon gesehen, für partielle Ableitungen gibt es eine ganze Menge Notation. Und in jeder Notation gibt es natürlich auch die Frage, wie notiere ich jetzt höhere Ableitungen. Im Prinzip einfach durcheinander schreiben von den einzelnen Ableitungen.
16:24
Also zum Beispiel kann dann da sowas stehen, d1, d3, d1f. Manchmal kürzt man auch ein bisschen ab, wenn man sehr oft nach der gleichen Variable ableitet. Also wenn Sie sowas sehen, d2 hoch 3, d1f, dann heißt das, leiten Sie f nach der ersten Koordinate ab und dann noch 3 mal nach der zweiten.
16:42
Also diese Potenz da oben ist sozusagen eine Potenz, da steht d2 hoch 3, d2, d2, d2, d1f. Das ist eine vierte partielle Ableitung von f, und zwar einmal nach der ersten Koordinaten und dann noch 3 mal nach der zweiten. Und das andere ist eine dritte, einmal nach der ersten, das Ergebnis nach der dritten Variable und das Ergebnis wieder nach der ersten Variable.
17:02
So, das wäre jetzt in meiner Lieblingsnotation. Wir hatten noch andere. Zum Beispiel können Sie auch sowas mal im Büchern finden, d hoch 3f durch dx1, dx2². Damit ist gemeint eine dritte partielle Ableitung von f.
17:22
Oben wird sozusagen die Gesamtordnung gezählt, wie viel oft wird insgesamt abgeleitet, und unten sehen Sie 2 mal nach x2 und dann einmal nach x1. Oder dann hatten wir noch die Indexnotation, zum Beispiel könnte Ihnen auch sowas hier begegnen.
17:43
f mit Index x1, x2, x1 ist auch eine dritte partielle Ableitung. Erst nach x1, dann nach x2, dann nach x1. Wenn es denn nötig ist, sollte ich noch Ihnen sagen, wie man das klammert. Also wenn ich sowas schreibe, d1, d2f,
18:01
dann ist damit gemeint, so wie ich es gerade schon gesagt habe, nehmen Sie f, leiten Sie nach der zweiten Koordinaten ab und das Ergebnis nach der ersten. Bei der zweiten Notation, wenn ich sowas schreibe wie d²f nach dx1, dx2, dann ist damit gemeint, nehmen Sie die Ableitung nach dx2,
18:23
also die Ableitung nach der zweiten Koordinaten und leiten Sie das dann nach der ersten Koordinaten ab. Und in der dritten, wenn ich sowas schreibe wie fx1, x2, ist damit gemeint, nehmen Sie f und leiten es nach x1 ab und das Ergebnis nach x2 ab.
18:43
Das sind in der Ableitung höhere Ordnung. Die Ableitungen werden halt wieder abgeleitet. Und jetzt muss man immer mitprotokollieren, wie oft welche Variable und auch noch in welcher Reihenfolge.
19:01
Da kommt man nicht wirklich drum herum. Es gibt so viele Variable, und also muss man sie eben mitprotokollieren, wie oft man nach welcher Variable ableitet. Ich habe eine gute Nachricht für Sie. In den meisten Fällen können Sie schlurig sein mit der Reihenfolge. Schauen wir uns einfach mal ein Beispiel an. Beispiel 915.
19:21
Bestimmen wir mal ein paar höhere Ableitungen von einer Funktion. Also eine Funktion von r2 nach r, f von xy, mal irgendwas, was man schön ableiten kann, x hoch 3y plus x, x mal e hoch y.
19:43
So. Und davon kann man jetzt wunderbar partielle Ableitungen bestimmen. Weil wir wissen ja noch, partielle Ableitungen bestimmen ist im Prinzip ganz einfach. Sie nehmen Ihre bekannten eindimensionalen Ableitungsregeln und leiten halt nach jeder Variable ein Einzel ab.
20:02
Also was müssen wir zuerst machen? Wir müssen zuerst mal nach der ersten Koordinaten ableiten. Also d1f von xy bestimmen. Das heißt nach dem Buchstaben x ableiten gibt, wenn Sie das da drüben nach x ableiten, dann haben wir zunächst mal 3x²y. y behandelt wir einfach als Konstante plus e hoch y.
20:24
Wenn Sie das Ding nach y ableiten, kriegen Sie d2f von xy. x hoch 3y nach y abgeleitet, gibt einfach x hoch 3. Und xe hoch y. Das x bleibt als Faktor vorne stehen, ist ja nur eine Konstante im Moment. Und e hoch y nach y ableiten, gibt e hoch y.
20:44
So, das sind die beiden ersten partiellen Ableitungen. So weit waren wir letzte Woche schon. Jetzt kann man natürlich diese Funktion d1f wieder sowohl nach x als auch noch y ableiten. Das gibt die zwei Ableitungen, es gibt zwei von den vier Ableitungen in zweiter Ordnung.
21:02
Zunächst mal d1²f von xy, also zweimal nach d1, zweimal nach der ersten Koordinate, also das Ding nochmal nach x. Das Ding nochmal nach x gibt 6x, y plus, wenn ich e hoch y nach x ableite, dann bleibt davon nichts übrig.
21:22
Dann kann ich dieses d1f einmal nach der zweiten Koordinaten, also nach y ableiten. Dann kriege ich hier 3x² plus e hoch y. Das gleiche hier hinten. Ich kann diese Ableitung nach der zweiten Koordinaten nach der ersten ableiten,
21:40
also nach x gibt 3x² plus e hoch y. Und ich kann es nochmal nach der zweiten ableiten, d2²f von xy. Also das Ding nach y, das gibt nur noch ein x e hoch y. Weiter machen, also das waren jetzt alle zweiten Ableitungen. Jetzt können Sie noch alle dritten bestimmen. Sie sehen, es werden jedes Mal mehr.
22:01
Klar, Sie können nämlich jede dieser vier jetzt wieder nach beiden Variablen ableiten. Es gibt also acht dritte partielle Ableitungen. So, also das machen wir noch. Sie können das, was Sie schon zweimal nach x ableitet haben, noch ein drittes Mal nach x ableiten. Dann bleiben hier 6y übrig. Jetzt muss man es irgendwie systematisieren.
22:21
Sie können diese zweite Ableitung nach x noch nach y ableiten. Was passiert dann? Wenn Sie das dann nach y ableiten, kriegen Sie 6x. Dann können Sie in der ersten Spalte, also diese zweite Ableitung unten links, können Sie einmal nach d1, einmal nach d2 machen. Das gibt d1, d2, d1f von xy.
22:45
Also das Ding nach x gibt 6x. Oder Sie können das da unten nochmal nach y ableiten. Gibt d2², d1f von xy. Und das ist ein e hoch y. So, jetzt können Sie hier drüben die beiden zweiten,
23:00
jetzt haben wir die links, die vier haben wir jetzt. Jetzt kommen rechts noch vier, indem Sie jeden dieser beiden da oben einmal nach x und einmal nach y ableiten. Also d1, d2f nochmal nach x gibt d1², d2f. Das da nach x gibt 6x. Das Ding nach y gibt d2, d1, d2f.
23:20
Das Ding nach y gibt e hoch y. Dann den unteren einmal nach x, d1, d2²f. Das Ding nach x gibt e hoch y. Und das Ding da unten nach y, d2 hoch 3, gibt xe hoch y.
23:42
Das ist alles nicht schwer, viel Schreiberei. Sie sehen es gibt eine ganze Menge partielle Ableitungen. Und wer Lust hat, rechnet jetzt noch die zwölften aus. Ich habe keine Lust. So, aber wenn man sich das jetzt nochmal anschaut, dann fällt was auf. Das könnte natürlich reiner Zufall sein, ist es aber nicht.
24:01
Wenn Sie mal die zweiten Ableitungen schauen, wenn Sie die Funktion nehmen und zuerst nach x ableiten und dann nach y kommt 3x² plus e hoch y raus. Wenn Sie zuerst nach y differenzieren und dann nach x, kommt 3x² plus e hoch y das gleiche raus. Und hier unten noch krasser, bei allen Ableitungen, wo Sie zweimal nach x
24:22
und einmal nach y differenzieren, das ist die hier, die hier, und wo es zweimal nach x, einmal nach y, die hier, kriegen Sie jeweils 6x raus. Und bei allen Ableitungen, wo Sie zweimal nach y und einmal nach x differenzieren,
24:40
also die hier, die hier, und die hier, kommt e hoch y raus. Das spricht dafür, dass die Reihenfolge eigentlich, zumindest bei der einen Funktion, könnte ja sein, dass es Zufall ist. Aber man könnte die Hoffnung haben,
25:02
dass die Reihenfolge, in der man differenziert, egal ist, es kommt eigentlich nur darauf an, wie oft differenziere ich nach x, wie oft differenziere ich nach y. Und die Antwort ist, das ist immer allgemein falsch. Natürlich gibt es immer, es ist immer in der 1a² so ein doofes Gegenbeispiel, gibt es immer, es gibt tatsächlich Funktionen, wo es von der Reihenfolge abhängt.
25:24
Und man kann aber eine schöne Bedingung angeben, wenn das nicht so ist, wenn die zweiten Ableitungen stetig sind, die zweiten partiellen Ableitungen stetig sind, dann, und das ist hier der Fall,
25:40
dann ist alles gut, dann ist die Reihenfolge egal. Und dann sind das zwar hier unten 8 verschiedene partielle Ableitungen, 2. Ordnung, in Wahrheit sind es aber nur 4. 3 mal nach x, 3 mal nach y, 2 mal nach x, 1 mal nach y, 2 mal nach y, 1 mal nach x, und alle anderen fallen zusammen. So, aber das müssen wir jetzt natürlich noch beweisen,
26:00
und dieses Resultat, dass es im Großen und Ganzen egal ist, in welcher Reihenfolge Sie differenzieren, solange Sie eine stetige Differenzierbarkeit haben, das filmiert überall als Satz von Schwarz. Das ist der Satz 9, 16. Satz von Schwarz, das ist der von Cauchy Schwarz,
26:22
deswegen nur ein Z. Später taucht noch mal ein Laurent Schwarz auf, der schreibt sich mit TZ, aber der hat etwas später gelebt. Mit dem kriegen Sie frühestens in der Funktionalanalysis zu tun. So, was sagt der Satz von Schwarz jetzt?
26:42
Wenn ich eine Funktion habe, wie von der ganzen Zeit, von Teilmenge g von rd nach rp, und ich habe 2 Koordinatenindizes j und k, irgendwie, die mir halt 2 Koordinatenrichtungen rauspicken,
27:04
und jetzt weiß ich, die partiellen Ableitungen djf, dkf und djdkf, die sollen existieren,
27:21
und die zweite Ableitung zweiter Ordnung davon, die Ableitung djdkf, die soll stetig in x0 sein. Wie gesagt, im Allgemeinen kann man die Reihenfolge nicht vertauschen, aber wenn ich weiß, dass die zweite Ableitung, die zweite partielle Ableitung stetig an der Stelle ist,
27:42
die zweite partielle Ableitung an dieser Stelle stetig ist, dann ist jetzt die Behauptung, dann darf ich die Reihenfolge umdrehen, dann existiert auch dkdjf, und dkdjf ist dann gleich djdkf. Also wenn das Ding ist, stetig in x0 aus g ist,
28:01
dann existiert auch die umgekehrte Richtung dkdjf, und die beiden sind gleich. Also dkdjf von x0 ist dann gleich djdkf von x0. Das ist jetzt ein Satz mit minimalen Voraussetzungen hingeschrieben.
28:21
Was man dabei rauskriegt, ist, wenn Sie so wie in dem Fall gerade eben eine Funktion haben, wo alle zweiten partiellen Ableitungen existieren und die stetig sind, zum Beispiel bd, weil die natürlich beliebig oft differenzierbar ist, dann dürfen Sie die Reihenfolge vertauschen. Dann dürfen Sie auch für höhere Ableitungen
28:42
natürlich die Reihenfolge vertauschen. Also jede siebte Ableitung ist ja insbesondere eine zweite Ableitung, nämlich von der fünften. Also das ist das, wie man den Satz braucht und wie er wichtig ist. Solang alle Ableitungen stetig sind, alle partiellen Ableitungen stetig sind, ist die Reihenfolge wurscht.
29:00
So, das ist aber gar nicht so ganz offensichtlich. Dafür müssen wir ein bisschen ackern. Im Wesentlichen müssen wir nur einen Differenzenquotienten anschauen und gucken, dass der existiert. Der Grenz wird existiert. Wir wollen eine partielle Differenzierbarkeit zeigen. Und beim Ausrechnen, dass der existiert, kommt auch gleich raus, dass der gleich dem anderen ist.
29:23
Das ist nicht das Problem, aber den Differenzenquotienten zu bekämpfen, dauert ein bisschen. Der stellt sich ein bisschen störig. So, was machen wir? Zunächst mal nutzen wir aus, dass unsere Menge g offen ist und wir deswegen Platz haben, um unseren Differenzenquotienten überhaupt anzuschauen.
29:43
g ist offen. Also gibt es ein Delta größer 0, sodass die Bildung x0 plus s mal ej, ej ist wieder der Basisvektor in Richtung der j-Koordinatenachse, plus t mal ek, ek der Koordinaten,
30:00
Einheitsvektor in Richtung der Kartenkoordinatenachse. Meine Behauptung ist, weil das x0 in g ist und g offen, kann ich sozusagen ein kleines Stückchen in Richtung ej und ein kleines Stückchen in stückchen ek gehen und bleibe in g. Also das bleibt in g für alle Wahlen von s und t
30:21
zwischen minus Delta und Delta. Ich kann das Delta so klein wählen, dass wenn ich von meinem x0 ein Stückchen, ein s-Stückchen in Richtung j-Koordinatenachse und ein t-Stückchen in Richtung Kartenkoordinatenachse gehe, dass ich dabei aus g nicht rausfliege. Und das geht einfach, weil g offen ist, da gibt es eine Kugel drum und in der Kugel kann ich ein Stückchen in die beiden Richtungen.
30:42
So, das Delta brauchen wir einfach, damit alles, was jetzt gleich dasteht, Sinn macht. Und auf diesem Quadrat, minus Delta, Delta Quadrat, da definieren wir uns jetzt die richtige Hilfsfunktion. Also wir betrachten die Funktion phi
31:02
für s und t aus minus Delta, Delta nach r und phi von st ist im Prinzip das, was da oben steht, ins f eingesetzt, also ist f von x0 plus sej plus tek.
31:22
So und jetzt behaupte ich, die partiellen Ableitungen von f, von denen wir ja wissen sie existieren, also das djf existiert, das dkf und das djdkf, die finden wir in diesem phi wieder an der Stelle 00. Wenn sie st00 nehmen, sind sie mit dem f an der Stelle x0.
31:42
Müssen wir mal ausrechnen, wie wir die da wieder finden. Rechnen Sie mal die Ableitung von dem phi aus nach der ersten Koordinat, also d1 phi von st.
32:01
Definition von partiellen Ableitungen. Hier kriegen Sie die erste partielle Ableitung. Sie nehmen phi an der Stelle st, plus ein bisschen in Richtung der j-Koordinate, minus phi an der Stelle st, also und dann das bisschen gegen 0, also lims h gegen 0,
32:21
phi von s plus ht, minus phi von st, geteilt durch h. Das ist die Definition von der Richtungsableitung in Richtung des Koordinateneinheitsvektors 1,0, beziehungsweise einfach die Definition der partiellen Ableitung nach der ersten Kolbe.
32:41
So, phi einsetzen, das ist der Grenzwert h gegen 0, phi von s plus ht ist f von x0, plus jetzt an die Stelle s muss ein s plus h, also s plus hej,
33:02
plus tek. Minus phi von st ist f von x0, plus sej plus tek, geteilt durch h. Das ist lims h gegen 0,
33:21
f von x0 plus sej plus tek plus hej, minus f von x0 plus sej plus tek, geteilt durch h. Stehen da ganz viele Buchstaben, vielleicht sieht man deswegen den Wald vor lauter Bäumen
33:41
oder die Ableitung vor lauter Formel nicht, aber was jetzt hier steht, ist die partielle Ableitung von f in Richtung der J-Koordinate an der Stelle x0 plus s mal ej plus t mal ek. Wenn Sie das x0 plus sej plus tek im Geiste mal zu einem Knubbel zusammennehmen,
34:01
nennen wir den y, steht der f von y plus hej, minus f von y durch h. Grenzwert h gegen 0 davon ist nichts als die partielle Ableitung in Richtung der J-Koordinatenrichtung von der Funktion f an dieser Stelle y. Also was hier steht,
34:20
ist die partielle Ableitung von f nach der J-Koordinate an der Stelle x0 plus sej plus tek. Also finden wir, von der haben wir ja vorausgesetzt sie existiert. Also die Ableitung existiert,
34:40
dementsprechend ist unser Phi partiell differenzierbar in der ersten Koordinat. Die erste Ableitung von dem Phi in st ist genau diese partielle Ableitung an der Stelle x0 plus sej plus tek. So, genauso, das renne ich jetzt nicht nochmal vor, kriegen Sie das die zweite partielle Ableitung von dem Phi,
35:01
also die partielle Ableitung von dem Phi in Richtung der zweiten Koordinatenachse, also bezüglich der t-Variablen. Das gleiche ist wie dkf von x0 plus sej plus tek. Und was haben wir noch? Wir kennen noch djdk und das übersetzt sich
35:21
in eine partielle Ableitung von dem Phi. d1 d2 Phi von st ist dj dkf an der Stelle x0 plus sej plus tek. Gleiche Rechnung mit den Differenzenquotienten. Wenn Sie mal d2 Phi haben, Sie wissen, dass d2 Phi das Ding hier ist,
35:42
dann schreiben Sie jetzt von der Funktion die Differenzenquotienten in Richtung der ersten partiellen Ableitung wieder oben hin und dann kommt genau das Rauschen raus. Also im Prinzip ist dieses Phi schiebt nur die ganze Debatte nach Null und reduziert etwas den notationellen Aufwand. So, jetzt.
36:12
Eigentlich wollen wir ja, unser Ziel ist ja eigentlich zu zeigen,
36:20
erstmal die Existenz von dk dj f an der Stelle x0. Das ist, wenn man sich es ins Phi übersetzt, gleiche Rechnung wieder oben, genau d2 d1 Phi von Null Null.
36:42
Wenn Sie sich die Formeln hier angucken, die Ableitung von Phi an der Stelle Null Null entspricht genau den partiellen Ableitungen von f an der Stelle x0. Und das k entspricht jeweils einer zweiten für das Phi und das j entspricht jeweils einer ersten für das Phi. Also was wir suchen, ist die Ableitung dk dj f.
37:02
Das ist die Ableitung d2 d1 Phi an der Stelle Null Null. Und was wir kennen, ist die Ableitung d1 d2 Phi. Und da wissen wir, die existiert. Jetzt haben wir unsere ganze Fragestellung für das Phi formuliert, aber es ist eigentlich noch keinen Schritt weiter. Wir wollen immer noch das d1 und das d2
37:22
vertauschen. So, also schreiben wir uns doch mal hin, was dieser Differenzenquotient ist. d2 d1 Phi an der Stelle Null Null. Das wollen wir haben. Das ist jetzt eine Ableitung von einer Ableitung. Also der Grenzwert von einem Differenzenquotient
37:40
und vom Grenzwert von einem Differenzenquotient. Das hört sich jetzt die Hölle an zum Hinschreiben. Das ist die Hölle zum Hinschreiben, aber wir kommen nicht drum herum. Also müssen jetzt den Differenzenquotient, den Grenzwert vom Differenzenquotient und vom Grenzwert das Differenzenquotient hinschreiben. Also, Schrittweise für Schrittweise. Das d2 d1 Phi an der Stelle Null Null
38:01
kriegen Sie, wir schreiben die Ableitung nach der zweiten Koordinaten mal einfach als d nach dt. So, jetzt kommt, machen wir erst mal nur die erste Variante, die erste Ableitung hier. Parzelle Ableitung nach der ersten Koordinaten von Phi an der Stelle Null Null. Das ist der Grenzwert S gegen Null
38:21
von Phi von St minus Phi von Null T geteilt durch S. Das ist der Differenzenquotient für halte T fix und leite nach S ab an der Stelle Null.
38:42
Phi von S minus Phi von Null durch S lieben wir es S gegen Null. Das ist eine Ableitung in Null von Phi nach der Variablen S. T ist ein fixer Parameter. Danach sollen wir noch nach T ableiten für das d2 und am Ende sollen natürlich noch T gleich Null. Also das Ganze an der Stelle T.
39:01
Jetzt können wir die äußere Differenzation als Differenzenquotient schreiben. Also dieses noch nach T ableiten. Wie leitet man noch nach T ab? Man macht einen Grenzwert T gegen Null von dem ganzen Schlorum, der da drin steht an der Stelle T. Also von dem Ding da an der Stelle T
39:21
lieben wir es S gegen Null Phi von St minus Phi von Null T geteilt durch S minus diesen ganzen Schlorum an der Stelle Null minus Limes S gegen Null Phi von S Null minus Phi von Null Null geteilt durch S
39:40
und das ganze Ding Differenzenquotient geteilt durch T. Das ist der Limes vom Differenzenquotient und vom Limes vom Differenzenquotient. Und jetzt müssen wir da dran rumarbeiten. Im Wesentlichen müssen wir jetzt den S und den T-Limes vertauschen.
40:03
So. Also sortieren wir doch mal die Doppelbrüche weg. Also zunächst mal wenn alles gut geht in der Mitte die beiden Limiten zusammenziehen und dann schreiben wir die mal nach vorne Limes T gegen Null, Limes S gegen Null.
40:21
Bitte schön nicht an der Reihenfolge fuscheln, weil das ist im Allgemeinen keine gute Idee Limiten zu vertauschen. Zumindest nicht ohne eine gute Begründung. So, dann haben wir oben in beiden Dingern ein 1 durch S stehen. Das ziehe ich mal vor. So, unten steht ein T.
40:42
Und was habe ich jetzt noch? Dann habe ich die beiden Nenner von den beiden Brüchen oben auf dem Brustrich. Das ist Phi von S und T minus Phi von Null und T minus Phi von S und Null plus Phi von Null und Null. Da fällt aber auch wieder gar nichts
41:01
weg. Ist halt so. So, das ist das, was drüber steht. Nur ein bisschen weniger doppelbruchlastig geschrieben. Und man sieht immer noch das doppelte Differenzenprozents. Sie teilen durch S und durch T. Sie lassen S und T beide gegen Null gehen. Im Wesentlichen würden wir jetzt gerne die Rollen von S und T vertauschen und die Limiten
41:22
tauschen. Aber Limiten tauschen, lassen wir mal bleiben. Der Trick, mit dem man jetzt die Limiten doch tauschen kann, ohne sie zu tauschen, ist zweimal den Mittelwertsatz draufzuwerfen. Und man muss das für die richtigen Funktionen tun.
41:43
Und der Gewinner ist, sich mal diese Funktion hier anzuschauen und das sozusagen als eine Funktion in T zu begreifen. Die Funktion nenne ich mal Phi mit Index S. S ist ein Parameter.
42:01
Phi S von T für T immer die ganze Zeit zwischen Minus Delta und Null. Also diese Differenz, die nenne ich groß Phi S. Das ist eine Funktion in T. Wenn man das macht, stellt man fest, hier vorne steht Phi S von T
42:20
und die beiden hinteren sind genau Minus Phi S von Null. Also was hier steht, mit dieser Notation, das ist so ein Beweis, wo man dran sehen kann, dass Notation Beweise retten kann. Also das 1 durch S bleibt stehen.
42:40
Diesen ganzen Schlorum nennen wir Phi S von T. Und wenn man sich genau anguckt, dann steht da hinten Minus Phi S von Null. Phi S von Null ist Phi S von Null minus Phi von Null Null. Er ist Phi von S Null minus Phi von Null Null. Und dahinten steht genau Minus Phi S von Null.
43:02
Geteilt durch T. So, und was jetzt dahinten steht, ist ein wunderbarer Differenzenquotient für diese Funktion Phi S in einer Dimension. Und jetzt können wir unseren Mittelwertsatz aus der Anna 1 treffen. Das Phi S,
43:20
das groß Phi S, ist eine wunderbar differenzierbare Funktion, weil ich hier das Phi partiell nach der zweiten Koordinaten differenzieren kann. Das klein Phi ist differenzierbar in der zweiten Koordinaten. Also ist dieses Phi S eine differenzierbare Funktion. Mittelwertsatz.
43:42
Ich kann diesen Differenzenquotient und diese Sekantensteigung von dem Phi S durch eine Tangentensteigung realisieren. Also gleich Mittelwertsatz aus einer Variable. Mittelwertsatz aus der Anna 1. Das ist der LiMES T gegen Null. LiMES S gegen Null. Das 1 durch S bleibt stehen.
44:02
Und diesen Differenzenquotient kann ich jetzt realisieren als ein Phi S Strich von einer Stelle zwischen Null und T. Also von irgendeinem Tau zwischen Null und T. Dieses Tau schreibe ich jetzt nicht als Zahl zwischen Null und T, sondern ich schreibe hin an der Stelle Kappa T
44:22
mit einem Kappa aus Null eins. Das kommt doch aus gleich heraus. Wenn Kappa zwischen Null eins ist, dann ist Kappa T zwischen Null und T. So. Das war jetzt der Mittelwertsatz in einer Variable. Der dafür gesorgt hat, dass dieses Tauzin in dem T-Grenzwert aufgelöst ist.
44:42
Das ist der Punkt. So. Jetzt setzen wir wieder ein, was das Phi S ist. Wir wollen jetzt zu unserem kleinen Phi zurück. Wir haben hier Phi S Strich stehen.
45:01
Was ist Phi S Strich? Wir müssen da oben ableiten. Das ist also den LiMES T gegen Null schreiben wir ab. Den LiMES S gegen Null schreiben wir ab. Das eins durch S schreiben wir ab. So. Jetzt kommt die Ableitung von unserem Phi S. Ableitung von Phi S ist die Ableitung nach T von dem kleinen Phi von St.
45:22
Also das ist D2 Phi von St minus D2 Phi von Null T. Moment, aber an der Stelle Kappa T. Schauen wir zu schnell geschossen. D2 Phi von S und Kappa T
45:41
minus D2 Phi von Null und Kappa T. Ich muss ja Phi S Strich an der Stelle Kappa T angucken. So. Und wenn man sich das jetzt wieder genauer anschaut, dann steht da schon wieder eine Differenz vor Z. Das ist der zweite Mittelwertsatz.
46:02
Jetzt machen wir es andersrum. Jetzt definieren wir eine Funktion Psi T von S als D2 Phi von S und Kappa T. S zwischen Minus Delta und Delta. Dieses Ding
46:22
D2 Phi D2 Phi dürfen wir nochmal nach der ersten Koordinaten ableiten. D1 D2 Phi existiert. D1 D2 Phi entspricht Dj Dkf. Das ist die gute Richtung.
46:42
D1 D2 Phi ist okay. D2 D1 Phi wollen wir gerade rauskriegen. Damit fängt die ganze Rechnung an. D2 D1 Phi wollen wir haben, aber D1 D2 Phi ist okay. Also dieses D2 Phi nochmal nach T zu differenzieren, nochmal nach S zu differenzieren ist kein Problem. Dieses Psi T ist also nochmal differenzierbar. Also dann ist
47:09
Psi T nochmal differenzierbar mit, was ist die Ableitung vom Psi T? Psi T Strich von
47:21
S. Naja, das hier nach S differenzieren ist die erste partielle Ableitung von der zweiten von Phi. S Kappa T. So, und wenn wir uns jetzt aber wieder dahin zurück sehen, wo wir hin wollten, wir wollen eigentlich D2 D1 Phi
47:41
an der Stelle 00 bestimmen. Und Sie sehen, wir machen das jetzt mit Hilfe von D1 D2 Phi. Alles gut. D2 D1 Phi von 00, haben wir hier hinten geschrieben, ist der Grenzwert T gegen 0 vom Grenzwert S gegen 0 von. So, jetzt müssen wir hier unten gucken.
48:01
Da unten gucken. Da steht das 1 durch S kommt gleich. D2 Phi an der Stelle S K T Kappa T, das ist genau Psi T von S. Also da steht Psi T von S minus D2 Phi an der Stelle 0
48:20
Kappa T. D2 Phi an der Stelle 0 Kappa T ist Psi T von 0. Also minus Psi T von 0. Und das 1 durch S kommt hier unten hin. Jetzt steht da wieder eine Differenz in Prozent. Also jetzt haben wir das Ganze reduziert durch den ersten Mittelwertsatz. Und jetzt haben wir
48:42
wieder Differenzen prozenten da stehen. So können wir nochmal wieder den Mittelwertsatz auf das Psi T anwenden. Das Psi T ist wunderbar differenzierbar zwischen 0 und Delta. Also zwischen minus Delta und Delta für S. Das heißt, wir können hier den Mittelwertsatz anwenden. Also nochmal
49:03
Mittelwertsatz. Gibt den Limous T gegen 0 vom Limous S gegen 0. Man beachte, wir haben nichts an der reinen Folge der Limiten gemacht. Und dann steht hier Psi T Strich an einer Stelle zwischen 0 und S.
49:21
Gleicher Trick wie gerade eben, diese Stelle zwischen 0 und S realisiere ich durch Eta S mit Eta zwischen 0 und 1. So, was ist das?
49:41
Jetzt können Sie das Psi T Strich einsetzen. Das ist der Grenzwert T gegen 0 vom Grenzwert S gegen 0 von D1 D2 Phi an der Stelle Eta S kappa T.
50:05
So, D1 D2 Phi D1 D2 Phi an der Stelle 0 an irgendeiner Stelle steht hier D1 D2 Phi und an der Stelle ist Dj Dkf an irgendeiner Stelle. So, das ist also das gleiche
50:22
wie der Grenzwert T gegen 0 vom Grenzwert S gegen 0 von Dj Dkf an der Stelle X0 plus Eta S Ej plus kappa T Ek. Voraussetzung, der ganzen Angelegenheit war,
50:43
Dj Dkf ist stetig an der Stelle X0. Dj Dkf ist stetig in X0. Hier steht jetzt genau Dj Dkf und wenn ich S gegen 0 und T gegen 0 laufen lasse, geht dieses Argument genau gegen X0.
51:03
Das heißt, diesen Grenzwert, der existiert, also was jetzt kommt, ist, dass es Dj Dkf an der Stelle X0 da Dj Dkf in X0 stetig nach Voraussetzung. So, und das hier oben,
51:21
D2 D1 Phi an der Stelle 00, ist Dk Dj F an der Stelle X0. Was fehlt noch? Dj Dkf. Danke. Genau. Und was wir jetzt haben ist,
51:42
dieser Grenzwert hier existiert, das heißt, diese partielle Ableitung Dk Djf existiert und sie ist gleich Dj Dkf. Das ist Rechnen direkt an der Definition. Ja, das ist wirklich scheußlich. Aber
52:00
dafür ist es, braucht es auch sehr, sehr wenig Voraussetzungen. Ich hatte vorhin gesagt, so reine Existenz von partiellen Ableitungen bringt nicht viel. Den Satz kann man trotzdem beweisen. Der gilt also auch für so irgendwie ein bisschen absurdere Funktionen. Die Voraussetzungen sind eben, dass diese ganzen Ableitungen stetig sind.
52:21
Wir werden dann später feststellen, genau diese Voraussetzung schmeißt diese ganzen absurden Dinger raus. Aber den kann man tatsächlich allein auf der Ebene der partiellen Ableitungen verstehen. Und selbst wenn man mehr Theorie hat, wird der Beweis nicht schöner. Also dann muss man einfach einmal durch. Gut, jetzt habe ich sie ganz lang,
52:40
aber den wollte ich doch am Stück durchkriegen. Jetzt machen wir eine wohlverdiente Pause und dann danach weiter. So, dann würde ich gern den zweiten Teil starten. Zweite Hälfte ist es zugegebenen nicht mehr ganz.
53:01
Und allen denen, die eine Voraussetzung in einem Satz unbefriedigend finden, ohne ein Gegenbeispiel, warum die Voraussetzung wichtig ist, sei hier also noch das übliche Gegenbeispiel wenigstens angegeben für den Satz von Schwarz. Also sprich für die Aussage,
53:22
also ein Gegenbeispiel, wo es tatsächlich auf die Reihenfolge ankommt der partiellen Differenziation. Und das übliche Gegenbeispiel, was man da gibt, ist das folgende. Das ist wieder so ein rationales Ding. Wir brauchen ein rationales Ding.
53:40
x mal y mal x² minus y² durch x² plus y² außerhalb vom Ursprung. Und im Ursprung setzt man es 0. Gut, und da muss man ein bisschen rechnen. Das kürze ich jetzt hier ein bisschen ab. Da müssen Sie die ersten
54:01
partiellen Ableitungen ausrechnen. Das liefert y mal x hoch 4 plus 4x² y² minus y hoch 4 geteilt durch x² plus y²². Ich hoffe, Sie sehen ein, dass ich keine Lust habe, Ihnen das vorzuixen.
54:23
Und an der Stelle 0 ist es 0, also das ist 0,0 und das ist der Ungleich 0,0. Und die zweite, also die partielle Ableitung nach der zweiten Koordinaten nach y ist entsprechend symmetrisch dazu.
54:41
x mal x hoch 4 minus 4x² y² minus y hoch 4 geteilt durch x² plus y²² und 0. So. Wie gesagt, das überlasse ich Ihnen
55:00
nachzurechnen. Das eine ist einfach wilde Quotientenregel und dann muss man den 0 halt mit dem Differenzenquotienten dran und zeigen, dass die partiellen Ableitungen in 0 existieren. So. Aber damit können wir jetzt die zweiten partiellen in den verschiedenen Reihenfolgen, also die gemischten zweiten partiellen Ableitungen in den beiden Reihenfolgen ausrechnen.
55:20
Was ist d2, d1, f an der Stelle 0, 0? Das heißt, wir nehmen hier die erste partielle Ableitung und leiten sie nochmal nach der zweiten Koordinaten nach y ab. Das ist Limes h gegen 0 von der Funktion hier an der Stelle 0, h. x ist konstant 0 und für y, also
55:42
diese Funktion an der Stelle 0, h setzen sie hier für x überall 0 und für y überall h. Gibt h mal 0 plus 0 mal minus h hoch 4 geteilt durch 0, h², h hoch 4 minus
56:01
diese Funktion an der Stelle 0, das ist 0 geteilt durch h und wenn man jetzt die h hoch 4 kürzt und das h kürzt, dann kommt hier minus 1 raus und wenn Sie es andersrum machen, d1, d2, f an der Stelle 0, 0 ist der Limes h gegen 0 von also wir nehmen diese Funktion und
56:21
leiten sie nach x ab an der Stelle 0, 0. Das heißt wir müssen diese Funktion an der Stelle h, 0 nehmen. Also das passiert wenn Sie die Funktion an der Stelle h, 0 auswerten. Das x vorne gibt h mal h hoch 4 minus 0, minus 0 geteilt durch h hoch 4 und das ganze durch h und das ist
56:41
1. Und da üblicherweise 1 und minus 1 verschieden sind ist das ein Beispiel dafür dass der Satz von schwarzem allgemein nicht gilt und das Problem ist eben, dass diese zweite partielle Ableitung so wie sie da steht, also wie man sie ausrechnen könnte, außerhalb vom Ursprung können Sie die natürlich ausrechnen, die es halt leider nicht steht und deswegen zieht der Satz von schwarzem
57:02
In dem Fall existieren die beiden gemischten partiellen Ableitungen sind aber nicht gleich. Aber Sie sehen auch um da ein Beispiel zu produzieren muss man schon irgendwie wieder irgendwelche Absurdfunktionen hochziehen. Im Normalfall wenn Sie schöne, glatte Funktionen haben, passiert sowas nicht.
57:21
Und das ist eine gute Nachricht, weil es eben bedeutet höhere partielle Ableitungen ausrechnen wird zwar dadurch kein Spaziergang und ist immer noch viel Arbeit, aber man kann sich viel Arbeit sparen weil die Reihenfolge ist egal und wenn ich schon weiß, dass zweimal nach der ersten und dann dreimal nach der zweiten abgeleitet, wenn ich schon weiß, was rauskommt und dann soll ausrechnen, was passiert, wenn ich dreimal nach der ersten
57:42
und danach zweimal nach der zweiten ableite, dann ist das halt so. So. Gut. Das ist im Moment mal das was zur partiellen Ableitung allein zu sagen ist und jetzt wollen wir an das Problem gehen diesen partiellen Ableitung irgendwie einen Sinn zu geben. Eine geometrische Anschauung dahinter zu bringen.
58:03
Eine geometrische Anschauung ist klar, das ist eine Richtungsableitung wenn Sie an einem Punkt stehen und in die Richtung der Koordinatenachse laufen, welche Steigung hat die dadurch entstehende eindimensionale Funktion. Und die Bedeutung hat es ja auch in jedem Fall. Nur ist das eine Bedeutung, die eben nur etwas über eine Richtung aussagt und dient nichts global über ihre Funktion.
58:22
Aus der sie über ihre Funktion F als Ganze nichts schließen können, sondern nur F eingeschränkt auf irgendeine Richtung. So, jetzt müssen wir das Ganze etwas globaler angehen. Wir brauchen eine Ableitung, die Ableitung von F als Ganze und nicht nur in eine Richtung.
58:40
Und das führt auf den Begriff der totalen Differenzierbarkeit. Das ist der Abschnitt 10. Jetzt gehen wir also sozusagen wieder zu unserem Anfangsproblem zurück. Auch hier wieder die ganze Kapitel über
59:02
G, eine Teilmenge vom RD, irgendeine offene Menge, auf der unsere Funktion dann definiert wird. So, jetzt gehen wir wieder zum Anfangsproblem zurück. Unser Anfangsproblem war unsere Definition aus dem ersten Semester, wobei hier machen wir P mit H, P mit H gegen 0,
59:20
F von x0 plus H minus F von x0 H. Die Hilfendefinition können wir nicht übernehmen, weil hier unten steht jetzt ein Wechsel. So. Und dann kann man natürlich jetzt wieder anfangen, die Definition im Eindimensionalen umzubauen. Also die Definition im
59:40
Eindimensionalen Äquivalent umzuformulieren, in der Hoffnung, dass man vielleicht eine Definition findet, die äquivalent ist, aber irgendwie nicht mehr durch H teilt. Das ist beim beim Differenzieren schwierig, weil das Differenzieren natürlich von der Definition her, da geht es um Quotient. Den Quotient wird man nicht ganz
01:00:00
aber man kann es so lange kneten, bis der Quotient zumindest gezähmt ist. Und dazu haben wir eine kleine Vorarbeit in die ANA 1 gepackt, vielleicht etwas unbemerkt. Und zwar war das eine Aufgabe
01:00:21
G3 auf dem 13. Übungsplan. Das haben Sie sicher alle noch parat, was das war. Nein, natürlich nicht. Deswegen schreibe ich es nochmal hin. Dort wurde gezeigt, wenn Sie eine Funktion auf R haben oder auf einem Intervall in R, sagen wir mal auf ganz R, dann ist die in x0 differenzierbar
01:00:46
mit Ableitung A. Genau dann, wenn Sie diese Funktion, wenn Sie die Funktion durch Ihre
01:01:01
Tangente nähern, wenn der Fehler, den Sie durch die Tangente nähern, machen, schneller als linear gegen Null. Das war die Aussage, wenn man sie geometrisch betrachtet. Also, wenn Sie f von x0 plus h anschauen, dann ist das f von x0 plus a mal h, a ist die Ableitung, plus f' von x0 mal h.
01:01:29
Das ist die Tangente in x0. Das ist eine Gerade, die durch f von x0, f von x0 geht und Steigung a hat. Also Steigung f' von x0. Das ist die Tangente in x0. So, wie es jetzt da steht, ist natürlich
01:01:44
nicht richtig, weil links steht die Funktion, rechts steht die Tangente. Da macht man einen Fehler. Und dieser Fehler oder Rest R von h, für den muss gelten, dass der Liemes h gegen Null
01:02:04
von R von h geteilt durch h Null ist, sprich, dass dieser Rest schneller gegen Null geht als das h. So, das ist eine äquivalente Formulierung von differenzierbar. Jetzt können Sie sagen,
01:02:23
was er da gewonnen hat, ist doch überhaupt gar nichts. Am ersten Blick völlig recht. Warum habe ich nichts gewonnen? Naja, ich habe gesagt, wir müssen eine Umformulierung finden, in der nicht durch h geteilt wird. Und was ist bitte schön das da? Da steht R von h geteilt durch h. Also nichts gewonnen und doch alles gewonnen. Warum? Weil hier ein Grenzwert ausgewertet
01:02:48
werden muss, der gleich Null sein soll. Und jetzt, da sehe ich schon eins, zwei, kommt dieses wunderbare, die wunderbare Eigenschaft der Definitheit der Norm ins Spiel. Sie erinnern
01:03:00
sich, ich sage immer, das Tolle ist, wenn Sie zeigen wollen, dass was gegen Null geht, dann reicht es zu zeigen, dass der Betrag oder die Norm gegen Null geht. Für etwas, was gegen Null geht, reicht die Norm. Sonst nicht. Ja, wenn Sie wissen, eine Folge geht im Betrag gegen eins, dann kann es immer noch die berühmte minus eins, minus eins, eins, eins, eins, eins Folge sein. Aber wenn was gegen Null im Betrag geht,
01:03:22
geht das ganze schon gegen Null. Das heißt, wir können hier equivalent Betragstriche oder Normstriche machen. Und das rettet alles. Weil wenn Sie hier Normstriche drumherum machen oder in dem Fall hier steht es jetzt eindimensional, Betragstriche ist das Gleiche. Weil ob der Betrag gegen Null geht oder das Ding gegen Null ist wurscht. Dann können Sie das Ding jetzt
01:03:42
verallgemeinern und Sie schreiben einfach unten Normh. Das ist poplig, aber es ist der Gewinner. So, jetzt ist nur noch die Frage, wie verallgemeinern wir die komische Tangentengleichung da oben. Was kommt an die Stelle von dem A? Das H wird ja jetzt ein Vektor und die richtige
01:04:11
Sichtweise ist dieses A mal H hier zu sehen. Das ist eine Funktion, eine sehr einfache Funktion G von H. Und dieses G ist eine Funktion von R nach R, eine lineare Funktion
01:04:27
von R nach R. Gradengleichung durch den Ursprung. Lineare Funktionen sind alle linearen Funktionen von R nach R. Wenn lineare Abhörungen von R nach R sind langweilig, sind wir nicht genau die Buchungsgraden, das Grafen. Aber das ist genau die richtige Sichtweise
01:04:44
für die Verallgemeinerung. Dieses A ersetzen Sie sozusagen durch ein A. Das H wird ein Vektor, das A wird ein A, das A wird eine lineare Abbildung. Und was wir damit tun ist, genau wie im Sinne der ANA 1, wir approximieren unsere Funktion linear. Die
01:05:03
Ableitung ist eine lineare Approximation der Funktion. War Sie in ANA 1 auch? Nur dass die lineare Approximation jetzt eben nicht mehr eine Zahl ist, eine 1 Kreuz 1 Matrix, sondern eine lineare Abbildung von R, D nach R, P. Jetzt haben wir natürlich die ganze Niveau im Haus, aber da kommen wir nicht so rum. So, jetzt haben wir damit die folgende
01:05:24
Definition, also Definition 10, 1. Eine Funktion F auf unserer offenen Mengen G nach R, P.
01:05:46
Die ist total differenzierbar an einer Stelle x0 in G, wenn, also wenn es eine lineare
01:06:03
Abbildung gibt, die dieses kleine A ersetzt, die habe ich jetzt bisher mal mit groß T bezeichnet. Eine lineare Abbildung, die genau von den gleichen Räumen geht wie das F, also von R, D nach R, P existiert mit Formel von oben, F von x0 plus H ist F von x0 plus,
01:06:24
jetzt nicht klein A mal H, sondern groß T angewandt auf H plus ein Rest für alle H, für die x0 plus H in G liegt. Und dieser Rest, der ist jetzt eine Funktion von wo nach wo.
01:06:40
Man beachtet, dass alles, was jetzt da steht, zusammenpasst. Das F geht von R, D nach R, P. Also das H ist so wie das x0-Vektor in R, D. Die Gleichheit, die da steht, ist eine Gleichheit in R, P. Weil das F bildet ja nach R, P ab. F von x0 plus H ist in R, P. F von x0 ist in R, P. H ist in R, D. Aber T bildet von R, D nach R, P ab. Also ist T,
01:07:02
H in R, P. Der Rest muss also auch R, D nach R, P abbilden. Also der Rest ist eine Abbildung von R, D nach R, P. Und jetzt kommt die Liemes-Bedingung. Liemes H gegen 0. R von
01:07:22
H geteilt durch H. Nein, durch H dürfen wir nicht teilen. Durch Norm H gleich 0. Das ist die Definition von totaler Differenzierbarkeit. Der Gewinn ist, dass wir jetzt hier was haben, was gegen 0 geht. R von H durch Norm H geht gegen 0, ist sozusagen im eindimensionalen
01:07:41
Äquivalent zu R von H durch H gegen 0. Und wir ersetzen das kleine a, die Ableitung, die Zahl, die die Ableitung war, durch eine Linear-Ableitung. In dem Sinne habe ich der ganzen ANA 1 gelogen. Die Ableitung ist nämlich gar keine Zahl. Die Ableitung von der Funktion von R nach R ist eine lineare Abbildung von R nach R. Und die linearen
01:08:01
Abbildungen von R nach R korrespondieren zu den 1-Kreuz-1-Matrizen. Und die 1-Kreuz-1-Matrizen sind Zahlen. Also Ableitungen in R sind natürlich Zahlen, aber eigentlich sind es lineare Abbildungen von R nach R. In dem Sinne dieser Definition. So, das ist dieser
01:08:23
Differenzierbarkeitsbegriff, ist im Sinne von Mathematikmachend der richtige. Also wenn jemand sagt, diese Funktion von R3 nach R5 ist differenzierbar, dann ist damit immer das gemeint und nicht partiell differenzierbar. Wie gesagt, partiell differenzierbar ist
01:08:40
ein Konzept, das allein nichts bringt. Das heißt, wenn im Verlauf der weiteren Vorlesung ich von der differenzierbaren Funktion rede, ist immer das gemeint. Und nicht, also total differenzierbar gleich differenzierbar. Wenn ich partiell differenzierbar meine, dann sage ich es dazu. Deswegen setze ich mal das total hier in Klammern. Also ab jetzt
01:09:01
heißt differenzierbar immer total differenzierbar. So, jetzt kommt das Übliche. Wenn Sie also so eine total differenzierbare Funktion haben, dann ist dieses, was vorher die Zahl a war, dieses t, das ist jetzt die Ableitung. Die schreiben wir so df von x0, das ist
01:09:25
dieses t. Das Ding heißt die Ableitung. Oder wenn man es auch ganz vollständig formuliert, die totale Ableitung von f in x0. Also totale Ableitung von f in x0 ist eine lineare Abbildung von rd nach rp. Und die Notation groß df an der
01:09:47
Stelle x0, die ist relativ weit verbreitet, aber auch nicht ganz einheitlich. Grundsätzlich gilt, und da sind sich eigentlich alle einig, die Konvention, wann immer Sie eine partielle Ableitung haben, sind die ds irgendwie rund. Und wann immer Sie was
01:10:04
Totales haben, sind die dk. Also das ist so was, woran man sich festhalten kann. Wenn irgendwo ein glattes d steht, ist eine totale Ableitung gemeint. Wenn irgendwo ein rundes d ist, ist immer eine partizelle Ableitung. Das ist ein glattes d, das ist eine totale Ableitung. So, dann, na gut, das ist die übliche Folklore. Wenn f in allen x0 aus g
01:10:32
differenzierbar ist, dann nennt man das Ding halt total differenzierbar auf g. Das ist
01:10:40
jetzt nicht überraschend. So heißt f total differenzierbar auf g. Auch hier wieder ist total eingeklammert. Im Normalfall wird man nur von differenzierbar auf g reden und das meinen. Aber auch wie bei jeder Ableitung, wenn Sie mal eine Funktion haben,
01:11:03
die auf ganz g total differenzierbar oder differenzierbar ist, dann kriegen Sie jetzt wieder eine Funktion, eine Ableitungsfunktion. Sie können jetzt an jeder Stelle die Ableitung bestimmen und es gibt Ihnen eine Ableitungsfunktion. Von wo nach wo geht jetzt die Ableitungsfunktion. Die Ableitungsfunktion ist jetzt sozusagen df. Die ordnet jedem Punkt in g die Ableitung
01:11:26
zu und die Ableitung ist eine lineare Abbildung von rd nach rp. Das Ding ist dann die Ableitungsfunktion. Das ist eine Funktion, die jedem Punkt im Definitionsbereich
01:11:41
die Ableitung zuordnet. Der Zielraum von der Ableitungsfunktion ist jetzt ein bisschen gewöhnungsbedürftiger. Der war halt r, der war lineare Abbildung von r nach r, der ist jetzt lineare Abbildung von rd nach rp. Aber auf die Weise haben wir wieder eine Ableitungsfunktion. Für jedes x0 in g gibt es eine Ableitung. Diese Ableitung
01:12:01
ist an jeder Stelle eine lineare Abbildung. An jeder Stelle ist die Ableitung eine lineare Abbildung. Das ist wichtig sozusagen mitzunehmen. Das entspricht dieser Anna-1-Vorstellung von
01:12:20
durch die Ableitung approximationiere ich meine Funktion linear. Das tun wir auch. Wir approximieren unsere Funktion linear und dazu müssen wir jetzt natürlich eine lineare Abbildung nehmen, die zwischen den gleichen Räumen operiert wie die Funktion f. Ist eigentlich logisch. Dementsprechend kommt jetzt das lineare Approximation, die lineare Abbildung von rd nach rp raus, weil unser f auch von rd nach rp. Das ist sozusagen gewisser Winde die lineare
01:12:47
Abbildung, die nahe bei x0 von ihrem Verhalten, der unsere Funktion abnächst macht. So, Bemerkung 10.2. Was fällt einem auf? Zunächst mal die Definition von total
01:13:05
beinahe mit einer nicht näher spezifizierten Norm da. Limits h gegen 0 von f von h durch Norm h muss 0 sein. Welche Norm sollen Sie bitte schön nehmen? Die übliche Antwort, das ist eine Norm im rp. Suchen Sie sich eine aus, die sind nämlich alle äquivalent.
01:13:20
Also die konkrete Norm ist wie üblich egal, weil es geht hier nur um den Grenzwert und an dem Wert des Grenzwerts ändert es nichts, wenn Sie hier zu einer äquivalenten Norm übergehen und da alle Normen auf dem rp äquivalent sind, ist das alles wurscht. So, dann auch das manchmal praktisch, was hier in der Definition drin steht, ist dieser
01:13:48
Grenzwert muss 0 sein. Wo kam der Grenzwert her? Wir hatten gesagt, aus dem Eindimensionalen und ob wir Normen dran schreiben oder nicht ist egal, weil es geht um den Grenzwert, natürlich können Sie auch oben noch eine Norm dranschreiben. Also das ist genau dann
01:14:04
der Fall, wenn der Grenzwert h gegen 0 von Norm r von h geteilt durch Norm h gleich 0 ist. Und welche Norm sind, nehmen Sie es wieder völlig wurscht. Man beachtet die Normen, oben ist eine in rp, die Norm unten ist eine in rd, die sind sogar noch in verschiedenen Räumen. Nehmen Sie im einen die zwei Normen und im anderen die unendliche Norm oder im
01:14:23
anderen die vier drittel Norm und im anderen die sieben Norm, das ist mir völlig wurscht. Aber manchmal, nicht dass Sie sich wundern, manchmal werde ich diesen Grenzwert mit Norm oben und Norm unten hinschreiben, manchmal nur mit Norm unten, das ist wurscht.
01:14:44
Nur die Norm unten sollten Sie nicht weglassen, das sei denn das h ist in der b, das d ist gerade 1. Was wir jetzt natürlich noch suchen werden, das dauert noch ein bisschen, ist
01:15:05
ein Zusammenhang von unseren totalen zu den partiellen Ableitungen. Warum? Naja, die totale Ableitung ist wunderschön, was die Theorie angeht, werden wir gleich sehen. Eine totale Ableitung nach Definition ausrechnen ist jetzt nicht das, was so
01:15:23
sehr kann man toll ausrechnen. Die totalen sorgen für die richtige Theorie und was wir jetzt noch brauchen ist, wenn die Funktion schön ist, sind totale und partielle irgendwie das gleiche. Da wollen wir hin, aber zunächst mal müssen wir noch so ein bisschen Kleinigkeiten aufräumen. Eine überlasse ich Ihnen. Damit diese Definition hier eigentlich erst
01:15:45
sinnvoll ist, sollte man noch zeigen, dass die totale Ableitung, wenn man sie so definiert, eindeutig ist. Also man muss irgendwie ausschließen, dass es 2 lineare Abbildungen gibt. An der Definition sieht man ja nicht, es könnte durchaus 2 lineare Abbildungen geben,
01:16:06
die das erfüllen. Warum nicht? Es kann es nicht geben, weil dann nicht für beide dieser Rest gegen 0 geht, aber das muss man sich einmal überlegen. Es kann nur eine geben, wenn überhaupt. In dem Sinne ist diese Definition überhaupt sinnvoll. Das zu tun, überlasse
01:16:28
ich Ihnen. Ich will vor allem, damit Sie später würdigen können, wie toll das ist, dass es so einen schönen Zusammenhang zu den partiellen Ableitungen gibt, jetzt
01:16:41
doch für 2 einfache Funktionen mal die totale Ableitung zu Fuß ausrechnen. Und dann nehmen wir jetzt sehr einfache Abbildungen aus gutem Grund. Also wir nehmen als F was sehr einfaches, weil für eine komplizierte will ich es wirklich nicht von Hand machen müssen. Und das erste ist, nehmen Sie sich mal irgendeinen Vektor im Rd, y fest. Und mit dem Ding hier
01:17:05
notiere ich mal wieder das Standard-Skalarprodukt im Rd. Und dann schauen wir uns als Abbildung an, eine Funktion in D-Variablen von Rd nach R, also p ist hier 1. Und x wird abgebildet auf
01:17:24
das Skalarprodukt von x mit y. Oder anders formuliert, f von x ist y transponiert bei x. Das ist eine schöne Abbildung, von der können wir jetzt mal versuchen zu zeigen, ob die
01:17:40
differenzierbar ist und ihre Ableitung ausrechnen. Was muss man tun, wenn man nach Definition eine Ableitung bestimmt? Wir müssen unsere Funktion an der Stelle x0 plus h zerlegen in f von x0 plus lineare Abbildung angewandt auf h plus den Rest. Und der Rest muss schnell genug gehen. Also machen wir das. In dem Fall geht es zum Glück relativ gerade aus.
01:18:05
Also wir schauen uns an. Wir nehmen uns erst in x0 in Rd her, an der wir die Sache anschauen. Und dann schauen wir uns an f von x0 plus h. f von x0 plus h ist nach Definition Skalarprodukt
01:18:21
von y mit x0 plus h. Skalarprodukt ist eine lineare Abbildung. Das ist also Skalarprodukt von y mit x0 plus Skalarprodukt von y mit h. Skalarprodukt von y mit x0 ist schon f von x0.
01:18:41
Jetzt steht hier y angewandt auf h. Anders geschrieben, y transponiert mal h. Das ist eine lineare Abbildung. Es steht sogar schon die Abbildungsmatrix da, nämlich y. Aber
01:19:04
y transponiert. Gut, das heißt, ich habe das jetzt zerlegt in f von x0 plus lineare Abbildung angewandt auf h plus einen sehr übersichtlichen Rest, nämlich 0. Also diese Abbildung, die h zuordnet, y transponiert mal h, das ist eine lineare Abbildung von Rd
01:19:24
nach R. Und der Rest ist an der Stelle 0. Naja, wenn ich 0 durch h teile, also wenn ich Limous h gegen 0 von 0 durch Norm h anschaue, das ist der Limous h gegen 0 und R von
01:19:44
h durch Norm h, dann ist das 0. Das passt alles gut. Also ist f differenzierbar in x0. Und die Ableitung an der Stelle x0 ist für jedes x0 die Abbildung, die das h schickt
01:20:04
auf y transponiert mal h. Das ist eine konstante Ableitung. Und wenn man sich das jetzt anschaut, was ich hier gezeigt habe, dann war es viel Lärm um nichts. Weil warum geht das hier so einfach? Skalarprodukt mit y bilden ist was Lineares. Wie kann
01:20:24
ich eine lineare Abbildung gut durch eine lineare Abbildung nähern? Nähren mit sich selbst. Es ist nicht verwunderlich, dass der Rest 0 ist, wenn ich versuche, eine lineare Abbildung linear zu nähern. Was ich hier habe, ist also nur der Spezialfall davon. Rechnen Sie es gerne auch nochmal allgemein durch. Wenn Sie eine lineare Abbildung haben
01:20:47
von Rd nach Rp, irgendeine, dann ist das immer eine differenzierbare Abbildung in jedem x0 aus Rd. Und die Ableitungsfunktion von dieser linearen Abbildung ist die lineare
01:21:09
Abbildung selbst. Klar, die lineare Abbildung ist ihre beste eigene lineare Nährung. Das ist nicht so wahnsinnig tiefsinnig. Also lieber schnell noch ein Beispiel.
01:21:24
Jetzt haben wir lineare Abbildungen gemacht. Machen wir als nächstes kompliziert, eine quadratische Abbildung. Ich nehme nicht an, dass Sie in LH schon so weit sind. Der Thema quadratische Formen wird dort noch kommen. Aber im Wesentlichen ist das nur die Verallgemeinerung von quadratischen Abbildungen, von Parabeln sozusagen ins
01:21:45
mehrdimensionale. Geben Sie sich irgendeine quadratische symmetrische Matrix vor. Ich meine deswegen auch die Nullmatrix, aber dann wird es langweilig. Und dann bilden Sie f von x ist x mal das Skalarprodukt mit bx. Wenn Sie es eindimensional anschauen,
01:22:07
ist das die Funktion f von x ist b mal x². Also eine Parabel. Man beachte, weil das b symmetrisch ist, ist das das gleiche wie bx,x. b ist gleich b transponiert.
01:22:30
Jetzt sieht es aus, die Frage ist, wie sieht es hier mit Differenzierbarkeit aus? Im Moment keine andere Wahl als die Definition uns anzuschauen. Also wir fangen wieder mit f von
01:22:42
x0 plus h an und versuchen das zu zerlegen in f von x0 plus was Lineares mal h plus den Rest. Also f von x0 plus h ist x0 plus h Skalar multipliziert mit b mal x0 plus h. Jetzt
01:23:01
können wir ganz viel Linearität vom Skalarprodukt ausnutzen. Das ist x0 mal b von x mal so und hinten nutze ich Linearität von der Matrixmultiplikation aus, kriege ich bx0 plus bh plus Skalarprodukt von h mit bx0 plus bh. Jetzt kann ich es in lauter Einzelteile zerlegen, kriege ich x0 bx0 plus x0
01:23:26
Matrix b multipliziert mit h plus h multipliziert mit bx0 plus als letztes h multipliziert mit b
01:23:42
So, jetzt identifizieren wir das hier ist gerade f von x0. Die zwei nächsten Summanden können sie zu einem zusammenfassen. b ist symmetrisch, also können wir einmal dann bx0 mal h draus machen beim ersten und dann können wir noch, weil das Skalarprodukt symmetrisch ist, die Sache
01:24:02
rumdrehen und dann steht da, das ist zwei mal das Skalarprodukt von bx0 mit h und dann bleibt hinten noch der h dh stehen. So, und jetzt ist das genau das, was wir wollen. Dieses hier ist was Lineares in h. Ich setze es im Geiste mal statt dem h eine Linearkombination
01:24:26
ein, dann können Sie das alles schön auseinander zubbeln. Das ist linear in h und das hinten ist quadratisch in h, das ist unser Rest. Das hier ist r von h und das da vorne ist th, also das ist jetzt f von x0 plus th plus r von h, wobei th gegeben ist durch eben das Skalarprodukt
01:24:52
von 2bx0 mit h. Damit das Ding schön differenzierbar ist und dieses Skalarprodukt
01:25:03
Bildung mit 2bx0 auch die Ableitung müssen wir jetzt noch zeigen, dass der Rest gegen 0 geht. Also nehmen wir uns den Rest her. Rest von h durch Norm h soll gegen 0 gehen und das ist jetzt so ein Moment, wo ich gerne hier oben noch einen Betrag hätte, dann darf ich mich
01:25:24
spendieren. Achtung, hier steht jetzt ein Betrag und keine Norm, weil der Rest geht ja in den gleichen Raum wie das f, das f geht aber nach r. Das p ist hier eins, also ist r von h auch reellwertig. Da oben steht also ein Betrag und keine Norm. So, das Ding wollen wir uns anschauen und das soll gegen 0 gehen für h gegen 0.
01:25:44
Kurz setzen wir ein, das ist Betrag von a multipliziert mit bh geteilt durch Norm 0 und wenn man dann eine Zeit lang drauf startet und meditiert, kommt man vielleicht auf die Idee, da mal die Cauchy-Schwarzung-Gleichung darauf anzuwenden. Wir wollen zeigen,
01:26:05
das geht gegen 0, deswegen habe ich einen Betrag drüber geworfen, wir zeigen, es ist kleiner als was, was gegen 0 geht, dann ist immer noch gut. So, dann machen wir Cauchy-Schwarzung-Gleichung, dann kriegen wir das ist kleiner gleich die Norm von bh mal die Norm von h geteilt
01:26:25
durch die Norm von h. Na, das ist doch schon mal wunderschön. Da kommt jetzt nämlich kürzlich die Norm von h raus und was passiert jetzt, wenn sie h gegen 0 schicken? Wenn sie
01:26:40
b mal h, das ist b ist eine Matrix, ist also eine lineare Abbildung, lineare Abbildungen auf endlich-dimensionalen Räumen sind stetig, also geht b mal h gegen 0 und wenn das gegen 0 geht, geht auch die Norm gegen 0, also das geht gegen 0 für h gegen 0. Das liegt daran, dass lineare Abbildungen stetig sind bei endlich-dimensionalem Definitionsbereich,
01:27:01
sind wir hier aber. So, also haben wir f differenzierbar in x0 und die Ableitung df von x0 ist die lineare Abbildung von rd nach r, die gegeben ist durch df von x0 angewandt auf ein Element,
01:27:29
ist genau zweimal das Skalarprodukt bx0 angewandt auf das, angewendet auf das Element, das ist die Ableitung, diese lineare Abbildung. Sie sehen schon, auch hier wieder so richtig
01:27:47
befriedigend ist das schon deswegen nicht, weil wir im Moment diese blöde totale Ableitung schon so schlecht hinschreiben können. Ich muss jetzt immer so rummurksen, die lineare, die Ableitung ist die lineare Abbildung von da nach da, die mit dem und so oder? Da müssen wir uns noch was einfallen lassen, aber wichtig ist eben dieses Bild der Ableitung als lineare
01:28:07
Approximation und dass die Ableitung an einer Stelle immer eine lineare Abbildung ist. Diese lineare Abbildung wird an jeder Stelle eine andere sein. Sieht man auch hier, die lineare Abbildung ist für jedes x0 anders. Das ist nur nicht der Fall in dem Fall wie vorhin,
01:28:23
wenn sie eh schon eine lineare Abbildung haben, dann ist die Ableitung konstant, aber wenn hier die Funktion quadratisch ist zum Beispiel, dann hängt die Ableitung natürlich von x0 ab. An der Stelle gibt es oft ein Missverständnis, das würde ich gleich hier in der Menge noch dreimal mehr darauf umreiten, weil es gerne im Kopf durcheinander geht. An
01:28:44
jeder Stelle x0 ist die Ableitung eine lineare Abbildung, an jeder Stelle x0 unter Umständen eine andere und diese Abhängigkeit von x0, diese Ableitung, die ist im Allgemeinen auch nicht linear. Die Funktion kann ganz wild von x0 abhängen. Kommen Sie also bitte nicht auf die Idee,
01:29:05
dass die Ableitung irgendwie linear von x0 abhängt, das tut sie nicht. Für jedes feste x0 ist die Ableitung eine lineare Abbildung, aber für jedes x0 eine andere und die Frage, wie die Ableitung vom x0 abhängt, das kann wirklich kompliziert sein. Da steckt die Komplexität von dem f drin.
01:29:22
Je komplizierter das f ist, desto komplizierter hängt das ab, aber an jeder Stelle x0 ist die Ableitung eine lineare Abbildung. Gut, soweit für heute. Ich will dann am Anfang der nächsten Vorlesung damit starten, Ihnen zu zeigen oder zumindest plausibel zu machen, dass dieser Beableitungsbegriff der richtige ist. Zum Beispiel werden wir sehen, aus dem folgt
01:29:41
jetzt ganz fix, wenn ich eine total differenzierbare Funktion habe, dann ist die immer automatisch stetig. Es war jetzt bisher bei Partiellen aber den Satz ja massiv vermisst. Wer gilt jetzt? Und dann werden wir uns auf den Weg machen, am Donnerstag diesen wichtigen noch zu suchenden Zusammenhang zwischen totaler Ableitung und Richtungsableitung
01:30:00
oder um partielle Ableitung zu finden, damit wir das, was wir rechnen können bei partiellen Ableitungen nutzen können für die totalen. Gut, soweit dann für heute. Vielen Dank für die Aufmerksamkeit.