We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Vorlesung 15: Ausblick: Partielle Differentialgleichungen

00:00

Formal Metadata

Title
Vorlesung 15: Ausblick: Partielle Differentialgleichungen
Title of Series
Part Number
15
Number of Parts
15
Author
License
CC Attribution - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
EnergieEquationPhysicistFunction (mathematics)Lösung <Mathematik>Partial differential equationConservation of energyMaxima and minimaDensity of statesOrbitAbsolute valueGradientRadiusMathematicianPartial differential equationState of matterStreckeReal numberMathematicianPhysicistLecture/Conference
EquationSet (mathematics)ZahlFunction (mathematics)Lösung <Mathematik>AverageChain ruleKompakte MengeAnnulus (mathematics)Maxima and minimaContinuous functionTrajectoryParameter (computer programming)Differential calculusMusical ensemblePoint (geometry)Absolute valueNegative numberRadiusKompaktheitMaximum (disambiguation)InfinityGradientMean value theorem
EquationSet (mathematics)Function (mathematics)LinieLösung <Mathematik>IndexKompakte MengeSubsetAngleBoom barrierStationäre LösungExistenceAbsolute valueRoundingGreatest elementEntire functionLimit (category theory)Lecture/Conference
Game theoryFunction (mathematics)Lösung <Mathematik>Ljapunov-ExponentMittelungsverfahrenEntire functionTotal S.A.Group actionMaxima and minimaSubsetReal numberKritischer Punkt <Mathematik>Point (geometry)Greatest elementBeta functionLocal ringLogical constantNatürlicher LogarithmusGradientSign (mathematics)Inversion (music)Lecture/Conference
EnergieVelocityEquationMathematicianPhysicistString (computer science)Function (mathematics)Ljapunov-ExponentRaum <Mathematik>SquareRootCoordinate systemSineOscillationPotential energySineAdditionTrajectoryDifferential calculusMathematicianMusical ensemblePoint (geometry)PhysicistConnected spaceKinetic energyMultiplicationLogical constantGradientEnergiefunktionalLecture/ConferencePanel painting
Differential equationOrdinary differential equationEquationMathematicianPartial differential equationPhysicistWärmeleitungFunction (mathematics)LinieVariable (mathematics)Partial differential equationZusammenhang <Mathematik>VolumeAsymptoteDifferential calculusConservation of energySummationDifferential calculusAnfangsbedingungPartial derivativePartial derivativeDifferential equationDiffusionsgleichungLaplace-OperatorWärmeleitungsgleichungMassMehrere VariableHessian matrixLecture/Conference
EnergieFluidVelocityEquationMathematicianQuantum mechanicsSchrödinger equationOscillationWärmeleitungWave equationFunction (mathematics)Gravitational potentialLösung <Mathematik>Matrix (mathematics)OperatorEigenvalues and eigenvectorsHarmonic functionHausdorff spaceNorm <Mathematik>Poisson's equationPotential gameQuantum stateLinear equationMathematicianPressureLiquidComplex analysisNavier–Stokes equationsTerm (mathematics)WärmeleitungsgleichungPoint (geometry)Computer animation
Differential equationEquationIntegral equationPartial differential equationZahlFunction (mathematics)Lösung <Mathematik>BerechnungVariable (mathematics)OperatorZusammenhang <Mathematik>Abbildung <Physik>Differentiable functionUniqueness quantificationGroup actionMilitary operationMoment (mathematics)AntiderivativeDifferential calculusPlant variety (law)Social classEquals signDifferential calculusLaplace-OperatorContinuous functionWärmeleitungsgleichungPoint (geometry)Panel painting
EquationCurveMathematicianMatrix (mathematics)PhysicistSeries (mathematics)Function (mathematics)Lösung <Mathematik>Matrix (mathematics)Variable (mathematics)Vector spaceEigenvalues and eigenvectorsExponentiationLaplace-OperatorLinear mapWärmeleitungsgleichungSummationAnfangsbedingungExponential functionAbsolute convergenceInverse elementGame theoryZahlInfinityAbbildung <Physik>PhysicistLecture/ConferencePanel painting
Euler, LeonhardFraction (mathematics)FunktionalanalysisEquationLinear algebraMathematicianMatrix (mathematics)Set (mathematics)Function (mathematics)MaßtheorieCubeSpectrum (functional analysis)Matrix (mathematics)SquareOperatorVector spaceAlgebraic closureDifferentiable functionEigenvektorEigenvalues and eigenvectorsEinheitskugelFunktionenalgebraHill differential equationLinear mapNorm <Mathematik>Military rankSpectrum (functional analysis)TransportgleichungOperator (mathematics)Point (geometry)RandAtomic nucleusInverse elementDifferential equationEuclidean vectorZahlFactorizationDifferential calculusMilitary operationMoment (mathematics)Differential calculus40 (number)Lecture/Conference
Differential equationFunktionalanalysisGeometryOrdinary differential equationEquationZahlNumber theoryFunction (mathematics)Lösung <Mathematik>Variable (mathematics)Partial differential equationZusammenhang <Mathematik>Urinary bladderLinear mapTheoryTransportgleichungSummationDifferential calculusStructural equation modelingAnfangsbedingungEquals signPartial differential equationCalculationMaßtheorieGrand Unified TheoryTransportprozessNullEnde <Graphentheorie>Lecture/Conference
Transcript: German(auto-generated)
So, dann mal herzlich willkommen zum letzten Durchgang. Wenn Sie die verbleibenden Seiten im Skript durchscannen, werden Sie merken, das reicht nur in homöopathischen Dosen für die heutige Vorlesung.
Das ist ganz bewusst so und eigentlich wollte ich auch noch ein bisschen mehr Zeit übrig haben, weil ich möchte die Vorlesung heute natürlich nutzen, um die letzten Seiten fertig zu machen, aber dann vor allem Ihnen noch so ein bisschen Ausblick geben und ein bisschen was über partielle Differentialgleichungen erzählen, sozusagen die großen, biestigen Brüder der Gewöhnlichen.
Und damit auch, ja, das kann so ein bisschen auch ein Ausblick auf die nächsten Jahre des Studiums sein, weil mit partiellen Differentialgleichungen werden sich alle Physikerinnen und Physiker auf jeden Fall beschäftigen und die Mathematikerinnen und Mathematiker, wenn sie nicht bei der Wahl der Vertiefung sich ganz gezielt an denen vorbei mogeln,
auch. Gut, aber machen wir erst mal noch das fertig, was ich Ihnen über Lyapunov-Stabilität und Lyapunov-Funktion zeigen wollte. Da waren wir letztes Mal stecken geblieben mitten im Lyapunov-Stabilitätssatz. Das war das Theorem 10.4 und ich schreibe jetzt nur den zweiten Teil an, den wir noch nicht bewiesen hatten.
Ja, vielleicht den ganz kurz. Also existiert eine strikte, den Fall einer nicht strikten Lyapunov-Funktion hatten wir schon,
eine strikte Lyapunov-Funktion für die Gleichung y' von t, also für die autonome Gleichung y' von t ist f von y von t. Vielleicht noch mal kurz, was heißt das strikte Lyapunov-Funktion, weil wir es natürlich gleich brauchen.
Das heißt L von 0 ist 0 und L von x ist strikt positiv für alle x in D, die nicht gerade 0 sind. Also 0 ist ein striktes lokales Minimum von der Lyapunov-Funktion.
Und zweitens der Ausdruck Gradient von L von x mal f von x ist strikt kleiner 0 für alle x in D ohne 0. An der Stelle 0 ist der Gradient hier 0, weil es ein striktes lokales Minimum ist.
Und für eine strikte Lyapunov-Funktion soll überall anders strikt kleiner 0 sein. Und die Aussage vom Lyapunov-Stabilitätssatz ist, dass in diesem Fall, dass eine strikte Lyapunov existiert, dann ist die Null-Lösung asymptotisch stabil.
Letztes Mal hatten wir gezeigt, wenn Sie eine Lyapunov-Funktion haben, ist die Null-Lösung stabil. Und jetzt kommt danach klar, wenn Sie eine strikte Lyapunov-Funktion haben, ist die Null-Lösung sogar asymptotisch stabil. Wenn man sich die Lyapunov-Funktion als die Gesamtenergie des Systems vorstellt, heißt die Existenz von einer Lyapunov-Funktion
mindestens Energieerhaltung und strikte Lyapunov-Funktion heißt, Energie geht verloren. Also wird irgendwie umgewandelt in was anderes.
Und damit haben wir dann also sowas wie einen Fall mit Reibung oder sowas, wo dann asymptotische Stabilität auftritt. Gut, also das wollen wir zeigen, sei also L jetzt eine strikte Lyapunov-Funktion. Da müssen wir zeigen, dann haben wir schon gesehen, die Null-Lösung ist stabil.
Das war das, was wir in der letzten Vorlesung gezeigt haben, weil jede strikte Lyapunov-Funktion ist natürlich eine Lyapunov-Funktion. Was uns also noch für asymptotische Stabilität fehlt, ist, dass die Null-Lösung attraktiv ist. Das heißt, was wir zeigen müssen, ist, es gibt ein Delta größer Null, sodass jede Lösung, die näher als dieses Delta an Null startet,
also für die der Betrag vom Anfangswert kleiner ist als Delta gegen Null konvergiert, also erfüllt Limes T gegen unendlich U von T gleich Null.
So, dann hatten wir uns letztes Mal schon ein Sicherheitsepsilon Null größer Null gewählt,
sodass die Kugel um Null mit Radius Epsilon ganz in den D enthalten ist. D ist ja offen vorausgesetzt. So, und zu diesem Epsilon Null, das ist natürlich ein bisschen bescheuert, und Delta größer Null so zu Epsilon Null gewählt,
wie im ersten Schritt des Beweises, also wie in der letzten Vorlesung. Im letzten Schritt der Vorlesung hatten wir Stabilität gezeigt und zu jedem Epsilon und Delta gefunden, sodass, wenn Sie da näher dran starten, das Ding stabil ist.
Zu diesem Epsilon Null wähle ich jetzt das zugehörige Delta aus dem ersten Schritt. So, sei also jetzt U eine Lösung von Y Strich ist F von Y, die näher als dieses Delta, mit U von Null im Betrag kleiner als Delta,
die näher als dieses Delta an Null startet, und wir müssen zeigen, die Funktion gibt diese Lösung, geht dann gegen Null. Jetzt brauchen wir noch zwei Dinge, die aus dem in der letzten Vorlesung vorgeführten Beweis über Stabilität folgen.
Wir haben ja gezeigt, die Nulllösung ist stabil und damals kam raus, dass die Lösung, wenn sie näher als dieses Delta an Null startet, dieses Kreis mit Radius Epsilon Null nicht verlässt, das ist genau Stabilität.
Also es gilt U von T im Betrag ist kleiner als Epsilon Null für alle T größer als Null. Und das hatten wir auch schon mehrfach nachgerechnet, das ist genau das Wesen der Lyapunov-Funktion. Entlang von einer Lösung ist die Lyapunov-Funktion monoton fallend.
Also diese Funktion L nach U, das ist L entlang einer Lösung, die ist monoton fallend auf dem Intervall Null und Null. Das folgt hier aus dieser Bedingung von der Lyapunov-Funktion, damit kriegen wir L entlang einer Lösung monoton fallend.
So und die Attraktivität der Nulllösung zeigen wir jetzt in zwei Schritten. Ich will zuerst eine Zwischenbehauptung beweisen, die das Problem fast löst, aber noch nicht ganz.
Was wir jetzt zeigen müssen, ist der Liemes für T gegen unendlich U von T ist Null. Und was ich jetzt zeige, ist zumindest mal es gibt eine Folge von Zeitpunkten TN, die gegen unendlich konvergiert, sodass U von TN gegen Null geht. Das heißt noch nicht der Liemes U von T ist Null, aber es gibt zumindest
eine Folge von Zeitpunkten, die gegen unendlich geht, sodass U von TN gegen Null geht. Das ist die Zwischenbehauptung. Also es gibt eine Folge TN in der positiven reellen Zahlen, die bestimmt gegen unendlich divergiert, also Liemes TN N gegen unendlich ist unendlich.
Und so, dass wenn ich jetzt diese TN nehme und ins U einsetze, diese Folge U von TN, die konvergiert gegen Null. Die Lösung nähert sich also der Null auf jeden Fall an diskreten Zeitpunkten an.
Das ist natürlich noch nicht der volle Liemes, aber das ist der wesentliche Schritt im Beweis. Beweisen wir also diese Zwischenbehauptung und die beweisen wir per Widerspruch, wir nehmen an, das wäre nicht so.
Was heißt das? Das ist nicht so. Das heißt so eine Folge gibt es nicht. Das heißt der Nullpunkt ist kein Häufungspunkt des Orbits der Lösung. Also wenn das nicht so ist, Annahme, das ist falsch, dann ist der Nullpunkt kein Häufungspunkt von
der Menge, von der Trajektorie der Lösung, also der Menge aller U von T mit T größer gleich. U von T, T größer gleich Null, diese Menge, das sind die Punkte, durch die die Lösung sich bewegt.
Und wenn es so eine Folge gäbe, das heißt die Existenz so einer Folge heißt genau, der Nullpunkt ist ein Häufungspunkt dieser Menge. Annahme ist er nicht, also dann ist er kein Häufungspunkt.
Wenn es kein Häufungspunkt ist, dann muss es irgendeinen Zeitpunkt geben, ab dem sich die Lösung von dem Nullpunkt fernhält. Also es muss dann einen Zeitpunkt groß T geben und einen Sicherheitsabstand R, den wähle ich mal kleiner als epsilon 0 OBDA,
sodass ab diesem Zeitpunkt groß T die Lösung strick größer bleibt als R, also im Betrag strick größer als R, wenn wir nur das T groß genug machen. Wenn das nicht so wäre, dann könnten Sie wieder so eine Folge auswählen, nehmen Sie R als 1 durch
N, dann können Sie für jedes N wieder einen Zeitpunkt finden, wo Sie kleiner sind, dann haben Sie Ihre Folge. So, ich hatte schon gesagt, letztes Mal gesagt, in diesem Yabunov Beweis tauchen viele, viele Kompaktheitsargumente auf, jetzt kommt das nächste.
Wir nehmen jetzt wieder einen kompakten Kreisring, die Menge aller X in D oder nehmen Sie gleich X in RD, sodass R kleiner als Betrag X kleiner als epsilon 0 ist. Die sind alle automatisch in D, weil die Kugel um 0 mit Radius epsilon 0 liegt ja in D.
Das ist ein Kreisring innerer Radius R, äußerer Radius epsilon 0, ich habe ihn an beiden Seiten abgeschlossen gewählt, also es ist ein kompakter Kreisring. Die Funktion L, die Yabunov-Funktion ist stetig, also übliches Argument, stetige Funktion auf kompakter Menge. Dann können Sie darauf das Maximum angucken, also das Maximum X in K von, jetzt nehmen
wir nicht L selbst, sondern diese Bildung gerade hier in L von X mal F von X. Das ist auch eine stetige Funktion, weil F als rechte Seite der Gleichung stetig ist und L ist in C1, also ist gerade hier in L auch stetig.
Damit haben Sie eine stetige Funktion auf einem Kompaktum, das Maximum hier wird angenommen und weil dieses Kompaktum hier echt von der Null weg bleibt und wir eine strikte Lyapunov-Funktion haben, jetzt geht die Voraussetzung ein, ist dieses Maximum hier auch strikt negativ.
So, da geht also die Voraussetzung ein, dass wir eine strikte Lyapunov-Funktion haben, dass dieses M, Achtung das M ist jetzt eine negative Zahl, dieses M, das Maximum dieser Gradienten von L mal F, das existiert und ist strikt negativ.
So, jetzt nehmen wir uns ein T größer als groß T her. Dann wissen wir, unsere Lösung U ist für alle großen T immer größer als R.
Außerdem wissen wir, unsere Lösung U ist für alle T immer kleiner als gleich Epsilon Null. Also für alle T größer als groß T ist unsere Lösung in diesem K.
Also gut, das wissen wir auch, das brauchen wir jetzt noch nicht. Jetzt nehmen wir uns ein T größer T her und schauen uns die Funktion L nach U an und wenden auf die den Mittelwertsatz an. Also der Mittelwertsatz für L nach U liefert jetzt mit einem Tau irgendwo zwischen groß T und klein T,
sodass die übliche Formel für den Mittelwertsatz gilt, also und ich will den ja anwenden auf L nach U, also L von U von klein T minus L von U von groß T ist die Ableitung von L nach U an dieser Zwischenstelle Tau mal klein T minus groß T.
Klein T minus groß T, damit das T minus T positiv ist. Das ist einfach Mittelwertsatz auf L nach U angewendet, in der Zwischenstelle Tau.
Apropos an der Stelle, falls Sie in den Skript gucken, steht da ein bisschen was anderes. Das liegt daran, dass das, was im Skript steht, kompletter Unfug ist. Ich weiß nicht, wer das da reingeschrieben hat, das ist mir völlig schleifhaft. Auf der Erataliste gibt es auf jeden Fall eine neue Version und ich werde auch jetzt nächste Woche, wenn ich,
wenn das Semester rum ist, nochmal alle Eratas ins Skript einbauen und das Ding nochmal hochladen. Also ab jetzt weiche ich vom Skript ab, aus gutem Grunde. Lesen Sie es nicht zu genau durch. So, gut, jetzt können wir hier ein bisschen Kosmetik machen und ein bisschen ausrechnen.
Hier dieses L nach U kann man nach Kettenregel differenzieren.
Also das ist T minus Groß T mal der Gradient von L von U von Tau mal U Strich von Tau. U Strich von Tau ist aber, weil U ja eine Lösung ist, F von U von Tau. Also T minus Groß T mal Gradient L von U von Tau mal F von U von Tau.
So, jetzt müssen wir das Wissen einsetzen, dass wir in dieser Menge K liegen mit unserer Lösung.
Das Tau ist größer als das Groß T, weil es nach Mittelwertsatz zwischen Groß T und Klein T liegt. Also wissen wir, dass unsere U von Tau strich größer ist als R. Das ist das gerade schon Gesagte. Sobald wir größer sind als Groß T, sind wir größer als R.
Andererseits ist die Lösung immer kleiner als Epsilon Null. Also ist U von Tau in K. Und wenn U von Tau in K ist, dann ist das hier eine negative Zahl.
Also das hier ist kleiner als M und M ist kleiner als Null. So, jetzt muss man sich nur nochmal auf der Zunge zergehen lassen, was hier steht. Schreiben wir das nochmal hin. Was haben wir also? Damit haben wir L von U von T minus L von U von Groß T ist kleiner als T minus T mal M und M ist negativ.
Jetzt lassen Sie mal, diese Rechnung ging ja für jedes Klein T. T war nur irgendwie größer als Groß T, aber jedes Klein T größer als Groß T ist gut.
Jetzt lassen Sie mal Klein T auf der rechten Seite gegen Unendlich sausen. Was passiert dann? Dann geht das hier gegen Minus Unendlich. M ist negativ, Groß T ist fix, T minus T wird groß.
So, was heißt das jetzt? Groß T ist fix, das ist irgendeine Zahl. Wenn der Ausdruck hier für Groß T immer kleiner wird, dann wird der irgendwann negativ. Also existiert ein T Stern größer als T, sodass L von U von T Stern kleiner als Null.
Nee, so tief kann unsere Lyapunov-Funktion nicht fallen.
Also, das ist ein Widerspruch. Also, haben wir die Zwischenbehauptung. Jetzt können Sie noch sagen, was ist jetzt der Unterschied zwischen der Zwischenbehauptung und diesem Limit hier?
Das geht doch jetzt irgendwie gegen Null. Was wir jetzt noch sicherstellen müssen, was nicht passiert, sozusagen was jetzt noch theoretisch sein könnte, ist, dass unsere Lösung sowas macht. Hier ist die Null, ja, und jetzt könnte unsere Lösung so fliegen.
Dann nähert sie sich hier zwar an einer bestimmten Folge von Zeitpunkten der Null an, fliegt aber dazwischen immer wieder weg. Das müssen wir hier noch verbieten. So, wie kriegen wir sie dazu, dass sie das nicht tut?
Also, jetzt machen wir uns an den Rest vom Beweis. Jetzt machen wir uns an den echten Limes. Also, wir wollen jetzt zeigen, Limes T gegen N von T ist Null.
Wie fängt ein ordentlicher Limes Beweis an? Sei Epsilon größer Null. Also, nehmen wir uns ein Epsilon her. Und was machen wir? Wir betrachten mal wieder eine kompakte Menge.
Zu diesem Epsilon schauen wir uns die Menge K Epsilon an. Das sind in dem Fall die x in Rd, deren Betrag zwischen Epsilon und Epsilon Null liegt. Also gut, also gut, also gut. Also, ich brauche Epsilon kleiner gleich Epsilon Null.
Also, alle der x in Rd, die betragsmäßig zwischen Epsilon und Epsilon. So, das ist wieder eine kompakte Menge. Auf der ist L wieder stetig, diesmal wirklich L.
Also, von diesmal nehmen wir das Minimum M Epsilon, deswegen jetzt kleines M. Minimum x in K Epsilon von L von x. Das existiert, weil L stetig ist auf der kompakten Menge. Außerdem ist L außerhalb von Null immer strikt positiv. Also ist auch dieses Minimum strikt positiv, immer das gleiche Argument.
So, jetzt werfen wir die Zwischenbehauptung ins Spiel. Die Zwischenbehauptung sagt uns, die Lösung konvergiert vielleicht noch nicht gegen Null,
aber es gibt zumindest eine Folge von T ns, die Null beliebig nahe kommen. Insbesondere muss U von T n ab irgendwann unterhalb dieser Schranke liegen, weil die Schranke ist strikt positiv. Also, die Zwischenbehauptung liefert, es gibt irgendein Null aus N, ein Index Null von unserer Folge T n, sodass L von U von T n null kleiner wird als M Epsilon.
Irgendwann muss unsere Lösung mal näher dran. Das ist das, was wir hier gezeigt haben. Irgendwann ist sie mal nah dran.
Jetzt verstehe ich auch die amüsierten Gesichter, das ist ein Minimum. Sehr schön. So, also wir haben jetzt gezeigt, in der Zwischenbehauptung zeigen wir unsere Lösung.
Kann zwar vielleicht zwischendrin wegfliegen, aber unterwegs kommt sie mal beliebig nahe der Null. Und das Argument ist jetzt, das Argument hier ist jetzt das Fängerargument, das Fliegenfängerargument, das sagt, wenn sie einmal nah genug da ist, dann haben wir sie. Und nah genug heißt kleiner als M Epsilon.
Warum? Diese Funktion L nach U hat ein paar schöne Eigenschaften. Und eine entscheidende steht da oben, L nach U ist monoton fallend. An der Stelle T n null ist es kleiner als M Epsilon.
Und weil L nach U monoton fällt, ist es nicht nur an dieser Stelle kleiner als M Epsilon, sondern ab dann immer. Also L von U von T kleiner gleich L von U von T n null kleiner als M Epsilon,
für alle T größer gleich T n. Da hat man so das Gefühl, man ist fertig, man ist nur so fast fertig, weil wir haben jetzt noch nicht gezeigt, dass das U immer nah bei Null bleibt, sondern das L von U. Jetzt müssen wir noch das L loswerden. Aber das heißt was? Wenn das L von U von T immer kleiner ist als M Epsilon,
dann kann U von T nie mehr in dieses K Epsilon laufen. Weil auf dem K Epsilon ist das L von U ja größer. Also daraus folgt, U von T liegt nicht in K Epsilon
und auch das für alle T größer gleich T n null. Das Minimum auf dieser Menge ist M Epsilon. Der Wert ist für jedes T kleiner als M Epsilon, also liegt es nicht drin.
Außerdem wissen wir, dass U von T im Betrag auf jeden Fall mal kleiner als Epsilon null ist. Das gilt sogar für alle T größer gleich null. So, jetzt kann man überlegen, was unsere U noch für Alternativen hat. Es ist nicht in K Epsilon, also für die großen T ist nicht in K Epsilon.
Es ist auch nicht größer als Epsilon null, dann ist es wohl kleiner als Epsilon. Wo soll es denn sonst hin? Also ist der Betrag von U von T kleiner als Epsilon für alle T größer als T n null.
So, und jetzt lohnt es sich einen weiten Schritt zurückzugehen. Sie sitzen schon weit genug. Was haben wir jetzt da, wenn wir mal die grobe Linie machen, hingeschrieben? Sei Epsilon größer null, dann existiert ein N null aus N bzw. ein T n null,
sodass für alle T größer als T n null der Betrag kleiner als Epsilon ist. Wenn man die Definition von Konvergenz schöner hinschreiben kann, weiß ich nicht. Aber das ist genau die Definition von Konvergenz.
Für alle Epsilon gibt es ein T n null, sodass für alle größer das kleine Epsilon ist. Perfekt. Also Limous T gegen Null, U von T gleich Null. Wenn Sie ganz exakt sind, habe ich jetzt nur gezeigt, dass der Betrag U von T gegen Null geht. Aber ich glaube, das haben Sie oft genug gesehen.
Das Betrag folgt, dass die ganze Funktion gegen Null geht. Also das war der Lyapunov-Stabilitätssatz. Existenz einer Lyapunov-Funktion braucht nur eine zweite Null.
Existenz einer Lyapunov-Funktion erzeugt Stabilität. Existenz einer strikten Lyapunov-Funktion erzeugt asymptotische Stabilität. Jetzt mache ich es genau wie beim Prinzip der linearisierten Stabilität. Ich schreibe Ihnen den Instabilitätssatz hin, beweise den aber nicht.
Also es gibt auch einen entsprechenden Lyapunov-Instabilitätssatz. Das ist hier der 10.5. Also da geht es um ein Kriterium anhand einer sowas ähnliches wie einer Lyapunov-Funktion. Nur jetzt für Instabilität.
Also die Grundvoraussetzungen an die Gleichung sind dieselbe. Wir haben den Definitionsbereich von F, irgendeine offene Teilmenge, die Null enthält, damit wir Null als stationäre Lösung haben können.
F von D nach R D erfülle wieder eine lokale Lipschitz-Bedingung, damit wir eindeutige Lösungen haben. Und wir wollen, dass Null eine stationäre Lösung ist, also F von Null gleich Null.
Und jetzt gibt es einen entsprechenden Satz von Voraussetzungen für eine Antilyapunov-Funktion, die garantiert, dass wir Instabilität haben. Also gibt es eine Funktion L wieder in C1 von D nach R.
Da stand letztes Mal im Skript auch R D. Es gehört auch zu den verschiedenen ausgebesserten Fehlern. Das muss natürlich realwertig sein, mit gleiche Bedingungen wie letztes Mal L von Null muss Null sein. Dann Umkehrung von der Bedingung über den Gradienten.
Na jetzt muss die Sache hier explodieren. Gradient L von X mal F von X muss strikt positiv sein, über allen X in D außer Null. Und drittens, was jetzt noch fehlt, ist diese Positivitätsbedingung an L.
Wenn Sie es mit da oben vergleichen. L muss in Null Null sein, sonst Positiv. Und diese Ausdruckgradient L mal F, das heißt das Verhalten von L entlang von Lösungen muss fallend sein, war Stabilität.
Das Verhalten von L entlang Lösungen ist wachsend, gibt Instabilität. Aber was hier noch fehlt, ist die Bedingung L pro Positiv. Die brauchen Sie nicht in der Allgemeinheit. Sie brauchen nur eine Folge, auf der das L Positiv ist. Also wir brauchen eine Folge XJ Teilmenge D, die gegen Null geht von beliebig kleinen Anfangswerten.
Also limus J gegen unendlich XJ gleich Null. Sie brauchen eine Folge von Anfangswerten, die sich der Null immer weiter annähern. Damit Sie Instabilität erzeugen können, müssen Sie ja beliebig nahe Null Startwerte finden, für die die Lösung abhaut.
Sodass L von XJ strikt Positiv ist für alle J aus L. Also Sie brauchen nicht, dass die ganze Funktion L auf einer Umgebung von Null Positiv ist, sondern nur auf einer Folge, die aber gegen Null kommen will gehen. So und wenn das alles erfüllt ist, also wenn Sie so eine Antiliabonoff-Funktion haben, dann kriegen Sie Instabilität.
Also dann ist die Null-Lösung von unserem üblichen Problem Y' ist F von Y instabil.
Gut, das ist der entsprechende Instabilitätssatz. So, jetzt haben wir ein neues Mittel, um Stabilität zu untersuchen, nämlich die Japonoff-Funktion. Das wollen wir jetzt natürlich mal in Aktion sehen.
Und deswegen gehe ich zu den beiden notorischen Beispielen dieser Kapitel zurück. Wir schauen uns nochmal Lotka-Volterra an, also dieses Räuber-Beutel-Modell und wir schauen uns nochmal das mathematische Pendler an. Also erstmal Beispiel 10.6 Lotka-Volterra, das war das Räuber-Beutel-Modell.
Und da hatten wir in der letzten Vorlesung im Prinzip der linearisierten Stabilität festgestellt, dass der stationäre Punkt in Null Null, der modellierungstechnisch langweilige stationäre Punkt, dass der instabil ist.
Und wir hatten einen zweiten stationären Punkt gefunden in, was war das, Gamma durch Delta, Alpha durch Beta, von dem wir die Stabilität nicht entscheiden konnten. Und das hatte uns dann über so ein paar heuristische Rechenschritte überhaupt erst auf die Idee mit dieser Japonoff-Funktion gebracht. Da hatten wir gesehen, im letzten Mal bei diesem Beispiel, wenn Sie die Funktion V von XY so definieren,
als Delta x plus Beta y minus Gamma, natürlicher Logarithmus von x, minus Alpha, natürlicher Logarithmus von y,
dann ist diese Bildung Gradient V von XY mal F von XY mit dem F vom Lotka-Volterra gleich Null, egal wo Sie im XY in den positiven reellen Zahlen wählen.
Das hatten wir da nachgerechnet. Und das gibt einem jetzt natürlich einen Kandidaten für eine Japonoff-Funktion, weil was hier steht, Gradient von der Funktion mal F ist Konstant Null, passt da oben jetzt nichts, keine strikte Japonoff-Funktion,
aber erfüllt diese zweite Bedingung, wenn Sie da kleiner gleich zulassen, wunderbar, erfüllt diese Bedingung der Japonoff-Funktion. Jetzt müssen wir noch ein bisschen aufpassen. Die erste ist noch nicht ganz erfüllt, weil nämlich dieses V an der kritischen Stelle nicht Null ist.
Das passiert häufiger, ist aber kein Problem, kann man einfach korrigieren, indem man nämlich einfach den Wert an der entsprechenden Stelle abzieht. Also wir schauen uns folgende Funktion an, L von XY ist diese Funktion V, die ist fast eine Japonoff-Funktion,
und dann ziehen wir den Wert von der Funktion an der kritischen Stelle ab. Wenn man ganz sauber arbeitet, müssten wir natürlich eh die kritische Stelle erstmal in den Nullpunkt schieben, weil der Japonoff-Stabilitätssatz ist ja nur für kritische Stelle Null formuliert. Das spare ich mir jetzt mal gerade, macht nur eine Verschiebung mehr, die die Sache unübersichtlicher macht.
Und meine Behauptung ist jetzt, dieses L ist jetzt eine Japonoff-Funktion für das Lotka-Volterra-System. Dadurch, dass ich hier diesen komischen V von der kritischen Stelle abziehe, ändere ich an dieser Eigenschaft hier,
dass die Funktion V entlang von den Lösungen konstant ist, gar nichts, weil da taucht V nur im Gradienten auf. Und wenn ich hier eine Konstante abziehe, dann macht das dem Gradienten einfach mal gar nichts. Und das ist wirklich nur eine Normierung, um diese Bedingung L von Null gleich Null da oben zu erzwingen.
So, also was haben wir jetzt? Also dann gilt zum einen L von der kritischen Stelle Gamma durch Delta, Alpha durch Beta ist Null, weil wir das so hingewirkt haben.
Zweitens, und das überlasse ich jetzt Ihnen zum Nachrechnen, Gamma durch Delta und Alpha durch Beta ist ein striktes lokales Minimum von der Funktion, striktes lokales Minimum von L. Das überlasse ich Ihnen deswegen, weil das ist Standard an A2.
Ja, also Sie nehmen sich die Funktion V, rechnen den Gradienten aus, stellen fest, das ist eine kritische Stelle, rechnen die Hessischen Matrix aus, setzen ein, stellen fest, die ist positiv definit. Ja, also es ist wirklich, geht genau durch. So, dann hat man, dass das ein lokales Minimum, striktes lokales Minimum von L ist.
Das heißt, und an der Stelle ist die Funktion Null, das heißt es gibt eine Umgebung, wo sie strikt positiv ist. Die kann klein sein, ist mir aber völlig wurscht. Dann nehme ich halt D so klein. Also ich habe diese ernste Bedingung für eine Japaner Funktion. Und zweitens wissen wir, deswegen haben wir das V ja gerade gefunden. Der Gradient L von xy mal f von xy, der ist konstant Null und damit kleiner gleich Null.
Also ist dieses L eine Lyapunov-Funktion. Also das heißt, L ist Lyapunov-Funktion zum kritischen Punkt,
was gamma durch Delta, alpha durch Beta, das Lotka Volterra-Systems.
Und damit ist dieser kritische Punkt stabil. Und wir haben ja von letztes Mal gesehen, mehr ist auch nicht zu erwarten. Er ist nicht asymptotisch stabil. Wenn Sie in der Nähe starten, kriegen Sie eine sehr kleine Oszillation, aber Sie kriegen eben, dass Sie auf so einer Höhenlinie von V darum rum oszillieren.
Die Lösung konvergiert nicht gegen den Punkt, aber es ist ein stabiler Punkt. Das hat man jetzt über die Lyapunov-Funktion rausgekriegt und das hätte man über das Prinzip der linearisierten Stabilität nicht rauskriegen können. Weil das kann Stabilität von asymptotischer Stabilität nicht unterscheiden. Oder das kann, genauer gesagt, Stabilität nicht erkennen.
Also reine Stabilität ohne Asymptotik, kann es nicht erkennen. So, jetzt bleibt eigentlich, wenn man so über die Lyapunov-Funktion nachdenkt, noch eine aus der Praxis heraus begründete Frage. Wo kriege ich Lyapunov-Funktion her? Ich meine, der Satz sagt, wenn es eine gibt, dann ist die Welt schön,
aber irgendwo muss man die herkriegen. Und da gibt es im Prinzip erstmal nur eine negative Antwort auf diese Frage. Es gibt keinen allgemeinen Lyapunov-Funktion-Zaubergenerator. Und auch kein allgemeines Verfahren, wie man eine DGL ansieht, ob sie eine hat oder nicht oder wie man sie ausrechnet.
Und das ist die Stelle, wo, wenn man bei einem konkreten Problem ist, die Modellierung ins Spiel kommt. Und wo ich allen anwesenden Mathematikerinnen und Mathematikern sagen kann, eigentlich die beste Möglichkeit, eine Lyapunov-Funktion zu kriegen, ist,
machen Sie sich klar, wo die Gleichung herkommt und wenden Sie sich an Ihre Nachbarin, Ihre Nachbarn hier im Raume, an die entsprechenden Physikerinnen und Physiker oder Mechanikerinnen und Mechaniker und erklären denen, wo die Gleichung herkommt und sagen, ich brauche irgendeine Energie oder eine Gesamtenergie oder eine haltende Größe von dem System.
Sagt immer eine. Und das ist die Methode, an eine Lyapunov-Funktion zu kommen. Das habe ich schon ein paar Mal gesagt. Sie müssen sich die Lyapunov-Funktion vorstellen als ein Energiefunktional für die Gleichung. Also eine Funktion, die für jeden Punkt ausrechnet, welche Energie steckt da drin. Und wenn man irgendwie an einen Formelhaften Ausdruck für diese Energie kommt,
ist die Wahrscheinlichkeit, dass das eine Lyapunov-Funktion darstellt, wahnsinnig hoch. Und das will ich Ihnen zeigen am nächsten Beispiel, am mathematischen Pendel, bei dem man so vorgehen kann.
Aber grundsätzlich gilt für Lyapunov-Funktion, da gibt es kein allgemeines Verfahren für ein wirklich gutes Verfahren, um die Lyapunov-Funktion zu kriegen, ist das gerade angeführte. Weitere Verfahren sind das häufig verschmähte kreative Raten. Dritte gute Verfahren sind so, wie wir das bei dem Lotka-Volterra gemacht haben.
Schauen Sie sich die Gleichung an, überlegen Sie sich, was stört, addieren Sie mal irgendwelche Gleichungen aufeinander und versuchen Sie, Teile loszuwerden. Bei dem Lotka-Volterra war die Grundidee, das Ding ist nicht linear, aber wenn wir richtige Linearkombinationen der beiden Gleichungen bilden, fallen die Licht-Linearitäten raus. Und dann stolperten wir wie von selbst über die Lyapunov-Funktion.
Also die Message ist, wenn Ihre Gleichung nicht einfach der Physität eines Aufgabenstellers entsprungen ist, die Gleichung sieht hübsch aus, die schreiben wir mal hin, sondern wenn da eine reale Modellierung dahinter steckt und ein reales Phänomen, das beschrieben wird, dann steckt die Lyapunov-Funktion üblicherweise in diesem System
und in dieser Gleichung drin und man muss sie nur rausgraben. Nur wie ist der eigene Kreativität überlassen? Also nochmal, was war das mathematische Pendel? y2-strich plus Sinus von y gleich 0. Auch da hatten wir schon im Prinzip
die linearisierten Stabilität drauf geguckt und hatten festgestellt, der Punkt Pi 0, also Auslenkung Pi und Geschwindigkeit 0, der nach oben zeigende Stock, ist instabil. Und bei dem Punkt 0, 0, Ruhelage nach unten, hatten wir im Prinzip die linearisierten Stabilität nicht feststellen können.
Also den schauen wir uns jetzt hier nochmal genauer an. Dazu müssen wir das Ding natürlich erstmal wieder in den System erster Ordnung umschreiben. Das hatten wir aber auch schon ein paar Mal gemacht. Ich wiederhole das nochmal, v1-strich v2-strich. Also v1 ist jetzt y, v2 ist y-strich.
Dann ist v1-strich y-strich, das ist v2, und v2-strich ist y2-strich, das ist Minus-Sinus von y, also Minus-Sinus von v1. Also diese Funktion hier ist das f von v1 von t, v2 von t.
Das heißt f von x, y ist y minus Sinus x. Das ist unsere rechte Seite. Für die brauchen wir eine Lyapunov-Funktion an der kritischen Stelle 0, 0. Erstmal 0, 0 ist offensichtlich eine kritische Stelle.
Setzen Sie 0, 0 ein, kommt 0, 0 raus. So und hier ist die Lyapunov-Funktion. Und wenn man die jetzt einfach so in der Vorlesung hinschreibt, dann ist auch allen sofort klar, wo sie herkommt.
Also L von x, y ist ein halbes y-Quadrat plus das Integral von 0 bis x, Sinus von s ds. Das ist offensichtlich, oder? Da gibt es zwei Antworten drauf. Ne, woher? Oder ja, klar, ist offensichtlich.
Was steht hier? Der erste Summand ist ein halbmal y-Quadrat. y ist die zweite Koordinate von unserem System. Das ist natürlich mit dem y jetzt saubescheuert. y ist jetzt zwei verschiedene Dinge. Das ist die zweite Komponente von unserem System, das ist v2.
Das ist die Ableitung von dem y hier. Also das ist die Geschwindigkeit des Pendels. Das y hier ist die Geschwindigkeit des Pendels. Was steht denn hier? Ein halbmal Geschwindigkeit-Quadrat. Denken Sie noch eine Masse 1 dazwischen. Steht hier ein halbmal Masse mal Geschwindigkeits-Quadrat. Das ist die kinetische Energie von dem Pendel.
Das ist die Energie, die in der Bewegung des Pendels steckt. Und was ist das? Da wird x, da wird von 0 bis x Sinus von s integriert. x ist die aktuelle Auslenkung des Pendels.
Es wird also die rechte Seite der Gleichung, dieses Sinus, integriert von der Ruhelage bis zur aktuellen Auslenkung. Das ist die potenzielle Energie, die in der Auslenkung steht. Das ist die Information, die Sie von den Physikerinnen und Physikerinnen
oder Mechanikerinnen oder Mechanikerinnen und Mechanikerinnen Ihres Vertrauens kriegen. Das ist die Gesamtenergie, die in dem Ding steckt. Bewegung des Pendels plus potenzielle Lageenergie. Jetzt können wir das natürlich noch ausrechnen. Das Integral hier kriegen Sie alle hin. Das ist ein halb y Quadrat minus Cosinus von x plus 1.
So, das ist die Lyapunov-Funktion. Und jetzt müssen wir nur noch nachrechnen, dass es eine ist. Ich meine, wenn man mal einen Kandidaten hat, dann haben Sie schon gewonnen. Weil nachrechnen, dass es eine Lyapunov-Funktion ist, ist banal. Also, was machen wir? Da oben stehen noch die Bedingungen.
Erst mal L von Null ausrechnen. Na gut, ein halb mal Null minus Cosinus von Null plus eins ist Null minus eins plus eins. Ist immer noch Null. Was müssen wir noch machen? Wir müssen sicherstellen, dass das Ding immer positiv ist.
Warum ist das immer positiv, wenn xy nicht Null Null ist? Also, wir brauchen irgendeine Kugel um Null, sodass außerhalb von der Null so eine punktierte Kugel um Null, wo das Ding immer positiv ist. Na ja, in Sachen positiv macht uns das ein halb y Quadrat keine großen Schwierigkeiten. Das ist positiv.
Und der Cosinus wird natürlich nicht schlimmer als eins. Das Einzige, was jetzt passieren könnte, wäre so ein Punkt wie x gleich zwei Pi und y gleich Null. Ja, x gleich zwei Pi. Dann steht hier Null und y gleich Null. An dem Punkt zwei Pi Null hat das Ding wieder eine Null-Stelle. Das wäre doof. Dann nehmen Sie das Delta da unten halt kleiner als zwei Pi.
Wir brauchen hier nur irgendeine Kugel. Also nehmen Sie Delta gleich Pi. So, haben wir den ersten Punkt. Jetzt müssen wir noch den Gradienten von L mal F ausrechnen. Aber das ist auch Fingerübung.
Also, was ist Gradient von L mal F? Gradient von L nach x ableiten. Minus Cos nach x ableiten. Gibt ein Sinus. Und ein halb y Quadrat ableiten. Das kriege sogar ich hin. Das ist y.
Das müssen wir mit F multiplizieren. F war y minus Sinus von x. Ja, und jetzt sehen Sie, wenn man die richtige Gesamtenergie findet, dann ist plötzlich alles brav. y mal Sinus minus Sinus ist Null. Also diese Funktion L ist auch entlang von Trajektorien konstant.
Was hier da steht, ist die Energie ist erhalten. Ich hoffe, dass genau alle Physikerinnen und Physiker das nur ein Gähnen entlockt. Ein Pendel ohne Reibung. Ist die Energie erhalten. Das hätte man auch ohne die Rechnung sagen können. Und was kriegen wir? Es ist eine Lyapunov-Funktion und wir haben Stabilität.
Also L, eine Lyapunov-Funktion. Schreiben wir das mal hin. Also ist L, Lyapunov-Funktion und die Null-Lösung stabil. Auch hier konnte uns das Prinzip der linearisierten Stabilität nicht helfen,
weil wir haben wirklich Energieerhaltung. Wir haben kein Asymptotisch stabil, sondern nur stabil. Und das kann das Prinzip der linearisierten Stabilität nicht auflösen. Gut. Dann sind wir am Ende vom Skript. Das ist ein guter Moment, um jetzt Pause zu machen. Und dann will ich danach, wie gesagt, noch einen kleinen Ausblick geben,
auf was so noch kommen mag, was eine partielle Differentialgleichung ist und was die für interessante Eigenschaften haben. Gut, also machen wir erst kurz Pause. Gut, dann können wir wieder einsteigen zum angekündigten Ausblick zu partiellen Differentialgleichungen.
Und weil ich ja schon weiß, dass ich gleich nach der Vorlesung gelöchert werde, was davon ist denn jetzt noch klausurrelevant, also gleich der Disclaimer, alles was jetzt kommt ist in keiner Weise mehr klausurrelevant,
kann ich Ihnen auch nicht wirklich machen, weil ich kann Ihnen jetzt in dem Abschnitt keine wirklich belastbare Mathematik mehr präsentieren, sondern sehen Sie das Ganze mehr als eine kurze Märchenstunde Mathematik, kurze mathematische Märchenstunde, was da noch so kommen kann und kommen mag.
Ich kann jetzt nichts beweisen, weil sobald ich irgendwas versuche zu beweisen, fehlen uns die Grundlagen. Nicht umsonst gehören die partiellen Differentialgleichungen in die Maß der Vertiefungszyklen rein. Was ich machen will, ist Ihnen ein bisschen begründen, warum Sie erst da kommen,
warum Sie spannend sind und was man auf dem Weg dahin noch alles sehen wird. Erstmal zur Begrifflichkeit, was ist denn jetzt der Unterschied zwischen einer gewöhnlichen und einer partiellen Differentialgleichung? Wir haben ja jetzt viele gewöhnliche Differentialgleichungen gesehen.
Gewöhnliche Differentialgleichungen, haben Sie glaube ich alle schon mal gesehen. Der wird nach einer Variablen abgeleitet, aber meistens haben wir die T genannt. Da gibt es eine Ableitung nach einer Variablen, die hieß bei uns T, kann natürlich je nach Zusammenhang auch mal anders heißen. Aber das Entscheidende ist, es gibt nur eine Variable nach der abgeleitet wird.
Und das ist der Unterschied, der formale, kleine, aber feine Unterschied zu einer partiellen Differentialgleichung. Da wird nach mehreren Variablen abgeleitet, meistens erst mal nach zwei. Man will es ja nicht zu kompliziert machen, nach mehreren Variablen.
Das heißt, was auftaucht, sind partielle Ableitungen. Es tauchen Ableitungen nach zwei verschiedenen Variablen auf. Dann tut man gut daran, sie an A2 nicht mehr Strich zu schreiben, wenn man nicht weiß, worauf sich der Strich bezieht. Und dann tauchen partielle Ableitungen auf. Deswegen partielle Differentialgleichungen, weil partielle Ableitungen auftauchen.
Sie haben schon ein wesentliches, es ist sogar ein System von partiellen Differentialgleichungen gesehen. Ich schreibe mal so vorsichtig hin. Ich weiß nicht, an die dürften Sie sich erinnern, zumindest die meisten von Ihnen.
Koshiriman. Koshiriman-DGN aus der Parallelveranstaltung. Es kann sein, dass ich irgendwo Minus versumpft habe. Aber im Wesentlichen sehen Sie so aus. Das ist ein typisches partielle Differentialgleichungssystem.
Es ist sogar ein System, so kompliziert, wie ich es jetzt gar nicht mache. Aber da sind Sie jetzt mit allen Methoden, die wir hier gemacht haben, erst mal aufgeschmissen. Ein Beispiel, an dem ich heute ein bisschen was machen will, wäre sozusagen, was denn das Einfachste ist. Wenn man mal kein System machen will und zwei verschiedene Ableitungen, dann wäre ja mal so ein Spielproblem,
in dem man sich beschäftigen konnte, so was. Ich habe eine Funktion in zwei Variablen u von t und x. Und dann sage ich, die Zeiterbleitung von u soll gleich der Ortsableitung von u sein. Das wäre jetzt so ein Einfaches, was man mal hinschreibt, ohne dass man sich überlegt, was bedeutet.
Kommen wir nachher zu, was das bedeutet. Aber wäre mal so eine einfache partielle Differentialgleichung erst der Ort. Und ich will Ihnen jetzt zuerst mal zeigen, dass das nicht eine Spinnerei ist. Meine Mathematikerinnen und Mathematiker kommen gern mal auf die Idee, verallgemeinern wir mal. Wozu es gut ist, sieht man vielleicht später.
In dem Fall ist es umgekehrt. In dem Fall kam die partielle Differentialgleichung auf die Mathematik zugeschossen. Man braucht sie reinweise. Ich schreibe mal erst mal eine berühmte hin. Ich zeige Ihnen dann gleich noch eine Staffel mehr auf Folie. Aber an der will ich mich ein bisschen abarbeiten. Die sieht so ähnlich aus, wie die gerade hingeschriebene.
Sie haben wieder eine Funktion in zwei Variablen. T und X. Warum die T und X heißen, erkläre ich Ihnen gleich. Die Physiker können sich schon denken. Und ich will, dass die Zeitableitung von dem U jetzt nicht gleich ist wie die Ortsableitung, sondern wie die zweite Ortsableitung.
Das ist eine berühmte partielle Differentialgleichung. Die hat sogar einen Namen. Das ist die sogenannte Wärmeleitungsgleichung oder Diffusionsgleichung. Und die steckt, wie der Name schon sagt, hinter jedem Diffusionsprozess, hinter jedem Wärmeleitungsprozess. Also die physikalische Einkleidung von dem Ding ist,
X ist jetzt eine eindimensionale Variable. Also Sie haben ein eindimensionales Gebilde. Denken Sie an einen sehr dünnen Draht. Und dann sagt U von T und X, da ist die X-Variable drauf, die Ortsvariable. Und U von T und X sagt, wie heiß ist der Draht zur Zeit T an der Stelle X.
Und wenn Sie jetzt sagen U0 von X, also U von 0 und X, dann ist das, es sieht, was weiß ich, so aus. Hier ist überall Temperatur 0 und da in der Mitte ist er warm. Dann ist das eine vernünftige Anfangsbedingung für diese Gleichung hier.
Und wenn Sie jetzt die Gleichung lösen, dann kriegen Sie eine Funktion U von TX raus. Und wenn Sie jetzt hier zum Beispiel U von 1X ausrechnen, dann sieht die qualitativ so aus, die Wärme diffundiert weg.
Wenn Sie am Anfang in der Mitte ein bisschen geheizt haben, haben Sie die Wärmeverteilung. Und wenn Sie jetzt die Zeit laufen lassen, macht sich die Wärme vom Acker. So, das ist die Wärmeleitungsgleichung. Deswegen T und X, T für die Zeit, X für den Ort.
Das ganze Ding kann man natürlich auch mehrdimensional machen. Normalerweise interessieren sich die Leute nicht so sehr dafür, wie die Wärme sich in einer Dimension verteilt, sondern eher so in drei. Wenn Sie das machen, müssen Sie hier die zweiten Ableitungen geeignet ersetzen. Und die richtige Ersetzung ist ein Ding, das Sie hoffentlich in der Anna 2 schon ein paar Mal gesehen haben.
Und jetzt sehen Sie auch, warum Sie das da gesehen haben. Es ist ein Differentialoperator, in dem alle zweiten Ableitungen auftauchen, nämlich der Laplace-operator. Das ist die Wärmeleitungsgleichung in mehreren Variablen. Zur Erinnerung, was war dieses komische Dreieck? Das ist die Summe aller zweiten reinen partiellen Ableitungen.
Also alle zweiten Ableitungen von U nach D, X, J². Oder hochgestochen ausformuliert die Spur der Hesse-Matrix. So, das ist die Wärmeleitungsgleichung in N-Variablen oder in D-Variablen.
Wie gesagt, D gleich 3 durchaus ein wesentlicher Spezialfall. Aber ich will jetzt zeigen, partielle Differentialgleichungen gibt es viel Sand am Meer und äußerst interessante. Und weil ich die nicht alle hinschreiben will,
habe ich die schnell hier draufgezogen. Kleines Zeitsparaktion. Genau, und die Folie ist auch vor allem dazu da, um allen Physikerinnen und Physikerinnen und Mechanikerinnen und Mechanikern, die dachten, darum sind sie jetzt da geblieben, ist doch alles nicht mehr klausurelevant,
zu zeigen, was sie hier sehen, ist für sie unglaublich relevant. Sie sind die Einzigen, die sich vor diesen Gleichungen nicht verstecken können. Ihre Mathematikerinnen und Mathematikerkollegen, die können noch in eine andere Vertiefung ausweichen und sehen die nie wieder. Sie kommen an den nicht vorbei. Also oben steht die Wärmeleitungsgleichung. Ich habe es gerade schon hingeschrieben.
Und dann habe ich mich gleich vertippst, weil die zweite sieht genau aus wie die erste. Copy- und Paste-Fehler. Hier muss auf die linke Seite eine zweite Zeitableitung. Wenn Sie bei der, also da, Tippfehler, zweite Zeile, zweite Zeitableitung von X gleich Laplace von O,
das ist mindestens genauso wichtig, die Wellengleichung, die jedes Schwingungsphänomen beschreibt. Also wenn Sie irgendein Instrument spielen, ist da immer die Wellengleichung beteiligt. Dann gibt es die Poisson-Gleichung, Laplace U gleich F, in der Form mit F gleich Null, Laplace U gleich Null, so dürften Sie die auch aus der Funktionentheorie kennen, harmonische Funktionen.
Die ist wichtig, wann immer es um Potenziale geht. Gravitationspotenziale, Elektro, Elektropotenziale, worst welche Potenziale. Dann, diesmal ist es kein Tippfehler,
Zeitableitung von U gleich I mal Laplace U. Einziger Unterschied zur Wärmeleitungsgleichung, ein unauffälliges I, ein kleines I mit großer Wirkung. Was dadurch entsteht, dass man da so ein publikes I reinschreibt, ist eine völlig andere Gleichung mit völlig anderem Verhalten, die sogenannte Schrödinger-Gleichung.
Und das ist jetzt wieder was für die Abteilung mit pH am Anfang. Diese Gleichung ist die gesamte Vorlesung Quantenmechanik. Die steckt hier in einer Zeile. Die Vorlesung Quantenmechanik beschäftigt sich damit, diese Missgleichung zu lösen. Weil die Lösungen dieser Gleichungen sind die Zustände eines Quantenmechanischen Systems.
Punkt. So ist es. Und die Eigenwerte von dem dahinterstehenden Operator sind die Energien der Lösungen und so weiter und so weiter. Sehen Sie alles. Aber im Prinzip steckt die gesamte Vorlesung Quantenmechanik in dieser Gleichung. Und dann habe ich, nochmal, damit Sie sehen,
das da oben sieht schon alles hässlich aus, und da war alles lineare Gleichungen. Also alle bis hier sind lineare partiell-differentiale Gleichungen. Setzen Sie im Geiste mal für U eine Linearkombination ein. Dann sehen Sie, fällt alles auseinander, weil Differenzieren ist linear. Da habe ich noch eine nicht lineare mitgebracht.
Das ist die Darmstädts Spezialgleichung, weil wir im Fachbereich ein ziemlich großes Team haben, das sich mit dieser Gleichung rumschlägt. Das ist die Navier-Stokes-Gleichung. Das ist die Gleichung, die beschreibt, das Verhalten von Fluiden. Also Flüssigkeiten.
Strömungsverhalten von Flüssigkeiten. Nach dieser Gleichung gurgelt zuhause das Wasser durch den Abfluss. Das ist eine nicht-linear-Gleichung. Was soll das hier alles bedeuten? Dieses J U ist das, was es bedeuten soll. Das ist die Jacobi-Matrix von der Funktion U. Also hier steht Zeitableitung von U ist gleich Laplace U, soweit Wärmeleitungsgleichung.
Plus die Jacobi-Matrix von U transponiert, mal U. U ist die Geschwindigkeit. U von Tx ist in dem Fall die Geschwindigkeit der Flüssigkeit zum Zeitpunkt T an der Stelle x. Und dieser Term, Jacobi-Matrix von U transponiert mal U, der ist der Grund allen Ärgernisses mit der Navier-Stokes-Gleichung. Erstens ist das was nicht in Jahres,
weil U mit U multipliziert wird. Der modelliert die Turbulenzen. Der Turbulent, die Wirbelbildungen und so weiter. Das ist der ätzende Term. Und dann taucht da hinten noch Minusgradient P auf, dass der Drucks braucht, sie nicht weiter zu interessieren. Aber das ist die Navier-Stokes-Gleichung. Und die ist nicht nur wichtig, sondern auch in der Mathematik extrem wichtig
für die Navier-Stokes-Gleichung. Oder für eine Aussage zur Lösbarkeit der Navier-Stokes-Gleichung ist eines von den sieben Millennium-Problemen, eins von den sieben One-Million-Dollar-Problemen vom Clay-Institut hängt mit dieser Gleichung zusammen. Also Sie sehen partielle Differential-Gleichung noch und nöcher. Ich habe hier noch drei Pünktchen.
Sie können auch 10-Pünktchen machen, da kommt noch viel nach. Das sind aber mal so die wichtigsten Gleichungen, die überall bei Ihnen im Service-Fall auftauchen. Gut. Ja? Frage? Gut. Also, das so für den Grobeindruck.
Und um auch alle Nicht-Mathematikerinnen und Mathematiker mitzunehmen. So, du bleibst stehen. So, was ist denn jetzt das Fiese an partiellen Differentialgleichungen? Und im Prinzip kann man das relativ klar machen, was das Problem ist.
Man könnte jetzt natürlich anfangen zu sagen, naja gut, jetzt haben wir vielleicht ein bisschen ätzendere Gleichungen. Jetzt machen wir doch einfach das Programm, das wir für gewöhnliche gemacht haben, auch für partielle. Und dann ist die Frage, was kommt dabei raus? Also, was ist die Grundkrux an den partiellen Differentialgleichungen, was ist das Problem?
Und da kann man sehr genau den Finger drauf legen. Wenn Sie jetzt zurückgehen in der Vorlesung, dann haben wir am Anfang so ein bisschen spezielle Gleichungen gelöst. Aber dann kamen die fundamentalen Kapitel über Existenz und Eindeutigkeit von Lösung. Satz von Piano, Pika Lindelöf. Und alle diese Kapitel fußen auf einem einzigen Lämmer.
Auf einem total entscheidenden Lämmer. Das war das Lämmer 4.1. Das sagt, die Differentialgleichung y' von T gleich f von T und y von T ist in gewisser Weise äquivalent zur Integralgleichung. y von T ist y0 plus Integral von 0 bis T f von S y von SDS.
Das war das Lämmer 4.1. Und wann immer wir danach irgendwas über Lösbarkeit oder sonst wie von Gleichungen gemacht haben, haben wir diese Darstellung benutzt. Und das Problem ist, dieses Lämmer 4.1 bricht zusammen.
Geht nicht mehr. Schon allein deswegen. Ich meine, wo kam das Lämmer 4.1 her? Das kam daher, dass wir auf die Gleichung einfach den Hauptsatz angewendet haben. Sie schreiben y als y an der Stelle 0 plus Integral über die Ableitung und ersetzen die Ableitung durch f.
Das war schon der ganze Beweis vom Lämmer 4.1. Das war banal. So, jetzt haben wir aber zwei Ableitungen. Wir haben eine nach T und eine nach x. Das heißt, Sie können die Aktion meinetwegen in T machen, dann haben Sie aber immer noch eine Ableitung in x übrig. Oder Sie machen es in x, dann haben Sie eine Ableitung in T übrig. Oder Sie zaubern mir irgendwo einen Hauptsatz für zwei Funktionen in zwei Variablen, den gibt es nicht.
Wenn Sie sich daran erinnern, es gibt einen massiven Unterschied zwischen A1 und A2, was die Existenz von Stammfunktionen angeht. In A1 kam raus jede stetige Funktion in der Stammfunktion. Wunderbar. In A2 kam raus 0 Prozent aller Funktionen in der Stammfunktion, wenn Sie großes Glück haben.
Das ist die Grundkrux. Das heißt, alles, was wir gemacht haben, können Sie auf partiale Differentiale Gleichung erst einmal nicht übertragen. Weil Lämmer 1 schief geht, wie im Klischee. Das Ding bricht bei Lämmer 1 zusammen. So, und das heißt, sozusagen das Ergebnis davon ist, PDEs muss man anders angucken.
Und was man dabei feststellt ist, ich sage jetzt schon mal PDE, partial differential equation, meinetwegen, bleiben wir deutsch, PDGN, werden dadurch viel komplizierter. Und wenn man ehrlich ist, fehlt bis heute
jedwede Theorie, die auch nur annähernd so schön ist, wie bei gewöhnlichen. Es gibt ganz viele Theorien, es gibt ganz viele Ergebnisse, dass manche Sorten von Gleichungen lösbar, und dann gibt es Stabilitätsuntersuchungen, das alles gibt es da auch. Aber wenn man ehrlich ist, sind das alles Einzelfalluntersuchungen. An speziellen Gleichungen, an speziellen Klassen von Gleichungen, aber es sind immer nur kleine Klassen.
Und ich will jetzt das Ganze ins Positive drehen und sagen, die sind vielleicht viel komplizierter, aber das Wort hört sich so negativ an, die sind viel, viel spannender. Weil die sind biestig, und dann wird man irgendwann, kriegt man dann das Verlangen,
jetzt wollen wir die in den Griff kriegen. Und da gibt es wie gesagt viele Ansätze, alte, neue, einfallsreiche, noch einfallsreichere, werde ich Ihnen natürlich jetzt nicht alles referieren, ich meine nicht umsonst das mehrere Semester Studium.
Aber ich will wenigstens so eine Idee Ihnen nahebringen, die ein bisschen auf das aufbaut, was wir hier gemacht haben. Das ist eine Idee, die stammt, ja, ich zeige Ihnen einfach mal die Idee erst mal. Und ich will das nur am Beispiel machen, und zwar am Beispiel der Wärmeleitungsgleichung,
deswegen habe ich sie da oben schon hingeschrieben, wir machen mal nur in einer Dimension. Weil es geht ja nur darum, die Idee rüberzubringen und jetzt keine allgemeine Lösungsformel zu produzieren. Also Wärmeleitungsgleichung du nach dt, also die Temperatur zurzeit t am Ort x nach t abgeleitet,
soll das Seid gleiche sein wie die zweite Ableitung nach dem Ort x von der Temperatur. Die Gleichung wollen wir anschauen. So eine Funktion u suchen wir. Was jetzt da steht, ist die Gleichheit von Zahlen. Für alle t und x sollen die beiden Funktionswerte jeweils übereinstimmen. Und jetzt macht man einen kleinen Änderung des Standpunkts.
Die haben wir auch schon mal gemacht im Zusammenhang mit dem Pikalindelöf. Wir schauen das Ganze nicht an als eine Gleichung von Zahlen. Für alle t und x sollen die beiden übereinstimmen, sondern wir behandeln die beiden Variablen unterschiedlich. Das Problem bei der Sache war ja, dass wir sozusagen zu viele Variablen haben.
Ich mach mal das x hier weg, mach da mal einen Punkt rein und sag, ich kann diese Differentialgleichung auch sehen als eine Gleichheit von Funktionen. Für jedes t soll diese Funktion gleich der Funktion sein. Jetzt können Sie sagen, jetzt haben Sie überhaupt nichts geändert, weil was heißt Gleichheit von Funktionen? Gleichheit von Funktionen heißt es an jeder Stelle gleich.
Trotzdem sehen wir es mal so, es ist eine Gleichheit von Funktionen. Wenn man das macht, machen wir es doch schreibweisenmäßig übersichtlicher, machen wir es doch in mehreren Dimensionen. Witzigerweise sind hier mehrere Dimensionen einfacher.
Es stehen weniger Buchstaben da, weil es geht nur um die D. Also hier steht am Anfang Laplace u von t, x. Das ist die Werleitungsgleichung und jetzt sehen wir es als Gleichheit von zwei Funktionen.
Und zwar die Funktion u nach Zeit abgeleitet ist für jeden Zeitpunkt gleich der Funktion Laplace u an der Stelle t. Bevorher hatten wir hier stehen t größer gleich 0 und x in R. Jetzt ist das x in R in gewisser Weise verschwunden in dem Gleichheitszeichen, weil die Bedinger sollen ja als Funktionen gleich sein.
Und der zweite entscheidende Schritt ist, wir betrachten diesen Laplace als eine Operation auf Funktion, sage ich Operation, sauberes Wort ist Operator,
auf Funktion. Also stellen Sie sich diesen Laplace im Moment jetzt vor, zum Beispiel als eine Abbildung von C2 nach C.
Sie haben eine Funktion auf dem RD, wenden den Laplace an, kriegen Sie eine zweimal weniger differenzierbare Funktion raus. Dieser Laplace ist ein Operator auf den Funktionen, und zwar nicht nur irgendein Operator auf Funktionen, sondern ein maximal schöner.
Vielleicht finden Sie den Laplace-Operator nicht schön, aber wissen Sie, was das Tolle am Laplace-Operator ist? Der ist linear! Gibt es was Schöneres als eine lineare Abbildung?
Nein, höchstens noch eine konstante Abbildung, aber drunter geht ja gar nichts. Also, das ist eine lineare Abbildung. Was jetzt hier steht,
wenn Sie das so auffassen, und ich will es jetzt einfach mal anders schreiben, schreiben Sie diese Gleichung noch ein bisschen anders, in der Gleichung taucht jetzt nur noch eine Variable auf. Die zweite Variable haben wir wegdefiniert, indem wir sagen, das ist eine Gleichung in einem Funktionraum, oder in einem Funktion. Dann darf ich jetzt wieder Strich schreiben.
Was hier steht, ist die Gleichung U Strich von T ist gleich Laplace U von T. Und Laplace ist eine lineare Abbildung. Eine wunderbare lineare Abbildung. Nur halt nicht von Rd nach Rd, sondern von C2 nach C. Sind aber Vektorräume.
Kann ich eine lineare Abbildung definieren? Ist so wunderbar. Kann ich sogar die Eigenwerttheorie machen? Es werden ja auch noch die Physikerinnen und Physiker sowieso stundenlang Eigenwerte von Laplace ausrechnen. Mathematikerinnen und Mathematiker auch. Das ist eine lineare Abbildung auf Vektorräume und Eigenwerte. Aber jetzt kommen wir zurück zur DGL-Vorlesung.
Das haben wir doch irgendwo schon mal gesehen. Ich schreibe es mit Y. Die gewöhnlichen mit Y. Das sollte was klingeln. Lineare Abbildung ist eine Matrix. Das ist nicht unbedingt eine Matrix. Das ist eine lineare Abbildung, aber auf einem blöden, unendlich dimensionalen Raum.
Matrix schwierig. Aber egal, ist das eine lineare Abbildung? Jetzt brauchen wir natürlich noch irgendeinen Y von 0, das ist Y0. Wenn wir uns oben die Modellierung von der Wärmeleitungsgleichung überlegen, stimmt natürlich, wir brauchen da auch eine Anfangsbedingung. Wir müssen auch wissen, wie verhält sich die Wärmeverteilung zum Zeitpunkt 0.
Was ist die Lösung? Die Lösung kennen Sie alle. Die müssen Sie sofort hinschreiben. Die Lösung ist E hoch TA mal Y0. Dann ist doch klar, was die Lösung da oben ist. Dann ist die Lösung E hoch T laplace
mal O0. Jetzt sind wir wieder an der gleichen Stelle wie damals, als ich Ihnen E hoch T Matrix hingeschrieben habe und Sie haben gesagt... In dem Fall haben Sie mit dem, der hat ein Vogel mehr Recht. Was soll das sein? Macht noch keinen Sinn. Stimmt.
Also müssen wir ihm den Sinn geben. Und jetzt haben Sie verschiedene Möglichkeiten. Nicht kleingeistig aufgeben. Muss doch dem Möglichkeit geben, den Laplace-Operator in die E-Funktion einzusetzen. Haben wir doch mit den Matrizen auch schon hingekriegt. Also erste Idee natürlich.
Summe N gleich 0 bis unendlich. T hoch N laplace hoch N durch N Fakultät. Dürfen Sie gerne versuchen. Führt in die Katastrophe. Sie werden keine, wie auch immer geartete Norm finden, indem das Ding auch nur in die Nähe einer Konvergenz kommt.
Liegt an einer, werden Sie auch noch sehen, unangenehmen Eigenschaft von linearen Abbildungen auf unendlich dimensionalen Räumen. Auf unendlich dimensionalen Räumen kann man unstetig lineare Abbildungen produzieren. Das ist so eine. Insbesondere ist sie nicht beschränkt.
Also ist keine beschränkte lineare Abbildung im Sinne von lineare Abbildung beschränkt. Also hat keine endliche Matrix-Norm. Die einzige Chance, diese Reihe zum Konvergieren zu bringen, ist, der laplace hätte irgendeine endliche Norm und dann könnte man mit absoluter Konvergenz draufhauen. Ist nicht. Können Sie vergessen. Nutzloser Ansatz. Jetzt hat man ja aber zum Glück mehrere Möglichkeiten, mit denen man die E-Funktion
approximieren kann. Also was halten Sie zum Beispiel hier von? Identität plus T laplace durch N hoch N. Wenn Sie da statt T laplace x hinschreiben, geht das gegen E hoch x. Also Limes N gegen unendlich dagegen, das davor.
Ist doch auch eine Idee. Führt aufs gleiche Problem. Sie müssen Potenzen vom Laplace-Operator in den Griff kriegen. Den kann man nicht abschätzen. Tut nicht. Jetzt hilft ein saumäßig blöder Trick.
E hoch x ist nämlich E hoch minus x hoch minus eins. Also, schauen Sie sich doch mal an, den Limes N gegen unendlich E plus, nein, E minus T laplace durch N hoch minus N.
Das geht auch gegen E hoch x, wenn Sie da x hinschreiben, statt T laplace. Was jetzt da steht, sind nicht mehr Potenzen vom Laplace. Also ich habe hier jetzt nicht eins, sondern I, weil das ja die Identität ist. Sondern das sind jetzt Inverse vom Laplace.
I hoch hoch minus N. Und witzigerweise Inverse vom Laplace schön. Jetzt sind wir wieder beim Thema Eigenwerte. Weil was hier ja steht, ist, Sie müssen diese Inversen hier bilden. Das heißt, N durch T darf kein Eigenwert sein, weil dann ist das nicht invertierbar. Aber kommen wir wieder aufs Thema Eigenwerte.
Können Sie sich später alles mit beschäftigen. Tatsächlich funktioniert das. Das hat der Herr Hille in den 1940er Jahren entdeckt. Ist noch nicht so alte Mathematik. Ist von 1940. Also Sie müssen von heute an noch so gute 100 Jahre Mathematik machen, bis Sie da sind. Deswegen müssen Sie jetzt auch noch nicht alles nachvollziehen.
Ich sage nur, das funktioniert. Es gibt noch einen zweiten, witzigerweise einen zweiten Ansatz, der funktioniert, mit dem Sie gerade auch was anfangen können. Wir können Sie E hoch Z noch schreiben. Ich schreibe ganz bewusst Z. E hoch Z ist 1 durch 2 Pi. Integral über die richtige Kurve.
E hoch E hoch E hoch W. E hoch Z durch Z minus W DZ. Haben Sie alle schon mal gesehen. Kursche Integralforme. Jetzt W gleich T laplace.
E hoch T laplace ist Integral über Gamma. E hoch Z durch Z minus T laplace. DZ. Das macht überhaupt keinen Sinn. Wie soll man denn durch den Laplace-Operator teilen? Haben Sie natürlich recht. Die 2 Pi, die sparen wir uns nicht.
Also ist 1 durch 2 Pi. Integral über Gamma. E hoch Z. Z mal die Identität minus T laplace hoch minus 1 DZ. So. Jetzt steht wieder die Inverse vom Laplace da. Die ist gut. Solange Sie nicht gerade zufällig auf einem Eigenwert rumrennen.
Eigenwert ist natürlich doof. Aber man stellt fest, der Laplace hat sehr wenige Eigenwerte. So, dass man mit dem Weg darum herumkommt. Und dann kann man so tatsächlich auch E hoch T laplace definieren. Und kriegt tatsächlich eine Lösung für diese blöde Wärmeleitungsgleichung. Das funktioniert.
Sie sehen, ich eier so ein bisschen rum. Das funktioniert. Ich begründe Ihnen nicht, warum das funktioniert. Das liegt daran, dass man jetzt eine ganze Menge benötigt. Ja, wenn man das ganz rigoros machen will, was braucht man dann? Schauen wir uns ein bisschen an.
Was muss man tun? Na, man muss sich beschäftigen mit solchen linearen Abbildungen auf Räumen von Funktionen. Auf unendlich dimensionalen Vektorräumen. Da muss man erstmal so ein bisschen verstehen, wie sich das anfühlt. Im Prinzip braucht man
eine lineare Algebra auf unendlich dimensionalen Vektorräumen. Und wenn man es arg verkürzt, dann heißt lineare Algebra auf unendlich dimensionalen Vektorräumen Funktionalanalysis. Das ist der Inhalt der Funktionalanalysis. Ein Inhalt der Funktionalanalysis Vorlesung. Also, man braucht lineare Abbildungen
auf unendlich dimensionalen Räumen. Das ist ein wesentlicher Punkt in dem, was Sie sich wahrscheinlich in einem Jahr anfühlen werden. Was braucht man? Man braucht insbesondere deren Eigenwerttheorie.
Sie haben es schon gesehen. Diese ganze Sache steht und fällt damit, dass man diese Inverse hier in den Griff kriegt. Die Inverse von I-T Laplace N. Schreiben Sie die ein bisschen um. Dann ist das dasselbe wie T durch N
mal N durch T minus Laplace. Und das ist N durch T N durch T minus Laplace hoch minus eins. Bisschen Bruchrechnung am Rande. Was jetzt hier steht, ist ein Vollfaktor mal die Existenz von der Inversen
von Laplace an der Stelle N durch T. Also N durch T soll gefälligst kein Eigenwert sein. Mehr ist das nicht. Jetzt geht natürlich das Problem los, wenn Sie eine Funktionalanalysis sehen. Eigenwert ist schon wieder so ein ganz schwieriger Begriff. Es gibt nämlich bei unendlich dimensionalen Vektorräumen durchaus die Möglichkeit,
dass das Ding zwar nicht invertierbar ist, es gibt aber keinen Eigenvektor dazu. Das liegt daran, dass im endlich dimensionalen injektiv gleich sujektiv ist. Dieser Dimensionssatz, der geht natürlich verloren, weil die Dimension ist unendlich. Der Dimensionssatz, der sagt, wenn
die Matrix nicht vollen Rang hat, dann muss sie auch einen Eigenvektor haben. Dann ist auch der Kern nicht null. Das geht im unendlich dimensionalen schief. Die Matrix, der Operator kann nicht vollen Rang haben, aber trotzdem injektiv sein. Also er kann injektiv, aber nicht sujektiv sein, er kann sujektiv und nicht injektiv sein, er kann alles Mögliche sein. Das heißt, es kann sein, dass die Inversen nicht existiert
und sie haben trotzdem keinen Eigenwert. Es ist ein sogenannter Spektralwert. Lauter solche Dinge können da passieren. Alles Funktionalanalysis. Kommt alles dann. Also, die gesamte Eigenwert, beziehungsweise Spektraltheorie von solchen Operatoren muss man machen. Die ist,
jetzt kann man wieder die beiden Wörter benutzen, komplizierter, nein, die ist spannender, die ist spannender als die Eigenwerttheorie von Matrizen. Deutlich spannender. Und damit man das Ganze auch machen kann, braucht man ein gutes Arsenal von Räumen, von Funktionen, auf denen man arbeiten kann. Und witzigerweise stellt sich heraus,
wenn man versucht, diese ganze Theorie, die man hier braucht, die der Hille braucht, das Problem ist ja, diesen Limes hier vernünftig zum Konvergieren zu bringen, dann ist schon mal gleich die Frage bezüglich welcher Norm. Im unendlich Dimensionalen müssen Sie immer gleich mal fragen bezüglich welcher Norm, weil da ist eben nicht mehr jede Norm äquivalent.
Dann ist witzigerweise das Naheliegendste, nämlich ich mache das Ganze auf C2 oder auf C eine saumäßig schlechte Wahl. Partiell-Differential-Gleichung auf stetigen oder auf differenzierbaren Funktionen zu betrachten ist die Hölle. Hintergrund im Wesentlichen,
die Normen hier auf C, die Normen auf diesen räumenstetigen Funktionen sind die Supremumsnormen. Und ich hoffe, Sie haben alle irgendwann mal die Einheitskugel von der Supremumsnorm hingemalt. Der Einheitskugel von der Supremumsnorm ist so ein Quadrat oder Würfel. Insbesondere ein eckiges Gebilde.
Und eine eckige Norm zusammen mit Differential-Gleichungen, wo Sie differenzieren müssen, ist wow. Weil dann können Sie noch nicht mal die Norm differenzieren. Wenn Sie noch nicht mal die Norm differenzieren, können wir uns noch was komplizierteres differenzieren. Keine gute Idee. Man braucht andere Räume hier, auf denen man differenzieren kann. Dazu muss man den
Differenzationsbegriff ausweiten. Man muss einen schwächeren Ableitungsbegriff einführen. Und man braucht ein ganzes Arsenal an anderen Funktionenräumen. Und die richtigen Funktionenräume, mit denen man gut arbeiten kann, sind die Lebesque-Räume. Und da verweise ich auf die Maßtheorie. Also die
Vorlesung im nächsten Semester. Im nächsten Semester schaffen Sie das Arsenal an Räumen, auf denen man dann den Laplace als vernünftige lineare Abbildung definieren kann, um dann die ganze Theorie in der Funk einer drauf zu setzen. Da steckt ein neuer Integralbegriff dahinter. Und man kann
darauf auf Fuß einen neuen Differenzationsbegriff definieren. Und wenn man den hat, kann man den Laplace anders auffassen. Und dann passt das alles. Sie sehen, da ist noch viel zu tun. Aber es ist ganz spannend. Das will ich damit auch rüberbringen. Und jetzt will ich Ihnen am Schluss noch zeigen, dass die Grundidee
so absurd sie sein mag, wie man das Potenzial hat. Und das Potenzial, das haben schon Leute erkannt zu Zeiten, die das alles auch nicht wissen konnten. Die folgende Rechnung stand angeblich von Leonhard Euler. Euler hatte auch keine Ahnung, was ein Lebesque-Raum ist. Euler hatte keine Ahnung, was Funktionalanalysis ist.
Das gab es damals alles noch nicht. Und trotzdem, die Funktionalanalysis ist also sie kommen jetzt mit diesen Vorlesungen Maßtheorie, da sind sie um 1900. Die Funktionalanalysis bringt sie nach 1930.
Und danach sind sie dann soweit, dass man sich an den Hillen machen kann. Das war in den 40ern. Ich glaube, veröffentlicht ist es 48. Aber Euler hat genau diese Idee schon benutzt und im Stile der guten alten Mathematiker hochlos benutzt, ohne sich darüber Gedanken zu machen, ob es geht oder nicht.
Das will ich Ihnen zum Abschluss noch zeigen. Und jetzt gehen wir zurück zu unserer Transportgleichung. Zu unserer Gleichung da oben, der einfachst möglichen. Also wir gehen nochmal zurück zu dieser Gleichung. Die Zeitableitung von unserem U soll die Ortsableitung von unserem U sein.
Können Sie die gleiche Überlegung wieder drüben machen? Wenn Sie jetzt das Gleiche machen, wie gerade eben, Sie fassen es nicht als eine Gleichheit von Zahlen, sondern von Funktionen auf, dann können Sie das wieder umschreiben in die Gleichung der Form U' von T ist irgendein Au von T,
wobei Au eben genau die Ableitung von U ist. Aber jetzt nach X. Das ist auch ein linearer Operator, eine lineare Abbildung, nämlich jetzt die erste Ableitung, statt der zweiten da drüben.
Und dann kann man genau die gleiche, genau die gleiche, also wir brauchen wieder eine Anfangsbedingung. U von 0x ist U0 von x. Die Anfangsbedingung hängt nur vom Ort ab, nicht mehr von der Zeit. Und jetzt können Sie genau diese Idee machen, die formale Lösung.
Ja, also jetzt haben wir, wenn wir die Anfangsbedingung umschreiben, U von 0 ist U0. Das ist das Ganze in diesen abstrakteren Zusammenhang gebracht. Was man hier im Prinzip macht, ist, Sie haben eine partielle
Differentialgleichung in Zahlen. Dann sagen Sie, Sie schauen sich das an als eine Gleichung von Funktionen und kriegen jetzt eine gewöhnliche Differentialgleichung, aber nicht mehr von Zahlen, sondern von Funktionen. Das ist das Gesetz von Arbeitsaufwand. Entweder Sie haben eine komplizierte Gleichung auf einer einfachen Geometrie,
also in R, oder Sie haben eine einfache Gleichung in einer komplizierten Geometrie, nämlich in irgendeinem Raum von Funktion. Können Sie sich auch so Das führt weiter hier, weil die formale Lösung liegt jetzt nahe. Die Idee von da drüben,
die formale Lösung ist U von Tx ist E hoch Ta U0 an der Stelle x. Formale Lösung von dem Ding hier ist E hoch Ta mal U0. Rechnen wir nochmal aus, was das ist. Wie gesagt, Euler hat sich nicht darum
geschert, ob das Sinn macht oder nicht. Der hat dann einfach was da steht. Da steht E hoch T Ableitung nach x U0 Schreiben wir es hin. Also Summe N gleich 0 bis unendlich T hoch N
D nach Dx hoch N durch N Fakultät U0 Was steht jetzt da? Summe N gleich 0 bis unendlich Die 1 durch N Fakultät nach vorne. Nte Ableitung nach x von U
an der Stelle x mal T hoch N Nte Ableitung Ich schreibe das jetzt mal ein bisschen suggestiv um. Jetzt können wir auch da die Enden das U hat ja eh nur noch eine Variable. Also was jetzt da steht ist Summe N gleich 0 bis unendlich
Nte Ableitung von U geteilt durch N Fakultät mal T hoch N Das T schreiben wir jetzt ein bisschen kompliziert. Schreiben wir die richtige nachhafte 0 rein. Haben Sie so einen Ausdruck schon mal gesehen?
Das ist eine Tälerreihe. Das ist eine Tälerreihe. Das ist super. Und was ist das für eine Tälerreihe? Das ist die Tälerreihe von U um die Entwicklungsstelle x. Hier steht die Entwicklungsstelle. Da steht auch die Entwicklungsstelle. Wunderbar. Also die Tälerreihe von U um die Entwicklungsstelle x an der Stelle x plus T.
Für Euler waren alle Funktionen glatt wie Heu. Also ist das hier U von x plus T. Die Tälerreihe steht die Funktion natürlich da. Darüber hat Euler gar nicht nachgedacht. Das ist evident. Und insofern ist diese Summe gleich
die Funktion an der Stelle. Ja. Ich habe Nullen verschluckt. Beim U0. Dreimal. Also ich spendiere noch drei Nullen. Nullen sind billig. U0, U0, U0.
Jawoll. Das hätte ich es gleich gemerkt dann irgendwann. In der Ableitung ist natürlich jedes einzelne Gleichheitszeichen fragwürdig bis Käse. Aber wie so oft? Die Ableitung ist der Weg zum Ziel. Ist das der Weg? Jetzt haben wir einen Kandidaten für die Lösung.
Schauen wir doch mal nach, ob er es tut. Was ist denn? Also jetzt setzen wir U von T und x. Setzen wir U0 von x plus T. Was gilt dann? Für die Zeitarbleitung von U. Leiten Sie das Ding nach der Zeit ab. Gibt U0 Strich von x plus T
mal die innere Ableitung ist 1. Ist dasselbe wie die Ortsableitung. Ist eine Lösung. Und was tut diese Lösung? Wenn das hier mal ein U0 ist
und das mal ein U0 ist, dann ist also dann ist das U von 0 und x. U0 ist ja der Startwert. Was ist denn U von T und x?
Also wenn hier T ist, dann sagt mir das nimm das nimm das Anfangsprofil und verschiebe um T. Nach links oder nach rechts? Hier ist T, das ist T. Was also die Lösung
von dieser Differentialgleichung macht, ist sie nimmt das Anfangsprofil und schiebt es einfach zur Seite. Was total gut passt, diese Gleichung hat einen Namen, die Gleichung heißt Transportgleichung. Die beschreibt Transportphänomene. Das ist die Lösung der Transportgleichung. Eine der beiden linear unabhängigen Lösungen der Transportgleichung.
Und die kann man tatsächlich auf diese unglaublich freche geradezu skandalöse Weise finden. Was natürlich noch kein Beweis für gar nichts ist, aber so ein bisschen zeigen soll, da steckt mehr hinter als man denkt. Und das, was da dahinter steckt, lade ich Sie ein, in den nächsten Jahren zu entdecken. Wie gesagt,
Maßtheorie nächstes Semester haben Sie sowieso. Dann Funktionalanalysis und dann steht Ihnen diese Welt offen. Mir bleibt den vielen, die wirklich noch da sind, für die lange Geduld und das Interesse zu danken. Die Vorlesung damit zu beenden und ich
wünsche Ihnen kurzfristig für diese Semesterferien eine erfolgreiche Klausurphase. Natürlich auch hier in der Klausur. Ich wünsche Ihnen für Ihr weiteres Studium alles Gute. Ich würde mich äußerst freuen, wenn ich einige von Ihnen wiedersehe. Vielleicht erinnert sich die eine der andere an mich, wenn Sie auf der Suche nach einer Bachelorarbeit sind zum Beispiel. Oder
auch in der Vorlesung über partielle Differentialgleichung. Bis dahin, alles Gute. Danke für's Dasein. Danke für die Aufmerksamkeit.