We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Kap 6.8: Eigenvektoren

00:00

Formal Metadata

Title
Kap 6.8: Eigenvektoren
Title of Series
Part Number
11
Number of Parts
25
Author
License
CC Attribution - NonCommercial - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal and non-commercial purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Mathematical analysisMathematicsCharacteristic polynomialPlane (geometry)Achse <Mathematik>DeterminantEuclidean vectorAbbildung <Physik>Matrix (mathematics)GradientEigenvektorEigenvalues and eigenvectorsRootAtomic nucleusTermumformungSign (mathematics)ZifferFactorizationPolynomialVector graphicsDirection (geometry)Grad nLinear mapComputer animation
Parameter (computer programming)EigenvektorEigenvalues and eigenvectorsCharacteristic polynomialEquationNichtlineares GleichungssystemMatrix (mathematics)Vector graphicsZahlRootLösung <Mathematik>Euclidean vectorRollbewegungSystem of linear equationsEquationMilitary rankVariable (mathematics)Computer animation
EigenvektorFactorizationAbbildung <Physik>Line (geometry)Vector graphicsEigenvalues and eigenvectorsEuclidean vectorLinear subspaceVariable (mathematics)Vector spaceSet (mathematics)LinieEigenraumLösung <Mathematik>Connected spaceEquationComputer animation
Mach's principleMoving averageMean free pathMathematical analysisMathematicsTerm (mathematics)SummierbarkeitPolynomialDiagonalDeterminantEigenvalues and eigenvectorsVector graphicsEquationQuadricUmrechnungGrothendieck's relative point of viewSolution setLinear mapRootMatrix (mathematics)Variable (mathematics)Abbildung <Physik>Characteristic polynomialConic sectionMatrix (mathematics)EigenvektorCoefficientLinear independenceInvertierbare MatrixEckeLengthDot productDarstellungsmatrixNumberNormal-form gameCoordinate systemNullDiagonal matrixPhysical quantityLinieMassScherbeanspruchungNichtlineares GleichungssystemSquareRotationGeometryGradientEllipseDeformationLösung <Mathematik>Negative numberSymmetry (physics)Field (agriculture)MultiplicationConnected spaceSystem of linear equationsDirection (geometry)Orthonormal basisParameter (computer programming)Basis (linear algebra)EigenraumExponentiationLinear equationGeometric shapeQuadratic equationQuadratic formLinear algebraSymmetric matrixTransformationEuclidean vectorGrand Unified TheoryReal numberDreiecksmatrixHalbachseSimilarity (geometry)Proof theoryGAUSS (software)Diagonal matrixMilitary baseLength of staySet (mathematics)Plane (geometry)Social classEquationProduct (category theory)Zusammenhang <Mathematik>Matrix (mathematics)Mathematical structureSierpinski triangleCircleVector spaceMusical ensembleRoundingAlgebraFactorizationSiebzigOptimumExplosionswelleNormal (geometry)Structural loadMathematicianLine (geometry)SummationAtomic nucleusZahlRaum <Mathematik>Computer animation
Transcript: German(auto-generated)
Präsentiert von Open Learnware, die Plattform für Lernmaterialien an der TU Darmstadt. So, dann wünsche ich mal allen ein herzliches Willkommen und würde gern, bevor ich inhaltlich
einsteige, da wo wir letztes Mal aufgehört haben, noch mal zurückkommen zu was aus der, ich glaube sogar von der vorletzten Vorlesung, wo mich Verschiedene angesprochen haben, mich auf einen äußerst peinlichen Fehler hingewiesen haben, auf der Folie über Rechenregeln Determinante war was falsch, was ich zwar glaube ich immer richtig gesagt
habe, aber es war falsch gedruckt, das ist jetzt die korrigierte Version, also der vierte Punkt hier, wenn Sie zwei Zeilen oder Spalten in der Determinante miteinander tauschen, dann stand da irgendwann mal sowas unsägliches, wie das änderte Determinante nicht, das ist Unfug, sondern es ändert das Vorzeichen, also wenn Sie zweimal tauschen,
dann ändert sich die Determinante tatsächlich nicht, weil Sie dann zwei Minuszeichen kriegen, aber einmal tauschen erzeugt ein Minuszeichen, ich wollte es nur noch mal richtig stellen, zum Glück sind die Folien ja weder auf der Aufzeichnung
drauf noch irgendwo sonst, also es ist nicht ganz so tragisch, aber trotzdem für alle, die sich gewundert haben, die richtige Version ist, vertauschen von Zeilen oder Spalten erzeugten Minuszeichen, gut, dann gehen wir wieder zu unserem Thema
von der letzten Vorlesung zurück, da ging es um Eigenwerte und Eigenvektoren, hier ist noch mal die Definition, aber viel wichtiger ist die Definition, Definition müssen Sie ja auch wissen, aber mindestens genauso wichtig ist zu wissen, was bedeutet so ein Eigenwert, was ist das anschaulich, was ist ein Eigenvektor, ein Eigenvektor ist
eine Richtung im Raum, in die die lineare Abbildung besonders einfach wirkt, in dem sie nämlich einfach nur um einen Faktor Lambda streckt und das Lambda ist der Eigenwert und die Richtung ist der Eigenvektor und das bedeutet eben f von x ist Lambda mal x, die Abbildung f oder die Matrix a wirkt auf den Vektor x, in dem sehen einfach um
ein Faktor Lambda streckt, besonders wichtige Spezialfälle Lambda gleich eins bedeutet, sie haben eine Richtung, in der die Abbildung gar nichts tut mit f von x gleich x, typische Beispiele Drehachsen, Spiegelebenen, Projektionsebenen, das sind jeweils Punkte,
mit denen nichts passiert, dann andere wichtige Beispiele, wichtiges Beispiel Lambda gleich minus eins, Vektoren für die f von x gleich minus x ist, also das sind Vektoren, die gespiegelt werden an irgendwas, gespiegelt werden am Ursprung und dritter wichtiger Spezialfall Lambda gleich Null, das wären Vektoren mit f von x gleich Null mal x, also gleich Null,
das ist der sogenannte Kern der Abbildung oder die Kern der Matrix, das sind die, die auf Null abgebildet werden, also bei einer Projektion zum Beispiel, alle die in Projektionsrichtung liegen, das wäre ein Eigenvektor zum Eigenwert Null,
beachten Sie, wenn ich sage Null ist Eigenwert bedeutet das immer, wie es auch hier steht, es gibt einen Eigenvektor, der nicht Null ist, die Null wird immer auf Null abgebildet, aber wenn Null Eigenwert ist, gibt es eben noch einen anderen Vektor, der auch auf Null abgebildet wird. So und dann hatten wir uns überlegt, wie man die Eigenwerte bestimmt und waren auf das charakteristische Polynom gekommen,
Determinante von A minus Lambda mal der Einheit Matrix, wenn man das ausrechnet, kommt da immer ein Polynom vom Grad N raus und dessen Nullstellen sind die Eigenwerte und ich hatte letztes mal angefangen Ihnen ein Beispiel vorzurechnen, das war das Beispiel 6 8, da ging es um die Matrix A, 5 minus 9 minus 3,
4 minus 9 minus 4 minus 6, 15, 8 und da hatten wir mit viel Lüst und Tücke das charakteristische
Polynom bestimmt und ich hatte da schon gesagt, das Entscheidende beim charakteristisches Polynom bestimmen in dem Fall ist, dass man diese Determinante, die man ausrechnen muss, vielleicht auch zur Wiederholung, wie sieht die aus, man nimmt die Matrix A und zieht
Lambda mal die Einheitsmatrix ab, die Einheitsmatrix hat lauter Null nur auf der diagonalen Einsen, also hat Lambda mal die Einheitsmatrix über lauter Null nur auf der diagonalen Lambda, das heißt die Determinante ist 5 minus Lambda minus 9 minus 3, 4 minus 9 minus Lambda minus 4, minus 6, 5, 10, 8 minus Lambda, so und die kann man jetzt ausrechnen und
wichtig ist, dass man hier nicht Brute Force vorgeht, weil wenn Sie Brute Force vorgehen, haben Sie am Schluss ein Polynom dritten Grades in Lambda dastehen und müssen die Nullstellen bestimmen. Diesen Aufwand kann man sich sparen, indem man richtig vorgeht, ab der Determinante ein bisschen mit den richtigen Zeilen und Spaltenumformungen
knetet und dann kann man diese Determinante wunderbar direkt in Linearfaktor zerlegt ausrechnen und kriegt 2 minus Lambda mal Lambda minus 3 mal Lambda plus 1. Das ist
das, was rauskommt im irgendwie vorletzten Schritt oder sowas, ganz am Ende der letzten Vorlesung hatte mich da nochmal die Unkonzentriertheit überfallen, da war ein Ziffer falsch, aber das Ergebnis hier stimmt und was man jetzt hieraus sofort ablesen kann sind die Eigenwerte. Die Eigenwerte sind die Nullstellen des charakteristischen Polynoms, also 2,
3 und minus 1. Und bei dieser Rechnung hat man jetzt eben rausgekriegt, für 2, 3 und minus 1 ist diese Determinante Null, das heißt für 2, 3 und minus 1, das sind genau die Werte, für die diese Matrix A minus Lambda mal die Einheitsmatrix nicht
invertierbar ist und das heißt für diese Werte gibt es jeweils Eigenvektoren und die muss man, wenn man sie jetzt braucht, noch ausrechnen. Das ist jetzt der nächste Schritt. Ich mache das jetzt nicht für alle drei Eigenwerte, weil jedes Mal Eigenvektor ausrechnen führt auf ein lineares Gleichungssystem und ich habe keine Lust, ihnen jetzt 3 lineare Gleichungssysteme vorzuixen. Ich mache das beispielhaft für einen
und die anderen beiden sind eben auch wieder entsprechend lineare Gleichungssysteme. Also ich nehme mal Lambda 1 gleich 2, den Eigenwert 2 und rechne dazu die Eigenvektoren aus. Die Eigenvektoren zum Eigenwert 2 sind die Vektoren mit A x
gleich 2 x oder umgeformt, das sind alle Lösungen, alle nicht Nulllösungen des Gleichungssystems A minus 2 mal die Einheitsmatrix mal x gleich 0. Dieses Gleichungssystem müssen wir lösen. Wir wissen schon, dass dieses Gleichungssystem
eine nicht Nulllösung hat. Also x gleich 0 ist natürlich eine Lösung, weil es ein homogenes System ist, es hat immer die Nulllösung. Wir wissen aber schon, dass dieses System eine Lösung hat, die nicht Null ist, weil 2 war ja eine Nullstelle des charakteristischen Polynoms, das heißt diese Matrix A minus 2 mal En ist nicht invertierbar, hier muss es noch irgendwo eine andere
Lösung geben und um die geht es, die auszurechnen. Das hatte ich letztes mal schon gesagt, dieses Wissen kann man gut dazu nutzen, sich selbst zu überprüfen, wenn man die Eigenwerte ausrechnet und danach so die Eigenvektoren über das Gleichungssystem und es kommt hier nur die Nulllösung raus, dann hat man sich verrechnet mit Ansage. Entweder stimmt der Eigenwert nicht oder
sie haben die Eigenvektoren falsch ausgerechnet, aber 2 ist Eigenwert und es kommt nur die Nulllösung raus, passt nicht zusammen, kann nicht sein. Also dieses Gleichungssystem hier muss jetzt eine uneindeutige Lösung liefern und die rechnen wir jetzt aus. Also Gleichungssysteme, schad auch nichts,
das noch mal dran zu erinnern, wir schreiben uns die Matrix A minus 2 mal Einheitsmatrix auf die linke Seite, die rechte Seite ist Null Null Null, das ist der Nullvektor und A minus 2 mal die Einheitsmatrix müssen Sie nur oben in diese Matrix, die da noch steht, Lambda gleich 2 einsetzen,
dann kriegen wir 3 minus 9 minus 3, 4 minus 11 minus 4 und minus 6, 15, 6. Für Lambda gleich 2. So, das sind die Gleichungen 1, 2 und 3 und jetzt
machen wir das raus. Das erste, was ich mal mache, ist die Gleichung 1 und 3 durch 3 teilen, das bietet sich an. Also ich nehme die Gleichung 1 mal
ein Drittel, das gibt mir die neue Gleichung 4, das ist dann 1 minus 3 minus 1, die Gleichung 2 übernehme ich, da können wir nichts rauskürzen, 4 minus 11 minus 4 und die Gleichung 3 nehmen wir mal ein Drittel,
das gibt die neue Gleichung 5 und das gibt minus 2, 5, 2. So, noch sieht man nicht so wirklich, wo hier die Nullzeile herkommen soll, das muss jetzt eine Nullzeile entstehen, weil wir ja eine nicht eindeutige Lösung haben wollen. Also rechnen wir mal weiter. Was wir tun ist, wir nehmen die 1
links oben, die hier und räumen mit der die erste Spalte auf, ganz klassisch nach Gauss-Verfahren. Also wir lassen die Gleichung 4 stehen, das ist 1
minus 3 minus 1, Null. Die Gleichung 2, nehmen wir 2 minus 4 mal die Gleichung 1, das ist dann die Gleichung 6, also 4, also die zweite
Gleichung minus 4 mal die erste ist 4, minus 4 ist Null, so war es gemacht, minus 11, minus 4 mal minus 3, 4 mal 3 ist 12, minus 11 plus 12 ist 1, minus 4, minus 4 mal minus 1, minus 4 plus 4 ist auch eine Null, hübsch, da
hinten bleibt alles Null und dann nehmen wir in der letzten Zeile die und das hier ist natürlich auch eine 4 hier oben, das gibt die neue Zeile 7, also die letzte Zeile minus 2 mal die erste, minus 2, minus 2 mal 1 ist Null, so war
es gemacht, 5 plus 2 mal minus 3, also 5 minus 6 ist minus 1 und 2 minus 2 mal minus 1 ist wieder Null, und jetzt sehen wir schon, die zweite und die dritte Zeile sind jetzt tatsächlich das gleiche, also was ich jetzt noch
mache, ich räume gleich vollständig auf, ich nehme die 1 hier und mache mit der die zweite Zeile, die restlichen Einträge zu Null, das gibt mir dann
das endgültige Gleichungssystem, aus dem wir dann die Lösung ablesen können, das heißt wir nehmen die Zeile 4 und zählen 3 mal die Zeile 6 dazu, das gibt die neue Zeile 8, das gibt 1, Null, minus 1, Null, wir nehmen die Zeile 6
und lassen sie so wie sie ist, Null, 1, Null und dann nehmen wir die Zeile 7 und zählen die Zeile 6 dazu, also 7 plus 6 gibt die neue Zeile 9 und die ist dann eine Null-Zeile. So, jetzt haben wir eine Stufenform mit Rang der
Matrix gleich 2, das ist so ein Fall, wo die Stufen irgendwann aufhören und wir haben einen frei wählbaren Parameter, wie gesagt beim Eigenvektoren bestimmen muss das immer passieren, dass sie mindestens einen frei wählbaren Parameter haben, nämlich hier die Variable hier hinten, die können wir
wählen und dann sieht man eigentlich, ja entweder man wählt ihn frei oder man guckt scharf drauf und sieht die Lösungen, was sind die Lösungen von diesem linearen Gleichungssystem, die erste Zeile heißt x1 minus x3
gleich Null, also x1 muss gleich x3 sein, die zweite Zeile heißt x2 gleich Null, also die zweite Komponente ist auf jeden Fall Null und die erste muss gleich der dritten sein, also alle Lösungen von dem Gleichungssystem sind die Vektoren von der Form T mal 1 0 1, also das sind alle
Lösungen, wie gesagt es muss andere geben als die Null-Lösung, was sind jetzt die Eigenvektoren, die Eigenvektoren sind die im Prinzip alle bis auf einen, die Eigenvektoren sind alle Vektoren der Form T mal 1 0 1,
wobei T nicht Null ist, der Null-Vektor ist bekanntermaßen nie ein Eigenvektor, also das sind die Eigenvektoren zum Eigenwert 2 und was Sie sehen, wir hatten letzte Vorlesung gezeigt, dass die Menge der
Eigenvektoren zu einem Eigenwert und die Null dazu immer ein Untervektor- raum ist, passiert hier auch, Sie haben einen eindimensionalen Unterraum aufgespannt von dem Vektor 1 0 1, die lineare Hülle von 1 0 1 ist der Eigenraum, den Eigenraum zum Eigenwert 2, das ist die lineare Hülle von dem
Vektor 1 0 1, also eine Gerade als Eigenraum und auf dieser Graden wirkt die lineare Abbildung, die wir untersuchen, einfach, indem sie mit 2 multipliziert und den Faktor 2 streckt, die anderen Eigenwerte waren
3 und minus 1, das heißt irgendwo gibt es noch eine Gerade, die mit dem Faktor 3 gestreckt wird und irgendwo gibt es noch eine Gerade, die einmal am Ursprung gespiegelt wird, die kann man eben auch ausrechnen, indem man die anderen beiden Gleichungssysteme löst, also A minus 3 mal I mal X gleich 0 und A plus Einheitsmatrix mal X gleich 0, das überlasse ich Ihnen, worauf ich jetzt noch
raus will, ist ein Begriff, den wir in der letzten Vorlesung auch betrachtet haben, den der Diagonalisierbarkeit, das ist das Optimum, was man rausholen kann, um so eine lineare Abbildung zu vereinfachen.
Diagonalisierbar heißt, Sie finden eine Basis aus Eigenvektoren, also es gibt eine Basis des Grundraums, die nur aus Eigenvektoren besteht und das heißt deswegen diagonalisierbar, weil bezüglich dieser Basis die Abbildungsmatrix ihrer linearen Abbildung ganz einfach wird, nämlich eine Diagonalmatrix, wo nur auf der Diagonalen die Eigenwerte stehen und sonst überall 0. Die Frage ist also diese Abbildung hier, diese
Matrix, die wir hier haben, diagonalisierbar und das Schöne ist, diese Frage können Sie beantworten, ohne irgendeinen Eigenvektor auszurechnen. Im Prinzip müsste man ja schauen, gibt es eine Basis aus Eigenvektoren, das heißt, man müsste zu jedem Eigenwert einen Eigenvektor ausrechnen und dann
schauen, ob die Linie unabhängig sind. Und wenn die Linie unabhängig sind, werden wir in dem Fall in der guten Situation, weil wir haben hier drei Eigenwerte, also vielleicht noch mal zur Erinnerung, die Eigenwerte hier waren 2, 3 und minus 1. Wir haben drei Eigenwerte, zu jedem der Eigenwerte gibt es natürlich einen Eigenvektor, der ist auch nicht null,
sonst ist es kein Eigenvektor und die müssen eben eine Basis bilden, dann haben sie eine Basis aus Eigenvektoren. Und das ist hier der Fall und das ist in so einem Fall, wenn Sie bei einer Dreikreuz-3-Matrix drei Eigenwerte haben, immer der Fall, dieses A ist diagonalisierbar, denn zum einen gibt es
drei verschiedene Eigenwerte, das heißt, es gibt auch zu jedem dieser Eigenwerte einen Eigenvektor, damit haben Sie schon einen Kandidat für Ihre Basis aus Eigenvektoren, was noch fehlt, ist die lineare Unabhängigkeit und
das kommt jetzt. Regeln über Eigenvektoren und Eigenwerte und das erste ist, grundsätzlich, wenn Sie Eigenvektoren zu verschiedenen
Eigenwerten haben, sind die immer linear unabhängig. Also Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. So, und da wir jetzt in dem
Beispiel oben drei verschiedene Eigenwerte haben von der Dreikreuz-3-Matrix, Dreikreuz-3-Matrix, das heißt, wir sind im R3, wir brauchen also eine Basis aus drei Eigenvektoren, zu jedem Eigenwert gibt es einen, die sind alle linear unabhängig, weil die Eigenwerte verschieden sind, also haben Sie drei linear unabhängige Vektoren im R3, das ist
eine Basis, also haben Sie eine Basis aus Eigenvektoren. Wenn also die Frage ist, ist die Matrix diagonalisierbar und Sie haben so viele verschiedene Eigenwerte wie Dimension, dann ist alles gut, diagonalisierbar, fertig. Schwierig wird es, wenn Sie weniger Eigenwerte haben, da kommen wir gleich noch hin. So, dann
ist die nächste Frage, die immer bei solchen Begriffen auftaucht, wenn wir was über Eigenwerte von verschiedenen Matrizen wissen, können wir dann was über Eigenwerte von deren Summenprodukt usw. sagen und die Antwort ist Nein. Können Sie sich vorstellen, wenn Sie zwei lineare Abbildungen hintereinander
ausführen, erst die Drehung um die Achse und dann die Drehung um die andere quer dazu liegende Achse, dann ist zwar die eine Achse von der einen Drehung ein schöner Eigenvektor, weil das konstant bleibt, aber wenn Sie den mit der anderen Drehung drehen, dann wird der völlig woanders hingeschoben, also aus den Eigenwerten von einzelnen Abbildungen kann man nicht auf die
Eigenwerte von Summen oder Verkettungen oder irgendwas schließen. Das ist tatsächlich ein ganz schwieriges Thema, wie hängen Eigenwerte in der solchen Bildung zusammen, da kann alles mögliche passieren. Aber es gibt ein paar Dinge, die man trotzdem sagen kann und das erste ist, transponieren macht die Eigenwerte nicht
kaputt. Also ich behaupte A und A transponiert haben dieselben Eigenwerte und woran liegt das? Da brauchen wir nur ein bisschen Rechenregeln für
Determinanten. Die beiden haben nämlich nicht nur die gleichen Eigenwerte, die beiden haben sogar das gleiche charakteristische Polynom und da die Eigenwerte die Nullstellen des charakteristischen Polynoms sind, siehe da drüben und wenn die beiden das gleiche charakteristische Polynom haben, dann hatten diese beiden identischen charakteristischen
Polynome natürlich dieselben Nullstellen. Also die beiden haben dasselbe charakteristische Polynom und deshalb dieselben Eigenwerte, woran liegt das? Schauen Sie sich das charakteristische Polynom von der A transponiert an, also die Determinante von A transponiert minus lambda en und was wir jetzt brauchen ist ganz viele Rechenregeln für Transponierzeichen. Die erste Überlegung ist die Einheitsmatrix, die
ist symmetrisch. Glauben Sie mir hoffentlich, wenn Sie die Einheitsmatrix, also 0 0 0 1 auf der Diagonal und sonst Nullen transponieren, kommt wieder die Einheitsmatrix raus. Also ob wir den En ein T verpassen oder nicht, das ändert mal gar nichts. Zweite Rechenregel die wir bei
transponieren hatten war lambda mal transponiert ist das Transponierte von lambda mal en. Dann hatten wir die Rechenregel, dass A plus B transponiert
gleich A transponiert plus B transponiert ist. Also das hier ist die Determinante von A minus lambda en transponiert. Rechenregel fürs Transponieren. Und jetzt brauchen wir am Schluss eine Rechenregel für die Determinante. Was passiert nicht mit der Determinante beim Transponieren?
Jetzt ist leider die falsche Folie drauf. Nix. Beim Transponieren passiert mit der Determinante gar nichts. Das war die Begründung dafür, dass wir, wenn wir bei der Determinante mit Gaussverfahren rumhantieren, sowohl in Zeilen wie auch in Spalten hantieren können. Das heißt die Determinante von dem Ding ist das gleiche wie die Determinante von A minus lambda en. Und jetzt stellt sich eben raus, A und A
transponiert haben dasselbe charakteristische Polynomen. Insbesondere also dieselben Nullstellen und dieselben Eigenwert. Als Warnung noch unten dran. Was man findet ist, dass die Eigenwerte gleich sind. Die zugehörigen Eigenvektoren sind im allgemeinen verschieden.
Was sind die Eigenvektoren? Die Eigenvektoren sind die Lösungen des linearen Gleichungssystems. A minus lambda en mal x gleich Null, beziehungsweise A transponiert minus lambda en mal x gleich Null. Das sind verschiedene lineare Gleichungssysteme, die haben auch im allgemeinen verschiedene Lösungen. Aber ihre Lösbarkeit ändert sich nicht.
Das heißt die Eigenwerte bleiben dieselben. Also die zugehörigen Eigenvektoren sind im allgemeinen verschieden. Aber beim Transponieren ändern sich immerhin mal die Eigenwerte nicht. Und eine zweite schöne Regel, wo man aus den Eigenvektoren von der einen Matrix und den
Eigenwerten von der einen Matrix auf eine andere schließen kann, ist das Invertieren. Also wenn wir uns eine invertierbare Matrix hernehmen und wir gehen davon aus, wir haben einen Eigenwert, also wir haben ein
Eigenvektor, wir haben irgendein x und lambda, so dass ax gleich lambda x ist, dann ist jetzt das a auch mit a invertierbar. Das heißt, Sie können diese Gleiche mit a auch minus eins durchmultiplizieren. Also dann ist a auch minus eins ax gleich a auch minus eins lambda x,
beziehungsweise a auch minus eins mal a ist x, ist gleich lambda a auch minus eins x. So, jetzt bringen Sie noch das lambda auf die andere Seite. Also teilen Sie noch durch lambda. Jetzt muss wieder der
pflaufische Hund angehen. Achtung teilen. Warum darf ich das? Warum ist das nicht Null? Warum ist das lambda nicht Null? Lambda gleich Null würde heißen, die Matrix hat einen Eigenwert Null. Eigenwert Null heißt, Null ist ein Nullstelle vom charakteristischen
Polynom. Also Determinante von a minus Null mal e ist Null. Das würde heißen, Determinante von a ist Null, aber a ist invertierbar. Also ist Determinante nicht Null. Determinante nicht Null bedeutet, insbesondere Null ist kein Eigenwert. Also Determinante von a ungleich Null, daraus folgt Determinante von a minus Null ist
ungleich Null, daraus folgt Null kein Eigenwert. Null Eigenwert heißt genau nicht invertierbar. Null Eigenwert heißt, es gibt ein Vektor x ungleich Null, der nach Null abgebildet wird. Damit ist die
Abbildung nicht mehr biaktiv, weil sowohl die Null als auch dieser Vektor x nach Null geht und dann haben Sie nicht Invertierbarkeit. Eigenwert Null ist genau ein Maß für Invertierbarkeit. So, also können wir hier durch Lambda teilen und kriegen a hoch minus 1 x gleich 1 durch Lambda
x. So, was heißt das jetzt? Das heißt, wenn a einen Eigenwert Lambda hat mit zugehörigem Eigenwert x, dann hat a hoch minus 1 zum selben Eigenvektor x den Eigenwert 1 durch Lambda. Das ist eigentlich eine schön zu
bemerkende Regel. Wenn Sie die Matrix invertieren, invertieren Sie auch alle Eigenwerte. Wenn die Eigenwerte vorher 3, 5 und 8 waren, sind sie hier ein Drittel und ein Fünftel und ein Achtel. Das ist eigentlich eine schöne Regel. Also, zusammengefasst, wenn x Eigenvektor von a zum Eigenwert Lambda,
dann ist x Eigenvektor von a hoch minus 1 zum Eigenwert 1 durch Lambda. Gut. Das sind die Fälle, wo man was sagen kann und bei den anderen Fällen kann
man nichts sagen. Also versuchen Sie nicht aus den Eigenwerten von a und b auf Eigenwerte von a plus b oder sowas zu schließen, geht alles schief. Ich lade Sie herzlich ein, bauen Sie sich Beispiele, bauen Sie sich
Beispiele, wo wir noch mal Eigenwerte bzw. Eigenvektoren berechnen, noch mal auf ein paar Dinge hinweisen, ein paar Aspekte beleuchten,
ein paar Dinge diskutieren. Das erste Beispiel ist nochmal eine 3 Kreuz 3 Matrix. Also Matrix A ist gegeben 2, 0, 0, minus 1, 2, minus 1, minus 1, 0, 1
und gesucht sind auch hier wieder Eigenwerte, Eigenvektoren. Wie gesagt, das Ziel dahinter ist immer, finden wir, also ist die Abbildung,
die dahinter steckt zu verstehen, ist im besten Fall eine Basis aus Eigenvektoren zu finden, sodass man Basiswechsel machen kann und durch die Transformation wird die matrix, wird die dazugehörige Abbildung, kriegt eine Abbildungsmatrix, die diagonal gestaltet. So, also wo kriegen
wir die Eigenwerte her? Nehmen wir das gleiche, bestimmen das charakteristische Polynom und rechnen die Nullstellen aus. Charakteristische Polynom A minus Lambda mal die Einheitsmatrix, also sie nehmen die Matrix A, ziehen auf der diagonalen Lambda ab und bestimmen die
Determinante 2, minus Lambda, 0, 0, minus 1, 2, minus Lambda, minus 1, minus 1, 0, 1, minus Lambda. Jetzt ist wieder die klare Ansage,
bitte, bitte nicht mit Sarus oder ähnlichem Proof Force rechnen, sondern drauf gucken und sehen, wo man einen Linearfaktor vorziehen kann. Und in dem Fall ist es schon extra einfach oder liegt schön da. Wenn Sie nach der ersten Zeile entwickeln, kriegen Sie 2 minus Lambda mal eine Restdeterminante und Sie haben diesen Vorfaktor 2 minus
Lambda vorgezogen. Alternativ entwinken Sie nach der zweiten Spalte, kommt aufs Gleiche heraus. Der Vorteil ist, wenn wir nach der ersten Zeile entwickeln, ist der Vorteil für mich, dass ich mich übers Schachbrettmuster nicht wieder peinliche Fehler machen kann, weil wir brauchen nur den allerersten Schritt und der ist plus.
Also das Schachbrettmuster ist hier einfach. Also was kriegen wir raus? Wenn wir entwickeln nach der ersten Zeile, kriegen wir 2 minus Lambda mal 1 von dem Pluszeichen mal die Determinante, die übrig bleibt, wenn Sie die erste Zeile und die erste Spalte streichen. Das ist 2 minus Lambda, minus 1, 0, 1,
minus Lambda und das ist eine schöne obere Dreiecksmatrix. Davon ist die Determinante leicht, nämlich einfach das Produkt der Diagonalelemente. Ich hatte Ihnen das gezeigt für eine untere Dreiecksmatrix, aber aus der oberen Dreiecksmatrix wird durch transponiert. Eine untere Dreiecksmatrix funktioniert
genauso. Also die Determinante hier ist 2 minus Lambda mal 1 minus Lambda und das charakteristische Polynom ist 2 minus Lambda quadrat mal 1 minus Lambda. So, also was sind die Eigenwerte und das ist eben was, worauf ich hinweisen will, dass das passieren kann. Wir haben jetzt nur
zwei Eigenwerte, nämlich 2 und 1. Mehr Nullstellen hat das Polynom nicht. 2 ist aber sozusagen eine doppelte Nullstelle. Also Lambda 1 gleich Lambda 2 gleich 2 und Lambda 3 gleich 1. Das Polynom hat ja, wenn Sie es angucken, als Polynom über C, sowieso immer Nullstellen inklusive
Vielfachheit. Also es muss hier mit Vielfachheit 3 geben und die sind eben 2, 2 und 1. So, aber was jetzt passieren kann, wenn es wieder auf die Frage geht, ist das Ding diagonalisierbar, ist diese kurze Begründung wie vorhin uns jetzt leider versperrt. Wir kriegen einen Eigenwert auf jeden Fall, einen Eigenvektor auf jeden Fall zum Eigenwert 1, wir
kriegen auf jeden Fall einen zum Eigenwert 2, aber wir brauchen drei Eigenvektoren, drei linear unabhängige. Das heißt, wenn man jetzt rauskriegen will, ob das Ding diagonalisierbar ist, kommt man nicht drum rum, die Eigenvektoren zum Eigenwert 2 auszurechnen. Ich gebe Ihnen erst mal die Eigenvektoren zum Eigenwert 1 an. Den
rechne ich jetzt hier nicht vor. Einer zum Beispiel ist 011. Wenn Sie nachrechnen, entweder das Klärungssystem lösen oder nachrechnen, dass es ein Eigenvektor ist, ist einfacher, als das Klärungssystem lösen. Multiplizieren Sie mit A, dann muss 011 rauskommen. Das ist die Definition
von einem Eigenvektor. Es muss A mal der, muss der selbst sein, weil Eigenwert 1. Eigenwert 1 sind immer die Vektoren, die von der Abbildung fix gelassen werden. Gut, also ich behaupte, das ist einer. Kriegen wir es noch auf einen Bildschirm, dass Sie es mal nachrechnen können. Da oben steht noch das A. Ja, so gerade eben.
Multiplizieren Sie das A mit dem 011 da unten. Gibt in der ersten Komponente 0 mal 1 plus 0 mal 1 ist 0. In der zweiten Komponente 2 mal 1 minus 1 ist 1 und in der dritten Komponente 0 plus 0 plus 1 ist 1. Also A mal
das Ding ist 011. Hier ist ein Eigenvektor zum Eigenwert 1. Interessanter ist die Frage, wie sehen die Eigenvektoren aus zu dem doppelten Eigenwert, zu dem
doppelten Nullstelle. Und da muss man jetzt eben wieder das lineale Klärungssystem hinschreiben. X1, X2, X3. Das wird ein sehr einfaches lineales Klärungssystem. Also wir brauchen das Klärungssystem A minus 2 mal die Einheitsmatrix X gleich 0. Also rechte
Seite ist 0. Und linke Seite ist die Matrix A von vorhin minus 2. Die sehen Sie jetzt auch wieder nur in Auszügen. Da oben steht sie noch. 2 minus
lambda 00 und so weiter. Also setzen Sie lambda gleich 2 da oben ein. Dann kriegen Sie ganz oben eine komplette Nullzeile. In der zweiten Zeile kriegen wir minus 1, 0, minus 1. Und in der dritten Zeile kriegen wir minus 1, 0, minus 1. Und da sehen Sie,
was oft passiert, wenn man Eigenvektoren ausrechnet. Man kriegt sehr, sehr einfache lineale Klärungssysteme. Also das kann man sehr schnell umräumen hier und landet auf dem
Klärungssystem X1, X2, X3. Ich vertausche mal die Nullzeile nach unten. Es hat eh keinen Nährwert. Die zweite und die dritte Zeile sind gleich. Das heißt, eine kann ich von den beiden mit der anderen wegnullen. Und die erste nehme ich mit minus 1 mal. Also das ist das
Klärungssystem. X1 plus X3 gleich 0 ist das einzige, was übrig bleibt. Die Zeilenstufenform ist in dem Fall übersichtlich. Und Sie haben zwei frei wählbare Parameter. Auch hier können Sie sich entweder hinsetzen und X2 gleich T setzen und X3 gleich S und ausrechnen. Oder Sie überlegen sich,
was da steht und kriegen den Eigenraum sofort. Sie haben auf jeden Fall zwei frei wählbare Parameter. Das heißt, Ihr Eigenraum ist ein zweidimensionaler Untervektorraum. Sie kriegen zwei linear unabhängige Eigenvektoren. Die einzige
Einschränkung, die Sie haben, X1 muss minus X3 sein. Das heißt, ein Vektor, der das Ding aufspannt, ist 1, 0, minus 1. Und ein dazu linear unabhängiger, der auch noch drin ist, ist 0, 1, 0. Weil fürs X2 haben Sie überhaupt keine Bedingung. Die beiden erfüllen das und
sind linear unabhängig. So, damit haben Sie zwei linear unabhängige Eigenvektoren zum Eigenwert 2. Wir haben einen Vektor zum Eigenwert 1. Das heißt, Sie haben drei
linear unabhängige Eigenvektoren von A. Und damit ist A diagonalisierbar. Also, was wir damit haben, ist, wenn wir die drei linear unabhängigen Eigenvektoren zusammennehmen, also die Eigenvektoren zum Eigenwert 2, 0, 1, 0, 1, 0,
minus 1. Das sind die beiden von hier. Und als dritten den oben schon angegebenen und nachgerechneten zum Eigenwert 1. Dann haben wir jetzt festgestellt, das ist eine Basis des R3 aus Eigenvektoren. Also ist unsere
Matrix A diagonalisierbar. Nochmal, was heißt das konkret? Das heißt, Sie können einen Basiswechsel machen. Also Sie können in Ihrem R3 die gute alte Standardbasis schweren
Herzens aufgeben. Den R3 bezüglich dieser Basis anschauen. Das ist natürlich ein bisschen mühevoll und ein bisschen nervig, weil die Basis schräg ist. Aber der Payoff, das, was das Ihnen bringt, ist, Ihre Abbildungsmatrix wird leicht. Das ganze
ist das grundlegende mathematische Gesetz von Erhalt der Komplexität. Sie können Ihre Abbildungsmatrix leicht kriegen, indem Sie eine schwere Basis zulassen. Und wenn Sie die Basis einfach haben wollen, müssen Sie mit der schweren Abbildungsmatrix hantieren. Je nachdem, was man gerade machen will, ist das eine netter oder das andere. Aber was sagt Ihnen der Basiswechsel? Der Basiswechsel sagt, Sie
können Ihre Matrix A mit der Basiswechsel S so umbauen, wenn Sie den Basiswechsel machen, dass Ihre Abbildungsmatrix, das A, also die Matrix A bezüglich der neuen Basis, Diagonalgestalt hat, wo auf
der Diagonalen die Eigenwerte stehen. Also in dem Fall 2, 2, 1. Und das S ist die Basiswechselmatrix. Und ich hoffe, Sie wissen nur, wie Sie die kriegen. Sie schreiben einfach die Basisvektoren B in die Spalten. Also 0, 1, 0, 1, 0,
minus 1, 0, 1, 1. Das ist die Basiswechselmatrix von der Basis B in der Standardbasis oder umgekehrt. Und mit der können wir eben unsere Matrix A so diagonalisieren. Das ist
Diagonalisierbarkeit. Und jetzt hat man damit alles, was man braucht, um zwischen den Basen hin und her zu switchen. Wenn Sie sich erinnern, die Basiswechselmatrix S rechnet Ihnen Koordinaten um zwischen B und E und die Abbildungsmatrix umgekehrt. Und jetzt können Sie, je nachdem, ob Sie
eben für sich günstiger ist, mit der komplizierten Abbildungsmatrix in der einfachen Basis zu rechnen oder mit der einfachen Abbildungsmatrix in der komplizierten Basis hin und her rechnen. Ich will Ihnen eins zeigen, wofür so eine Diagonalisierung segensreich sein kann. Das ist die Bemerkung 6.11. Und zwar könnte ja die
Ausgangsfrage gar nicht gewesen sein. Also wir hatten, Moment, ich wiederhole nochmal, was A war. Zur Erinnerung, A
war die Matrix 2, 0, 0, minus 1, 2, minus 1, minus 1, 0, 1. Und die Ausgangsfrage könnte überhaupt nicht gewesen sein, bestimmen Sie irgendwelche Diagonal- oder Eigenvektoren oder sonst was, sondern eine ganz einfache Frage, die aber ätzend genug ist. Was
ist A auf C? Also was ist A? Mal A, mal A, mal A, mal A, mal A, mal A, mal A, mal A, so ungefähr, jedenfalls 10 mal. Sprich, Sie wenden die Abbildung, die hinter dem A steckt, 10 mal A. Sie iterieren das 10 mal, was kommt da raus? Kann man
natürlich sich hinsetzen, ist nichts als eine Matrix-Multiplikation, als eine 10-Matrix-Multiplikation. Nervig, aber kann man ausrechnen. Dann sage ich Ihnen, gut, dann machen wir als nächstes A8000. Ist mühsam, ja. Zumindest, wenn man in der Basis rechnet. Die Basis, das ist bezüglich der Standardbasis, die ist dem
Problem nicht angepasst. Jetzt gehen Sie mal in die andere Basis rüber. Die haben wir ja ausgerechnet. Wir haben ja oben eine ganze Menge Rechnungen gemacht. Wir wollen mal sehen, wofür die gut ist. Wir wissen, wenn wir unser A in diese Basis da oben transformieren, also wenn wir
diese Basiswechsel machen, wenn wir S hoch minus 1, A, S ausrechnen, kriegt das A eine sehr einfache Gestalt, nämlich diese Diagonalform. Also nutzen wir das doch mal. Nehmen Sie es umgekehrt. Das A können Sie jetzt schreiben. Nehmen Sie die gleichen da oben von links
mit S mal und von rechts mit S hoch minus 1. Nehmen Sie den umgekehrten Basiswechsel. Also das S mal D mal S hoch minus 1 und D, deswegen nenne ich es D, ist diese Diagonalmatrix 2, 2, 1 und sonst 0. Das ist nur das, was hier oben steht von links mit S
multipliziert und von rechts mit S hoch minus 1. Das ist der Basiswechsel andersrum. So, jetzt haben Sie Ihr A durch die Diagonalmatrix ausgedrückt. Was ist denn jetzt A hoch 10? A hoch 10 ist dann S, D, S hoch minus 1
hoch 10. Oder mal ausgeschrieben, man sieht, was passiert. Das ist S, D, S hoch minus 1, S, D, S hoch minus 1, S, D, S hoch minus 1 und so weiter. Und jetzt sieht
man, was passiert. Bei diesem Dauernden aneinander multiplizieren, kriegen Sie mal ein S hoch minus 1 mal S. S hoch minus 1 mal S ist aber die Einheitsmatrix. Also das da gibt eine Einheitsmatrix, das da gibt eine Einheitsmatrix, das mit dem nächsten dahinter auch
und so weiter. Und was übrig bleibt, dass es sehr hübsch ist, das ist S mal, S mal, dann kommt D, D, D, D, D, D, 10 mal und dann kommt das S hoch minus 1. Und das haben Sie immer bei multiplikativen Strukturen, wenn Sie dieses S, D, S
hoch minus 1 hoch 10 nehmen, dann rutscht die hoch 10 nach innen, weil sich die S und die S hoch minus 1 alle wegkürzen. So und was bedeutet das? Das bedeutet, wenn Sie A hoch 10 haben wollen von Ihrer komplizierten Matrix A, dann reicht es D hoch 10 auszurechnen
und danach den Basiswechsel rückgängig zu machen. Das sind jetzt nicht mehr 10 Matrix Multiplikationen, sondern, ja doch, es sind immer noch, es sind jetzt sogar 12. Wir haben jetzt 10 und noch zwei dazu und jetzt 12. Aber die 10 sind viel einfacher. Also im Wesentlichen haben Sie zwei
Matrix Multiplikationen und eine kurze Überlegung. Und wenn ich da statt 10 2013 nehme, dann lohnt sich es erst recht. Also was kommt hier raus? Also da kommt die Matrix S raus. Dann was ist denn D hoch 10? Was passiert,
wenn Sie diese Matrix, diese Diagonalmatrix hoch 10 nehmen? Das Einzige, was passiert ist, Sie nehmen die Diagonale hoch 10 und die Diagonalmatrix hoch 10, gibt 2 hoch 10, 2 hoch 10, 1 hoch 10, 0, 0, 0, 0, 0 und das war's. Und dann
haben wir noch den S auf minus 1. Gut und das lässt sich jetzt ausrechnen. Das gibt jetzt eben noch zwei Matrix Multiplikationen. Das S war 0, minus 1, 0, 1, 0, 1,
0, 1, 1. Dann kommt diese Matrix hier mit 1024, 0, 0, 0, 1024, 0, 0, 0, 1 und die Matrix S hoch minus 1. Zugegeben, die brauchen Sie auch noch. Im schlimmsten Fall noch ein Gauss. Im Normalfall,
wenn man den Basiswechsel schon gemacht hat, kennt man die minus 1, 1. Also die habe ich jetzt eben mit Gauss ausgerechnet. Minus 1, 1, minus 1, minus 1, 0, 0, 1, 0, 1. Wenn Sie Glück haben und Ihr Basiswechsel ist einer zwischen
Otto-Normal-Basen, dann ist die Basiswechsel-Matrix E eine Ortogonale. Dann können Sie einfach transponieren. So und jetzt haben wir noch zwei Matrix Multiplikationen. Also was kommt da raus? Multiplizieren wir erst die ersten beiden. Erste Zeile mal erste, zweite, dritte Spalte nimmt jeweils
den zweiten Eintrag negativ. Also 0, minus 1024, 0. Zweite Zeile multipliziert da hinten, addiert die erste und dritte Zeile. Also gibt 1024, 0, 1. Die dritte Zeile von der ersten Matrix addiert jeweils die zweite und
dritte Zeile. Also gibt 0, 1024, 1. Mal die hintere Matrix minus 1, 1, minus 1, minus 1, 0, 0, 1, 0, 1. So und da kommt was raus? Erste Zeile von
der vorderen Matrix multipliziert das zweite Element mit minus 1024. Also das gibt 1024, 0, 0. Zweite Zeile mal erste Spalte minus 1024 plus 1 ist minus 1023.
Zweite Zeile mal zweite Spalte gibt 1024. Und zweite Zeile mal dritte Spalte gibt minus 1024 plus 1 ist minus 1023. So
und schlussendlich noch die letzte Zeile mal die erste Spalte gibt minus 1024 plus 1. Das haben wir schon ein paar Mal ausgerechnet. Minus 1023, 0 und letzte Zeile mal letzte Spalte 0, 0, 0, 1. Also man den
Basiswechsel mal hat. Ein deutlich schnellerer Weg A hoch 10 auszurechnen als direkt. Jetzt ist da eine Frage. Warum minus 1?
Warum habe ich den anderen Eigenvektor genommen? Also ich meine ich hatte verschiedene Esse.
Da oben ist es 1, 0, minus 1. Ja, ja, ja, ja. Okay, also ich ändere es jetzt nicht, weil es stimmt beides. Ich kann Ihnen noch
sagen, warum es beides stimmt. 1, 0, minus 1 ist ein Eigenvektor zum Eigenwert 2, haben wir ausgerechnet. Deswegen steht er da drin. Da drin stehen ja die Basisvektoren B, da drin stehen die Eigenvektoren in dem S. Genauso ist natürlich auch das Negative von dem Eigenvektor zum gleichen Eigenwert. Bei Eigenvektoren,
wenn Sie einen Eigenvektor haben, sind im Alli-Vielfachen auch Eigenvektoren. Also wenn Sie den mit minus 1 multiplizieren, kriegen Sie auch einen Eigenvektor. Also kriegen Sie mit dem anderen S die gleiche Diagonalgestalt. Sie kriegen natürlich ein anderes S auf
minus 1. Also wenn Sie in dem S hier das ändern, stimmt alles was da steht, aber das S auf minus 1 ist natürlich ein anderes. Die Rechnung unten habe ich natürlich mit dem anderen S vorbereitet. Deswegen das S auf minus 1. Unten ist das zu dem S unten. Also meinetwegen
machen wir so, dann wird es ganz richtig. Oder S-Schlange die andere, 0, 1, 0, minus 1, 0, 1, 0, 1, 1. Dann haben Sie wenn Sie mit dem S-Schlange rechnen, kommt hier auch S-Schlange
hoch minus 1, A, S-Schlange ist dann das gleiche. Ich lade Sie ein, das nachzuprüfen, aber ist so. Nur ist natürlich S-Schlange hoch minus 1 was anderes, als S hoch minus 1. Und die ganze Rechnung hier unten habe ich mit dem S-Schlange gemacht.
Also die Rechnung hier ist alles mit dem S-Schlange. Aber es funktioniert genauso. Ich will es nur jetzt nicht hier mehr ändern, weil dann muss ich die Verse nochmal neu ausrechnen. So, also wichtig ist das mitzunehmen. Diese Basiswechsel
auf eine Diagonalform kann Ihnen extrem helfen, wenn Sie hohe Potenzen von Matrizen ausrechnen wollen. Und eine hohe Potenz von der Matrix ist nichts Absurdes. Das kommt vor. Und zwar wenn Sie eben eine Matrix gehört immer zu einer linearen Abbildung.
Multiplizieren von linearen Abbildungen ist Hinterlanderausführung von linearen Abbildungen. Wenn Sie eine und dieselbe Abbildung wieder und wieder anwenden, wenn Sie irgendwas scheren und nochmal scheren und nochmal scheren und nochmal scheren und nochmal scheren und nochmal scheren, dann immer mit dem gleichen, dann kommen Sie zu hohen Potenzen von Matrizen. Und das ist in keiner Weise
selten. Eine hohe Potenz von Matrizen können Sie über diesen Trick, über das diagonalisieren gut ausrechnen, weil was man da machen muss, ist nur die Diagonalmatrix. Potenzieren, das ist einfach und danach ein Basiswechsel rückgängig machen. So, ein
anderes Beispiel, um zu zeigen, dass das Grenzen hat. Also Beispiel 612. Nehmen Sie die folgende Matrix. Wieder 3 Kreuz 3
1 0 0, 3 1 0, 0 2 1. Sie ist sogar eine ganz schöne Matrix, dann werden die Rechnungen gehen jetzt schnell. Worauf ich raus will, ist, es kann eben passieren, dass Sie nicht genug
linieunabhängige Eigenvektoren haben und das ist ein Beispiel dafür. Also was ist hier das charakteristische Polynom? Die Determinante von dieser Matrix, wo Sie auf der diagonalen Lambda abziehen. 1 minus Lambda 3 0, 0 1 minus Lambda 2, 0 0 1 minus Lambda.
Das ist eine obere 3x-Matrix. Charakteristisches Determinante ausrechnen geht sofort. Der Determinante ist das Produkt der Diagonal-Einträge. Also in dem Fall 1 minus Lambda hoch 3. Also das geht
so schnell, weil das eine obere 3x-Matrix ist. So, das heißt, was sind die Eigenwerte? Na ja, alle Nullstellen von dem Polynom. Das ist aber in dem Fall nur eine einzige Nullstelle, nämlich 1. Also
Sie haben in dem Fall eine dreifache Nullstelle 1. Frage ist die Matrix trotzdem diagonalisierbar. Das wird jetzt hier schon dünne Luft. Was bräuchten wir? Wir bräuchten drei lineare unabhängige Vektoren, die alle Eigenvektoren zum Eigenwert 1 sind, weil einen Eigenwert gibt es nicht. Also rechnen wir mal aus. Was
sind die Eigenvektoren zum Eigenwert 1? Mindestens einen muss es geben. Wir müssen das lineare Gleichungssystem lösen. A minus EN x gleich 0. Mindestens einen
Nicht-Null-Lösung muss es geben, weil eins ist schließlich Eigenwert. Und was für einer? Sogar eine dreifache Nullstelle. Es muss ja ein bombastischer Eigenwert sein. Also schauen wir mal, was kommt als Gleichungssystem raus? x1, x2, x3, rechte Seite 0. Setzen Sie 1 ein,
dann fliegen alle Diagonaleinträge raus, gibt alles 0 und es bleibt übrig die 3, die 2. Der Rest ist 0. So, was ist mit diesem linearen Gleichungssystem? Wie viele Lösungen hat das? Es ist tatsächlich nicht trivial lösbar. Das muss so sein. Aber es gibt nur eine einzige unabhängige Lösung.
Was steht da im Wesentlichen? Wenn Sie mal die 3 und die 2 rauskürzen, steht da x2 gleich 0 und x3 gleich 0. Also die erste Gleichung bedeutet x2 gleich 0. Die zweite Gleichung bedeutet x3 gleich 0. Also es besteht der Eigenraum aus allen den Vektoren, die in der ersten Koordinate was haben. E1 ist
also die lineare Hülle von dem Vektor 1, 0, 0. Und unser ganzer toller dreifache Nullstelle ist zu einem Eigenwert mit einem lumpigen Eigenvektor zusammengeschrumpft. Also diese Abbildung hat überhaupt nur eine einzige
Eigenvektor Richtung, nämlich diesen Vektor 1, 0, 0. Das ist eine Fixgrade. Auf dieser Graden passiert nichts. Die bleiben fix und alles andere wird irgendwie so verquirrt, dass keine Eigenwerte mehr dabei rumkommen. Und in dem Fall haben Sie jetzt natürlich eine nicht diagonalisierbare Matrix. Es gibt nur einen einzigen
Linie unabhängigen Eigenvektor und Sie bräuchten drei. Sie bräuchten die Basis Eigenvektoren. Sie ist hier weit weg. Gibt es nicht. Und an der Stelle ist auch überhaupt nichts
damit gerettet, dass man sich sagt, okay, ich beiße einen Apfel und lasse komplexe Eigenwerte oder Komplexe irgendwas zu. Es tut einfach nicht. Sie haben ein charakteristisches Polynom mit reellen Nullstellen und es gibt nur einen einzigen Eigenwert Eigenvektor. Also es gibt einfach Matrizen. Die sind intrinsisch per se nicht diagonalisierbar.
Bei denen gehen die ganzen schönen Tricks, die wir gerade hatten, nicht. Da kann man jetzt eine ganze Theorie dran hängen, sozusagen wie nah an diagonal man die noch transformieren kann. Da kommt die sogenannte jordanische Normalform raus. Das ist halt fast diagonal. So mit halt noch ein bisschen abstrichen.
Da will ich Sie überhaupt nicht mit belästigen, falls Sie den Begriff mal hören. Der gehört hier hin. Die jordanische Normalform ist die Bastelage nah an diagonalisierbar, weil diagonalisierbar nicht immer geht. Aber nur falls für diejenigen, die den Begriff mal hören, wo sie den einsortieren müssen. Für uns sind solche Matrizen jetzt erst mal doof.
Die kann man nicht in dem Sinne hier diagonalisieren. Umso wichtiger ist jetzt die gute Nachricht, dass es eine große Klasse von Matrizen gibt, die auch sehr wichtig sind in verschiedenen Zusammenhängen, die immer und grundsätzlich diagonalisierbar sind. Und das ist jetzt der Abschnitt 613.
Und zwar sind das alle symmetrischen Matrizen. Nochmal kurz erinnert, was war symmetrisch? Symmetrisch hieß A gleich A transponiert. Das heißt, wenn Sie die Zahl, wenn Sie aus den Zeilen die Spalten machen und aus den Spalten die Zeilen, dann darf sich die Matrix nicht ändern.
Im Wesentlichen heißt das, die Matrix ist symmetrisch zur Hauptdiagonal. Also und meine die gute Nachricht ist, solche Matrizen, denen sie symmetrisch sind, sind immer diagonalisierbar.
Und Sie werden in Ihrem Studium noch viele Situationen erleben, wo einfach aus sozusagen naturgesetzlichen Gründen symmetrische Matrizen auftauchen. Zum Beispiel, wenn man in der Festkörpermechanik
Scherungen oder Deformationen von Festkörpern sich anschaut, heißt Symmetrie einfach, dass das Material in dem Sinne, also sind das, sind die Symmetrie, kommen diese Symmetrie-Eigenschaften aus Symmetrie-Eigenschaften vom Material.
Das ist, wenn Sie so rumscheren oder so rumscheren, das Negative sozusagen erzeugt. Also Symmetrie-Matrizen kommen an ganz vielen Stellen vor, tauchen immer wieder auf. Und die gute Nachricht ist, solange sie in dem Bereich sind, passiert so ein Quatsch wieder oben, dass sie zu wenig Eigenvektoren kriegen nicht. Und die Welt ist sogar noch schöner.
Die sind nicht nur einfach diagonalisierbar, sondern die Basen aus Eigenvektoren, die sie kriegen, sind sogar besonders schön. Also nehmen Sie sich mal eine N-Kreuz-N-Matrix her, symmetrisch,
dann ist diese Matrix immer diagonalisierbar. Das heißt, es gibt eine Basis aus Eigenvektoren und nicht nur irgendeine Basis, sondern sogar eine orthonormal Basis. Also die Aussage ist, dann gibt es eine orthonormal Basis
aus Eigenvektoren. Das heißt, das Rn aus Eigenvektoren von A. Das heißt,
Sie haben eine Basis aus Eigenvektoren. Das heißt natürlich A zum einen, A ist auf jeden Fall diagonalisierbar. Und jetzt können wir noch das orthonormal Basis ausschlachten. Das bedeutet, von der Geometrie her im Wesentlichen, dass die Eigenvektoren, die zu verschiedenen Eigenwerten
dieser Matrix immer zueinander senkrecht stehen. Wenn Sie mal eine orthogonal Basis aus Eigenvektoren haben, können Sie die auch alle normieren zu einer orthonormal Basis. Also die Überraschung ist nicht das Normal, sondern die Überraschung ist das Orto. Also die Überraschung ist, dass symmetrische Matrizen die schöne Eigenschaft haben, dass wenn sie
...eigenvektoren zu verschiedenen Eigenwerten anschauen. Hab ich Ihnen vorhin gesagt, die sind immer linear unabhängig. Und bei symmetrischen Matrizen sind die sogar nicht nur linear unabhängig, sondern sogar immer orthogonal zueinander. Symmetrische Matrix, zwei Eigenvektoren zu verschiedenen Eigenwerten, prinzipiell senkrecht. Schöne Eigenschaft von symmetrischen Matrizen.
Und das hat zwei schöne Eigenschaften, das hat zwei schöne Folgerungen, wenn Sie mit dem Zeug rechnen wollen. Erstens, Sie können immer diagonalisieren. Und zweitens, der Basiswechsel, den Sie dabei machen, ist ein schöner. Weil Sie wechseln ja jetzt in die Basis als Eigenvektoren, und das ist eine Ortonormalbasis. Und jetzt müssen Sie sich dran erinnern, was ich Ihnen erzählt habe,
über Basiswechsel in Ortonormalbasen. Die sind einfach, weil dann es invertieren leicht wird. Weil die Basiswechselmatrix ist dann ja eine orthogonale Matrix. Und inverse von orthogonalen Matrizen sind die transponierten. Also, das bedeutet weiter, es gibt eine orthogonale Matrix, nämlich die Basiswechselmatrix S,
für die erst mal nach normalem Basiswechsel S noch minus 1 A S diagonal gestalt hat.
Also, die Form mit Lambda 1 bis Lambda n auf der Diagonalen. Dabei können jetzt natürlich manche Lambdas hier identisch sein. Diese Schreibweise heißt wieder nicht, dass jedes Lambda j ein verschiedenes ist. Die können identisch sein. Aber solange die Matrix symmetrisch ist, garantiert Ihnen eben diese Satz hier immer,
dass es diagonalisierbar ist und Sie dann halt eine Diagonalmatrix kriegen, wo dieses Lambda, das mehrfach auftaucht, eben so oft auftaucht, wie es im charakteristischen Polynomen Nullstelle ist. Und das Schöne ist, weil das S eben eine orthogonale Matrix ist,
dass die Invertierung nicht schwer ist, sondern S noch minus 1 A S ist einfach S transponiert A S. Das liegt am orthogonal. Und damit sind symmetrische Matrizen was sehr schönes. Wenn Sie eine symmetrische Matrix haben und Sie sollen die Eigenwerte ausrechnen
und die Eigenvektoren und diagonalisieren, können Sie immer sicher sein, das geht. Sie kriegen immer genug Eigenvektoren und die Dinger sind sogar immer ein paarweise senkrecht und können auf einer autonormalen Basis normiert werden. Das sollten Sie auch tun. Also wenn Sie sehen, Aufgabe ist, diagonalisieren Sie und Sie sehen, das Ding ist symmetrisch,
dann lohnt es sich normalerweise auf die autonormalen Basis zu wechseln, weil Sie sich nämlich dann hier den Stress mit dem Invertieren von dem S sparen. Wenn Sie nur irgendeine orthogonal Basis nehmen, dann müssen Sie das S invertieren, dann haben Sie noch ein Gaussverfahren mehr.
So, das ist es erstmal so weit zum Thema Eigenwerte, Eigenvektoren. Im Wesentlichen haben wir damit auch alles, was an theoretischem Stoff in der linearen Algebra kommt, durchgeknetet.
Ich will jetzt noch einen Kapitel hinten anhängen, das so ein bisschen zusammenfasst, so ein bisschen ein groß angelegtes Beispiel ist, auch wenn Sie mir jetzt das Wort Beispiel um die Ohren hauen werden, weil da tauchen wieder überhaupt keine Zahlen auf.
Sagen wir mal, eine Anwendung dieser ganzen Eigenwerttheorie in der Geometrie. Und das ist überschrieben mit quadratische Formen und Kegelschnitte.
Und worum es geht, ist, wenn Sie so wollen, so kann man es auch sehen, wir gehen jetzt einen Schritt weiter und gucken uns nicht mehr lineare Gleichungen mehr n an, also lineare Gleichungssysteme haben wir jetzt rauf und runter gemacht,
sondern das nächste ist ein quadratisches. Also quadratische Gleichungen mehr n. Eins rauf und wir machen auch nur R2 und ich sage ganz kurz etwas zu R3 und alles drüber bedecken wir mit Schweigen. Warum will man das machen? Weil sehr viele wichtige geometrische Figuren so schön gerade und eben sind,
aber es gibt viele wichtige geometrische Figuren, die eben Lösungsmengen von Gleichungen zweiten Grades sind. Also ein Ziel ist eben die Beschreibung geometrischer Figuren,
die Lösungen von Gleichungen zweiten Grades sind, als da wären Kreise, Kugeln, gut Kreise und Kugeln sind das gleiche, Kreise sind Kugeln im R2, Ellipsen und ihr entsprechendes Gegenpart im R3,
Ellipsoide, dann Paraboloide, Hyperboloide, da kann man jetzt weitermachen, lauter solche Dinge,
das sind die Dinge, das sind die Lösungsmengen von Gleichungen zweiten Grades, immer zwei und immer drei. Und bisher hatten wir eben betrachtet Graden und Ebenen
und dann geht es natürlich höherdimensional weiter, das sind Lösungsmengen lineare Gleichungen und jetzt machen wir quadratische Gleichungen.
Quadratische Gleichungen in R sind für Sie alle noch klar, PQ Formel fertig, aber wir haben jetzt leider eine quadratische Gleichung im R2 oder im R3, also mit mehr Unbekannten und das wird dann sehr schnell deutlich unübersichtlicher
und es lohnt sich, diese Gleichungen dann zu sortieren und in ein Matrix Schema zu pressen. Also, wie sieht die allgemeine quadratische Gleichung in N-Variablen aus?
Das ist spätestens die Stelle, wo Sie mir das Wort Beispiel um die Ohren hauen. Allgemeine quadratische Gleichung in N-Variablen und ich schreibe die Ihnen gleich in Matrixform hin und dann überlegen wir uns gleich an einem konkreten Beispiel, wie man von der konkreten Gleichung in XY zur Matrixform kommt.
Also, die allgemeine quadratische Gleichung sieht so aus, Sie haben X transponiert, AX. In dem Term sind alle quadratischen Terme aufgesaugt. Dann kommt der lineare Anteil, das ist ein Vektor A transponiert mal X
und dann können Sie noch einen konstanten Anteil haben plus Alpha gleich Null. Wobei, was sind die Dinge hier? Also, gegeben ist das A, das sind die Koeffizienten der quadratischen Anteile.
Die können Sie, und das sehen wir gleich warum, immer symmetrisch wählen. Also, Sie können es auch ungeschickt machen und das A nicht symmetrisch machen, aber Sie können es immer geschickt symmetrisch wählen. Also, A ist eine symmetrische Matrix, N x N. Der Vektor A, das sind die Koeffizienten des linearen Anteils, das ist einfach ein RN-Vektor und das Alpha ist eine reelle Zahl.
Diese N² plus N plus 1 zahlen, das sind die Koeffizienten, die gegeben sind. Also, was Sie nachher suchen, ist eben die Lösung dieser linearen quadratischen Gleichung da oben und diese N² plus N plus 1 zahlen, das sind die gegebenen Koeffizienten.
Dann, wenn Sie jetzt mal N gleich 1 in Geiste setzen, dann ist N² plus N plus 1 3 und das sind die drei Koeffizienten, die eine gleiche und quadratische Gleichung mit R hat, nämlich A x² plus B x plus C gleich 0. Nur jetzt, dass das was hier steht, das Groß A ist A mal x² plus B mal x plus C gleich 0.
Nur eben höher dimensional. So, das ist gegeben und gesucht ist das x aus RN. Also, x ist ein Vektor mit RN und der ist gesucht.
Und das hier oben nennt man die Koeffizienten. Und das sind eben, wenn N groß wird, verdammt viele. So, jetzt hatte ich gesagt, wir nehmen uns mal ein Beispiel her im R2 und schauen, wie wir die konkrete Gleichung in so eine komische Form kriegen.
Also, Beispiel 7.1 im R2. Aber das Verfahren ist dann im R3, im R17 das gleiche. Es wird nur wahnsinnig unübersichtlich.
Ich meine, Sie glauben mir, ich werde jetzt keine solche Gleichung im R17 hinschreiben, weil das gibt 17² plus 17 plus 1 Koeffizienten. Vielen Dank. So, die Gleichung, die ich mit Ihnen anschauen will, ist die folgende.
x² minus 2y² plus 4xy plus W zu 5x plus 2 W zu 5y minus 3 viertel gleich 0. Das ist eine schön allgemeine quadratische Gleichung im R2. Mit alles vorkommt, was vorkommen kann.
N² plus N plus 1, also 4 plus 2 plus 1, 7 Koeffizienten. 1, 2, 3, 4, 5, 6. Das sind nur 6 und nicht 7. Weil, was ist der siebte Term, der jetzt hier nicht auftaucht? Sie haben x², sie haben y², sie haben x und y einzeln.
Sie haben xy und sie haben yx. Und yx habe ich natürlich mit xy schon mal zusammengefasst. So, wie können wir das jetzt in diese komische Form da oben quetschen?
Das erste ist, wir müssen das erst mal vektoriell aufschreiben. Also der Vektor x, also der Vektor der Variable in xy. Und damit kriegen wir das in oberiger Form schreiben.
So, und wie macht man das jetzt? Gerade noch. Die quadratischen Terme, hatte ich gesagt, die quadratischen Terme kommen mit dem ersten, diesem x transponiert A x Teil. Quadratische Terme sind alle die drei hier. Da tauchen x genau, y², x mal y ist auch ein quadratischer Term.
Also das ist natürlich nicht mit Quadrat, aber es ist x mal y. Sagen wir mal nicht die Quadrat, die Terme zweiter Ordnung. So, und die müssen wir schreiben als ein Vektor xy, das ist x transponiert, mal eine Matrix A, mal der Vektor xy.
Das ist das, was oben steht. Jetzt die Frage, was kommen da für Zahlen rein? Wenn Sie mal im Geiste die Zeilen und Spalten da multiplizieren, also diese Zeile xy mit den Spalten und danach noch mit der Spalte hinten, dann stellen Sie fest, das, was oben links in der Ecke steht,
das wird zuerst mit x multipliziert und danach noch mal mit x. Das ist der Vorfaktor vom x². Also diese 1 hier, die kommt hier hin.
Wenn Sie mal im Geiste weiter multiplizieren, wo kommt das y² raus? Das kommt dann raus, wenn Sie das xy mit der zweiten Spalte multiplizieren und dann mit dem xy hinten, das ist der Term unten rechts. Also der Term unten rechts, das ist die Minus 2.
So, und jetzt haben wir noch die beiden Felder übrig und diese 4. Und der Term oben rechts ist der, der zum yx gehört und der Term unten links ist der, der zum xy gehört. Und jetzt kommt genau dieser Punkt. Und jetzt können Sie es geschickt oder ungeschickt machen.
Diese 4 da oben, die können Sie jetzt natürlich beliebig auf xy und yx verteilen. Also diese 4, die kommt hier und da hin. Und Sie dürfen die verteilen, wie Sie wollen. Und naheliegend ist natürlich, ich hatte auch schon geschrieben, wir wollen das a symmetrisch machen, hier können Sie es sich so symmetrisch machen,
wie Sie es haben wollen. Also es ist sinnvoll, diese 4 hier schön gleichmäßig zu verteilen. Das müssen Sie nicht. Kommt das Gleiche raus, wenn Sie 3 und 1 schreiben, aber dann sind Sie hinterher, wenn Sie damit rechnen wollen in der Bredouille, weil das nicht mehr symmetrisch ist und wenn Sie Pech haben, dann ist das nicht mehr, nicht mehr diagonalisierbar.
Nee, 3 und 1, das ist additiv. Das wären dann, wenn Sie es 3 und 1 verteilen, ist es 3xy plus 1yx. Das sind 4xy. Das wäre schon 3y1, nicht 4y1. Das geht additiv zusammen.
Insofern war 4 ein saublödes Beispiel. Also 4 ist wegen 2 plus 2, deswegen ist es gut, dass diese Dings aufkommen. Nicht wegen 2 mal 2, 2 plus 2. Sie müssen es additiv aufspalten. Sie nehmen immer die Hälfte oben und die Hälfte unten. Aber danke, das muss ich mir fürs nächste Jahr merken, dass ich das nicht mit 4 mache. Das sind die Sachen, die dann erst auffallen.
Das ist ziemlich die einzige Zahl, wo das schiefgeht. Gut. Bleiben hinten der lineare und der absolute Term übrig. Der ist jetzt nicht mehr so schwer. Den linearen Teil müssen wir schreiben als A transponiert x. Ich hoffe, diese Form A transponiert x ist für alle noch präsent.
Das ist das Skalarprodukt. A transponiert x ist das Skalarprodukt vom Vektor A mit dem Vektor x. Und was wir da stehen haben, ist hier Wurzel 5x plus 2 Wurzel 5y. Das kriegen wir wunderbar in diese Schreibweise. Das ist Wurzel 5. 2 Wurzel 5 multipliziert mit xy.
Minus 3 viertel, das ist der absolute Term, gleich 0. So, jetzt haben wir diese Gleichung in diese Form da oben. Und es ist immer das gleiche Verfahren. Also auf der Diagonal von der Matrix stehen die Vorfaktoren der quadratischen Terme.
In den anderen Feldern verteilen sie symmetrisch die gemischten x mal y und x mal z und w mal u. Denn der lineare Teil ist einfach ein Skalarprodukt und der absolute bleibt stehen. So, also jetzt können wir sagen, was hier das A und der Vektor A und das Alpha sind.
Also ist in dem Fall die Matrix A, die Matrix 1, 2, 2, minus 2. Der Vektor A ist der Vektor Wurzel 5, 2 Wurzel 5 und Alpha ist minus 3 viertel. Aber die Frage, die jetzt eben im Raum steht, wenn ich Ihnen so eine Gleichung hinknall,
was ist denn das geometrisch? Eine quadratische Gleichung, es könnte ein Kreis sein, eine Ellipse, eine Hyperbel, eine Parabel. Sehen Sie es? Also gut, entweder das Computer auspacken, plotten lassen und gucken, was rauskommt.
Aber wir gehen immer wieder davon aus, wir sind auf einer einsamen Insel und haben einen Computer da zum Plotten. Also, wie kriegen wir das raus? Also die Frage ist, was beschreibt diese Gleichung geometrisch?
Und da gibt es ein Standardverfahren, wie man diese Gleichung auf sogenannte Normalformen bringt. Und in der Normalform kann man ablesen, was es ist und alle relevanten Größen. Also wenn Sie die Normalform von der Ellipse kriegen, dann ist die immer so,
dass die beiden Halbachsen schon fertig konfektioniert da stehen und Sie nur noch ablesen müssen. Also Halbachsen und Mittelpunkt und alles. Ein bisschen hatten wir das Ganze am Anfang von der Matte 1, da hatten wir auch schon mal eine Normalform von Ellipsen gemacht. Das waren allerdings nur Ellipsen, die schön um die Null herum zentriert waren und Halbachsen in Richtung der X- und Y-Linie hatten.
Das ist natürlich ein bisschen kurz gehüpft, weil es gibt durchaus auch Ellipsen, die quer im Raum liegen und damit können wir jetzt dann demnächst alle. Allerdings hätten wir das, was wir jetzt machen können, auch am Anfang von Matte 1 nicht tun können, weil jetzt müssen wir mit der ganzen Indian Algebra, die wir jetzt in vielen Wochen aufgebaut haben, auf dieses Problem draufhauen.
Und dann werden wir sehen, dass wir eben eine schöne Antwort kriegen. Dieses Beispiel hier wird sich jetzt nicht nur roter, sondern bunter Faden durch dieses ganze Abschnitt durchziehen. Also am Schluss von dem Abschnitt male ich Ihnen diese Quadrik dahin.
So, jetzt sage ich schon Quadrik. Mit Ihrer Uhr fallen schon alle meine? Jetzt sage ich schon Quadrik. Das ist der Fachbegriff für diese Lösungsmenge.
Also die Lösungsmenge einer Gleichung der obigen Form. Also dieser allgemeinen Form, die ich am Anfang hingeschrieben habe. Nicht jetzt diese spezielle hier, sondern die allgemeine Form oben. Die nennt sich Quadrik oder Kegelschnitt.
Und wenn Sie mit dem Begriff ein bisschen rumlaufen und insbesondere Ihre Großelterngeneration mal das Wort Kegelschnitt hört,
dann werden die alle sagen, die meisten. Weil noch in den 60ern, Anfang der 70er war das klassischer Schulstoff. Das ist dann glücklicherweise irgendwann aus der Schule rausgeflogen. Ich habe es schon nicht mehr genossen, aber Kegelschnitte waren lange Jahre klassische Oberstufenmatematik und nicht besonders beliebt. Also probieren Sie es mal. Ich denke, so in der Großelterngeneration werden Sie mit Kegelschnitt noch die entsprechenden Blicke ernten.
So, was müssen wir tun, um rauszukriegen, was unsere Gleichung geometrisch beschreibt? Ich schreibe Ihnen erstmal das allgemeine Verfahren hin.
Und dann führen wir es an dem Beispiel, das wir gerade hatten, einmal akribisch durch. Also jetzt kommt erst das Kochrezept und dann die exemplarische Durchführung. Also, was man mit so einer Quadrik machen kann, ist eben die Transformation auf die Normalform.
Und diese Transformation auf Normalform hat auch noch einen eigenen Namen. Das ist die sogenannte Hauptachsen-Transformation. Den Begriff werden Sie sicher noch das ein oder andere mal hören. Und die Hauptachsen-Transformation kriegt ihren Namen daher. Was wir machen werden, ist ein Basiswechsel.
Genauer gesagt, erst ein Basiswechsel und dann eine Verschiebung. Also wir machen einen Basiswechsel und eine Verschiebung. Wir fangen mit der Verschiebung an. Sie machen eine Verschiebung so, dass der Ursprung im Mittelpunkt der Quadrik liegt, also im Mittelpunkt des Kreises, der Ellipse, im Mittelpunkt der Parabel usw.
Und dann machen Sie noch eine Drehung, sprich einen Basiswechsel in der anderen Ortonormalbasis. Und ein Basiswechsel in der anderen Ortonormalbasis im R2 ist zum Glück immer eine Drehung plus minus Spiegelung. Aber in höheren Dimensionen kann das mehr sein. Also Sie machen noch einen Basiswechsel in der anderen Ortonormalbasis,
so dass die Basisvektoren genau in den Hauptachsen des Kreises, der Ellipse, der Parabel usw. liegt. Das ist alles, was wir jetzt tun. Also wenn Sie zwischendrin in Gefahr sind, den Faden zu verlieren, überlegen Sie sich immer, das ist der Fahrplan. Wir machen einen Basiswechsel, der die Hauptachsen richtig dreht
und dann schieben wir noch den Ursprung auf den Mittelpunkt. Zuerst kommt, und dies Ding nennt sich Hauptachsentransformation, weil man eben das Koordinatensystem auf die Hauptachsen transformiert. So, zuerst brauchen wir, damit wir überhaupt die Hauptachsen wissen, wo die sind. Was wir hier haben ist nur die doofe Gleichung.
Dann müssen wir jetzt die Hauptachsen irgendwo finden. Und das Tolle ist, die Hauptachsen sind die Eigenvektoren von der Matrix A. Also diese Matrix A, die wir da oben ausgerechnet haben, die sich aus den quadratischen Termen ergab, die ist jetzt symmetrisch, das heißt, die ist auf jeden Fall diagonalisierbar. Und die Eigenvektoren stehen senkrecht, weil sie symmetrisch ist.
Und diese beiden senkrechten Eigenvektoren, das sind die Hauptachsen. Also diese Matrix A da oben, die enthält schon die Weseninformationen, die sie brauchen, um ihre Quadrik ein bisschen genauer zu verstehen. Das heißt, der erste Schritt jeder Hauptachsentransformation ist, diagonalisiere das A.
Und wie das geht, haben wir jetzt im letzten Abschnitt gemacht. Wir wissen, dass A ist symmetrisch. Also siehe gerade eben, das war 6,13. Es gibt eine UNB, eine Ortonormalbasis, mit jetzt N-Vektoren drin.
Also wir sind jetzt wieder im RN. Beispiel oben ist N gleich 2. Aus Eigenvektoren von A. Die kriegen wir aus der Symmetrie geschenkt.
Und das ist der Punkt, weshalb es sehr, sehr, sehr ratsam ist, bei dem Erstellen des As die Kollisienten so zu verteilen, dass das symmetrisch ist. So, und diese Ortonormalbasis gibt uns jetzt schon den ersten Basiswechsel. Wir können jetzt auf diese Basis hier wechseln.
Der entsprechende Basiswechselmatrix kriegen Sie, indem Sie in die Spalten von Ihrem S diese Vektoren reinschreiben. Also Sie nehmen die Matrix S, deren Spalten Ihre N-Basisvektoren sind. Also im realen, wenn man es tut, hat man hier natürlich viel zu rechnen.
Sie müssen alle Eigenwerte von A ausrechnen. Sie müssen die Eigenvektoren ausrechnen und alle die Eigenvektoren in das S stecken. Das Gute am Theorie ist, dass man sowas einfach in zwei Zeilen hinschreibt, ohne viel rechnen zu müssen. So, also wir haben jetzt dieses S und mit diesem S gilt jetzt der übliche Basiswechsel. S transponiert A S. Man beachte, S ist eine orthogonale Matrix, weil wir in einen Ortonormalbasis wechseln.
Also das ist S auch minus 1 A S. Und das ist dann diagonal. Also Lambda 1, Lambda 2 bis Lambda n. Null, Null. Das bedeutet, wir können Basiswechsel in diese UNB machen.
Diese Matrix hier nenne ich mal für das folgende A'. Das ist die Basis von A nach dem Basiswechsel, der die UNB Standardbasis so dreht oder so verbiegt, dass die neuen Basisvektoren in die Richtung der Hauptachsen schauen.
Und dann ist A' die Abbildungsmatrix in dieser neuen Basis, die ist jetzt diagonal. So, diesen Basiswechsel, den können wir jetzt in unsere Gleichung rein substituieren.
Das ist der zweite Schritt. Also, wir haben jetzt die Basis, die ursprüngliche Basis. Da drin haben wir den Vektor xy, den Vektor x, den wir suchen. Und wir gehen jetzt über in die Basis B. Und dann bedeutet das, wir kriegen einen neuen Koordinatenvektor.
Und die Umrechnung der Koordinatenvektoren übernimmt ja freundlicherweise dieselbe Basiswechselmatrix. Also, wenn Sie hier x setzen als s mal x'. x' ist jetzt der Koordinatenvektor in der neuen Basis, s rechnet den um.
Dann können Sie das jetzt in die ursprüngliche Gleichung einsetzen. Also vielleicht nochmal die ursprüngliche Gleichung. Die ursprüngliche Gleichung war x transponiert ax plus a transponiert x plus alpha gleich 0.
Das war die ursprüngliche quadratische Gleichung, die wir uns anschauen wollen. Jetzt substituieren wir da x als s x' rein. Also erst mal rein formal, s x' transponiert a s x' plus a transponiert s x' plus alpha gleich 0.
Jetzt können wir ein bisschen aufräumen. Was passiert, wenn Sie zwei Matrizen multiplizieren und dann transponieren? Welchen Regel fürs transponieren? Sie können die beiden einzeln transponieren, aber Sie müssen tauschen.
A mal b transponiert ist b transponiert a transponiert. Also kriegen Sie hier x' transponiert, s transponiert a s x'. Das ist ja schon mal traumhaft. s transponiert a s ist schön.
Also s transponiert a s x'. Plus, was haben wir hier hinten? Was haben Sie hier stehen? Das ist, wenn man es zum ersten Mal sieht, Magie. Hier steht, wenn Sie es sich anders schreiben, das Skalarprodukt von a mit s x'.
Wenn Sie sich jetzt erinnern, eine der Sachen, weshalb transponieren schön ist, ist, dass Sie ein s für die Kosten eines Transponierens im Skalarprodukt auf die andere Seite stecken dürfen. Das ist s transponiert a x'. Das war beim transponieren eine der schönen Eigenschaften.
Dass das s mit transponiert auf die andere Seite wandert. Also kriegen wir hier, so wir haben s x'. Da kriegen wir jetzt s transponiert a transponiert x' plus alpha gleich 0.
Also x' transponiert s o minus 1 a s ist a'. Plus, dann haben wir hier einen neuen Vektor a'.
Also das Ding nenne ich mal a'. Alle Größen in dem neuen Koordinatensystem kriegen jetzt einen Strich. Also das ist a' mal x' plus alpha gleich 0.
Und a' ist eben s transponiert mal a. Also auch nicht schwer auszurechnen, wenn man das a hat. Das s hat man auch. Das s ist die Matrix, deren Spalten die Eigenvektoren von dem a sind. Die muss man ausrechnen. S transponiert also in Zeilen die Eigenvektoren und das multiplizieren Sie mit dem a.
So, das sind die ersten zwei von drei Schritten. Ja, hinter dem a fehlt n x'. Danke. Sie sehen die Konzentration des Naches ist auch Zeit. Ich mach noch einen kurzen Ausblick.
Was wir jetzt gemacht haben ist dieser erste Basiswechsel, sodass die Koordinaten in Richtung der Hauptachsen liegen. Und das zweite was noch zu tun ist, ist den Mittelpunkt auf den Mittelpunkt schieben. Das ist dann Programm für nächsten Montag.
Und dann, wie gesagt, machen wir das alles hier einmal akribisch am konkreten Beispiel durch. Und dann kriegen wir auch raus, was das für eine Quadrik war, die ich Ihnen am Anfang hingeknallt habe. Für heute vielen Dank für die Aufmerksamkeit und bis nächste Woche.