We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Inverse Matrix

00:00

Formale Metadaten

Titel
Inverse Matrix
Untertitel
Matrix 13
Serientitel
Teil
9
Anzahl der Teile
9
Autor
Lizenz
CC-Namensnennung - keine kommerzielle Nutzung - keine Bearbeitung 3.0 Deutschland:
Sie dürfen das Werk bzw. den Inhalt in unveränderter Form zu jedem legalen und nicht-kommerziellen Zweck nutzen, vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
KosinusfunktionQuadratWinkelSinusfunktionTermInverse MatrixLineare AbbildungMatrix <Mathematik>KerndarstellungAbbildung <Physik>Einfach zusammenhängender RaumDrehungInverseTrigonometrische FunktionMultiplikationsoperatorMaß <Mathematik>Kartesische KoordinatenSpiegelung <Mathematik>DifferenteFunktionalNichtunterscheidbarkeitElement <Gruppentheorie>LinearisierungKreisbewegungZusammenhängender GraphComputeranimation
MultiplikationsoperatorStandardabweichungMaß <Mathematik>Basis <Mathematik>VektorraumDiagonale <Geometrie>ResultanteDiagonalformMatrix <Mathematik>ExistenzsatzLinearisierungRechenbuchLineare AbbildungVektorInverse MatrixVektorrechnungNullComputeranimation
Matrix <Mathematik>Inverse MatrixMaß <Mathematik>Ordnung <Mathematik>Matrix <Mathematik>MultiplikationsoperatorNichtunterscheidbarkeitNichtlineares GleichungssystemMultifunktionLinearisierungInverseAuswahlaxiomInverse MatrixLineare AbbildungGleichungComputeranimation
Ich betrachte hier Umkehr-Abbildungen speziell zu linearen Abbildungen. Manchmal ist es sehr einfach, eine Umkehr-Abbildung anzugehen. Also drehen wir zum Beispiel um den Winkel Phi, dann können wir einfach zurückdrehen, das ist dann die Drehung um den Winkel minus Phi, und sind wieder da, wo wir angefangen
haben. Das heißt, hier hätten wir R minus Phi, das wäre der Cosinus von minus Phi minus den Sinus von minus Phi, und unten steht der Sinus von minus Phi und der Cosinus von
minus Phi. Ja, und wir wissen, wenn wir erst um Phi drehen und dann um minus Phi, dann ist das die identische Abbildung, also die Identität, die alles da lässt, wo sie ist, sprich, das
ist hier unsere Einheitsmatrix. Wir können das ja mal kurz nachrechnen. Was ist R minus Phi mal R Phi? Das R Phi schreibe ich einfach erst mal ab, bei R minus Phi nutze ich noch aus,
dass der Cosinus eine gerade Funktion ist und der Sinus eine ungerade Funktion, sprich, der Cosinus von minus Phi, das ist gleich dem Cosinus von Phi, der Sinus von minus
Phi, das ist gleich minus dem Sinus von Phi, und so habe ich also bezüglich dieser Matrix hier einfach die Vorzeichen vertauscht. Und wenn wir das dann ausrechnen, dann steht hier Cosinus Phi Cosinus Phi, das
ist der Cosinus Quadrat von Phi plus Sinus Phi Sinus Phi, Sinus Quadrat Phi, dann steht hier Minus Sinus Phi Cosinus Phi plus Cosinus Phi Sinus Phi, und dann steht
noch Cosinus Phi minus Sinus Phi plus Sinus Phi Cosinus Phi, und in der letzten
Komponente steht Minus Sinus Phi mal Minus Sinus Phi, das ist der Sinus Quadrat Phi plus Cosinus mal Cosinus, das ist plus Cosinus Quadrat Phi. So, da können wir nochmal daran sehen, dass Cosinus Quadrat plus Sinus Quadrat
gleich eins ist, oder wir erinnern uns daran, das heißt, hier steht wirklich eins, dann heben sich die beiden Terme weg, da steht eine Null ebenso wie hier, und hier steht eins, das ist also wirklich die Einheitsmatrix. Auch bei der Achsenspiegelung ist es einfach eine Umkehrabbildung anzugeben.
Die Achsenspiegelung längst der Winkel halbierenden, das war diese Matrix hier, und wenn wir zweimal spiegeln, dann sind wir wieder da, wo wir angefangen haben, sprich, wenn wir S mal S ausrechnen, das ist 0 1 1 0 mal 0 1 1 0, und das gibt
0 mal 0 plus 1 mal 1, 1 mal 0 plus 0 mal 1, 0 mal 1 plus 1 mal 0, und 1 mal 1 plus 0 mal 0, das gibt wirklich die Einheitsmatrix.
Das führt mich zu folgender Definition, wir nehmen eine quadratische Matrix A und sagen, eine Matrix B heißt die zu A inverse Matrix, wenn gilt A mal B gleich
Einheitsmatrix, das heißt, wir haben schon gesehen, die Spiegelung S hat als inverse Matrix wieder S, die Drehmatrix zum Winkel Phi hat als inverse Matrix die Drehmatrix zum Winkel minus Phi, aber die Frage ist, wann existiert denn so eine
inverse Matrix zu einer Matrix? Nun, die Antwort ist gar nicht so schwer, nämlich,
genau dann, wenn wir die zugehörige lineare Abbildung umkehren können, die zugehörige lineare Abbildung, das war Phi A vom R hoch N umkehrbar ist, das heißt,
wenn Phi A bijektiv ist. Schauen wir uns an, wann kann denn so eine Abbildung
injektiv sein? Dazu müssen wir uns erst mal anschauen, was heißt es denn, wenn
zwei Elemente dasselbe Bild haben, das heißt, wenn Phi A von V gleich Phi A von W ist, das ist nämlich, ich bringe das alles auf eine Seite, dasselbe, wenn Phi A von V minus Phi A von W gleich Null ist, bzw. unter Benutzung der Linearität der
linearen Abbildung haben wir, dass dann Phi A von V minus W gleich Null ist, das heißt, V und W haben denselben Wert unter der Abbildung, wenn ihre Differenz aus
dem Kern von A ist. Ja, das heißt, diese Abbildung ist injektiv genau dann, wenn
diese Differenz hier immer Null ist, also genau dann, wenn der Kern von A gleich Null ist. Das kann ich auch noch anders ausdrücken, ich kann nämlich sagen,
das ist genau dann der Fall, wenn die Bilder von den Standardbasisvektoren, also A mal E1 bis A mal En linear unabhängig sind. Ja, und wann ist so eine lineare Abbildung
vom R hoch N in den R hoch N subjektiv? Nun, dann wenn A E1 bis A E1 unabhängig sind, dann kann A En den R hoch N erzeugen, und das heißt, wenn N Vektoren den R hoch
N erzeugen sollen, ebenfalls wenn A E1 bis A En linear unabhängig sind. Jetzt haben
wir also ein Kriterium dafür, wann so ein inverse Matrix existiert. Schauen wir uns
dazu ein Beispiel an. Nehmen wir an, wir haben eine Diagonalmatrix gegeben, mit Diagonaleinträgen D1 bis Dn. Ja, wenn D1 bis Dn alle ungleich Null sind, dann ist es sehr einfach eine
Diagonalmatrix D hoch minus 1. Das ist einfach die Matrix, die die Diagonaleinträge 1 durch D1 bis 1 durch Dn enthält, denn, dann können wir das einfach nachrechnen,
was ist D mal D hoch minus 1? Das ist die Diagonalmatrix D1 bis Dn mit dieser Diagonalmatrix
mal genommen. Und was bekommen wir da raus? Nun D1 mal 1 durch D1 plus, und dann fallen hier immer nur Nuller auf Nuller, das heißt, wir bekommen natürlich wieder eine Diagonalmatrix raus, in der zweiten Zeile steht dann nur D2 durch D2 und so weiter
bis Dn durch Dn. Alle diese Brüche lassen sich kürzen, da kommt eine Diagonalmatrix mit lauter 1 raus und das ist die Einheitsmatrix. Das heißt, wenn alle Diagonaleinträge
ungleich Null sind, dann ist D invertierbar, ist hingegen, sagen wir, Dj bis Dn durch Dn gleich Null, dann berechnen wir doch mal D mal Ej. Wir hatten schon gesehen, wenn
wir diesen Standardbasisvektor an eine Diagonalmatrix dran multiplizieren, dann bekommen wir gerade das Dj-Fache von Ej wieder raus und das ist hier Null, weil J gleich Null
ist. Den Vektor Ej, den erhalten wir nicht im Erzeugnis von D mal I1 bis D mal En,
denn das ist ja D1E1 bis DnEn und da können wir genau solche Standardbasisvektoren zurückgewinnen, bei denen eben dieser Vorfaktor nicht Null ist. Und das heißt, nichts anderes
als D bzw. die lineare Abbildung dazu ist nicht subjektiv. Schließen möchte ich
mit dieser Bemerkung, nämlich, wenn eine Matrix A invertierbar ist, das heißt, wenn eine zu A inverse Matrix B existiert, dann nennen wir A hoch minus 1, dann gilt, dass nicht nur A mal B die Einheitsmatrix ergibt, sondern auch B mal A. Und insbesondere
gibt es auch nur eine einzige Matrix B, die die inverse zu A ist. Begründen wir das kurz. Ja, diese Matrix A, die invertierbar sein soll, die entspricht einer linearen
Abbildung Phi A und B, also A hoch minus 1, das entspricht Phi A hoch minus 1, der Umkehrabbildung von Phi A. Und jetzt wissen wir, Phi A nach Phi A hoch minus
1, das ist die Identität auf dem R hoch N, genauso wie Phi A hoch minus 1 nach Phi A die Identität auf dem R hoch N ist. Also gilt diese Gleichung auch in Matrix-Schreibweise,
also A mal B gleich die Einheitsmatrix, der die Identität darstellt, das ist sozusagen aus der Definition von B heraus da. Und dann haben wir auch noch B mal A, muss die Einheitsmatrix sein. Ja, und wieso ist die inverse Matrix eindeutig bestimmt?
Nun, Phi A hoch minus 1 ist eindeutig bestimmt und wir haben diese 1 zu 1 Zuordnung zwischen Matrizen und linearen Abbildungen nach Basiswahl. Also ist B eindeutig bestimmt.
Dadurch, dass B eben die Umkehrabbildung realisiert.