Inverse Matrix
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Untertitel |
| |
Serientitel | ||
Teil | 9 | |
Anzahl der Teile | 9 | |
Autor | ||
Lizenz | CC-Namensnennung - keine kommerzielle Nutzung - keine Bearbeitung 3.0 Deutschland: Sie dürfen das Werk bzw. den Inhalt in unveränderter Form zu jedem legalen und nicht-kommerziellen Zweck nutzen, vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/67910 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | |
Genre |
Abbildungsmatrizen9 / 9
1
2
3
4
5
6
8
9
00:00
KosinusfunktionQuadratWinkelSinusfunktionTermInverse MatrixLineare AbbildungMatrix <Mathematik>KerndarstellungAbbildung <Physik>Einfach zusammenhängender RaumDrehungInverseTrigonometrische FunktionMultiplikationsoperatorMaß <Mathematik>Kartesische KoordinatenSpiegelung <Mathematik>DifferenteFunktionalNichtunterscheidbarkeitElement <Gruppentheorie>LinearisierungKreisbewegungZusammenhängender GraphComputeranimation
07:43
MultiplikationsoperatorStandardabweichungMaß <Mathematik>Basis <Mathematik>VektorraumDiagonale <Geometrie>ResultanteDiagonalformMatrix <Mathematik>ExistenzsatzLinearisierungRechenbuchLineare AbbildungVektorInverse MatrixVektorrechnungNullComputeranimation
12:23
Matrix <Mathematik>Inverse MatrixMaß <Mathematik>Ordnung <Mathematik>Matrix <Mathematik>MultiplikationsoperatorNichtunterscheidbarkeitNichtlineares GleichungssystemMultifunktionLinearisierungInverseAuswahlaxiomInverse MatrixLineare AbbildungGleichungComputeranimation
Transkript: Deutsch(automatisch erzeugt)
00:00
Ich betrachte hier Umkehr-Abbildungen speziell zu linearen Abbildungen. Manchmal ist es sehr einfach, eine Umkehr-Abbildung anzugehen. Also drehen wir zum Beispiel um den Winkel Phi, dann können wir einfach zurückdrehen, das ist dann die Drehung um den Winkel minus Phi, und sind wieder da, wo wir angefangen
00:25
haben. Das heißt, hier hätten wir R minus Phi, das wäre der Cosinus von minus Phi minus den Sinus von minus Phi, und unten steht der Sinus von minus Phi und der Cosinus von
00:42
minus Phi. Ja, und wir wissen, wenn wir erst um Phi drehen und dann um minus Phi, dann ist das die identische Abbildung, also die Identität, die alles da lässt, wo sie ist, sprich, das
01:02
ist hier unsere Einheitsmatrix. Wir können das ja mal kurz nachrechnen. Was ist R minus Phi mal R Phi? Das R Phi schreibe ich einfach erst mal ab, bei R minus Phi nutze ich noch aus,
01:33
dass der Cosinus eine gerade Funktion ist und der Sinus eine ungerade Funktion, sprich, der Cosinus von minus Phi, das ist gleich dem Cosinus von Phi, der Sinus von minus
01:45
Phi, das ist gleich minus dem Sinus von Phi, und so habe ich also bezüglich dieser Matrix hier einfach die Vorzeichen vertauscht. Und wenn wir das dann ausrechnen, dann steht hier Cosinus Phi Cosinus Phi, das
02:05
ist der Cosinus Quadrat von Phi plus Sinus Phi Sinus Phi, Sinus Quadrat Phi, dann steht hier Minus Sinus Phi Cosinus Phi plus Cosinus Phi Sinus Phi, und dann steht
02:29
noch Cosinus Phi minus Sinus Phi plus Sinus Phi Cosinus Phi, und in der letzten
02:42
Komponente steht Minus Sinus Phi mal Minus Sinus Phi, das ist der Sinus Quadrat Phi plus Cosinus mal Cosinus, das ist plus Cosinus Quadrat Phi. So, da können wir nochmal daran sehen, dass Cosinus Quadrat plus Sinus Quadrat
03:01
gleich eins ist, oder wir erinnern uns daran, das heißt, hier steht wirklich eins, dann heben sich die beiden Terme weg, da steht eine Null ebenso wie hier, und hier steht eins, das ist also wirklich die Einheitsmatrix. Auch bei der Achsenspiegelung ist es einfach eine Umkehrabbildung anzugeben.
03:26
Die Achsenspiegelung längst der Winkel halbierenden, das war diese Matrix hier, und wenn wir zweimal spiegeln, dann sind wir wieder da, wo wir angefangen haben, sprich, wenn wir S mal S ausrechnen, das ist 0 1 1 0 mal 0 1 1 0, und das gibt
04:07
0 mal 0 plus 1 mal 1, 1 mal 0 plus 0 mal 1, 0 mal 1 plus 1 mal 0, und 1 mal 1 plus 0 mal 0, das gibt wirklich die Einheitsmatrix.
04:28
Das führt mich zu folgender Definition, wir nehmen eine quadratische Matrix A und sagen, eine Matrix B heißt die zu A inverse Matrix, wenn gilt A mal B gleich
04:43
Einheitsmatrix, das heißt, wir haben schon gesehen, die Spiegelung S hat als inverse Matrix wieder S, die Drehmatrix zum Winkel Phi hat als inverse Matrix die Drehmatrix zum Winkel minus Phi, aber die Frage ist, wann existiert denn so eine
05:04
inverse Matrix zu einer Matrix? Nun, die Antwort ist gar nicht so schwer, nämlich,
05:24
genau dann, wenn wir die zugehörige lineare Abbildung umkehren können, die zugehörige lineare Abbildung, das war Phi A vom R hoch N umkehrbar ist, das heißt,
05:56
wenn Phi A bijektiv ist. Schauen wir uns an, wann kann denn so eine Abbildung
06:10
injektiv sein? Dazu müssen wir uns erst mal anschauen, was heißt es denn, wenn
06:21
zwei Elemente dasselbe Bild haben, das heißt, wenn Phi A von V gleich Phi A von W ist, das ist nämlich, ich bringe das alles auf eine Seite, dasselbe, wenn Phi A von V minus Phi A von W gleich Null ist, bzw. unter Benutzung der Linearität der
06:43
linearen Abbildung haben wir, dass dann Phi A von V minus W gleich Null ist, das heißt, V und W haben denselben Wert unter der Abbildung, wenn ihre Differenz aus
07:02
dem Kern von A ist. Ja, das heißt, diese Abbildung ist injektiv genau dann, wenn
07:23
diese Differenz hier immer Null ist, also genau dann, wenn der Kern von A gleich Null ist. Das kann ich auch noch anders ausdrücken, ich kann nämlich sagen,
07:47
das ist genau dann der Fall, wenn die Bilder von den Standardbasisvektoren, also A mal E1 bis A mal En linear unabhängig sind. Ja, und wann ist so eine lineare Abbildung
08:10
vom R hoch N in den R hoch N subjektiv? Nun, dann wenn A E1 bis A E1 unabhängig sind, dann kann A En den R hoch N erzeugen, und das heißt, wenn N Vektoren den R hoch
08:37
N erzeugen sollen, ebenfalls wenn A E1 bis A En linear unabhängig sind. Jetzt haben
08:55
wir also ein Kriterium dafür, wann so ein inverse Matrix existiert. Schauen wir uns
09:02
dazu ein Beispiel an. Nehmen wir an, wir haben eine Diagonalmatrix gegeben, mit Diagonaleinträgen D1 bis Dn. Ja, wenn D1 bis Dn alle ungleich Null sind, dann ist es sehr einfach eine
09:26
Diagonalmatrix D hoch minus 1. Das ist einfach die Matrix, die die Diagonaleinträge 1 durch D1 bis 1 durch Dn enthält, denn, dann können wir das einfach nachrechnen,
09:46
was ist D mal D hoch minus 1? Das ist die Diagonalmatrix D1 bis Dn mit dieser Diagonalmatrix
10:02
mal genommen. Und was bekommen wir da raus? Nun D1 mal 1 durch D1 plus, und dann fallen hier immer nur Nuller auf Nuller, das heißt, wir bekommen natürlich wieder eine Diagonalmatrix raus, in der zweiten Zeile steht dann nur D2 durch D2 und so weiter
10:28
bis Dn durch Dn. Alle diese Brüche lassen sich kürzen, da kommt eine Diagonalmatrix mit lauter 1 raus und das ist die Einheitsmatrix. Das heißt, wenn alle Diagonaleinträge
10:46
ungleich Null sind, dann ist D invertierbar, ist hingegen, sagen wir, Dj bis Dn durch Dn gleich Null, dann berechnen wir doch mal D mal Ej. Wir hatten schon gesehen, wenn
11:07
wir diesen Standardbasisvektor an eine Diagonalmatrix dran multiplizieren, dann bekommen wir gerade das Dj-Fache von Ej wieder raus und das ist hier Null, weil J gleich Null
11:31
ist. Den Vektor Ej, den erhalten wir nicht im Erzeugnis von D mal I1 bis D mal En,
11:44
denn das ist ja D1E1 bis DnEn und da können wir genau solche Standardbasisvektoren zurückgewinnen, bei denen eben dieser Vorfaktor nicht Null ist. Und das heißt, nichts anderes
12:03
als D bzw. die lineare Abbildung dazu ist nicht subjektiv. Schließen möchte ich
12:22
mit dieser Bemerkung, nämlich, wenn eine Matrix A invertierbar ist, das heißt, wenn eine zu A inverse Matrix B existiert, dann nennen wir A hoch minus 1, dann gilt, dass nicht nur A mal B die Einheitsmatrix ergibt, sondern auch B mal A. Und insbesondere
12:45
gibt es auch nur eine einzige Matrix B, die die inverse zu A ist. Begründen wir das kurz. Ja, diese Matrix A, die invertierbar sein soll, die entspricht einer linearen
13:04
Abbildung Phi A und B, also A hoch minus 1, das entspricht Phi A hoch minus 1, der Umkehrabbildung von Phi A. Und jetzt wissen wir, Phi A nach Phi A hoch minus
13:24
1, das ist die Identität auf dem R hoch N, genauso wie Phi A hoch minus 1 nach Phi A die Identität auf dem R hoch N ist. Also gilt diese Gleichung auch in Matrix-Schreibweise,
13:46
also A mal B gleich die Einheitsmatrix, der die Identität darstellt, das ist sozusagen aus der Definition von B heraus da. Und dann haben wir auch noch B mal A, muss die Einheitsmatrix sein. Ja, und wieso ist die inverse Matrix eindeutig bestimmt?
14:06
Nun, Phi A hoch minus 1 ist eindeutig bestimmt und wir haben diese 1 zu 1 Zuordnung zwischen Matrizen und linearen Abbildungen nach Basiswahl. Also ist B eindeutig bestimmt.
14:27
Dadurch, dass B eben die Umkehrabbildung realisiert.