We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Höhere Momente

00:00

Formal Metadata

Title
Höhere Momente
Title of Series
Part Number
7
Number of Parts
28
Author
License
CC Attribution - NonCommercial - ShareAlike 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal and non-commercial purpose as long as the work is attributed to the author in the manner specified by the author or licensor and the work or content is shared also in adapted form only under the conditions of this
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Die Vorlesung richtet sich an Studierende des Faches Mathematik. Sie gibt eine maßtheoretisch fundierte Einführung in die Wahrscheinlichkeitstheorie. Vorkenntnisse beim Verständnis von Wahrscheinlichkeiten (wie sie im vergangenen Semester in der Vorlesung „Einführung in die Stochastik“ vermittelt wurden) sind zum Verständnis nützlich. Die benötigten Grundlagen aus der Maß- und Integrationstheorie werden in der Vorlesung noch einmal kurz vorgestellt.
Mach's principleLink (knot theory)Random variablePopulation densitySquareExpected valueCubeVarianceNumberSubsetIntegrierbarkeitMassSummationInfinityFilm editingSet (mathematics)ScatteringFactorizationProbability spaceAbsolute valueStochasticPolar coordinate systemCumulative distribution functionMultiplicationExponentiationFamily of setsFiber (mathematics)IndexmengeMoment (mathematics)Zusammenhang <Mathematik>PositionDirection (geometry)AreaProduct (category theory)Energy levelParameter (computer programming)Physical quantityWahrscheinlichkeitsmaßRootIndexFunction (mathematics)Lp-RaumSigma-algebraEnde <Graphentheorie>Poisson distributionMeasurable functionProbability distributionAntiderivativeVector graphicsComplementarityTerm (mathematics)Derived set (mathematics)Dimension 1Logical constantRadiusReal numberConditional probabilityZentrales MomentMathematical analysisZahlKreisscheibeMathematical modelZufallsvektorCoordinate systemAbgeschlossenheit <Mathematik>GleichverteilungEquationNichtlineares GleichungssystemMittelungsverfahrenModulformGradientDivision (mathematics)Social classNegative numberThermodynamic equilibriumLinear partial informationPropositional formulaDeterminantUnit circleUmrechnungSimilarity (geometry)MathematicsMetreLink (knot theory)NullTransformation (function)Normal distributionSineComputer animationLecture/Conference
Transcript: German(auto-generated)
präsentiert von Open Learnware, die Plattform für Lernmaterialien an der TU Darmstadt. Ja, begrüße ich Sie recht herzlich zur heutigen Vorlesung. Ich begrüße Sie immer noch.
Na, kommen Sie rein oder gehen Sie raus? Okay, ich fange wie immer mit einer Wiederholung vom letzten Mal an. Wir haben die Begriffe diskrete Wahrscheinlichkeitsverteilung,
nochmal Wahrscheinlichkeitsverteilung mit Dichte kurz eingeführt. Ich betrachte eine n-wertige Zufallsvariable auf omega ap mit Verteilungsfunktion f. Die Verteilung von x, px, heißt diskrete Verteilung, wenn es eine abzählbare Menge a gibt, Teilmenge von rn mit der Eigenschaft px von a ist gleich 1.
Im Falle n gleich 1 und a gleich n 0, das heißt, wenn px von n 0 gleich 1 ist, heißen die ganzen Wahrscheinlichkeiten, Wahrscheinlichkeit, dass x gleich k ist mit k aus n 0, zähldichte von x bzw. px, b, jede Funktion f von rn bn nach rb, also jede messbare Funktion von rn nach r,
die größer gleich 0 ist und zu 1 integriert, heißt Dichte. Im Falle, dass px von b immer gerade das Integral über b f von x dx ist, heißt das Ding Dichte von px bzw. x bzw. x und px und f heißen total stetig.
Unter der Voraussetzung, dass eine Dichte existiert, gilt erstens, die Verteilungsfunktion ist stetig und zweitens, im Eindimensionalen ist die Ableitung der Verteilungsfunktion gleich der Dichte fast sicher. Das kann man auch mehrdimensional verallgemeinern, da ist die Formel ein bisschen schwieriger.
Und wir haben da noch mal wiederholt den Satz, den wir schon kannten, aus der Einführung in die Stochastik. Ich habe im Skript nur mit r-wertiger Zufallsvariable geschrieben, aber es gilt genauso mit rn-wertiger Zufallsvariable. So haben wir es in der Einführung in die Stochastik eigentlich auch bewiesen. Sei x eine rn-wertige Zufallsvariable auf omega ap g eine messbare Funktion von rn nach r,
dann gilt der Erwartungswert von g-Ring x ist nach dem Transformationssatz gleich dem Integral über rn g dp x und das lässt sich in zwei Spezialfällen weiter umformen. Nämlich erstens, x ist diskret und nimmt nur Werte in der Null ein.
Dann ist es einfach eine Reihe, k gleich Null bis ein Endlich, g von k mal Wahrscheinlichkeit von x gleich k. Zweitens, x hat eine Dichte f oder px hat eine Dichte f. Dann ist es einfach das Integral über rn von g von x mal f von x dx.
Damit sind wir eigentlich schon fast fertig mit der Wiederholung von der Einführung in die Stochastik. Ich komme jetzt heute noch zum Beispiel, dann kommen noch ein bisschen Sachen, die ich nicht mehr beweise zur Varianz. Dann werden wir eigentlich alles beweisen in der Vorlesung.
Beispiel habe ich Ihnen am letzten Mal schon hingeschrieben. Ich schreibe es nochmal hin. Ein Punkt wird rein zufällig aus der Einheitskreischeibe ausgewählt. Wie groß ist der zufällige Abstand vom Ursprung im Mittel?
Wie groß ist der zufällige Abstand vom Ursprung im Mittel?
Ich hatte beim letzten Mal schon gefragt wegen dem Bachelorseminar. Vielleicht kann ich heute nochmal fragen, wer hätte im nächsten Semester voraussichtliche Interesse an einem Bachelorseminar von Ihnen? Voraussichtlich, also es ist noch nicht eine feste Anmeldung, wenn man sich ungefähr weiß, wie viele es sind.
1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14. Ja, so die gleichen 15 ungefähr oder ungefähr die gleiche Zahl wie beim letzten Mal. Allerdings würde ich darauf hingewiesen, es gibt ja auch noch Leute, die vielleicht ein Diplom studieren, deswegen Interesse an Seminaren hätten. Gibt es da auch noch jemanden, der im Prinzip Interesse an Seminaren und Diplom hätte?
1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14. Ja, ungefähr die gleiche Zahl. Okay, also man könnte im Prinzip dann zwei anbeten, werde ich mal gucken. Also 30 Plätze kann ich Ihnen zusagen. Herr Ritter plant auch noch ein Bachelorseminar anzubieten. Das heißt, das kriegen wir irgendwie unter.
Okay, dann zum Beispiel. Wir müssen erstmal irgendwie das Ganze stochastisch modellieren. Also wir müssen uns überlegen, wie sieht der Punkt aus? Ich beschreibe den Punkt einfach durch seine Koordinaten. Die Koordinaten nenne ich groß x1, groß x2 zufällig. Und muss man überlegen, wie sehen diese Zufallsvariabeln aus?
Also stochastische Modellierungen.
Also P setze ich an als groß x1, groß x2. Mit, ja eigentlich ist es nicht schlau den Punkt P zu nennen, wenn ich nachher ein Wahrscheinlichkeitsmaß habe. Also ich nenne vielleicht mal eaq.
Mit x1, x2 sei also ein r2-wertiger Zufallsvektor auf omega ap.
Oder r2-wertige Zufallsvariable auf ein Wahrscheinlichkeitsraum omega ap.
Und jetzt muss ich deren Verteilung festlegen. Das heißt, ich muss sagen, was meine ich, also um das genauer zu beschreiben, was ist die Verteilung von diesem Zufallsvektor? Und diese Verteilung von diesem Zufallsvektor, naja, ist eine Gleichverteilung auf der Einheitskreischeibe.
Und eine Gleichverteilung auf der Einheitskreischeibe, das ist mehr oder weniger das Lebesque-Borelmaß. Nur dass es Lebesque-Borelmaß eben nicht Gesamtmaße 1 vergibt, sondern zu viel. Das heißt, ich teile noch durch Lebesque-Borelmaß durch den Inhalt der Einheitskreischeibe.
Und behaupte, dieses Maß hier eingeschränkt auf die Einheitskreischeibe ist k, sei gleich 1 durch pi mal m eingeschränkt auf k, mit k ist die Einheitskreischeibe und m ist Lebesque-Borelmaß.
Und x1, x2, naja, steht hier schon eigentlich drin. x1, x2 muss jetzt auf die Einheitskreischeibe konzentriert sein, weil das Maß eingeschränkt auf k eben schon Masse 1 vergibt. Aber ich schreibe es nochmal dazu. Also x1, x2, element k, p fast sicher.
Was ist dann gesucht? Na ja, ich brauche den Abstand von diesem Punkt zum Ursprung. Das ist die Würzel aus x1² plus x2². Und davon suche ich den Erwartungswert.
Also ich habe einen Punkt aus der Einheitskreischeibe
und suche den zufälligen Punkt aus der Einheitskreischeibe für den mittleren Abstand zum Ursprung. Wie machen wir das dazu? Oder wir machen zwei Lösungswerte, erster Lösungsweg.
Beim ersten Lösungsweg bestimme ich die Verteilung von dieser Würzel genau. Also ich überlege mir, wie sieht die Zufallsvariable genau aus. Wird sich herausstellen, die hat eine Dichte, bestimme diese Dichte und berechne den Erwartungswert von einer Zufallsvariable, die eine Dichte hat, als Integral über r, y mal f von y dy,
wobei f die Dichte ist. Also Dichte von y gleich Würzel aus x1² plus x. Eigentlich bestimme ich die Verteilung, sorry, bestimmen.
Und das mache ich, indem ich erst mal die Verteilungsfunktion mir angucke. Die Verteilungsfunktion ist klar,
wenn der Punkt mit Wahrscheinlichkeit 1 in der Einheitskreischeibe liegt, dann liegt das Ding, dieser Abstand zwischen 0 und 1. Das heißt, die Verteilungsfunktion für Argumente kleiner als 0 ist 0. Für Größe 1 ist gleich 1. Das heißt, mich interessiert eigentlich nur der Wert der Verteilungsfunktion an Stellen zwischen 0 und 1.
Also für 0 klarer gleich y klarer gleich 1 gilt. Ich gucke mir f von y an, was nach Definition die Wahrscheinlichkeit ist, dass y kleiner gleich y ist.
Ja, da habe ich jetzt, also wir setzen mal ein.
Und jetzt kommt der Trick, also diese Wurzel stört mich, aber ich kann die einfach quadrieren. Also diese Wurzel ist kleiner gleich y, genau dann, wenn das Quadrat kleiner gleich y² ist,
weil der Term unter der Wurzel ist größer gleich 0, und das y ist auch größer gleich 0. Also es ist ein Genau, dann wenn.
Dann ist die Frage, wie groß ist diese Wahrscheinlichkeit? Gucken wir uns das mal genauer an, was ist das? Das ist die Wahrscheinlichkeit, also eigentlich, dass x1, x2, der Vektor x1, x2
in der Menge aller klein x1, x2 drin liegt, wo klein x1² plus klein x2² kleiner gleich y ist. Das heißt, ich kann es auch so schreiben, P x1, x2 von der Menge aller Paare x1, x2 aus R2,
wo x1² plus x2² kleiner gleich y² ist. Dann haben Sie eine Idee, wie groß diese Wahrscheinlichkeit ist, oder wie wir diese Wahrscheinlichkeit bestimmen können.
Hier ist eine 2. Also Sie wissen ja, wie die Verteilung aussieht. Eingeschränkt auf diese Einheitskreischeibe ist es 1 durch Pi mal das Lebesmaß.
Vorschläge? Okay, die Menge ist ein Kreis mit Radius y unter 0 Punkt, genau richtig.
Und dann sagen Sie, wir gucken uns mal den Flächeninhalt an. Also überlegen wir uns mal, was ist der Flächeninhalt? Naja, wir haben ein Kreis mit Radius y im R oben 2.
Allgemein ein Kreis mit Radius r hat einen Flächeninhalt Pi r². Das heißt, wir haben hier einen Flächeninhalt Pi y². Ja, und wie groß ist dann das, was mich interessiert?
Also wie groß ist dann die Wahrscheinlichkeit? y², weil ich habe jetzt diesen Faktor 1 durch Pi da vorne. Das heißt, ich komme auf 1 durch Pi. Mal Pi y² gleich y².
Also haben wir die Verteilungsfunktion bestimmt. Also wir haben unser F von y.
Verteilungsfunktion für y kleiner als 0 ist es gleich 0. Für 0 kleiner als y kleiner als 1 ist es y².
Und 1 für y größer als 0. y größer als 1. Okay, damit haben wir im Prinzip von der Zufallsvariabel, die uns interessiert, haben wir die Verteilungsfunktion bestimmt.
Da die Verteilungsfunktion die Verteilung eindeutig festlegt, kennen wir eigentlich alles über die Zufallsvariable und brauchen jetzt davon ausgehend den Erwartungswert. Eine primitive Methode wäre jetzt natürlich zu sagen, wir nehmen den Zusammenhang zwischen Erwartungswert und Verteilungsfunktion für nicht negative Zufallsvariablen. Das war ja dieses, wir müssen integrieren 1 minus
die Verteilungsfunktion an der Stelle t von 0 bis endlich bei einer nicht negativen Zufallsvariable, bekommen Erwartungswert. Die andere Methode, was ich eigentlich gerne machen würde, ist, ich möchte eine Dichte bestimmen. Und zwar möchte ich den Zusammenhang ausnutzen zwischen Verteilungsfunktion und Dichte,
indem ich die Verteilungsfunktion einfach ableite. Also ich behaupte klein f von y, ja gleich f' von y. Und ich mach das halt einfach mal so, dass ich mir die gar nicht überlege, ob die Funktion überhaupt differenzierbar ist an den einzelnen Randstellen.
Das heißt, wir leiten einfach einzeln ab. Also da wäre es noch differenzierbar da, aber nicht mehr. Also die ursprüngliche Funktion. Und ich würde gerne argumentieren, das Ding ist eine Dichte von y.
Also Dichte bezüglich der Beck-Borellmaß. Sehen Sie, warum das gilt?
Also jetzt brauchen wir irgendwie eine Begründung, denn, und das ist die Stelle, wo Sie die Begründung sagen können,
wenn man aufintegriert, kommt die Verteilungsfunktion wieder raus. Also das wäre die eigentliche Begründung. Das heißt, wenn ich mir angucke, was passiert, wenn ich von Null bis, oder von Minus und Endlich bis T, f von y, dy integriere, dann kommt da gerade eben f von T raus.
Und dann hatten wir eine Bemerkung, glaube ich, das ist eine Verteilungsfunktion, Bemerkung 3.11b.
Also beachten Sie, es reicht nicht, die Verteilungsfunktion abzuleiten und zu sagen, das ist die Dichte. Wir wissen nur, wenn eine Dichte existiert, dann ist die Verteilungsfunktion fast überall, also der Beck fast überall differenzierbar,
und es kommt die Dichte raus. Aber wir wollen ja gerade die Dichte konstruieren. Aber was wir jetzt eben gemacht haben, wir haben abgeleitet, dann haben wir einen potenziellen Kandidaten für die Verteilungsfunktion, für die Dichte, und wenn wir dann wieder aufintegrieren, kommt die Verteilungsfunktion raus. Fertig. Okay, gut, daraus folgt, ja, jetzt können wir den Erwartungswert
sofort hinschreiben, den Erwartungswert von x1² bis x2².
Das, was uns interessiert, ist ja gerade der Erwartungswert von y. Das ist Standardformel für eine Zufallsvariable mit Dichte. Wir nennen den Satz 3.12. Das ist Integral über R, y mal f von y, dy,
und Sie rechnen es noch aus. Ja, wir kommen das Integral von 0 bis 1, 0 bis 1, y mal 2y, dy.
Das heißt, ich muss 2y² integrieren, Stammfunktion ist 2 drittel y hoch 3, Sätze 0 und 1 ein, kommen auf 2 drittel. Und alternativ hätten wir es über die Verteilungsfunktion machen können.
Das Satz von y ist gleich Integral von 0 bis unendlich, 1 minus f von y, dy. Und ich weiß gerade leider nicht die Satznummer.
Das war so ziemlich am Anfang, Satz 3 noch mal was. Satz 3, 5, Dankeschön. Und dann hätten wir hier bekommen, ja, mal gucken. Also wir integrieren ja erst ab 0 ab. Das heißt eigentlich nur von 0 bis 1,
1 minus y², dy. Wir bilden die Stammfunktion. Das ist y minus ein Drittel y hoch 3, ausgewertet von 0 bis 1. Es gibt auch zwei Drittel. Alles andere wäre jetzt peinlich gewesen.
Die dritte Möglichkeit ist der meinte zweite Lösungsweg. Wir wenden Direkt Satz 3, 13 an.
Und nützen aus, wir können es mit dem Transformationssatz umschreiben. Oder da war ja das Transformationssatz auch schon drin. Also was uns interessiert, der Wurzel aus x1² plus x2².
Der Erwartungswert. Ich schreibe es um. Also ich mache mit dem Zwischenschritt. Wurzel aus x1² plus x2².
Und dann integriert bezüglich der gemeinsamen Verteilung von x1 x2. Und das Ganze über r oben 2.
Dann kann ich ausnutzen, die Verteilung kenne ich ja. Das ist ja gerade das Lebesque-Porellmaß eingeschränkt. Das heißt, man macht sich relativ leicht klar, wenn Sie hinten ein Maß haben, wo Sie eine Konstante noch dran multiplizieren und integrieren.
Dann ist es einfach was rauskommt als Funktions- oder als Integral. Einfach die Konstante mal dem gleichen Integral ohne diese. Integriert bezüglich dem Maß ohne die Konstante dran multipliziert. Das heißt, hier kommt das Integral über die Kreisscheibe raus. Über Wurzel aus x1² plus x2².
Und dann noch mal 1 durch Pi. Und dann mal d von x1 x2. Ich schreibe es mal so. Und mal ein ganz normales Lebesque-Integral. Und dann haben Sie irgendwie einen Fall aus Analysis 2, wo Sie sowas machen.
Wo Sie halt ein Integral im r oben 2 haben. Es bietet sich an, Sie führen hier Polarkoordinaten ein. Sie setzen x1 als r mal Cosinus-Phi. x2 als r mal Sinus-Phi. Lassen Pi laufen zwischen 0 und 2 Pi. r laufen zwischen 0 und 1.
Dann ist x1² plus x2² gerade r². Dort draußen gibt es r. Von der Funktional-Determinante bekommen Sie ein weiteres r. Das heißt, mit Polarkoordinaten.
Fehler. Auch mehr ist eh nicht gut. Nicht gut, nicht gut. Das Problem ist immer, wenn man die Tafel hochschiebt, kriegt man sie kaum mehr runter.
Also machen wir das besser nicht. Echte Polarkoordinaten. Dann kommen Sie hier auf das Integral von 0 bis 2 Pi.
Dann das Integral von 0 bis 1. Dann kommen wir auf r mal 1 durch Pi. Mal r von der Funktional-Determinante. Dann ein dr. Pi. Und dann sehen Sie, das äußere Integral gibt einfach einen Faktor 2 Pi.
Kurz sich mit dem inneren Pi weg zum Faktor 2. Dann bleibt noch Integral von 0 bis 1, 2r², r übrig. Aber das Gleiche wie da oben, 0 bis 1, 2y², y. Das heißt, es gibt genauso zwei Drittel.
Okay, Fragen soweit?
Gut, dann müsste ich etwas die Tafel wischen. Dann kommen wir zur Bemerkung 3, 14.
Da musste ich eine Weile drüber nachdenken, bis ich den Tippfehler im Exzerpt gefunden habe. Gemeint war, das Integral war falsch geschrieben, Exzerpt. Also es gibt einen Satz 3, 13. Eine Formel P von a ist gleich Integral über a f von x dx.
Und das ist hier gemeint, also das Integral über f von x dx. Satz 3, 13. Ist Lebesmaß von der Menge x, y aus R2, x in a,
und 0 kleiner gleich y kleiner gleich f von x. Das kennen Sie alle aus der Einführung der Stochastik.
Das heißt, die Wahrscheinlichkeiten bekomme ich, wenn Maß eine Dichte hat, bekomme ich die Wahrscheinlichkeiten, indem ich diese Dichte über eine Menge integriere. Und diese Wahrscheinlichkeit ist dann gerade der Flächeninhalt zwischen der Funktion, der Dichte und der x-Achse im Bereich der Menge a.
Dann kommt Lebesmaß 3, 15. Das ist eine Vorbereitung von höheren Momenten. Das heißt, Erwartungswerte von Potenzen von x.
Wir haben eine reelle Zufallsvariable x. 0 kleiner gleich alpha, kleiner better, kleiner und endlich. Und die Aussage ist, wenn der Erwartungswert von Betrag von x hoch better kleiner und endlich ist,
dann folgt daraus auch, dass der Erwartungswert von Betrag von x hoch alpha kleiner und endlich ist.
Also, wenn ich bezüglich der Verteilung von x integriere, ist ein l, ich nenne mal alpha p, beta q, dann ist ein lp-Raum in lq enthalten.
Weil, wenn eben diese, ich muss anders sagen, also ich kann hier allgemeine lp, lq-Räume integrieren mit Wahrscheinlichkeitsvariablen als Funktionen.
Und wenn ich dann eben bezüglich ein Wahrscheinlichkeitsmaß integriere, ist lp in lq enthalten, wenn, ja, jetzt wie rum,
ja, also wenn der größere, die größere Potenzen Erwartungswert klein und endlich gibt, gibt auch die kleinere Potenzen Erwartungswert klein und endlich. Das haben Sie allgemein in der Funktionalanalyses nicht. Das ist halt hier ein Sonderfall, weil wir bezüglich Wahrscheinlichkeitsmaßen integrieren. Der Beweis ist einfach.
Ich gucke mir x hoch alpha an. Ich würde gerne haben, wenn alpha kleiner gleich beta ist oder argumentieren, dann ist es auch kleiner als Betrag von x hoch beta.
Was allerdings, was stimmt, sofern eben x größer als 1 ist, was aber nicht mehr stimmt, sofern x oder das Argument zwischen 0 und 1 liegt. Aber wenn das Argument zwischen 0 und 1 liegt, dann kann ich einfach 1 dazu addieren. Das heißt, die triviale Beziehung x Betrag von x hoch alpha ist kleiner als Betrag von x hoch beta plus 1,
die Sie eben mit Fallunterscheidungen beweisen. Entweder ist Betrag von x kleiner als 1, dann ist es hier kleiner als 1, oder Betrag von x größer als 1, dann ist Betrag von x hoch alpha kleiner als Betrag von x hoch beta. Impliziert Ihnen sofort, dass der Erwartungswert von Betrag von x hoch alpha
kleiner als den Erwartungswert von Betrag von x hoch beta plus 1 ist. Okay, damit macht die folgende Definition Sinn.
Es gibt drei 16 Definitionen vom Kartenmoment, Kartenzentralenmoment, 3.16 Definition. Wir haben eine reelle Zufallsvariable x, k aus n.
Es existiere der Erwartungswert von x hoch k,
dann heißt eben der Erwartungswert von x hoch k das Kartenmoment, Erwartungswert von x minus Erwartungswert von x hoch k das Kartenzentralenmoment,
und beim zweiten müsste ich eigentlich wieder dazuschreiben, sofern existent, weil ich jetzt noch nicht voraus,
ich habe kurz gesagt, der Erwartungswert von x hoch k existiert, aber Existenz kann ja auch im Sinne von plus, minus und endlich sein, und dann ist es nicht ganz klar, dass der Erwartungswert von x existiert. Also anders wäre es, wenn ich gefragt habe, der Erwartungswert von x hoch k existiert und wäre endlich, dann hätte ich den vorigen Satz anwenden können und sofort daraus folgern können, dann existiert auch der Erwartungswert von x und ist endlich.
Die Varianz kennen Sie alle, V von x, Erwartungswert von x minus e x, in Klammern zum Quadrat heißt Varianz,
und mir geht irgendwie der Platz aus.
Unsigbar von x gleich Wurzel aus Varianz von x heißt Streuung.
Also Begriffe Varianz, Streuung kennen Sie aus der Einführung der Stochastik, neu ist jetzt eben Kadesmoment und Kadeszentralenmoment.
Den Satz 3.17 kennen Sie auch komplett aus der Einführung der Stochastik, Rechenregeln für Varianzen, x-reelle integrierbare Zufallsvariable,
A Teil die Varianz von x ist der Erwartungswert von x Quadrat minus den Erwartungswert in Klammern zum Quadrat,
und B Teil die Varianz von a mal x plus b für a b reelle Zahlen. Nun die Varianz misst eine mittlere quadratische Abweichung von der Zufallsvariable zu ihrem Erwartungswert.
Diese quadratische Abweichung verändert sich gar nicht, wenn Sie die Zufallsvariable verschieben, weil Sie dann genauso den Erwartungswert mit verschieben, und sie verändert sich eben mit dem Faktor zum Quadrat, wenn Sie damit multiplizieren. Also Beweis wäre dann Einführung der Stochastik.
Aber das steht dann auch nochmal im Skript drin, wenn Sie ihn nachlesen wollen, aber wir kennen es eigentlich.
Dann im Skript mache ich auch noch einige Beispiele dazu, also Varianz von der BMP-Verteilung, Varianz von der Poisson-Verteilung. In den Übungen machen Sie noch Beispiele für zentrale Momente von der Normalverteilung, aber schreibe ich in alles den Skript rein,
allerdings das eine mit vergleicher Übung, sonst wäre es ein bisschen langweilig, und machen wir hier aber eigentlich nicht. Okay, dann kommt noch, ja das könnte ich jetzt eigentlich auch noch machen, wenn ich schon dabei bin, dann haben wir den Abschnitt abgeschlossen.
Dann schreibe ich Ihnen nochmal Sachen an, die Sie schon kennen, die wir hier nicht beweisen,
aber ich tue es wieder ins Skript wieder rein, nämlich die Markovsche und die Chebyshevsche Ungleichung, das macht 3,18. Also wir haben eine reelle Zufallsvariabel auf dem Wahrscheinlichkeitsraum omega ap,
und wir haben epsilon,r größer als 0. a ist die Markovsche Ungleichung,
die Wahrscheinlichkeit, dass Betrag von x größer als epsilon ist, ist kleiner als Erwartungswert von Betrag von x hoch r durch epsilon hoch r.
Ich habe es hier als, wir machen es so,
und Spezialfall, davon ist die Chebyshevsche Ungleichung,
die Wahrscheinlichkeit, dass Betrag von x minus ex größer als epsilon ist, ist kleiner als, also jetzt wenden Sie das Ding mit r gleich zwei an, dann kommen Sie auf einen Erwartungswert von x minus ex zum Quadrat, das ist die Variante von x, durch epsilon Quadrat.
Und beweisen wir wieder Einführungen in die Stochastik. Fragen soweit? Also ich glaube, es ist okay, wenn ich die Beweise weglasse, oder?
Ich glaube, die können Sie, da könnten Sie eigentlich kennen mittlerweile. Ich tue Sie noch mal in den Skript rein, für die Sie sie nicht kennen, aber eigentlich, ich baue halt auf auf die Vorlesung vom letzten Semester, wenn wir alles nochmal wiederholen. Also ab sofort ist es jetzt, also ich glaube, jetzt kommt so gut wie nichts mehr.
Es gibt irgendwann nochmal einen Abschnitt, da mache ich einfach nur eine Zusammenfassung von bekannten Sachen, da werden wir nicht mehr alles beweisen, aber ab sofort wird, glaube ich, alles bewiesen. Oder mehr oder weniger, ja so. Aber, und irgendwie, also es war jetzt die ersten, kann man sagen, sechseinhalb Wochen eigentlich hauptsächlich Wiederholung
oder nochmal neu aufsetzen, und jetzt kommt der eigentliche neue Inhalt. Also demnächst dann auch ein bisschen kompliziertere Sachen, aber auch nicht irgendwie wirklich schwer, aber halt so, dass es neu sein wird. Okay, Fragen soweit?
Wenn nicht, dann machen wir fünf Minuten Pause, ich wische die Tafel, und wir machen dann um 10.39 Uhr weiter. Okay, kommen wir zu Kapitel 4, Unabhängigkeit.
Wir haben im Wahrscheinlichkeitsraum omega ap, zwei Ereignisse draus, mit deren Wahrscheinlichkeit ein größer Null sind.
Wir wollen mit der Unabhängigkeit ausdrucken, die Ereignisse beeinflussen sich gegenseitig nicht.
Das heißt, wenn ich Kenntnis habe vom Eintreten eines der Ereignisse, weiß ich nichts über das Eintreten, über die Wahrscheinlichkeit des Eintreten des anderen Ereignisses. Also wir sagen, ab beeinflussen sich gegenseitig nicht.
Und wir formulieren das eben so, dass wir sagen, die bedingte Wahrscheinlichkeit vom Eintreten von A gegeben B ist gleich der Wahrscheinlichkeit von A,
und die bedingte Wahrscheinlichkeit des Eintretens von B gegeben A ist gleich P von B. Diese bedingten Wahrscheinlichkeiten sind ja jeweils die Wahrscheinlichkeiten vom Schnitt
geteilt durch die Wahrscheinlichkeit von dem, was hinten steht. Und dann sehen Sie, wenn Sie durchmodifizieren, mit dem, was im Nenner steht, das Äquivalent dazu, dass P von A geschnitten B vielleicht P von A mal P von B ist.
Und das Ding können wir jetzt eben auch, wenn wir es ohne bedingte Wahrscheinlichkeiten formulieren, auch formulieren, sofern P von B oder sofern P von A gleich Null ist. Die bedingten Wahrscheinlichkeiten habe ich ja nur eingeführt unter Voraussetzung, dass das, auf was ich bedinge,
mit Wahrscheinlichkeit größer als Null eintritt. All das da kann auch für P von A oder P von B gleich Null formuliert werden.
Und es ist dann das, was Sie aus der Einführung die Stochastik kennen, könnten, sollten, müssten, dass eben zwei Ereignisse unabhängig heißt,
wenn die Wahrscheinlichkeit vom Schnitt gleich dem Produkt der Einzelwahrscheinlichkeiten sind. Wir machen ein Beispiel dazu. Ich betrachte das Werfen zweier echter Würfel.
A sei das Ereignis, dass die erste Augenzahl gerade ist. B, dass die zweite Augenzahl gerade ist.
Und C, Summe der Augenzahlen ungerade.
Was können Sie in dem Fall aussagen über die Wahrscheinlichkeiten? Wie groß ist P von A, wie groß ist P von B, wie groß ist P von C? Also P von A 0,5.
Wie kommen Sie darauf? Okay, echter Würfel hat sechs Zahlen, drei davon sind gerade. Allerdings werfe ich zwei Würfel. Ja, das sind nur zwölf Zahlen.
Und erstens sind drei gerade. Ich werfe, also ich werfe gleichzeitig. Okay, also Sie machen es vollständig richtig, wenn Sie einen Würfel werfen,
dann würden Sie sagen, Sie haben echten Würfel, sechs Seiten. Alle treten mit der gleichen Wahrscheinlichkeit auf. Das heißt, wir können da schon den Wahrscheinlichkeitsraum wählen. Das Ereignis sind die drei gerade Augenzahlen, zwei, vier, sechs. Das heißt, die Wahrscheinlichkeit ist Katalynität von A durch sechs. Also drei, sechs, also ein halb. Aber ich mache es hier mit zwei Würfeln.
Was muss ich abändern, um es zu argumentieren, dass es mit zwei Würfeln ist?
Das heißt, ich habe eigentlich, ich habe 36 Paare und davon sind eben 18. Bei 18 ist die erste gerade. Und genauso ist bei 18 die zweite, die zweite gerade, also auch P von B. Wie sieht es mit P von C aus, Summe der Augenzahlen, ungerade, auch ein halb.
Ja, Sie überlegen sich genauso, wie viele Paare, wie viele von den 36 Paaren ist es, wo die Summe der Augenzahlen ungerade ist.
Naja, da muss eben eine der Augenzahler gerade sein, die andere muss ungerade sein. Und die zweite Möglichkeit ist, dass beide gerade sind oder beide ungerade. Und da gibt es eben gleich viel von den beiden gerade, beide ungerade und eins gerade, eins ungerade. Weil die Position von dem gerade,
von der gerade Augenzahl in diesen zwei Tupel, da haben Sie noch zwei Möglichkeiten. Also auch das gibt 18. Also Sie könnten sonst in den flaschen Wahrscheinlichkeitsraum sich hinschreiben und die Ereignisse ausschreiben und so weiter.
Wie sieht es mit P von A geschnitten B aus? Ja, den Unabhängigkeitsbegriff hatten wir gerade noch nicht.
Sie können einfach nachzählen. Also wo sind beide gerade? Ja, dann gibt es halt für das erste drei Möglichkeiten, für das zweite drei Möglichkeiten, macht zusammen neun Möglichkeiten in Kombination, dann haben Sie neun 36 Fälle. Also ein Viertel.
A geschnitten C, was würden Sie da sagen? Was ist da die Wahrscheinlichkeit?
Auch ein Viertel. Weil wenn eben die erste Augenzahl gerade und die Summe der Augenzahlen ungerade ist, dann heißt es, der Schnitt von beiden heißt einfach, die erste Augenzahl muss gerade sein, die zweite Augenzahl muss ungerade sein. Das heißt, wir kommen genauso auf ein Viertel. Und dann können wir uns noch P von B geschnitten C überlegen.
Genauso gibt es auch ein Viertel. Also gilt hier, P von A geschnitten B ist gleich P von A mal P von B.
P von A geschnitten C ist gleich P von A mal P von C. Und P von B geschnitten C ist gleich P von B mal P von C.
Das heißt, im Sinne des Sprachgebrauchs, den wir gleich in der nächsten Definition einführen werden, sind eben die Ereignisse A und B, A und C und B und C jeweils unabhängig.
Und im Hinblick auf eine spätere Bemerkung schreibe ich gleich mal dazu, wie sieht es aus mit P von A geschnitten B geschnitten C im Vergleich zu P von A mal P von B mal P von C. Und das kennen wir schon, P von A mal P von B mal P von C.
Das ist ein Achtel. Wie groß ist die Wahrscheinlichkeit von P von A geschnitten B geschnitten C? Die ist Null. Warum?
Genau. Das ist also P von der leeren Menge gleich Null. Das wäre hier also ungleich P von A mal P von B mal P von C. Und das wird dann später ein Beispiel sein, wo eben diese drei Ereignisse zusammen werden nicht unabhängig sein. A, B und C gemeinsam werden nicht unabhängig sein.
Aber paarweise Unabhängigkeit liegt vor. A und B ist unabhängig, A und C ist unabhängig und B und C. Gut, so viel zur Vorrede. Dann zu den eigentlichen Definitionen. Ich mache zwei Stück. Die eine ist Unabhängigkeit von Ereignissen.
Die zweite ist Unabhängigkeit von Zufallsvariablen. Die erste oder beide formuliere ich nicht für die einzelnen Ereignisse oder einzelnen Zufallsvariablen, sondern für ganze Familien von Ereignissen beziehungsweise Familien von Zufallsvariablen.
Wir haben Wahrscheinlichkeitsraum omega A P. Die Familie A I I aus I von Ereignissen, A I aus Skript A heißt unabhängig.
Und die ausführliche Sprechweise dafür wäre stochastikunabhängig bezüglich dem Wahrscheinlichkeitsmaß P.
Falls Folgendes gilt. Für jede nicht leere endliche Indexteilmenge K von I gilt die Wahrscheinlichkeit vom Schnitt der Ereignisse A K mit K aus K ist gleich der Produkt der einzelnen Wahrscheinlichkeiten.
Für jedes nicht leeres K-Teilmenge I gilt
Wahrscheinlichkeit von K aus K a K ist gleich K aus K P von a K.
Und als Sprechweise werden wir nachher dann einführen Unabhängigkeit der Ereignisse statt Unabhängigkeiten von solchen Familien. Und dann sehen Sie eben da oben, da wären die Ereignisse A und B, A und C und B und C wären unabhängig, aber die Familie bestehend aus A, B und C
wäre selber nicht mehr unabhängig. Und das ist im Prinzip eine Vorallgemeinerung von dem, was da oben steht, dass ich eben sage, für die Menge B lasse ich jetzt nicht ein einzelnes Ereignis zu, sondern ich lasse solche Schnitte zu,
wo ich alle reinstecke, bis auf eines dieser A Ks. Alle anderen sind ein P drin und dann brauchen Sie, ja, dann brauchen Sie sowas ähnliches und wenn Sie es dann rekursiv anwenden, dann kommen Sie auf so ein Produkt hier.
Okay, so war die erste Definition der Unabhängigkeit von Ereignissen. Zweite Definition der Unabhängigkeit der Zufalls, von Zufallsvariablen.
Wir haben wieder einen Wahrscheinlichkeitsraum omega a P, eine Familie X i von omega i a i Zufallsvariablen auf omega a P.
Familie, also von Zufallsvariablen,
die auf omega a P definiert sind, mit Bildern in einem Messraum omega i a i. Ich schreibe kurz von omega i a i Zufallsvariablen auf omega a P.
Heißt unabhängig. Genau dann wird für jede nicht leere
endliche Indexteilmenge, also im Prinzip genauso wie gerade eben, nur bezeichne ich die diesmal explizit, also für jede Indexmenge
i 1, i 2 bis i n, Teilmenge von i
und alle Mengen a i aus Skript a i oder ich brauche jetzt einen zweiten Index a i µ aus Skript a i µ für µ gleich 1 bis n,
gilt die gemeinsame Wahrscheinlichkeit, dass X i 1 in a i 1 drin liegt, X i 2 in a i 2 und so weiter, bis X i n in a i n.
ist gleich der Produkt der einzelnen Wahrscheinlichkeiten.
Und die Sprechweisen,
wobei ich hier eigentlich nur eine einfüge, nämlich die für die Zufallsvariablen, wäre unabhängig der Unabhängigkeit der Zufallsvariablen statt Unabhängigkeit der Familie der Zufallsvariablen.
Okay, wir haben zwei Definitionen. Wir werden uns gleich überlegen, was der Bezug zwischen den beiden Definitionen sind,
also was die eine mit der anderen zu tun hat. Insbesondere kann ich ja von den Ereignissen zu Zufallsvariablen übergehen, indem ich sage, dem Ereignis ordne ich seine Indikatorfunktion zu als reelle Zufallsvariable. Dann werden wir uns überlegen, okay, wenn dann die ursprünglichen Ereignisse unabhängig sind,
dann sind auch die neuen Zufallsvariablen unabhängig und umgekehrt. Das heißt, es wird eine genaue Entsprechung sein. Vorher noch ein Lämmer und eine Bemerkung. Das ist 4.3 Lämmer.
Eine Familie von Ereignissen ist genau dann unabhängig, wenn jede endliche Teilfamilie unabhängig ist. Ich formuliere es mal so. Familie von Ereignissen bzw. Zufallsvariablen
ist genau dann unabhängig,
wenn jede endliche Teilfamilie unabhängig ist.
Kann das jemand begründen?
Also Sie haben gerade begründet, wenn jede endliche Teilfamilie unabhängig ist, dann ist auch die Familie von Ereignissen unabhängig.
Die Begründung wäre, wir wollen zeigen, dass die Familie von Ereignissen unabhängig ist. Wir schnappen uns dafür ein beliebiges, nicht leeres, endliches K-Teilmenge I. Dieses K ist dann so eine endliche Teilmenge. Wir können die zugehörige, endliche Teilfamilie der Ereignisse betrachten,
die wäre unabhängig und können dann auf die die Definition anwenden, wo wir die neue Untermenge dann genau als die Indexmenge nehmen und haben die entsprechende Beziehung dastehen. Die umgekehrte Richtung, wenn die Familie von Ereignissen unabhängig ist, dann ist auch jede endliche Teilfamilie unabhängig.
Ist auch klar, weil wenn ich hier eben eine endliche Teilfamilie hab beliebige, das I gehört zu einer endlichen Teilfamilie, ich schnapp mir daraus wieder eine Untermenge, naja, dann ist es halt auch eine Untermenge von der ursprünglichen Menge. Deswegen gilt hier die Beziehung. Also folgt direkt aus der Definition. Weil eben die Definition direkt
für Teilfamilien formuliert war. Wie weiß, also folgt direkt aus den Definitionen.
Wird uns halt ab und zu ein bisschen Arbeit sparen, weil wir dann ab und zu von also weil wir ab und zu irgendwelche Indexmengen, die wir betrachten können, von vornherein als endlich betrachten können. Okay, Fragen soweit?
Keine Fragen, dann lösche ich mal wieder. Dann 4-4.
Da kommt die Bemerkung, die ich mit dem begründe, was ich gerade weggewischt hab. Nämlich die fahrweise Unabhängigkeit impliziert nicht die Unabhängigkeit.
Und hatten wir eben gerade eben,
da waren A, B, A, C und B, C waren unabhängig, aber A, B, C zusammen waren nicht unabhängig. Also die Begründung wäre es hier oben.
Dann 4-5 Bemerkungen. Zwischen den Zusammenhang zwischen den beiden Definitionen. Wir haben Wahrscheinlichkeitsraum omega ap, Ereignisse a i aus a.
Und die Aussage ist, diese Familie der Ereignisse ist unabhängig. Genau dann, wenn
die zugehörigen Indikatorfunktionen als Zufallsvariablen unabhängig sind. Und das eine links war eben im Sinne
von Definition 4-1 und das zwei rechts war im Sinne von Definition 4-2.
Ok, haben Sie Fragen soweit?
Gut, dann kommen wir zur Begründung.
Ist eine genaute Anwendbeziehung, brauchen wir zwei Richtungen. Ich fange mal an mit der ein bisschen schwereren. Wenn die Familie unabhängig ist, dann sind auch die Zufallsvariablen unabhängig.
Also wir nehmen mal an, dass diese Familie hier unabhängig ist im Sinne von Definition 4-1. Ich möchte zeigen, dass diese Familie hier unabhängig ist.
Dazu gucke ich mir nach Definition so Wahrscheinlichkeiten an, dass die x i 1 in a i 1 sind, x i 2 in a i 2 und so weiter. Wenn wir uns jetzt diese Ereignisse angucken, ich nehme mal, also unsere Omega i a i sind ja jeweils r b.
Also ich nehme mal eine Menge b aus b für b aus der Boreltschen Sigma-Algebra, a aus Skripta gilt. Gucken wir dann sowas an. Xi a legt den b drin.
Das heißt, es wäre das Urbild von b bei der Indikatorfunktion zu a. Wie sieht die Menge aus? Können Sie da auch darüber was aussagen?
Ob die 0 oder die 1 drin ist und was kann da rauskommen als Mengen?
Genau. Das heißt, es können die leeren Mengen rauskommen, es kann a, es kann a-Komplement und es kann Omega rauskommen. Das heißt, was wir jetzt
zeigen müssen, also jetzt muss ich ja so eine Wahrscheinlichkeit umformulieren, dass es Xi a i 1 in so einem b 1 ist, dann ist Xi a i 2 in b 2 und so weiter. Das ist letzten Endes ein Schnitt von Mengen dieser Bauart,
wo das a ersetzt wird, durch a i. Und da soll ich zeigen, dass es gleich dem Produkt der einzelnen Sigma-Algebra ist. Also genügt es zu zeigen, wenn ich diese, die hier unabhängig habe und ich bilde neue a i quer, die entweder die leere Menge
a i, a i-Komplement oder Omega sind, da müssen noch die unabhängig sein. Also genügt es zu zeigen, dass jede Familie
von solchen Mengen a i quer, wobei mit a i quer ist entweder die leere Menge
a i oder a i-Komplement oder Omega für i gleich, für i aus i, ist unabhängig.
Und zwar unabhängig im Sinne von Definition 4.1. Okay? Also erster Schritt, das ist meine Behauptung, die ich jetzt im Folgenden zeige. Das machen wir mal. Dafür nehmen wir das Lemma 4.3.
Die Familie von Ereignissen beziehungsweise Zufallsvariabeln ist genau dann unabhängig, wenn jede endliche Teilfamilie unabhängig ist. Das heißt, ich kann mich von vornherein auf endliche Indexmengen beschränken.
Und im Prinzip kann ich dann auch gleich noch diese Indexmenge K als i ansetzen.
Also wegen Lemma 4.3 groß i endlich.
Daher genügt es zu zeigen oder also genügt es zu zeigen, wenn a 1 bis a n unabhängig sind,
dann impliziert es auch, dass a 1 quer bis a n quer unabhängig.
All das ist das, was ich im Folgenden zeigen möchte. Und dann machen wir das sukzessive, indem wir a 1 bis a n unabhängig, daraus folgern erstmal das a 1 quer, a 2 bis a n sind unabhängig. Dann zeigen wir, das impliziert a 1 quer, a 2 quer, a 3 bis a n sind unabhängig und so weiter.
Das heißt, das mache ich n mal. Das heißt, ich zeige eigentlich nur, wenn ich eine Menge verändere durch einen Übergang von a i zu a i quer, dann bleibt die Unabhängigkeit erhalten. Also dazu genügt es zu zeigen,
wenn a 1 bis a n unabhängig sind.
Und das mache ich im Folgenden. Okay, Fragen soweit.
Das Ganze ist trivial, wenn a 1 quer die leere Menge ist, wenn a 1 quer Omega ist oder wenn a 1 quer vielleicht a 1 ist. Also trivial.
Weil wenn a 1 quer a 1 ist, dann steht genau das gleiche da. Wenn es die leere Menge ist, dann stört es halt in der Definition
der Unabhängigkeit nicht, wenn es in so Produkten drin auftaucht, irgendwo die leere Menge. Weil einerseits ist dann, wenn ich ein Schnittereignis jetzt betrachte, alles die leere Menge. Andererseits ist das Produkt der Wahrscheinlichkeiten dann immer gleich 0. Und genauso wenn es Omega ist, dann stört es eben im Schnitt gar nicht, dann taucht es da eigentlich gar nicht auf. Produkt der Wahrscheinlichkeiten taucht es als 1 auf,
stört auch nicht. Also muss ich nur für a e, das ist a 1, Entschuldigung, für a 1 quer gleich a 1 Komplement das Ganze betrachten.
Ja, und da gucken wir uns mal an, was ist das? Wir haben jetzt P von, also, wenn ich jetzt eine endliche Teilfamilie rausgreife und das a 1 quer ist gar nicht dabei, dann spielt es,
dann brauche ich es nicht weiter zu betrachten. Das heißt OBDA kann ich diese Indexteilmenge K als die ursprüngliche Indexteilmenge I, also hier als 1 bis N einsetzen. Dann habe ich a 1 Komplement, geschnitten a 2, geschnitten a 3 und so weiter bis geschnitten a n.
Und ich begründe jetzt mal, dass das gleich der Produkt der Einzelwahrscheinlichkeiten ist. Das mache ich, indem ich das umschreibe als P von a 2 bis a n minus P von a 1 geschnitten a 2 geschnitten a n.
Einfach weil ich a 1 Komplement geschnitten mit dem Rest schreiben kann als der Rest ohne a 1 geschnitten mit dem Rest. Dann nütze ich die Unabhängigkeit aus, bekomme und zwar einerseits für die Ereignisse a 2 bis a n, einerseits für die Ereignisse a 1 bis a n,
bekomme Produkt der Einzelwahrscheinlichkeiten raus,
dann klammer ich aus 1 minus P von a 1 als extra Faktor oder ich ziehe den ganzen Rest nach hinten raus, dann bleibt da noch 1 minus P von a 1 übrig. Mal P von a 2, mal P von a n
und dann sehen Sie 1 minus P von a 1 ist P von a 1 Komplement, P von a 2, P von a n. Und daraus folgt dann die Behauptung vom ersten Schritt.
Also nochmal hier im Prinzip ich zeige eben, ich mache mir nochmal klar, das zu zeigen reicht schon, das ist eigentlich der kritische Beweischritt und das rechne ich eben
elementar nach. Der Trick ist, ich gehe irgendwann zu der Differenz über und nütze zweimal die Unabhängigkeit aus. Okay, haben Sie Fragen soweit? Dann wäre ich für fertig
für heute und wir sehen uns dann am Donnerstag.