We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Gesetz der großen Zahlen – Kolmogorou

00:00

Formale Metadaten

Titel
Gesetz der großen Zahlen – Kolmogorou
Serientitel
Teil
24
Anzahl der Teile
28
Autor
Lizenz
CC-Namensnennung - keine kommerzielle Nutzung - Weitergabe unter gleichen Bedingungen 3.0 Deutschland:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen und nicht-kommerziellen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen und das Werk bzw. diesen Inhalt auch in veränderter Form nur unter den Bedingungen dieser Lizenz weitergeben.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
Die Vorlesung richtet sich an Studierende des Faches Mathematik. Sie gibt eine maßtheoretisch fundierte Einführung in die Wahrscheinlichkeitstheorie. Vorkenntnisse beim Verständnis von Wahrscheinlichkeiten (wie sie im vergangenen Semester in der Vorlesung „Einführung in die Stochastik“ vermittelt wurden) sind zum Verständnis nützlich. Die benötigten Grundlagen aus der Maß- und Integrationstheorie werden in der Vorlesung noch einmal kurz vorgestellt.
VarianzWahrscheinlichkeitstheorieStochastikMartingalQuadratZufallsvariableUnendlichkeitArithmetisches MittelErwartungswertMartingaltheorieTermZahlenbereichSummeWurzel <Mathematik>Betrag <Mathematik>IntegrierbarkeitBiproduktAbschätzungComputeranimation
VarianzStochastikZufallsvariableGesetz <Physik>Arithmetisches MittelErwartungswertZahlenbereichSummeParametersystemBetrag <Mathematik>Ende <Graphentheorie>MartingalVorlesung/Konferenz
ZufallsvariableArithmetisches MittelAussage <Mathematik>ErwartungswertTermSummeBetrag <Mathematik>Vorlesung/Konferenz
ReiheFunktion <Mathematik>Bruch <Mathematik>MittelungsverfahrenZufallsvariableIntegralUngleichungErwartungswertSummandTermZahlenbereichSummeLängeBetrag <Mathematik>AbschätzungUnendlichkeitArithmetisches MittelVorlesung/KonferenzTafelbild
ReiheVarianzMartingalQuadratErwartungswertInverser LimesMartingaltheorieSummandSummeSummierbarkeitBetrag <Mathematik>Abschätzungp-V-DiagrammPartialsummeWelleZufallsvariableVorlesung/KonferenzTafelbild
ReiheFaktorisierungQuadratZufallsvariableUngleichungGesetz <Physik>ErwartungswertTermZahlenbereichSummePunktBetrag <Mathematik>AbschätzungZahlFunktion <Mathematik>VarianzWahrscheinlichkeitsverteilungIntegrierbarkeitVorlesung/Konferenz
MengeZahlStochastikMittelungsverfahrenZufallsvariableErwartungswertIndexStetigkeitReelle ZahlBetrag <Mathematik>Zentraler GrenzwertsatzFunktion <Mathematik>RuhmasseWahrscheinlichkeitsraumVorlesung/Konferenz
Zentraler GrenzwertsatzStochastikZufallsvariableWahrscheinlichkeitsmaßErwartungswertSchwache KonvergenzReelle ZahlDistributionenraumBetrag <Mathematik>ZahlFunktion <Mathematik>EckeRuhmasseVorlesung/Konferenz
IntegralZusammenhang <Mathematik>ErwartungswertSchwache KonvergenzRuhmasseWahrscheinlichkeitsverteilungZufallsvariableVorlesung/Konferenz
Funktion <Mathematik>WahrscheinlichkeitsverteilungZufallsvariableZusammenhang <Mathematik>UngleichungErwartungswertBetrag <Mathematik>AbschätzungWahrscheinlichkeitsraumUmkehrung <Mathematik>Folge <Mathematik>Vorlesung/Konferenz
ZufallsvariableEinfach zusammenhängender RaumStetigkeitVerteilungsfunktionUnstetigkeit <Mathematik>AnalogieschlussGrenzverteilungTafelbild
ZufallsvariableStetige FunktionZahlenbereichVerteilungsfunktionUnstetigkeit <Mathematik>WahrscheinlichkeitsverteilungReelle ZahlPunktVorlesung/KonferenzBesprechung/Interview
Transkript: Deutsch(automatisch erzeugt)
Ja, begrüße ich Sie recht herzlich zur heutigen Vorlesung in der Wahrscheinlichkeitstheorie.
Beim letzten Mal waren Sie stehen geblieben. Beim Kriterium von Kolmogorov zum starken Gesetz der großen Zahlen. Besagt Folgendes ist xn eine Folge unabhängiger und quadratisch integrierbarer reeller Zufallsvariablen.
Für die gilt, Summe n gleich 1 bis unendlich, Varianz von xn durch n quadrat konvergiert ist also kleiner als unendlich. So gilt, 1 durch n, Summe k gleich 1 bis n, xk minus exk konvergiert gegen 0 fast sicher.
Sie kannten einen verwandten Satz schon aus der Einführung in die Stochastik. Nämlich das starke Gesetz der großen Zahlen von Kolmogorov. Das besagt x1, x2 usw. sind unabhängig identisch verteilt integrierbar. Dann konvergiert arithmetische Mittel der xk gegen Erwartungswert von x1 fast sicher.
Die Voraussetzungen sind hier anders. Sie sind weder schwächer noch stärker als beim starken Gesetz der großen Zahlen von Kolmogorov. Wir brauchen die identische Verteiltheit nicht mehr. Aber dafür brauchen wir quadratische Integrierbarkeit statt Integrierbarkeit und eine Varianzbedingung.
Das starke Gesetz der großen Zahlen von Kolmogorov kommt dann gleich im Anschluss. Als erstes in der Vorlesung. Beweis Idee von dem ist, nach dem Lemma von Groninger genügt es zu zeigen, dass die Folge k gleich 1 bis n xk minus exk geteilt durch n als Folge von n betrachtet fast sicher konvergiert.
Die obige Folge ist ein Martingal. Wie Sie sofort sehen, weil Sie haben Zufallsvariabeln, die Sie aufaddieren, die Erwartungswert 0 haben und unabhängig sind.
Also können wir das Sub-Martingal-Konvergenztheorium anwenden. Und wir wissen, die Folge konvergiert fast sicher, wenn der Liemessuperior vom Erwartungswert vom Betrag kleiner als ein Endliches.
Wir schätzen nun diesen Liemessuperior vom Erwartungswert vom Betrag ab, indem wir den Erwartungswert vom Betrag mit Hilfe von Cauchy-Schwarz als Würzel aus dem Erwartungswert von Quadrat umschreiben. Den Erwartungswert von Quadrat kann ich dann ausrechnen, indem ich einfach mal ausmultipliziere, sehe, aufgrund der Unabhängigkeit fliegen die ganzen gemischten Produkte weg,
es bleibt noch die Summe der Quadrate übrig und die Summe der Quadratischen Terme sind gerade die Varianzen von xk durch k Quadrat. Das ist summierbar von k gleich 1 bis n endlich, daraus folgt die Behauptung. Also Sie sehen, das ganze Ding hat mit der Martingaltheorie einen relativ kurzen, einfachen Beweis.
Wir haben etliche Sätze davor schon gemacht, aber im Prinzip, wir bräuchten sie alle nicht, also dass es ein Martingal ist, sieht man in dem Fall, dass die Dinge unabhängig sind sofort. Und auch diese ganze Abschätzung, diese Orthogonalitätsrelation, die wir bei Martingal verwendet haben, folgt hier sofort.
Das heißt, eigentlich braucht man nicht arg viel, nur das Sub-Martingal-Konvergenz-Theorien ist eben der eigentlich schwierige Satz. Aber das werden Sie jetzt in den Übungen auch noch mal sehen, da werden wir den ganzen Beweis auch ohne dieses Sub-Martingal-Konvergenz-Theorien führen können, indem wir einfach zeigen, ja, in der Tat, diese Bedingung hier, diese Summe, was wir hier eigentlich haben,
diese Summe der Varianzen soll kleiner als unendlich sein, das impliziert schon fast sichere Konvergenz von der entsprechenden Folge.
Gut, dann gibt es einige Prüfungsfragen, erst mal die noch zur vorletzten Vorlesung. Was versteht man unter einem Martingal bzw. einem Sub-Martingal? Frage 36. Frage 37. Begründen Sie, sind x1, x2 unabhängige integrierbare Zufallsvariablen, so ist diese Folge von gerade eben, ein Martingal bezüglich f von x1 bis xn und Frage Nummer 38.
Formulieren Sie die beiden in der Vorlesung behandelten starken Gesetzen der großen Zahlen, weil das eine war das von gerade eben, Kriterium von Kolmogorow zum starken Gesetz der großen Zahlen, das zweite schreibe ich gleich an und erläutern Sie deren Beweisidee.
Die Prüfungsfragen sind eigentlich schon online, also müssten schon auf der Homepage sein. Soweit. Achso, ich kann noch hinweisen, diesen Donnerstag ist ja die zweite Semestralklausur in der Vorlesung. Haben Sie wahrscheinlich auch schon mitbekommen.
Sie bekommen insgesamt, ich glaube, eine Stunde 15 Zeit, müssen zwei Fragen beantworten, von ich glaube drei werden gestellt und es geht eben Fragen aus den Prüfungsfragen und ich glaube noch eine aus den Übungen auch noch. Oder nee, ich glaube Sie bekommen vier Fragen und Sie müssen zwei beantworten. Eine ist aus den Übungen und drei sind aus den Prüfungsfragen oder abgeleitet aus den Prüfungsfragen.
Okay, gut, mache ich weiter mit der Vorlesung. Wir kommen dann zu Satz 812.
Das ist das Kolmogorow starke Gesetz der großen Zahlen.
Das besagt sind x1, x2 und so weiter unabhängig identisch verteilt und integrierbar.
Sind x1, x2 und so weiter unabhängig identisch verteilte integrierbare reelle Zufallsvariablen definiert auf dem gleichen Wahrscheinlichkeitsraum, setze ich hier implizit voraus. So gilt, arithmetische Mittel der xi konvergiert gegen den Erwartungswert fast sicher.
Also 1 durch n, Summe i gleich 1 bis n, xi konvergiert gegen Erwartungswert von x1 fast sicher. Also ich habe es jetzt ein bisschen anders hingeschrieben als der vorige Satz,
wo ich ja das arithmetische Mittel der xi minus exi betrachtet habe, aber hier sind ja alle Erwartungswerte gleich groß. Deswegen kann ich so schreiben, konvergiert gegen den Erwartungswert zum Beispiel vom ersten fast sicher. Beweis kennen Sie schon aus der Einführung in die Stochastik,
ich mache jetzt einen zweiten mit der Martingal Theorie. Der Beweis aus der Stochastik, den damals Herr Frommkott vorgerechnet hat, war der Beweis von Etemadi aus dem Jahr 81, war so ein Ausdünnungsargument, arbeitete Metallfolgen, hier ist es mehr ein klassischer Beweis.
Okay, ja ich muss ja gestehen, ich habe neulich mal eine Vorlesungsumfrage gelesen, ich soll lieber öfters in meinen Skript gucken, als mich dauernd zu verrechnen oder so.
Aber gut, es kamen noch so ein paar nette Bemerkungen, ich wollte es eigentlich heute mitbringen, aber ich kam heute morgen nicht mehr dazu, in meinen Postfach zu gehen, da liegen die Folien drin. Eine andere Bemerkung war, öfter war das buntes Anziehen, habe ich auch noch nie gehört. Okay, aber ich muss gestehen, es macht viel mehr Spaß, sich an der Tafel zu verrechnen,
als in seinen Skript zu gucken. Wir schneiden die Zufallsvariablen ab, das heißt ich setze y gleich xn, falls Betrag von x n kleiner gleich n ist und 0 sonst.
Dann zerlege ich dieses arithmetische Mittel der x entsprechend,
also 1 durch n Summe i gleich 1 bis n x i. Ich betrachte zunächst mal das arithmetische Mittel nur über den Termen, die betragsmäßig größer als n sind.
Und dann muss ich noch den Rest dazu addieren. Den Rest, den ich dazu addiere, sind gerade die y n, das heißt ich müsste jetzt noch 1 durch n Summe i gleich 1 bis n y n dazu addieren. Dann wird es stimmen. Das mache ich aber in zwei Schritten.
Ich addiere zunächst einmal y n minus Erwartungswert von y n dazu und dann addiere ich noch das arithmetische Mittel über den Erwartungswert der y n dazu.
Ja, und Sie sehen, dieses Minus-Erwartungswert plus Erwartungswert hier webt sich weg und die x i mal Indikatorfunktion von Betrag von x i größer als n sollte nicht n heißen, da fängt es schon an, sondern sollte i heißen an der Stelle.
Also hier muss natürlich ein i hin, und hier muss es ein y i sein,
hier von y i. Ich verstehe langsam, was damit gemeint war, mit öfters mal ins Skript gucken. Guter Punkt, naja. Mal gucken, vielleicht heute noch bunt mal. Also diese x i mal Indikatorfunktion von Betrag von x i größer als i
plus den y i ist eben gerade x i selber. Wegen der Beziehung genügt es jetzt zu zeigen, also wir werden zeigen, der dritte Term konvergiert gegen Erwartungswert von x 1, das ist ein detamistischer Term,
und die ersten beiden Term konvergieren gegen Null, fast sicher. Genügt es zu zeigen, also erstens, das erste Ding konvergiert gegen Null, fast sicher,
zweitens, der zweite Term konvergiert auch gegen Null, fast sicher,
und drittens, der dritte Term konvergiert gegen den Erwartungswert von x 1.
Okay, also ich muss die folgenden drei Aussagen zeigen. Ein bisschen Mühe macht die zweite.
Die erste und die dritte gehen ganz schnell. Fangen wir vielleicht mal mit der dritten an. Nachweis von 3.
Wir gucken uns mal den Erwartungswert von y i an, für i gegen endlich erst mal.
Also ich schreibe mal die Definition hin. Mal Indikatorfunktion, das Betrag von x i kleiner als i ist.
Wir überlegen uns, die Zufallsvariablen sind identisch verteilt. Das heißt, statt x i kann ich auch genauso gut x 1 schreiben. Der Ausdruck hängt nur von der Verteilung ab, aber das i hier lasse ich stehen.
Und jetzt würde ich gerne haben, dass das Ganze gegen den Erwartungswert von x 1 konvergiert.
Also das würde ich gerne haben, konvergiert gegen den Erwartungswert von x 1, für i gegen endlich. Wenn ich das habe, konvergiert natürlich auch das arithmetische Mittel über die Erwartungswerte von y i, gegen den Erwartungswert von x 1. Also wenn ihr Folge konvergiert, dann konvergiert auch das arithmetische Mittel,
1 durch n, mal Summe i gleich 1, bis n der a i, gegen a. Das heißt, das brauchen wir jetzt hier. Haben Sie einen Vorschlag, warum das gilt? Haben Sie einen Vorschlag, bitte? Sie sagen erstens, es konvergiert punktweise gegen x 1,
konvergiert gegen x 1, für alle Omega? Also fast sicher sagen Sie, warum nur fast alle Omega? Warum nicht alle Omega? Weil das x 1 könnte auch unendlich sein, dann gilt es nicht. Aber der Erwartungswert von x 1 ist kleiner als endlich,
betragsmäßig. Das heißt, der plus oder minusen Endlich wird nur mit Wahrscheinlichkeit 0 angenommen. Das heißt, fast sicher ist der Wert von x 1 kleiner unendlich. Und wenn das x 1 von Omega eben kleiner und endlich ist, und das i ist dann irgendwann größer als das x 1 von Omega, dann stimmt x 1 mal diese Indikatorfunktion mit x 1 überein. Das heißt, das konvergiert gegen x 1 fast sicher,
und ist betragsmäßig natürlich beschränkt durch x 1, was integrierbar ist. Betragsmäßig kleiner Gleichbetrag von x 1, integrierbar, dann haben wir hier majorisierte Konvergenz.
Und damit sehen Sie, der Erwartungswert von y i konvergiert gegen den Erwartungswert von x 1, und damit konvergiert auch das arithmetische Mittel diese Erwartungswerte gegen den Erwartungswert von x 1. Und wir sind fertig.
Also daraus folgt 3. Fragen soweit? Haben Sie eine Frage? Nein? Keine Frage.
Okay, also ich habe die Definition eingesetzt, ich habe die identische Verteiltheit ausgenutzt. Wir sehen, das konvergiert punktweise, und wir nutzen den Satz von der majorisierten Konvergenz aus. All das war einfach. Machen wir das nächste einfache. Nämlich vielleicht 1. Nachweis von 1.
Also warum konvergiert das 1 durch n mal Summe i gleich 1 bis n x i mal Indikatorfunktion von Betrag von x i größer als i
gegen 0? Naja, ich gucke mir mal an, wenn ich omega festhalte, wie groß ist die Wahrscheinlichkeit, dass dann unendlich viele dieser Summanden in dem Term 1 ungleich 0 sind. Das heißt, dass unendlich viele der x i betragsmäßig größer als i
sind. Ich zeige diese Wahrscheinlichkeit ist 0. Und dann ist es klar, dann sind mit Wahrscheinlichkeit 1 nur endlich viele dieser Summanden in der Formel, die in 1 überhaupt auftauchen können, ungleich 0. Dann muss die, das arithmetische Mittel dieser unendlichen vielen Summanden, konvergiert dann
gegen 0 mit Wahrscheinlichkeit 1. Wie zeige ich das nur endlich viele dieser Summanden größer als, oder ungleich 0 sind? Naja, ich nenne das Lemma von Borel-Cantelli. Also ich gucke mir an, es gilt
Summe n gleich 1 bis unendlich P von x n mal Indikatorfunktion
ungleich 0. Und ich zeige, dass diese Summe kleiner und endlich ist. Wenn diese Summe kleiner und endlich ist, dann ist der Limes Superior der entsprechenden Ereignisse hat die Wahrscheinlichkeit 0. Das heißt, mit Wahrscheinlichkeit 1
sind nur endlich viele ungleich 0 und wir sind fertig. Folgerungen aus dem Lemma von Borel-Cantelli. Fragen soweit? Keine Fragen. Dann gucken wir uns das genauer an.
Also ich schätze es mal nach oben ab. Summe n gleich 1 bis unendlich Wahrscheinlichkeit von Betrag von x n größer als n. Ist jetzt nicht ein genauer Gleich, sondern ein kleiner Gleich. Also damit der Summand ungleich 0 ist, muss der Betrag von x n größer als n sein. Und diese
Summe möchte ich jetzt als kleiner und endlich haben. Ja, das kennen Sie schon fast. Diese Summe hängt zusammen mit dem Erwartungswert von Betrag von x n und die entsprechende Abschätzung geht so. Ich schätze ab n gleich 1 bis unendlich.
Und dieses Integral oder diese Wahrscheinlichkeit schätze ich nach oben ab durch ein Integral von der Wahrscheinlichkeit, dass Betrag von x n größer als t ist und
dt und zwar für ein t, was kleiner als n ist. Also ich gehe von n minus 1 bis n, integriere das dann über ein Integral der Länge 1. ist es richtig oder nicht richtig?
Ja, Sie sehen, also die ganze Zeit sind die Integranten, die hier stehen, größer gleich dem Ausdruck, der hier steht. Das heißt, ich kann das nach unten abschätzen durch ein Integral über den Ausdruck hier. Und dann komme ich einfach, also dann ist der Integrant ja gar nicht mehr abhängig
von der Integrationsvariable, dann komme ich auf Länge des Intervals, das ist 1 mal den Integranten. Das Integral hat die untere Abschätzung. Jetzt kann ich die identische Verteiltheit ausnutzen. Oder ich schreibe es vielleicht drunter.
Das ist ja das Gleiche wie Betrag von x 1 ist größer als t. Die Wahrscheinlichkeit. Und dann sehen Sie, dann haben wir eine nicht negative Zufallsvariable. Dann kommt hier das Integral von 0 bis unendlich. Wahrscheinlichkeit von Betrag von x 1 größer als t.
Dt raus. Wir wissen schon, bei einer nicht negativen Zufallsvariable, ist das eine andere Formel für einen Erwartungswert. Das heißt, es ist der Erwartungswert von Betrag von x 1. Da haben wir einen Satz, den wir hatten. Und nach Voraussetzung
ist der kleiner unendlich. Also hier steht 1. Ja, und jetzt kommt das Lämmer von Borel-Cantelli. Nach Borel-Cantelli
sind mit Wahrscheinlichkeit 1 nur endlich viele Summanden in 1 ungleich 0. Borel-Cantelli mit Wahrscheinlichkeit 1
sind nur endlich viele Summanden in 1 der Summanden in 1 ungleich 0.
Und damit haben wir 1 auch noch gezeigt.
Fragen soweit? Oder sonst wüsste ich erst mal, und dann können Sie sich so lange Fragen überlegen. Fragen zum Beweisschritt hin.
Von gerade eben. Warum die erste Ungleichung nicht mit Gleichheit erfüllt ist? Also wenn der Betrag von x n größer als n ist, dann kann x n eigentlich nicht 0 sein.
Das war das, was ich eigentlich irgendwie ausschließen wollte. Aber irgendwie haben Sie recht. Also die erste Ungleichung ist mit Gleichheit erfüllt. Ist richtig. Ich dachte nur, es wäre nicht so, weil ich nur den zweiten Summanden angucke und sage, wenn der Ungleich 0 ist, und ich interessiere mich nicht dafür, dass die erste Ungleich 0 ist.
Aber natürlich kann die erste nicht 0 sein, wenn die zweite Ungleich 0 ist. Haben Sie recht. Also die erste Ungleichung ist mit Gleichheit erfüllt. Aber mit Ungleich stimmt sie auch. Okay. Weitere Fragen?
Ja gut, dann kommen wir noch zum dritten und letzten, also zweiten Punkt. Nachweis von 2. Da machen wir das gleiche jetzt wie beim Beweis
vom Kriterium von Kolmogorow zum starken Gesetz der großen Zahlen. Dieses arithmetische Mittel konfigiert gegen 0. Genau, oder das wird impliziert nach dem Lemma von Kronecker, wenn die unendliche Reihe i gleich 1 bis unendlich yi minus eyi durch i
konfigiert. Also nach dem Lemma von Kronecker
folgt 2 aus jetzt haben wir hier die Folge. i gleich 1 bis unendlich oder ich trage es vielleicht damit n, n gleich 1 bis unendlich yn minus eyn
durch n ja, jetzt wollte ich es hier als Folge schreiben. Hier ein k element n fast sicher konvergent.
Und das ist jetzt das Ding, wo wieder unsere Martingaltheorie ins Spiel kommt. Diese Folge von Partialsummen wir haben ja Zufallsvariabeln, die haben Erwartungswert 0, sind unabhängig.
Also dieses, diese einzelnen Summanden haben Erwartungswert 0, sind unabhängig, bilden ein Martingal. Von Martingal wissen wir, es konfigiert fast sicher nach dem Sub-Martingal-Konvergenztheorien, wenn der Lime superior vom Erwartungswert vom Betrag von den Dingern klein unendlich ist und also Erwartungswert vom Betrag von den Dingern
hier klein unendlich ist, so muss ich sagen. Da schätze ich jetzt wieder den Erwartungswert vom Betrag ab durch Wurzel aus Erwartungswert von Quadrat. Ich modifiziere das Quadrat aus wegen Unabhängigkeit und Erwartungswert 0 der einzelnen Summanden bekomme ich gerade die Summe der Quadrate und kann das Ding nach oben abschätzen durch die Wurzel aus der
Summe n gleich 1 bis k der Varianzen von y n minus e y n durch n. Und damit habe ich nochmal diesen Satz, ja ich glaube es war Satz 8,7 oder sowas bewiesen, den wir davor hatten. Diese Folge konfigiert fast sicher, wenn die Reihe aus den Varianzen eben konfigiert.
All dies wiederum folgt aus ich brauche die Reihe n gleich 1 bis unendlich
die Varianzen davon y n minus e y n geteilt durch n und ich möchte zeigen, dass diese Reihe kleiner unendlich ist und dann sind wir fertig. Und das war glaube ich
wenn ich noch recht weiß Satz 8,7 oder sowas ähnliches. Und die Beweisidee war eben Submartingal-Kommergenztheorien das Ding ist ein Martingal, wir weisen
die Beziehung aus dem Submartingal-Kommergenztheorien nach. Ok, rechnen wir das Ding mal aus. Schreiben wir erstmal die Reihe ab. Neben Rechenregeln für Varianzen, dieses 1 durch n, ziehen wir als 1 durch n
Quadrat vor. Dann haben wir die Varianz von y n minus e y n das ist die Varianz von y n, dass wir da den Erwartungswert abziehen stört nicht. Die Varianz kann ich nach oben abschätzen durch den Erwartungswert vom Betrag. Das heißt ich kann das nach oben abschätzen
durch den Erwartungswert von y n und die Definition Quadrat. Und wir sind hier. Und dann setze ich mal die Definition rein. Dann kommen wir auf Reihe n gleich 1 bis unendlich 1 durch n Quadrat.
Jetzt die Definition von dem y n eingesetzt. Das war x n mal Indikatorfunktion das Betrag von x n kleiner als n ist. Das heißt hier steht der Erwartungswert von x n Quadrat mal Quadrat der Indikatorfunktion, das ist die Indikatorfunktion selber von Betrag von x n
größer als n. Nein kleiner gleich n. Jetzt schreibe ich den ganzen Erwartungswert ein bisschen komplizierter hin. Also wir schreiben mal die Reihe ab.
Und diesen Indikator das Betrag von x n kleiner als n ist schreibe ich als Summe der Indikatoren das Betrag von naja ich sollte vielleicht noch eine Sache machen. Ich sollte erstmal noch zu x 1 übergehen.
Identische Verteiltheit. Also schreiben wir das nochmal ab. Erwartungswert von x 1 Quadrat mal die von Betrag von x 1 kleiner als n.
Also üblicher Trick wie gerade eben auch. Jetzt mache ich das was ich gesagt habe. Ich schreibe diesen Indikator das Betrag von x 1 kleiner als n ist um als Summe der Indikatoren das Betrag von x 1 zwischen j minus 1
in j liegt. Das heißt wir machen hier eine Summe draus. y gleich 1 bis n. Erwartungswert von Betrag von x 1 Quadrat mal t minus 1 kleiner Betrag von x 1
kleiner gleich j. Sehen Sie jetzt nicht warum ich das mache, aber Sie werden es dann gleich sehen wenn ich in Beweis weiter mache, dass es die richtige Abschätzung ist. Hier habe ich formal den Einfall weggelassen, dass Betrag von x 1 gleich 0 ist.
Aber das Betrag von x 1 gleich 0 ist da ist x 1 Quadrat gleich 0. Und ansonsten gibt diese Summe, diese ganzen Indikatoren den Indikator da oben.
Ok oder Fragen? Ich werte das mal als ok. Ich schreibe mal die Summe nochmal ab
und ziehe das 1 durch n Quadrat ein.
Und jetzt vertausche ich die Summanden. Wir haben zwei Summen. Eine läuft von n eine läuft von j n läuft von 1 bis unendlich j läuft dann bei 1 von 1 bis 1 bei 2 läuft es von 1 bis 2
bei 3 läuft es von 1 bis 3 und so weiter. Das heißt es gibt so einen Dreieckschema, wir summieren gerade erst dann, dann nach oben und ich summiere jetzt genau andersrum. Erst nach oben, dann zur Seite. Das heißt ich lasse j laufen von 1 bis unendlich und n fängt dann beim Wert von j an.
Das heißt wenn ich hier vertausche kommen sie auf j gleich 1 bis unendlich n gleich j bis unendlich 1 durch n Quadrat mal der Erwartungswert von x 1 Quadrat
Ok Ich kann jetzt den Erwartungswert aus der Summe rausziehen weil der ja nur von j weil der ja nicht von n abhängt.
Das heißt ich komme auf Summe j gleich 1 bis unendlich Erwartungswert von x 1 Quadrat mal Indikatorfunktion dass x 1 zwischen j minus 1 und j liegt
und dann bleibt noch die Summe n gleich j bis unendlich 1 durch n Quadrat übrig. Und jetzt kann ich mir überlegen wie groß ist diese Summe
die da hinten steht. Ich ziehe mal 1 durch j Quadrat also es fängt ja mit 1 durch j Quadrat an ziehe ich raus dann fangen wir Reihe n gleich j plus 1 bis unendlich
ich schätze dieses 1 durch n Quadrat ab durch 1 durch n mal n minus 1 nach oben, also ich mache eine Abschätzung nach oben und 1 durch n mal n minus 1 ist 1 durch n minus 1 minus 1 durch n das heißt kennen Sie vielleicht aus dem Names des 1 den Trick
Sie kommen auf das da also was da jetzt eigentlich als Term in der Reihe steht ist auf den Hauptnenner gebracht 1 als n minus n minus 1 mal durch den Hauptnenner n minus 1 durch n
es gibt 1 durch n mal n minus 1 und das ist größer als 1 durch n Quadrat und warum habe ich den Fall j Quadrat rausgezogen naja für j gleich 1 wird sonst nicht stimmen für j gleich 1 hätte ich irgendwie ein Problem da hätte ich nämlich durch 0 geteilt
ja und dann sehen Sie die Reihe hier das ist 1 durch j Quadrat und die zweite Reihe naja ist eine Teleskopsumme fängt an mit 1 durch j, dann minus 1 durch j plus 1 dann wieder plus 1 durch j plus 1
dann minus 1 durch j plus 2 und so weiter kommt insgesamt raus 1 durch j das heißt das ganze Ding kann ich abschätzen durch 1 durch j Quadrat plus 1 durch j j ist größer als 1 kann ich 1 durch j Quadrat nach oben abschätzen durch 1 durch j
komme ich insgesamt kleiner als 2 durch j und das ist die Abschätzung die ich haben möchte hier fällt noch ein Betragstrich alles war irgendwie so annal
das ist 1 Reihe abschätzen dann sehen Sie bekommen wir insgesamt ja bringt uns das ganze was ja ich behaupte es bringt uns was ich ziehe den Faktor 2 mal nach vorne dann gleich 1 bis unendlich dann komme ich Erwartungswert von
x1 Quadrat durch j mal Indikatorfunktion dass j minus 1 kleiner Betrag von x1 kleiner gleich j ist ja und jetzt sehen Sie
bei dem Indikator ist Betrag von x1 kleiner gleich j das heißt dieses x1 Quadrat durch j kann ich abschätzen durch Betrag von x1 und genau das mache ich jetzt also x1 das ist ja Betrag von x1 mal Betrag von x1 Betrag von x1 ist maximal j ich lasse das Quadrat weg
jetzt haben wir hier Betrag von x1 mal Indikatorfunktion dass j minus 1 kleiner Betrag von x1 kleiner gleich j ist
ja Sie sehen ich kann nach dem Satz von der monotonen Konvergenz vertauschen die ganzen Indikatorfunktionen auf adj sind kleiner gleich 1 ich komme auf 2 mal Erwartungswert von Betrag von x1 was kleiner als unendlich ist
und wir haben gezeigt die Summe der Varianten ist kleiner unendlich und eigentlich wollte ich diesen Satz noch fertig stellen dies wiederum folgt aus ich glaube ich wollte dazu schreiben Satz 87 Satz 87
noch mal ganz klein Vergleiche Satz 87 und wir sind fertig mit dem Beweis
also dieses Vergleiche Satz 87 bezieht sich auf dies wiederum folgt aus wir haben gezeigt die Summe der Varianten ist kleiner unendlich und damit folgt die Behauptung aus Satz 87 ok, haben Sie Fragen soweit?
dann käme eigentlich Bemerkung 813 möchte ich nur kurz vorlesen erster Teil in Satz 812 darf die Indikierbarkeitsvoraussetzung nicht weggelassen werden das heißt wenn der Erwartungswert gleich unendlich ist gilt es nicht unbedingt und zweitens die Voraussetzung der Unabhängigkeit kann zur Paarweisen Unabhängigkeit abgeschwächt werden mit dem aufwendigeren Beweis
dann kommt Satz 814 ein Kriterium zum Schwachengesetz der großen Zahlen das machen Sie in Übungen von Chebyshev relativ elementar und noch eine triviale Bemerkung 815 zur Folgerung aus den oberen Gesetzen im Fall, dass die Zufallsvariablen
B1P verteilt sind das purellste starkes Gesetz der großen Zahlen beziehungsweise bernudige Schwachengesetz der großen Zahlen möchte ich beides nicht mehr oder alles drei nicht mehr anschreiben würde ich 5 Minuten Pause machen zum Tafelwischen und wir machen dann um 10.41 Uhr weiter mit den Konvergenzbegriffen
ja würde ich ganz gerne weitermachen ich wurde gerade gefragt wegen der Probeprüfung also die Probeprüfung den Bonus gibt es genauso für diejenigen Leute, die nur eine mündliche Prüfung bei mir machen das heißt sie können schriftlich oder mündliche Prüfung die Bedingungen wären jetzt so was wie also entweder 21 Punkte
aus beiden Klausuren zusammen wobei bei der ersten gab es 20 bei der zweiten gibt es auch 20 oder bei der zweiten, ich werde es so weit runter rechnen von den 20, also mit 8 Punkten hatten sie formal eine 4,0 mit 20 eine 1,0 und irgendwie was dann eine 2,0 ergibt würde für den Bonus ausreichen also ab 2,0 aufwärts
würde für den Bonus ausreichen zusätzlich natürlich noch die Bedingungen an die Übungen dran also Abgabe, regelmäßige Teilnahme und die Abgabe entsprechend den Scheinbedingungen ok kommen wir zu Kapitel 9 Verteilungskonvergenz in R
wir haben jetzt noch die halbe Stunde hier die Vorlesung dann noch 4 Stunden, 4 mal 1,5 Stunden ich werde vermutlich 4 mal 1,5 Stunden für die Verteilungskonvergenz brauchen oder vielleicht für eine 3 Viertelstunde davon am Schluss noch übrig bleiben
und die letzte 3 Viertelstunde über der zentrale Grenzwertsatz sein wobei in dem Kapitel über Verteilungskonvergenz in R werden wir eben den Stetigkeitssatz von Levi-Krammer beweisen der die eigentliche Voraussetzung ist um den zentralen Grenzwertsatz beweisen zu können ich fange mal erstmal an mit allgemeinen Konvergenzarten die es gibt in der Stochastik das ist die Definition 9.1
wir haben in Wahrscheinlichkeitsraum Omega A P Zufallsvariablen Xn auf X reelle Zufallsvariablen drauf
und ich habe noch einen kleinen P größer gleich 1 also man sagt Xn konvergiert gegen X
und das wollen wir jetzt definieren man sagt
und ich mache 4 verschiedene Konvergenzbegriffe erste ist die fast sichere Konvergenz zweite Konvergenz im Petenmittel dritte Konvergenz nach Wahrscheinlichkeit vierte Konvergenz nach Verteilung also A1 wäre fast sicher
und die Kurzschreibweise wäre Xn Pfeil X Fs
ja und fast sichere Konvergenz ist so was wie die punktweise Konvergenz von Funktionen folgen nur dass wir hier eben Mengen vom Maß 0 in dem Wahrscheinlichkeitsraum weglassen das heißt die punktweise Konvergenz sollte nur mit Wahrscheinlichkeit 1 vorliegen das heißt ich gucke mir die Wahrscheinlichkeit an
von der Menge Klein Omega in Groß Omega wo Xn von Omega gegen X von Omega konvergiert
der Limes n gegen endlich Xn von Omega soll gleich X von Omega sein und diese Wahrscheinlichkeit soll gleich 1 sein und dieser Limes hier ist der normale Limes von den reellen Zahlen
den sie kennen das zweite ist die Konvergenz im Petenmittel
Kurzschreibweise wäre Xn Pfeil und dann im Pfeil ein P dran oder LP oder Xn gegen X im Petenmittel kurz
man macht mal in dem Pfeil auch ein L mit Index P und hier gucke ich mir den Erwartungswert von Betrag von Xn
also ich gucke mir einen Abstand zwischen Xn und X an den ich als Erwartungswert vom Betrag von der Differenz hoch P definiere
und fordere das gibt eine reelle Zahl fordere das soll gegen 0 konvergieren für n gegen endlich beachten sie hat per se mal nichts zu tun mit dem anderen
also ist nicht unbedingt das gleiche weder A2 impliziert A1 noch A1 impliziert A2 von A1 könnten sie auf A2 schließen wenn sie eine integrierbare Majorante hätten weil sie sehen ja das Ding konvergiert punktweise gegen 0 mit Wahrscheinlichkeit 1 aber normalerweise haben sie keine integrierbare Majorante und von der konvergenzen Petenmittel
können sie nicht auf eine fast sichere Konvergenz schließen sehen sie jetzt nicht so schnell ok dritter Begriff der schwächer ist als die beiden hier ist die Konvergenz nach Wahrscheinlichkeit
das schreiben sie kurz als Xn Pfeil dann an den Pfeil oben ein großes P gegen X
kennen sie auch schon aus der Einführung die Stochastik heißt für jedes Epsilon größer 0 soll die Wahrscheinlichkeit das Betrag von Xn-X größer als Epsilon ist gegen 0 konvergieren für n gegen endlich
das heißt mit wachsenden n
sollen die Wahrscheinlichkeiten dass zwischen Xn und X eine Abweichung größer als Epsilon auftritt immer kleiner werden das heißt aber nicht, dass Xn von Omega punktweise gegen X von Omega konvergiert weil wenn sie so ein Omega festhalten
dann kann immer noch Xn von Omega von X von Omega immer wieder stark oder abweichen oder auch stark abweichen auch wenn die Konvergenz nach Wahrscheinlichkeit auftritt, nur wird das eben mit wachsenden n immer seltener vorkommen und die vierte Konvergenzart
ist die, die sie aus dem zentralen Grenzwertsatz einen schon kennen aus der Einführung Stochastik ist die Konvergenz nach Verteilung
da schreiben wir Xn und oben D nach X D für Distribution
und für reelle Zufallsvariablen gibt es zwei äquivalente Definitionen wie wir später sehen werden ich mache gleich die Variante davon die man auch problemlos auf allgemeine Räume übertragen kann und die geht so für jede stetige und beschränkte Funktion G von R nach R
soll gelten, der Erwartungswert von G von Xn konvergiert gegen den Erwartungswert von G von X
der Erwartungswert von G von Xn
ist jetzt eine reelle Zufallsvariable die auch beschränkt ist das heißt der Erwartungswert von G von Xn existiert als reelle Zahl diese reelle Zahl soll konvergieren gegen den Erwartungswert von G von X
es gibt zur Konvergenz nach Verteilung einen äquivalenten Begriff für die Konvergenz von Wahrscheinlichkeitsmaßen der kommt in Teil B die sogenannte schwache Konvergenz
wir haben Wahrscheinlichkeitsmaße QnQ auf B man sagt Qn konvergiert gegen Qschwach
kurz Qenfall Qschwach genau dann wenn für jede stetige und beschränkte Funktion G von R nach R konvergiert das Integral über G integriert bezüglich Qn
gegen das Integral über G integriert bezüglich Q
wenn Sie jetzt in A4 den Erwartungswert von G von Xn als Integrale also mit einem Transformationssatz
als Integrale bezüglich der Verteilung von Xn und der Verteilung von X umschreiben dann sehen Sie hier steht das Integral über G dPxn hier steht das Integral über G dPx und Sie sehen A4 bedeutet gerade dass Pxn gegen Pxschwach konvergiert
also wir machen es als Bemerkung klar A4 ist äquivalent zu Pxn konvergiert gegen Pxschwach
also ich kann von Verteilungskonvergenz reden dann rede ich von der Konvergenz von Zufallsvariabeln oder ich rede von der schwachen Konvergenz von Maßen aber ist beides im Prinzip das gleiche
ok Fragen soweit
dann machen wir einige Bemerkungen dazu es gibt die Bemerkung 9.2
es gilt zwischen diesen ganzen Konvergenzbegriffen bestehen Zusammenhänge die man sich am besten grafisch merkt
das wäre das folgende Bild es fängt an mit Xn konvergiert gegen X fast sicher hier steht Xn gegen X im Petenmittel
beides impliziert Xn konvergiert nach Wahrscheinlichkeit gegen X und das letzte wiederum impliziert Xn konvergiert nach Verteilung gegen X
dann gibt es im Prinzip hier eine Umkehrung im Prinzip können Sie von Xn nach Wahrscheinlichkeit konvergiert gegen X nach Wahrscheinlichkeit
auf Xn konvergiert gegen X fast sicher schließen allerdings nur für eine Teilfolge die Aussage wäre für Teilfolge
dann werden wir noch ein paar weitere Sachen sehen aber das schreibe ich vielleicht am besten gar nicht hin Xn konvergiert gegen X nach Verteilung impliziert auch Xn konvergiert gegen X fast sicher wenn wir den Wahrscheinlichkeitsraum wechseln das heißt
ich kann neue Zufallsvariabeln definieren ich kann mir einen neuen Wahrscheinlichkeitsraum basteln mit neuen Zufallsvariabeln die einzelnen Verteilungen stimmen überein und bei den neuen Zufallsvariabeln liegt sogar fast sichere Konvergenz vor ok, jetzt müssen wir das Ganze begründen
Wir machen mal, das eine ist ein Satz, der später kommt, und zwar Satz 9.3 ist es da.
Dann haben wir die Geschichte mit der Teilfolge, möchte ich auch nicht beweisen, das machen wir in Übungen. Und dann bleiben noch zwei Sachen übrig, nämlich xn gegen x fast sicher impliziert xn gegen x nach Wahrscheinlichkeit.
Und xn gegen x im Petenmittel impliziert xn gegen x nach Wahrscheinlichkeit. Die müsste ich jetzt noch begründen. Haben Sie Vorschläge zu 1 oder 2?
Zum Beispiel 2 könnten Sie fast sehen. xn gegen x im Petenmittel impliziert xn gegen x nach Wahrscheinlichkeit.
Also zu 2. Wir wollen ja sowas abschätzen. xn minus x größer als epsilon.
Kennen tue ich den Erwartungswert Betrag von xn minus x hoch p. Ich weiß, das geht gegen 0. Ich möchte daraus schließen, das geht gegen 0. Welche Abschätzung nehme ich? Vorschlag? Markov. Wir nehmen die Ungleichung von Markov, richtig.
Dann ist das leider gleich epsilon hoch p. Und dann geht die rechte Seite gegen 0, und dann geht auch die linke Seite gegen 0. Für jedes epsilon größer als 0.
Das war einfach. Ich schiebe es mal hoch. Da brauche ich noch das erste zu 1.
Ich habe also xn gegen x fast sicher. Das impliziert, ich möchte abschätzen, die Wahrscheinlichkeit, dass Betrag von xn minus x größer als epsilon ist.
Und ich möchte zeigen, diese Wahrscheinlichkeit konvergiert für epsilon endlich gegen 0.
Ich schreibe diese Wahrscheinlichkeit um als Integral über die Indikatorfunktion. Jetzt sehen Sie, für n gegen unendlich geht die Indikatorfunktion gegen 0 fast sicher.
Weil, wenn Sie ein Omega einsetzen, dann konvergiert ja xn von Omega gegen x von Omega mit Wahrscheinlichkeit 1. Das heißt, mit Wahrscheinlichkeit 1 wird dieses xn von Omega irgendwann sehr nahe an x, oder sehr nahe an x dran liegen.
Insbesondere näher als epsilon. Das heißt, das geht gegen 0 fast sicher. Und dann sehen Sie auch, das ist betragsmäßig klarer als 1. Das heißt, Sie können den Satz von der majorisierten Konvergenz anwenden.
Und das Ganze geht gegen das Integral über 0, also über 0 für n gegen unendlich nach der majorisierten Konvergenz.
Also der Zusammenhang ist auch einfach. Und der dritte, ja, der dritte wird ein kleiner Trick sein. Also dieses xn gegen x nach Wahrscheinlichkeit, indiziert xn gegen x nach Verteilung.
Wir werden es zurückführen auf fast sichere Konvergenz und es damit erschlagen. Aber machen wir dann den Satz 9-3. Weitere Fragen? Oder Fragen überhaupt?
Dann mache ich mal weiter mit B. Für die Konvergenz nach Verteilung müssen die Zufallsvariablen nicht auf dem gleichen Wahrscheinlichkeitsraum definiert sein.
Also ich habe ja in der Definition gefordert, alle Zufallsvariablen sind auf dem gleichen Wahrscheinlichkeitsraum definiert. Die Konvergenz nach Verteilung braucht das aber nicht. Da berechne ich ja nur die Erwartungswerte der einzelnen g von xn und das ist ein großer Vorteil. Also für die Konvergenz nach Verteilung müssen die Zufallsvariablen nicht auf dem gleichen Wahrscheinlichkeitsraum definiert sein.
Dann hatten wir eine relativ unhandliche Definition der Konvergenz nach Verteilung oder unschönaussehende. Hat den großen Vorteil, dass man sie unmittelbar verallgemeinern kann, wenn man nicht nur reellwertige Funktionen betrachtet,
sondern vielleicht funktionwertige Funktionen betrachtet. Da muss man nur in dem Funktionraum überlegen, was sind da die stetigen und beschränkten Funktionen. Eine äquivalente Definition zu xn gegen x nach Verteilung ist die folgende.
Ist nach Satz 9,4, kommt unten.
Für jeden Stetigkeitspunkt x der Verteilungsfunktion f von x gilt fn von xn konvergiert gegen f von x, wobei fn die Verteilungsfunktion von xn ist.
fn von x konvergiert gegen f von x, wobei fn gleich Verteilungsfunktion von xn.
Man kann sich auch nicht wirklich vorstellen, was das eigentlich heißt.
Es heißt soviel, dass die Wahrscheinlichkeit, dass xn kleiner als c ist, gegen die entsprechende Wahrscheinlichkeit, dass x kleiner als c ist konvergiert. Sofern eben dieses c ein Stetigkeitspunkt von der Verteilungsfunktion f von x
ist und die Stetigkeitspunkte der Verteilungsfunktion von x kennen Sie auch schon, das sind alle die Punkte, die von groß x nur mit Wahrscheinlichkeit Null angenommen werden.
Das zeigen wir in Satz 9,4. Sie hier unten, wobei ich dann dazuschreiben werde, Sie hier Übungen. Aber ich gebe Ihnen noch eine Beweisidee. Jetzt können wir noch etwas Schönes zeigen mit dem Resultat.
Jetzt können wir zeigen, dass die Grenzverteilung eindeutig bestimmt ist. Und zwar zeige ich, dass die Verteilung von dieser Grenzzufallvariablen x eindeutig bestimmt ist bei der Konvergenz nach Verteilung.
Da alle anderen Konvergenzen die Konvergenz nach Verteilung implizieren, ist sie auch eindeutig bestimmt bei allen anderen Konvergenzen.
Die Grenzverteilung bei Konvergenz nach Verteilung ist eindeutig.
Wir nehmen an, wir hätten xn konvergiert nach Verteilung gegen eine Zufallsvariable x und xn konvergiert nach Verteilung gegen eine zweite Zufallsvariable x Stern.
Dann können wir die Beziehung C von geradeben nehmen.
Die Verteilungsfunktion Fn von xn hat die Eigenschaft, dass Fn von x gegen die Verteilungsfunktion von F von x von Groß x konvergiert.
Analoge gilt das gleiche für die Verteilungsfunktion F Stern von x Stern.
Jetzt sehen Sie, wenn x sowohl ein Stetigkeitspunkt von F als auch ein Stetigkeitspunkt von F Stern ist, dann muss dann F von x gleich F Stern von x sein, weil ja Fn von x beidesmal sowohl gegen F von x als auch F Stern von x konvergiert.
Ich schreibe es mal so, für alle x aus R ohne diese Unstetigkeitspunkte, für alle x, die weder
ein Unstetigkeitspunkt von F noch ein Unstetigkeitspunkt von F Stern sind, wie viele Unstetigkeitspunkte kann eine Verteilungsfunktion haben?
Die Unstetigkeitspunkte sind höchstens abzählbar und endlich viele. Warum? Weil sie monoton ist. Die Unstetigkeitspunkte sind höchstens abzählbar und endlich viele. Warum? Weil sie monoton ist.
Die Verteilungsfunktionen sind darüber hinaus rechtzeitig stetig. Dann haben Sie zwei rechtzeitig stetige Funktionen, die auf allen
bis auf abzählbar und endlich vielen Punkten nicht übereinstimmen, dann stimmen sie sogar auf ganz R überein. Also F von x gleich F Stern von x für alle x aus R. Und dann
wissen Sie, die Verteilungsfunktion bestimmt die Verteilung eindeutig, d.h. daraus folgt die beiden Verteilungen überein.
Ja vielleicht Bemerkung E und F nur noch mündlich. Also E in der Definition der Konvergenz nach Verteilung lassen sich xn und x ersetzen durch xn Strich und x Strich, sofern pxn gleich pxn Strich und px Strich gleich px. D.h. diese Konvergenz hängt ja nur von der Verteilung ab. D
.h. sie können die Zufallsvariabend ersetzen durch andere, die die gleiche Verteilung haben. Und F ist eine hübsche Charakterisierung. Ich habe Ihnen das Bild gerade weggewischt. Da hatte ich Ihnen hingemalt xn konvergiert gegen x nach Wahrscheinlichkeit impliziert, dass eine Teilfolge von xn fast sicher gegen x konvergiert.
Und man kann nun ausnutzen, da eine Folge reeller Zahlen genau dann konvergiert, wenn zu jeder Teilfolge, also eine Folge reeller Zahlen an konvergiert genau dann gegen a, wenn zu jeder Teilfolge von an eine Teilteilfolge existiert, die gegen a konvergiert.
Das ist nun ein Teilteilfolgenargument. Und damit können Sie dann relativ einfach zeigen, xn konvergiert nach Wahrscheinlichkeit gegen x genau dann, wenn für jede Teilfolge nk von n existiert eine Teilteilfolge nkl mit xnkl konvergiert gegen x fast sicher.
Und damit können Sie in den Beweisen häufig, wenn Sie Konvergenzen nach Wahrscheinlichkeiten gegeben haben, im Beweis doch die Konvergenz fast sicher benutzen. Auch diese Eigenschaft E werden wir in den Übungen machen. Okay, Fragen noch? In den letzten 30 Sekunden oder so?
Ansonsten wäre ich für heute fertig.