We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Charakteristische Fkt: Weitere Eigenschaften

00:00

Formale Metadaten

Titel
Charakteristische Fkt: Weitere Eigenschaften
Serientitel
Teil
17
Anzahl der Teile
28
Autor
Lizenz
CC-Namensnennung - keine kommerzielle Nutzung - Weitergabe unter gleichen Bedingungen 3.0 Deutschland:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen und nicht-kommerziellen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen und das Werk bzw. diesen Inhalt auch in veränderter Form nur unter den Bedingungen dieser Lizenz weitergeben.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
Die Vorlesung richtet sich an Studierende des Faches Mathematik. Sie gibt eine maßtheoretisch fundierte Einführung in die Wahrscheinlichkeitstheorie. Vorkenntnisse beim Verständnis von Wahrscheinlichkeiten (wie sie im vergangenen Semester in der Vorlesung „Einführung in die Stochastik“ vermittelt wurden) sind zum Verständnis nützlich. Die benötigten Grundlagen aus der Maß- und Integrationstheorie werden in der Vorlesung noch einmal kurz vorgestellt.
WahrscheinlichkeitstheorieFunktion <Mathematik>FaktorisierungZufallsvariableCharakteristische FunktionEindeutigkeitErwartungswertStetige FunktionStetigkeitZahlenbereichVerteilungsfunktionAbleitung <Topologie>Betrag <Mathematik>CW-KomplexEindeutigkeitssatzComputeranimationVorlesung/Konferenz
MittelungsverfahrenFaktorisierungMittelwertCW-KomplexDifferenzenquotientErwartungswertSinusfunktionZahlenbereichParametersystemAbleitung <Topologie>Betrag <Mathematik>IntegralKosinusfunktionMittelwertsatz <Integralrechnung>DreiecksungleichungVorlesung/KonferenzTafelbild
Funktion <Mathematik>FaktorisierungZufallsvariableCharakteristische FunktionEindeutigkeitssatzErwartungswertErzeugendeErzeugende FunktionStetige FunktionSummeAbleitung <Topologie>Betrag <Mathematik>FaltungsoperatorMessbare FunktionEindeutigkeitKugelkappeWeg <Topologie>BiproduktVorlesung/Konferenz
Funktion <Mathematik>ZufallsvariableAusdruck <Logik>ErwartungswertStammfunktionKonstanteParametersystemAbleitung <Topologie>Dichte <Physik>Ende <Graphentheorie>SpieltheorieWelleUniformer RaumRuhmasseBetrag <Mathematik>IntegrierbarkeitVorlesung/Konferenz
ExponentialverteilungNatürliche ZahlStatistikFaktorisierungQuadratZufallsvariableCharakteristische FunktionCW-KomplexFreiheitsgradGammaverteilungIntegralsatzKurvenintegralAbleitung <Topologie>SummierbarkeitDichte <Physik>FaltungsoperatorKurveSpieltheorieNormalverteilungEbeneInhalt <Mathematik>Lokales MinimumPotenz <Mathematik>SummeVorlesung/Konferenz
IntegralsatzParallelenSummeGeschlossene KurveHalbachseParametrisierungImaginäre ZahlHolomorphe FunktionGeradeReelle ZahlVorlesung/Konferenz
PolynomSingularität <Mathematik>FaktorisierungIntegralsatzBetrag <Mathematik>ParametrisierungLokales MinimumVorlesung/Konferenz
Singularität <Mathematik>VarianzBerechnungFaktorisierungZufallsvariableAlgebraisch abgeschlossener KörperCharakteristische FunktionErwartungswertExponentGammaverteilungGebiet <Mathematik>LängeAbleitung <Topologie>RadiusKreisbogenBruchteilUmfangFunktionentheorieFunktion <Mathematik>Große VereinheitlichungMultiplikationRechenschieberVorlesung/Konferenz
Folge <Mathematik>VarianzFaktorisierungQuadratZufallsvariableCharakteristische FunktionEindeutigkeitErwartungswertGroße VereinheitlichungSummeParametersystemEindeutigkeitssatzVorlesung/Konferenz
Schar <Mathematik>NormalverteilungWahrscheinlichkeitstheorieWahrscheinlichkeitsverteilungQuadratZufallsvariableCharakteristische FunktionEindeutigkeitSummeUnabhängige ZufallsvariableGammaverteilungSummierbarkeitAdditionFaltungsoperatorVorlesung/Konferenz
IntegralrechnungSymmetrieQuadratZufallsvariableVerteilungsfunktionAbleitung <Topologie>Dichte <Physik>Klasse <Mathematik>Maß <Mathematik>ZahlFunktion <Mathematik>FaktorisierungKanteGradientVorlesung/Konferenz
Transkript: Deutsch(automatisch erzeugt)
Ja, ich begrüße Sie recht herzlich zur heutigen Vorlesung in der Wahrscheinlichkeitstheorie. Wir waren stehen geblieben bei der Behandlung von charakteristischen Funktionen. Wir hatten kennengelernt den Eindeutigkeitssatz für charakteristische Funktionen.
Ist x eine reelle Zufallsvariable mit Verteilungsfunktion f, so gilt die sogenannte Umkehrformel. Das heißt, für Städtigkeitsstellen a, b, a kleiner b von f, gilt f von b minus f von a lässt sich schreiben als Limes u gegen unendlich, eins durch zwei Pi, Integral von minus u bis u, e hoch minus i u a, minus e hoch minus i u b durch i u, mal Phi von u d u.
Das heißt, durch die charakteristische Funktion Phi ist eindeutig diese Differenz der Verteilungsfunktion f von b minus f von a an Städtigkeitsstellen a und b bestimmt.
Da das wiederum die Verteilung eindeutig festlegt, ist insbesondere Px durch Phi eindeutig bestimmt. Ich hatte dann in den Sand gesetzt den Beweis von Satz 513 am Ende.
Sei x eine reelle Zufallsvariable mit charakteristischer Funktion sei j aus n. Es gelte Erwartungswert von Betrag von x hoch j kleiner unendlich. Dann hat Phi eine stetige j-Ableitung, Phi oben j. Mit Phi oben j an der Stelle u ist i hoch j mal Integral über r, x hoch j mal e hoch i u x, Px dx.
Insbesondere ist die j-Ableitung der charakteristischen Funktion an der Stelle 0. Wenn Sie oben u gleich 0 einsetzen, dann sehen Sie, der Faktor e hoch i u x ergibt 1, verschwindet also, dann bleibt i hoch j mal Erwartungswert von x hoch j übrig.
Das Ganze kann man sich einfach merken. Sie betrachten Phi von u als Erwartungswert von i hoch u x. Wenn Sie jetzt die j-Ableitung bilden, dann müssen Sie eben diesen Erwartungswert j mal ableiten. Und da müssen Sie sich halt merken, an der Stelle darf ich Erwartungswertbildung und Ableitungsbildung vertauschen.
Und dann leiten Sie einfach innerhalb des Erwartungswertes ab. Und wenn Sie e hoch i u x j mal nach u ableiten, kommt die innere Ableitung i j mit i u mit dem Faktor j vor, mal e hoch i u x.
Okay, dann neuer Anlauf mit Beweis von Satz 513. Und nachdem das das letzte Mal so gut geklappt hat, versuche ich es wieder, ohne in mein Skript zu gucken.
Also wir machen den Fall j gleich 1. Das heißt, mich interessiert die erste Ableitung. Mich interessiert dann Phi Strich von u.
Naja, ich nehme die Definition der Ableitung als Differenzenprozient. Das heißt, wir machen den Limesh gegen 0. Phi von u plus h minus Phi von u durch h minus 0.
Oder u plus h minus u, also eigentlich durch h. Also durch u plus h minus u, das ergibt geteilt durch h. Dann setzen wir die Definition der charakteristischen Funktion ein als Integral über e hoch i u x p x d x.
Ich habe dann einerseits ein e hoch i u plus h mal x p x d x. Da ist eine e hoch i u plus h mal x p x d x. Dann ziehe ich ein zweites Integral ab mit minus e hoch i u x.
Beides fasse ich gleich zusammen. P x d x geteilt durch h. Und will den Limesh nicht vergessen. Ich ziehe dann das 1 durch h noch in den Integral rein.
Klammer den Faktor e hoch i u x aus, habe also ein Limesh gegen 0. Und verklamme das e hoch i u x aus.
Dann bleibt noch übrig ein e hoch i h x minus 1 durch h p x d x. Jetzt überlege ich mir, also jetzt würde ich gerne Integral und Grenzwert vertauschen.
Mit dem Satz von der majorisierten Konvergenz. Wir nehmen mal an, ich hätte die Majorante. Dann überlege ich mir erstmal, gegen was konvergiert der Integrantpunktweise. Das e hoch i u x hängt gar nicht von h ab. Also muss ich nur das für h gegen 0 überlegen.
Wenn wir uns überlegen, was steht da? Ich könnte zum Beispiel das deuten als die Ableitung von der Funktion e hoch i x z an der Stelle z gleich 0. Und wenn ich die Ableitung von e hoch i x z ausrechne,
e hoch i x z ausrechne bei festgehaltenem x. Das gibt ja, innere Ableitung ist ein Faktor i x. Dann mal e hoch i x z. Dann sehen Sie, wenn h gegen 0 geht, dann geht es e hoch i,
wenn z gegen 0 geht, dann geht es, oder wenn ich für z gleich 0 einsetze, dann geht es, dann ist es e hoch i x z eben 1. Das heißt, das Ganze geht gegen i mal h, i mal x.
Alternativ wenden Sie die Regel von Delibital im Komplexen an. Sie sehen, Zähler und Nenner, beide gegen 0. Ableitung, dann geht es gegen Ableitung vom Zähler durch Ableitung vom Nenner. Ableitung vom Nenner ist 1. Ableitung vom Zähler wäre i mal h mal,
eine i mal x mal e hoch i h x und Sie setzen h gleich 0 ein. Kommt gleich heraus. Also wir haben das da. Dann wissen wir, betragsmäßig ist das Ganze beschränkt durch Vorschläge. Der Betrag des Integranten ist beschränkt durch.
Also jetzt bräuchte ich eine Majorante, die integrierbar sein sollte.
Also wenn ich mir den Betrag angucke. Betrag von e hoch i u x mal e hoch i h x minus 1 durch h. Das kann ich abschätzen wie.
Also Betrag von e hoch i u x wäre was? 1. Der Betrag von e hoch i h x minus 1 durch h schätzen Sie ab durch. Ja, brutal abgeschätzt 2 durch h wäre nicht gut.
Ja, sollte ja nicht mehr von h abhängen. Wäre nicht so gut. Also sowas geht nicht. Andererseits Sie nehmen Mittelwertsatz. Dann ist es Ableitung an der Zwischenstelle mal Differenz der Argumente.
Das wäre i h x minus 1, also h mal x an der Stelle. Ableitung an der Zwischenstelle. Ja, und dann kommt noch so ein Faktor e hoch i h x noch mit rein. Aber der ist betragsmäßig sowieso gleich 1. Wir teilen durch h, dann bleibt x übrig. Würde ich abschätzen durch Betrag von x. Und was ist falsch dran?
Der Mittelwertsatz gilt nicht im Komplexen. Das heißt, ich kann nicht den Mittelwertsatz im Komplexen nehmen. Aber was ich machen kann? Ich kann es natürlich für Realteile und imaginierte Teile machen. Das heißt, wir schreiben das um als Betrag von e hoch i h x minus 1 durch h.
Dann haben wir ein Cosinus h x minus 1. Cosinus h mal x minus 1 Betrag durch h plus i mal. Und ich ziehe noch gleich den Betrag mit der Dreiecksungleichung rein. Dann haben wir noch ein Sinus h mal x minus 0 durch h.
Dann nehme ich den Mittelwertsatz. Dann sehen Sie Mittelwertsatz für Zähler und Nenner.
Das ist Ableitung von Cosinus, wäre minus Sinus. Das heißt, es wäre minus Sinus an der Zwischenstelle. Das ist ja Cosinus von 0. An der Zwischenstelle ziehe ich das Ganze noch mal h.
H x minus 0 durch h plus der zweite wäre Cosinus an der Zwischenstelle. Ziehe quer mal h x minus 0 Betrag durch h.
Dann sehen Sie, Sinus und Cosinus sind betragsmäßig durch 1 beschränkt. Das heißt, das h kürzt sich jeweils raus. Das ist kleiner gleich als zweimal Betrag von x. Und das Ganze ist integrierbar bezüglich p x, da wir ja vorausgesetzt haben,
dass der Erwartungswert von Betrag von x hoch j klein und endlich ist. Das heißt, hier der Erwartungswert von Betrag von x klein und endlich.
Dann sehen Sie, wir bekommen mit der majorisierten Konvergenz, kommen wir auf das Integral über jetzt den Limes.
Also das e hoch i u x bleibt noch stehen. Mal i x, p x, d x. Und das war zu zeigen. Fragen soweit?
Also ich gehe über die Definition der Ableitung als Differenzenquotienten. Und der Trick ist, ich vertausche den Grenzwert mit dem Integral. Wende den Satz von der majorisierten Konvergenz an.
Guck mir die punktweisen Grenzwerte an. Einfach mach ein bisschen rum, um eine Majorante zu haben. Und die Majorante ist zweimal Betrag von x. Die integrierbar ist der Erwartungswert von Betrag von x klein und endlich ist nach Voraussetzung. Das war die eine Aussage für j gleich eins. Die zweite Aussage ist vielstrich ist stetig.
Das mache ich vielleicht auf einer anderen Tafel.
Ja, warum ist vielstrich stetig? Ich muss auch um Differenzenquotienten schätze ich wieder ab. Vielstrich von u plus h minus vielstrich von u.
Wir schreiben es mal hin. Wenn wir uns das überlegen, wir setzen wieder ein. Ich fasse die Integrale gleich zusammen.
Dann beides mal habe ich ein Faktor i x, den ziehe ich gleich raus. Dann habe ich im einen Integral noch ein Faktor e hoch i u plus h mal x. Im zweiten den Faktor e hoch i u x. Ich klammer auch den Faktor e hoch i u x gleich aus.
Ich nutze dann aus Betrag vom Integral. Das klammert gleich integral über Betrag. Was wir auch im Komplexen schon nachgerechnet haben.
Dann ziehe ich den Betrag rein. Dann steht da integral über R. Betrag von x mal 1 mal Betrag von e hoch i h x minus 1. P x d x.
Ich schätze das jetzt einfach ab durch 2. Also Betrag von e hoch i h x plus Betrag von 1. Also der erste ist 1, der zweite auch 1. Also kleiner gleich als integral über R.
Nee, wäre nicht gut durch 2 abzuschätzen. Das ist ja eine blöde Idee. Ich schätze ab durch 2, 200 Betrag von x. Wir wollen jetzt eigentlich haben, wenn h gegen 0 geht, soll das Ganze gegen 0 gehen. Das heißt wir müssen nochmal majorisierte Konvergenz anwenden. Wir überlegen uns, das Ganze hier geht gegen 0 für h gegen 0.
Also der ganze Integrant geht punktweise gegen 0 für h gegen 0. Und der ganze Integrant ist betragsmäßig kleiner gleich. Und jetzt schätze ich den Faktor e hoch i h x minus 1 betragsmäßig durch 2 ab.
Kleiner gleich 2 mal Betrag von x. Und das ist integrierbar bezüglich P x.
Und dann sehen Sie, mit der majorisierten Konvergenz bekommen wir wieder das Ganze für h gegen 0.
Integral über R. 0 e x d x gleich 0. Und damit sind wir fertig mit dem Fall j gleich 1.
Hier sehen Sie auch, wenn ich den Fall des allgemeinen J haben möchte, dann würde ich einfach mit Induktion vorgehen. Das heißt ich habe die Formel das als Ableitung mit einem Faktor k bereits für j gleich k bewiesen. Ich möchte es dann für j gleich k plus 1 beweisen. Ich bilde dafür den Differenzenprozien von der Karten Ableitung.
Dann kommt das gleiche heraus wie hier, nur ist da eben noch ein weiterer Faktor i x hoch k dran. Der weitere Faktor i x hoch k lasse ich hier einfach stehen. Das geht dann gegen i x hoch k, kommt noch ein Zusatz.
Und hier kommt wieder eine weitere Ableitung mit i x dazu. Es gibt ein i x hoch k plus 1 mal i u x punktweise. Und Sie sehen, das Ganze ist, also hier habe ich eben noch ein Faktor i x hoch k drin. Das gibt einfach einen Betrag von x hoch k noch zusätzlich. Das heißt ich komme hier auf zweimal Betrag von x hoch k plus 1.
Und weil der Erwartungswert von Betrag von x hoch k plus 1 jetzt diesmal kleiner und endlich als kleiner und endlich vorausgesetzt ist, geht der Beweis genauso. Also allgemeiner Fall geht analog.
Haben Sie Fragen soweit?
Okay, dann war das Satz 513.
Nach Satz 513 kommt Satz 514. Wir haben unabhängige reelle Zufallsvariablen x 1 bis x n.
Dann gilt Aussage ist die charakteristische Funktion von der Summe der n Zufallsvariablen an der
Stelle u ist gleich dem Produkt der charakteristischen Funktionen der einzelnen Zufallsvariablen an den einzelnen Stellen. Also ist Produkt k gleich 1 bis n phi k phi x k von u für u aus r.
Also eine Eigenschaft, die wir schon von erzeugenden Funktionen her kennen. Wenn wir eben so Faltungen betrachten, ist die erzeugende Funktion der Faltung, war die erzeugende Funktion der Faltung einfach das Produkt der einzelnen erzeugenden Funktionen.
Das Gleiche gilt jetzt für charakteristische Funktionen. Zusammen mit dem Eindeutigkeitssatz für charakteristische Funktionen können wir damit sehr schön irgendwelche Faltungsgesetze nachrechnen. Zum Beispiel zeigen, wie sieht die Summe von zwei unabhängigen normal verteilten Zufallsvariablen aus.
Wie sieht die Summe von n unabhängigen exponential von lambda verteilten Zufallsvariablen aus. Solche Sachen. Okay, Beweis ist einfach. Also eigentlich geht es nur die Definition. Wir nehmen mal die linke Seite.
Nach Definition ist es der Erwartungswert von e hoch i u mal diese Zufallsvariable. Also die Summe der Zufallsvariablen.
Das gibt Erwartungswert von e hoch die Summe k gleich 1 bis n i u mal x k. e hoch so eine Summe ist das Produkt der einzelnen Experimentaltherme. Das heißt wir kommen hier auf den Erwartungswert vom Produkt k gleich 1 bis n e hoch i u x k.
Und jetzt würde ich an der Stelle gerne Erwartungswert mit Produkt vertauschen.
Das heißt ich würde sagen Erwartungswert vom Produkt ist gleich Produkt der Erwartungswerte. k gleich 1 bis n Erwartungswert von e hoch i u x k.
Haben Sie eine Ahnung warum das gilt?
Okay also Vorschlag war dieses e hoch i u x k sind erstmal Zufallsvariablen. Weil das e hoch i u x ist eine stetige Funktion. Wenn ich jetzt verknüpfe mit der Zufallsvariable bekomme ich eine messbare Funktion.
Also Zufallsvariablen. Und dann hatten wir einen Satz wenn die einzelnen Zufallsvariablen unabhängig sind. Dann sind auch Funktionen angewandt auf die einzelnen Zufallsvariablen unabhängig. Der Satz war relativ trivial zu beweisen. Das war die einfache Variante. Die schwierigere Variante war dass Unabhängigkeit auch erhalten bleibt bei Umgruppierung.
Aber das sind die beiden zentralen Eigenschaften der Unabhängigkeit. Das heißt das Ding ist auch unabhängig. Und dann hatten wir den nächsten Satz Unabhängigkeit ist der Erwartungswert vom Produkt gleich Produkt der Erwartungswerte. Der Satz hatte Voraussetzungen.
Erinnern Sie sich? Die meisten Sätze haben ja Voraussetzungen. Wir müssen unabhängig sein. Das haben wir schon gesagt. Der Satz wenn die Zufallsvariablen unabhängig sind dann ist der Erwartungswert vom Produkt gleich Produkt der Erwartungswerte. Da müssen sie unabhängig sein.
Aber der Satz hatte noch eine Voraussetzung. Also wenn Sie sich erinnern die die ich weiß nicht. Weil sie ein A oder B hatten. Sie durften das beweisen in der Semestralklausur. Und da haben sie ein Fobini angewandt. Und wenn sie ein Fobini anwenden was brauchen sie dann?
Sie brauchen integrierbarkeit. In der Semestralklausur braucht man es nicht. Weil wir nicht negative Funktionen haben. Aber hier haben wir natürlich keine nicht negativen Funktionen. Das heißt wir brauchen integrierbarkeit. Aber das ist ja kein Problem. Weil das ist ja betragsmäßig alles durch eins beschränkt. Und dann haben wir es eigentlich nur für reelle Zufallsvariablen bewiesen.
Sie brauchen sie aber für komplexwertige. Das heißt sie müssen es für realteile und imaginärteile getrennt machen. Dann werden sie sich überlegen was passiert dann. Naja dann haben sie immer so realteile, imaginärteile, realteile, imaginärteile und so weiter. Die sie miteinander ausmultiplizieren. Und dann multiplizieren sie eben abwechselnd realteile, imaginärteile von dem Ausdruck.
Aber da sie nie vom gleichen Ausdruck sowohl realteile als auch imaginärteile bleiben. Bleiben die Ausdrücke nach wie vor unabhängig. Das heißt auch die realteile, imaginärteile die sie da miteinander multiplizieren bleiben unabhängig und das geht. Das heißt hier geht die Unabhängigkeit rein.
Und zwar in der Form, dass sie erst die Unabhängigkeit der xk brauchen. Dann argumentieren müssen, dass die e hoch i u xk ebenfalls unabhängig sind. Und das zweite was wir brauchen ist glaube ich Satz 410.
Ja und dann sehen sie dann steht die Behauptung da. Dann haben wir Produkt k gleich 1 bis n phi xk an der Stelle u.
Die Frage geht nochmal zu dem vorigen Beweis, wie ich den allgemeinen Fall mache. Woher ich die Majorante bekomme? Naja die beim vorigen Beweis haben wir die Voraussetzung, wenn wir den Fall j gleich k machen eben doch, dass der Erwartungswert von x hoch k kleiner und endlich ist. Genau. Also für j gleich 1 haben wir die Voraussetzung nicht.
Aber wenn wir beweisen ja den Fall j gleich k. Dann können wir erst mal j gleich k minus 1. Da haben wir aber die Voraussetzung erfüllt. Also wir setzen insgesamt voraus. Der Erwartungswert von x hoch k ist klein und endlich. Dann ist auch der Erwartungswert von x hoch k minus 1 klein und endlich. Das wissen wir schon.
Und dann können sie halt mit Induktion schließen. Aber sie haben recht. Wir brauchen mehr Voraussetzungen, aber die haben wir an der Stelle. Okay noch Fragen? Ja dann würde ich jetzt schon Pause machen. Diesmal ein bisschen früher, dann kann ich die Tafeln in Ruhe wischen. Und wir machen dann um 10.25 Uhr weiter.
Ja würde ich ganz ganz schon weitermachen.
Okay. Danke schön. Wir machen jetzt noch ein Beispiel zur Gamma Verteilung. Also wir werden dann wieder eine neue Verteilung vor. Und ich gebe dafür einfach mal eine Dichte vor.
Und dann überlegen wir uns Eigenschaften und so weiter. Also Zufallsvariable x mit Dichte von x gleich. Die Dichte ist 0 für x kleiner gleich 0 für x größer als 0.
Ist proportional zu. Also sie hängt von zwei Parametern ab. Lambda und nu. Proportional zu lambda hoch nu mal x hoch nu minus eins mal e hoch minus lambda x. Und die Konstante wird eben so gewählt, dass das Ganze zu eins integriert. Das heißt ich knall noch die sogenannte Gamma Funktion davor.
Also lambda hoch nu durch gamma von nu. Mal x hoch nu minus eins mal e hoch minus lambda x. Für x größer 0. Und 0 für x kleiner gleich 0.
Und zwar Dichte bezüglich des Lebesquarellmaßes heißt gamma verteilt.
Mit Parameter nu und lambda. Lambda nu größer 0. Und kurz schreibe ich dafür gamma lambda nu verteilt.
Die Gamma Funktion ist jetzt genau das, was ich brauche. Damit das Integral insgesamt eins ergibt über Dichte. Also hierbei.
Und da sehen Sie, wenn Sie von 0 bis und endlich lambda hoch nu mal x hoch nu minus eins mal e hoch minus lambda x integrieren. Dann können Sie eben das lambda weg substituieren.
Sie ersetzen das lambda x durch u. Dann steht da ein u hoch nu minus eins. Noch ein einzelnes lambda. Es gibt gerade die Ableitung. Das heißt ich nehme. Integral von 0 bis und endlich. Ich schreibe es vielleicht auch mit u.
U hoch nu minus eins mal. E hoch minus u. D u. Das ist die sogenannte Gamma Funktion. Und ich nehme eine Gamma Funktion. Haben Sie schon mal gehört zur Analysis?
Eine schöne Sache ist so eine. Sie können hier partiell integrieren. Also den hier ableiten, den hier integrieren. Dann sehen Sie relativ schnell das Gamma von nu plus eins. Gleich nu mal Gamma von nu ist.
Wenn Sie sich jetzt überlegen, was er gibt. Gamma von eins. Wenn wir hier nu gleich eins einsetzen, dann integrieren wir gerade e hoch minus u. Stammfunktion ist minus e hoch minus u. Das heißt Integral gibt gerade eins. Dann sehen Sie Gamma von n ist gleich n minus eins Fakultät.
Und was man nicht sieht, ist, was Gamma von einem halb ist. Ja, was ist jemand von Ihnen? Was kommt bei Gamma von einem halb raus?
Ja, irgendwas mit Pi. Wurzelpi. Wurzelpi kommt raus. Und das sind eigentlich die Werte, die wir brauchen. Weil letzten Endes wurden Sie später mal primär interessieren. Einerseits mit nu gleich eins.
Ne, ich muss so sagen. Mit nu aus n. Wobei, also n ist eine natürliche Zahl. Wobei, Sie sehen vielleicht auch schon, was kommt raus, wenn ich nu gleich eins einsetze. Als Verteilung.
Die Verteilung kennen wir schon. Setzen wir nu gleich eins ein. Da kommt die Exponentialverteilung raus. Wir werden nachher sehen, die Faltung von der Exponentialverteilung gibt eine Gammaverteilung. Und zwar, da addieren Sie einfach diese nu Werte hier. Wird ein Faltungsgesetz sein. Und das zweite, was uns noch interessiert, ist der Fall nu gleich ein halb.
Der wird auf die sogenannte Chi-Quadratverteilung führen. Aber kommt dann auch noch. Oder kommt jetzt schon. Also Spezialfälle sind, wir haben n gleich Gamma von Lambda, Komma eins.
Das ist Exponential von Lambda. Und Gamma von, ne, ein halb Komma n halbe. Das war der Richtige.
Also Gamma von ein halb Komma n halbe. Das ist die sogenannte Chi-Quadratverteilung. Chi n Quadrat mit n Freiheitsgraden.
Und da werden wir zeigen, dass die Summen der Quadrate von n unabhängigen Standard Normalverteilten zufallsvariablen Chi n Quadrat verteilt sind. So hat man dann Statistik ab und zu brauchen.
Okay, jetzt wollen wir ein bisschen Eigenschaften von der Gammaverteilung kennenlernen. Erwartungswert, Varianz, Faltungseigenschaften. Um das Ganze zu machen, berechnen wir die charakteristische Funktion.
Charakteristische Funktion von Gamma Lambda nü.
Und die Behauptung ist, das ist Phi von u gleich. Wissen Sie noch, was die charakteristische Funktion von der Exponentialverteilung war?
Das war so was komisches, irgendwie Lambda durch Lambda minus iu oder so. Ja, Lambda durch Lambda minus iu. Also wenn Sie die charakteristische Funktion von der Gammaverteilung vergessen haben, rechnen Sie sich schnell aus die von der Exponentialverteilung und dann nehmen Sie das Ganze hoch noch hoch nü.
Und das wird uns dann hinterher helfen, dass wir zeigen können, dass Gamma von Lambda Komma n eine Faltung von Exponential von Lambda verteilt ist.
Brauchen wir eine Begründung. Sie erinnern sich noch an den Nachweis der charakteristischen Funktion der Standard Normalverteilung.
Gegen sokochischer Integralsatz. Komplexen integriert. Wir machen das gleiche nochmal. Nur mit einer anderen Funktion. Ok. Schreiben wir es hin. Was ist Phi von u? Nach Definition. Ja, Phi von u. Ich muss die Dichte nehmen.
Ich nehme e hoch iu x. E hoch iu x dann px dx und integriere dann über die Dichte von 0 bis und endlich. Also machen wir mal f an x. Mal Lambda hoch nü durch Gamma von nü.
Mal x hoch nü minus 1. Mal e hoch minus Lambda x dx. Das Integral wollen wir ausrechnen.
Dazu will ich dieses Integral so umformen, dass ich es als komplexes Kurvenintegral deuten kann. Wenn Sie gucken, was passiert da. Ich kann mal den Exponentialterm zusammen nehmen. Dann sehen Sie, da steht eigentlich ein e hoch minus Lambda mal x minus iu da.
Oder wir machen es ausführlich. Ich schreibe es mal hin. Also ich ziehe vielleicht die anderen Sachen mal raus. Lambda hoch nü durch Gamma hoch nü. Integral von 0 bis und endlich. x hoch nü minus 1.
Mal e hoch minus x mal Lambda minus iu.
Und jetzt will ich das Integral unten rechts als komplexes Kurvenintegral deuten. Also ich würde gern statt dem e hoch minus x mal Lambda minus iu e hoch minus z schreiben.
Damit ich das machen kann, müsste aber auch das x hoch nü minus 1 irgendwie als z auftauchen. Das mache ich, indem ich mit diesem Faktor Lambda minus iu bei dem x hoch nü minus 1 ranmotiviere. Und indem ich zusätzlich noch eine innere Ableitung für das Kurvenintegral mit dem Faktor Lambda minus iu hinbringe.
Und wenn ich das mache, kommen wir auf, also ich lasse mal das Lambda hoch nü stehen. Ich ergänze mit 1 durch Lambda minus iu hoch ebenfalls nü.
Dann bleibt noch ein 1 durch Gamma von nü übrig. Und als Integral habe ich noch von 0 bis und endlich. Jetzt taucht hier x mal Lambda minus iu. Hoch nü auf, hoch nü minus 1 mal e hoch, e hoch minus x mal Lambda minus iu.
Noch von der inneren Ableitung, oder noch ein Faktor fehlt mehr. Lambda minus iu dx.
Und Sie sehen, dieser Faktor Lambda minus iu hoch nü kutzt sich insgesamt raus. Weil hier habe ich den Faktor mit dem exponenten nü minus 1, hier noch mit dem exponenten 1. Und jetzt deute ich das als komplexes Kurvenintegral z hoch nü minus 1 mal e hoch minus z.
Und muss mir überlegen, was ist der Weg, den ich gehe. Wir machen hier vielleicht noch ein Limes von irgendwie t gegen endlich. Lambda hoch nü durch Lambda minus iu hoch nü.
Eins durch Gamma hoch nü, die gegen endlich. Integral über komplexen Weg c1 z hoch nü minus 1 mal e hoch minus z dz.
Und ich muss mir überlegen, wo ist c1? Also hier haben wir irgendwie real Teil von z und imaginär Teil von z.
Vorschläge von wo bis wo geht c1, also noch parametrisiert mit einem t, sodass insgesamt als Grenzwert dieses Integral rauskommt. Also ich kann ja dieses Integral da oben bei t abrechnen und dann Limes t gegen endlich davor schreiben.
Von wo bis wo läuft dann c1? Eine Parallele zur rechten Halbachse, die rechte Halbachse, also hier.
Das heißt, Sie sagen, der imaginär Teil bleibt fest. Haben Sie so ausgedacht, ja? Wenn Sie mal gucken, was ist denn unsere Parametrisierung? Unsere Parametrisierung wäre ja x mal Lambda minus iu.
Und x läuft von 0 bis t. Okay, wenn Sie es so nochmal überlegen oder sonst einen Vorschlag. Sie lassen x von 0 bis t laufen und die Parametrisierung ist x mal Lambda minus iu ist Ihr Punkt. Von wo bis wo läuft dann Ihr Punkt?
Von 0 bis Lambda minus iu mal t oder t mal das Ganze. Klar, also wir beginnen irgendwie in 0. Und dann, wo hören wir auf? Der Realteil ist Lambda, der imaginär Teil ist Lambda mal t.
Also hier haben wir irgendwo Lambda mal t. Der imaginär Teil, ich nehme an u, wäre größer als 0. Dann wäre der imaginär Teil minus t mal u. Also hier hatte ich irgendwie minus t mal u.
Ich laufe also bis zu dem Punkt. Und dazwischen ist es eine Gerade. Das heißt, das ist unser c1. Ja, dann machen wir es gleich wie beim letzten Mal. Wir ergänzen das zu einer geschlossenen Kurve.
Wir nutzen aus, wir integrieren eine holomorphe Funktion. In dem Bereich, im Inneren des Bereiches. Deswegen ist das geschlossene Integral gleich 0. C3.
Also wir nehmen wieder einen koschischen Integralsatz.
Da wissen wir die Summe. k gleich 1 bis 3. Integral über ck.
z hoch. Mu minus 1 mal e hoch minus z. dz ist gleich 0. Das heißt, ich weiß, das Integral über c1 ist minus das Integral über c2. Minus das Integral über c3. Das Integral über c3 ist schon mal ganz gut. Es gibt sowas schönes Reales wieder.
Das Integral über c2 behaupte ich verschwindet. Ja, warum verschwindet das Integral über c2? Mit, also wir hatten ein Limes. T gegen und endlich.
Integral über c2. Z hoch. Mu minus 1 mal e hoch minus z. dz. Ich behaupte, der ist gleich 0. Sieht das jemand von Ihnen?
Okay, also der Vorschlag war einerseits, wir haben so ein e hoch minus z. Wenn wir jetzt die Parametrisierung angucken, dann ist der Realteil hier konstrant gleich lambda mal t. Der Imaginärteil wandert irgendwie. Das heißt, der Betrag von dem e hoch minus z auf dieser c2
ist gleich ein e hoch minus lambda mal t. Das geht exponentiell schnell gegen 0 in t. Das Ganze da vorne, das z hoch mu minus 1, ist ein Polynom in t, wenn Sie sich überlegen. Also verschwindet im Vergleich zu dem exponentiellen.
Dann war der Vorschlag, die Weglänge ist konstant. Nicht ganz. Die Weglänge wächst auch. Die wächst auch, aber die ist eben auch noch linear in t. Maximal oder so, groß und ordnungsmäßig. Das heißt auch ein Polynom. Das Ganze verschwindet im Vergleich zu dem Faktor e hoch minus lambda t. Wenn Sie es sauber ausformulieren.
Möchte ich hier diesmal nicht machen. Mit dem folgt dann, was uns eigentlich interessiert, der Liemest t gegen unendlich integral über c1
z hoch mu minus 1 mal e hoch minus z dz. Das ist dann gleich minus, oder das ist gleich dem Liemest t gegen unendlich von minus integral über c3
z hoch mu minus 1 mal e hoch minus z dz. Wenn wir jetzt überlegen c3. Ja, das gibt ja ein wunderschönes reales Integral. Jetzt hier laufe ich von lambda mal t bis 0. Aber da ich ein Minuszeichen davor stehen habe, kann ich auch von 0 bis lambda mal t laufen.
Und dann geht t gegen unendlich. Das heißt, ich laufe eigentlich von 0 bis unendlich. Das heißt, das Ganze gibt das Integral von 0 bis unendlich. Einfach ein u hoch mu minus 1 mal e hoch minus u du.
Ja, und dann sehen Sie, das war unsere Definition von Gamma vom mu. Das heißt, es gibt gerade Gamma vom mu. Dann sehen Sie, der Faktor hier gibt Gamma vom mu, kürzt sich mit dem hier weg, bleibt die Behauptung stehen.
Fiese Frage. Wenn mu kleiner als 1 ist, dann hat der Integrant eine Singularität bei 0. Das heißt, ich kann das so nicht machen. Weil ich, also bei dem kochischen Integralsatz
braucht dich auf dem Abschluss von dem Gebiet keine Singularität. Aber ich meine, Sie laufen dann halt ein bisschen anders. Sie laufen dann hier, gehen Sie so einen kleinen Kreis drumrum und machen sich noch klar, dieser kleine Kreis, da ändert sich eigentlich nichts.
Sehen Sie das? Ja, das sehe ich auch nicht. Aber es war, glaube ich, so. Oder, ich vermute mal stark, das ist so. Also diese übliche Trick aus der Funktionentheorie, wenn Sie da halt eine Singularität bei 0 haben, müssen Sie ein bisschen wegbleiben. Sie bleiben mit so einem Epsilon weg und müssen noch argumentieren, das stört Sie nicht.
Warum stört mich das da nicht? Naja, ich muss argumentieren. Das macht sowohl bei dem Integral als auch bei dem Integral eigentlich nichts aus. Oder so. Wenn der klein wird.
Aber ist, glaube ich, richtig. Okay, noch Fragen?
Gut, dann haben wir die charakteristische Funktion berechnet. Und ja, das können Sie jetzt selber mal als Übungsaufgabe machen, solange ich die Tafel wische. Berechnen Sie jetzt mal eine Erwartungswertvarianz von der Gammaverteilung.
Die charakteristische Funktion kennen Sie? Dann könnten Sie wissen, wie Sie daraus Erwartungswerten und Varianz berechnen. Hey, Sie rechnen das ja alle im Kopf. Echt gut. Noch mal zu dem Integral hier. Ja, ist eigentlich klar. Wenn Sie überlegen, ich bleibe in Epsilon weg. Der Kreisbogen hat eine Länge von maximal Epsilon.
Also Größenordnungsmäßig Epsilon. Also Umfang vom Kreis. Der Radius wäre hier 2 Epsilon mal Pi. Also ungefähr so ein Bruchteil von Epsilon. Während dieses 1 durch Z taucht nicht als 1 durch Z auf, sondern als 1 durch Z hoch 1 minus Nü.
Nü war größer als Null. Das heißt, es gibt ein 1 durch Epsilon hoch 1 minus Nü. Und wenn Sie Epsilon multiplizieren mit 1 durch Epsilon hoch 1 minus Nü, dann bleibt halt ein Epsilon hoch Nü übrig. Geht immer noch gegen Null. Und der Integrant war sonst in der Nähe von der Null beschränkt.
Das heißt, das Integral über den Kreisbogen können Sie vernachlässigen. Und genauso können Sie wahrscheinlich die beiden Stücke auch vernachlässigen. Beziehungsweise, ich müsste auch argumentieren, dieses Stück kann ich vernachlässigen, weil das heißt, ich habe letztendlich alles weg. Aber das wäre ja das Gleiche, wäre sogar einfacher.
Während dieses Stück betrachte ich gar nicht mehr groß. Okay, gut, jetzt brauchen wir die charakteristische Funktion. Jetzt wollen wir die ganzen Eigenschaften haben. Ich schreibe vielleicht die Formel für die charakteristische Funktion noch mal hin.
Also Phi von u Lambda durch Lambda minus i mal u hoch Nü.
Ja, wie bekommen Sie den Erwartungswert? Sie haben eine Zufallsvariable. Sie kennen die charakteristische Funktion. Wie bekommen Sie den Erwartungswert? Okay, wir bilden die erste Ableitung.
Das heißt, bilden wir mal die erste Ableitung. Phi Strich von u ist gleich das Lambda hoch Nü. Lass mal stehen. Dann habe ich ein Lambda minus i u hoch minus Nü. Das heißt, ich kriege ein Minus Nü als Exponent. Dann Lambda minus i u hoch minus Nü minus 1.
Und dann noch innere Ableitung. Es gibt noch ein Minus i. Okay, wir haben die erste Ableitung. Was machen Sie jetzt?
Sie teilen noch durch mit i. Also wir haben Phi Strich von 0 geteilt durch i. Das war der Satz 5.13. Nein, doch Satz 5.13.
Alles, was wir heute zu Beginn der Stunde bewiesen haben. Ja, Sie sehen eigentlich schon, was rauskommt. Also wenn ich hier 0 einsetze, fällt ja der Teil weg.
Dann kann ich das Ganze kotzen. Es gibt dann Lambda hoch minus 1. Also 1 durch Lambda bleibt hier noch übrig. Hier habe ich ein Minus Nü mal minus i. Es gibt ein i mal Nü. Ich teile noch durch i, also kommt Nü durch Lambda raus.
Wie bekomme ich die Varianz? Noch mal ableiten. Weiter geht's.
Phi 2 Strich von u. Ja, ich lasse das Lambda mal von Nü mal stehen. Dann das andere fasse ich zusammen in i mal Nü.
Dann kommt ein Minus Nü minus 1. Weil der Faktor innere Ableitung ist wieder minus i.
Also zweite Ableitung haben wir. Damit. Ich werte an der Stelle 0 aus, teile durch i Quadrat.
Damit bekomme ich was raus? Die Varianz, oder? Dann haben wir einen Erwartungswert von x Quadrat. Daraus folgt wieder noch Satz 513. Das wäre Phi 2 Strich von 0 durch i Quadrat.
Tja. Das i kotzt sich irgendwie raus. Das Minus geht zu den Minus Nü minus 1. Es gibt einen Nü plus 1.
Dann haben wir einen Lambda hoch Nü. Mal Nü mal Nü plus 1. Dann habe ich noch einen Lambda hoch Minus i mal Nü. Also Lambda mal Lambda hoch Minus Nü plus 2.
Das heißt, ich komme auf ein Nü Quadrat plus Nü durch Lambda Quadrat. Dann, wenn Sie e x und e x Quadrat haben, bekommen Sie die Varianz von x.
Als Erwartungswert von x Quadrat minus e x in Klammern zum Quadrat. Wenn Sie jetzt einsetzen, machen wir mal Nü Quadrat plus Nü durch Lambda Quadrat
minus der Erwartungswert Nü Quadrat durch Lambda Quadrat. Dann sehen wir, da kommt Nü durch Lambda Quadrat raus. Das heißt, Erwartungswerten, Varianz von dieser Verteilung
werden durch die beiden Parameter gestimmt. Fragen soweit?
Okay, dann kommt jetzt das erste Faltungsgesetz, nämlich die Summe von N unabhängigen
exponentiell von Lambda verteilten Zufallsvariablen ist Gamma Lambda, N verteilt.
Vorschläge dazu?
Ok, wir bestimmen die charakteristische Funktion dieser Summe als Produkt der charakteristischen Funktionen. Also Begründung, Phi von x1 und so weiter bis xn, das war nach Satz 514, Produkt k gleich 1 bis n, Phi von xk, von u.
Wir wissen schon, wie die charakteristische Funktion von exponential von Lambda aussieht, also das war ein Beispiel, was wir früher mal gemacht haben, das war k gleich 1 bis n,
und geschickteweise war das genau das gleiche, nur ohne den Faktor hoch nü, Lambda durch Lambda minus. Dann sehen Sie, das ergibt jetzt genau Lambda durch Lambda minus i u hoch n. Also es kommt was Gutes dabei raus. Und jetzt?
Also jetzt haben wir gesehen, die charakteristische Funktion von der Summe der Zufallsvariablen x1 bis xn ist die charakteristische Funktion von Gamma Lambda,n.
Genau, jetzt können wir den Eindeutigkeitssatz anwenden, wenn die selbe charakteristische Funktion haben, dann stimmt auch die Verteilung überein.
Aber ich muss vielleicht nochmal wischen. Also Phi von x1 bis xn stimmt mit charakteristische Funktion von Gamma Lambda,n überein.
Und daraus folgt jetzt eben mit dem Eindeutigkeitssatz, 511, Satz 511, die Verteilung von dieser Summe ist Gamma Lambda,n.
Und das können Sie jetzt mit allen möglichen so machen, werden Sie auch mit den Übungen so machen. Also da werden Sie sich glaube ich noch die Sache überlegen mit der
Normalverteilung, was bei der Normalverteilung rauskommt, wenn Sie Summen bilden von unabhängigen Zufallsvariablen. Und noch irgendwas? Naja, was bei der Gammaverteilung rauskommt. Was würden Sie denn vorschlagen, was kommt passiert denn bei der Gammaverteilung, wenn Sie Summen von unabhängig gammaverteilten Zufallsvariablen bilden?
Was kommt daraus? Vorschlag gleich ein Lambda, zum Beispiel gleiches Lambda, dann kommt wieder eine Gammaverteilung raus.
Wenn das Lambda verschieden ist, sehen Sie es nicht mehr. Aber wenn Sie das gleiche Lambda haben, kommt wieder eine Gammaverteilung raus. Okay, Fragen soweit? Wir könnten noch, naja, ich könnte jetzt entweder mit der Faltung anfangen oder
ich mache vielleicht doch noch ein Beispiel, ein weiteres Beispiel, weitere Faltungseigenschaft vom allgemeinen Faltung eingehen. Aber das machen wir dann erst beim nächsten Mal. Wir gehen nochmal auf die Chi-Quadratverteilung ein.
Das heißt, ich zeige Ihnen, dass die Summe von Quadraten von n unabhängigen Standardnormalverteilten Zufallsvariablen Chi-Quadrat verteilt ist.
Also Behauptung x1 bis xn, n01. Die Summe ist dann, die Chi-Quadratverteilung hatten wir eingeführt als Gamma ein halb n halbe.
Wie würden Sie denn sowas machen? Ach so, bei der Gelegenheit sollte ich vielleicht noch sagen, wäre ganz nett,
wenn Sie beim nächsten Mal das sechste Kapitel vom Exzerpt mitbringen könnten, weil ich schreibe das nicht mehr alles an. Wir werden das nur im Schnelldurchgang durchgehen. Das sechste Kapitel ist eigentlich prima eine Wiederholung von allen bisherigen, was man so über Wahrscheinlichkeitstheorie wissen könnte, sollte, müsste.
Und dann würde ich Sie das primär durchlesen lassen. Wir besprechen hinterher, was ist neu dran, was ist nicht neu dran. Aber jetzt, wie zeigen wir sowas? Nehmen Sie mal an, Sie haben es schon gezeigt
für n gleich 1. Können Sie dann argumentieren, warum es zu allgemeines n auch gilt?
Also ich würde es ganz gerne nur für n gleich 1 zeigen. Okay, wir wissen, jedes dieser Xi-Quadrat ist dann Gamma ein halben halb verteilt.
Und dann hatten wir gerade eben diese Faltungseigenschaft der Gammaverteilung. Wenn die Summen von zwei Gammaverteilungen bilden mit gleichem Wert vom Lambda, dann kommt wieder eine Gammaverteilung raus,
wo sich einfach die Werte von nu addieren. Das sehen Sie sofort an der Form der charakteristischen Funktion. Das heißt, es genügt das Ganze für n gleich 1 zu zeigen. Und dann der allgemeine Teil folgt mit Eigenschaften von Gamma, von der Gammaverteilung.
Also Nachweis für n gleich 1, also zeigen, Xi-Quadrat ist Gamma ein halb verteilt. Wie machen Sie sowas?
Also Sie haben eine Zufallsvariable und wollen die Verteilung vom Quadrat bestimmen.
Also wir könnten zum Beispiel eine Dichte von Xi-Quadrat bestimmen und zeigen, die Dichte stimmt mit der Dichte von der Gamma ein halben Halbverteilung überein. Wie bestimmen wir eine Dichte von Xi-Quadrat? Sie hatten mal eine Übungsaufgabe, die ich Ihnen auch in der Semestralklausur wieder gestellt habe.
Und da war so ein Tipp vorgegeben, eventuell ist die Verteilungsfunktion sinnvoll. Also wir überlegen uns erstmal die Verteilungsfunktion. Für Xi-Quadrat ist es klar, die Wahrscheinlichkeit, dass Xi-Quadrat kleiner als 0 ist, ist 0.
Weil Xi-Quadrat ist immer größer als 0. Also für Xi-Quadrat größer als 0.
Das können wir jetzt umschreiben als Wahrscheinlichkeit, dass minus Xi-Quadrat kleiner als Minuswurzel aus Xi-Quadrat, kleiner als Xi-Quadrat, kleiner als Wurzel aus Xi-Quadrat ist. Dann kennen wir eine Dichte. Das heißt, ich kann das Ganze umschreiben als Integral von Minuswurzel aus
X1 bis Wurzel aus X1, 1 durch Wurzel 2 Pi, mal ehoch Minus t-Quadrat halbe dt.
Dann kann ich noch die Symmetrie ausnutzen. Dann sehen Sie, da kommt das Integral von 0 bis Wurzel aus X1 raus.
Dann nenne ich F von X1. Und dann bestimme ich mir einen Kandidaten für die Dichte, indem ich F von X1 einfach ableite.
Was ist hier die Ableitung? Das Problem ist, Sie haben da oben im Integral nochmal eine Funktion.
Kettenregel einfach. Das heißt, wir kriegen die innere Ableitung von der Wurzel
X1, die oben steht, und noch den Integranten ausgewertet an der Stelle. Das heißt, wir kommen auf 2 mal 1 durch Wurzel 2 Pi, mal ehoch Minuswurzel aus X1
zum Quadrat, also Minus X1 halbe, mal die innere Ableitung, mal 1 durch 2 mal die Wurzel.
Und jetzt will ich jetzt so schreiben, dass da eine Gammafunktion, die Dichte von der Gammafunktion, da steht. Oder sehen Sie, warum das eine Dichte von der Gamma? Das soll eine Dichte von der Gammafunktion, Gamma einen halben halb sein.
Das heißt, wir hatten so ein ehoch Minus Lambda X1, naja, das ist schon mal richtig. Das Lambda wäre ein halb. Und dann brauche ich X1 hoch Ni minus 1, also Ni wäre ein halb, also X1 hoch Minus ein halb steht auch da.
Und dann muss ich der Rest noch einen Wurgefallen auflösen, da die 2 kurz sich hier weg.
Ja, wissen Sie noch, was die Dichte war? Ich auch nicht mehr. Also, wir müssen irgendwie nachgucken, was die Dichte war. Das steht hier. Also, wir müssen umschreiben, was Lambda hoch Ni. Das wäre, also, wir hätten 1 halb hoch 1 halb, mal X hoch 1 halb, 1 halb minus 1, mal e hoch minus 1 halb X durch Gamma von 1 halb.
Und das Gamma von 1 halb war Wurzel Pi. Das heißt, bei dem Gamma von 1 halb verschwindet die Wurzel Pi. Das X hoch 1 halb minus 1 steht hier. Das e hoch minus 1 halb X steht auch hier.
Wir haben nur noch die Frage, wo taucht das 1 halb hoch 1 halb auf? Ja, das ist 1 durch Wurzel 2, ne?
Ja, und nun? Also, wir haben schon mal gesehen, in der Tat, die Ableitung von der Verteilungsfunktion ist die Dichte von der Gamma-Verteilung. Klasse. Also, jetzt würde ich gerne daraus schließen, X1 hat die gleiche Dichte wie Gamma 1 halb.
Daraus folgt Px1 ist gleich Gamma von 1 halb. Und der Rest folgt dann mit Faltungseigenschaften von der Gamma-Verteilung, die noch vorkommen.
Ist hier unten. Okay. Vorschläge? Also, die Lücke ist noch hier.
Also, wenn wir, Sie argumentieren gerade, wenn wir das haben, X hat die gleiche Dichte wie Gamma von 1 halb, dann ist das klar.
Das ist klar, ne? Weil die Dichte bestimmt zum Beispiel die Verteilungsfunktion eindeutig, aber auch die Verteilung. Aber meine Frage wäre nochmal, wie komme ich auf den hier? Wie sehe ich jetzt, dass Sie in der Tat die gleiche Dichte haben?
Also, wenn wir zeigen könnten, dass überhaupt eine Dichte existiert, dann wären wir fertig, ne? Weil, dann könnten wir argumentieren, die Ableitung der Verteilungsfunktion stimmt fast überall mit der, der Dichte überein. Aber das wissen wir ja dummerweise auch nicht. Also, wir wissen leider auch nicht, dass eine Dichte existiert.
Ne, der Trick wäre, wir argumentieren aus dem, also, ich bestimme ja hier eigentlich die Verteilungsfunktion, ne? Und die Verteilungsfunktion kann ich jetzt schreiben als Integral darüber.
Hauptsache, es ist ein Differential- und Integralrechnung. Und damit hat das Ding die gleiche Verteilungsfunktion wie die Gamma lambda, 1, Gamma 1 halb, 1 halb Verteilung und damit sind wir fertig. Also, die Begründung wäre, da Verteilungsfunktion übereinstimmen.
Und das sehen wir unmittelbar, weil, wenn ich eben dieses F-Strich integriere, von 0 bis x1, dann über diese Funktion, dann kommt da gerade F von x1 minus F von 0 raus und F von 0 ist 0.
Nein, ich behaupte, die Verteilungsfunktionen stimmen überein und die Verteilungsfunktion, die zu dieser Funktion gehört, stimmen mit der anderen Verteilungsfunktion überein. Dann muss es eine Dichte sein.
Damit was die Dichte ist, genügt es ja schon zu zeigen, die Verteilungsfunktion lässt sich darstellen als Integral von 0 bis x über diese Funktion. Okay? Gut, wäre ich fertig für heute und wir sehen uns dann am Donnerstag.