Statistische Tests: Einführung
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Serientitel | ||
Teil | 15 | |
Anzahl der Teile | 28 | |
Autor | ||
Lizenz | CC-Namensnennung - keine kommerzielle Nutzung - Weitergabe unter gleichen Bedingungen 3.0 Deutschland: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen und nicht-kommerziellen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen und das Werk bzw. diesen Inhalt auch in veränderter Form nur unter den Bedingungen dieser Lizenz weitergeben. | |
Identifikatoren | 10.5446/19656 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
|
1
2
3
4
5
6
7
8
9
10
12
13
14
15
16
19
21
22
23
24
00:00
RuhmasseMengeStichprobeZufallsvariableOptimumSignifikanztestAlgebraFunktion <Mathematik>ParametersystemStochastikBedingter ErwartungswertAussage <Mathematik>MengenfolgeWahrscheinlichkeitsmaßDichte <Physik>Sigma-AlgebraComputeranimation
08:09
ZahlenbereichStichprobeZahlStochastikFunktion <Mathematik>RandomisierungWertevorratRandomisierter TestStatistischer TestSignifikanztestParametersystemMessbare AbbildungSchnitt <Mathematik>GütefunktionAbbildung <Physik>Ende <Graphentheorie>Vorlesung/Konferenz
16:11
ErwartungswertStichprobeStochastikTabelleMultiplikationssatzSignifikanztestArt 2ParametersystemStatistikerBetafunktionGütefunktionVorlesung/Konferenz
24:13
BetafunktionGütefunktionStatistikerSignifikanztestArt 2OptimalitätsbedingungNebenbedingungParametersystemMinimierungOptimumVorlesung/Konferenz
32:02
Einseitiger TestWahrscheinlichkeitsverteilungKlasse <Mathematik>ParametersystemArt 2SignifikanztestBetafunktionZusammenhang <Mathematik>OptimumMinimax-PrinzipHerleitungGütefunktionRisikofunktionDichte <Physik>TestgrößeNormalverteilungFaktorisierungNeumann-ProblemNorm <Mathematik>Optimaler TestVorlesung/KonferenzTafelbild
39:51
MengeMinimumZufallsvariableVerteilungsfunktionWahrscheinlichkeitsmaßZahlAusdruck <Logik>KommensurabilitätReelle ZahlComputeranimationVorlesung/Konferenz
48:07
VerteilungsfunktionMinimumUntere SchrankeWahrscheinlichkeitsmaßStetigkeitZahlObere SchrankeMengeRuhmasseVorlesung/Konferenz
56:23
ZufallsvariableRuhmasseAbbildung <Physik>StichprobeMeterLinieMatching <Graphentheorie>WahrscheinlichkeitsraumDichte <Physik>MengeUnendlichkeitElement <Mathematik>Statistische HypotheseBesprechung/Interview
01:04:39
ErwartungswertZufallsvariableParametersystemNebenbedingungMengeFolge <Mathematik>Vorlesung/Konferenz
01:12:55
ÜbergangErwartungswertZufallsvariableGütefunktionMittelungsverfahrenParameterraumZahlEnde <Graphentheorie>Gewicht <Mathematik>ParametersystemSpieltheorieVorlesung/Konferenz
01:21:11
Computeranimation
Transkript: Deutsch(automatisch erzeugt)
00:07
Ja, ich begrüße Sie recht herzlich zur heutigen Vorlesung. Ich möchte beginnen noch mit dem Nachtrag zum letzten Mal, Beweis vom Neumann-Kriterium. Neumann-Kriterium ging wie folgt. Wir haben eine Familie von Wahrscheinlichkeitsmaßen auf Rn, bn gegeben, das sei Wt, t aus t.
00:25
Dieses Wt habe eine Dichte Ft bezüglich eines sigmaendlichen Maßes. Wir haben eine Funktion S von Rn nach Rm. Wir haben eine Funktion für jedes Teta, Gt von Rm nach R plus und ein festes R von Rn nach R plus.
00:41
Gilt dann, dass wir Ft von X schreiben können als Gt von S von X mal R von X. Für mir fast alle X, für jedes einzelne Teta. So haben wir gezeigt, ist S suffizient für Teta. Zentraler Schritt im Beweis war, für b aus bn haben wir einen bedingten Erwartungswert
01:06
bezüglich des Maßes μ von Indikatorfunktion zu b gegeben, die Sigma-Algebra S o minus 1 von bm definiert. Wobei das μ von a einfach das Integral über a R von x μdx ist.
01:21
Also ich habe eine nicht negative Funktion und definiere mir dann und habe ein Maß μ und definiere mir dann ein weiteres Maß, indem ich Integral über eine Menge bilde R von x μdx. Und dieses Maß haben wir im Definitionsbereich bei der Definition der bedingten Erwartung zugrunde gelegt.
01:40
Und dann habe ich gesagt, dann geht alles genauso wie wenn wir Wahrscheinlichkeitsmaße haben. Dann kam in der Mitte der letzten Vorlesung, hat mich jemand darauf angesprochen, wie sieht es denn aus mit der Existenz dieses bedingten Erwartungswertes? Und da muss ich gestehen, war ich kurzfristig überfragt. Und die genaue Nachfrage war eben, die Existenz beruht auf den Satz von Radonikodin.
02:03
Und der Satz von Radonikodin setzt aber voraus, dass das Maß, bezüglich dem ich eine Dichte bilde, das hier das μ sigmaendlich ist. Das heißt die Frage, habe ich denn an der Stelle μ sigmaendlich erfüllt?
02:21
Und ich muss eine Weile drüber nachdenken, aber in der Tat es ist so. Wenn μ sigmaendlich ist und R ist eine nicht negativ reellwertige Funktion, dann ist auch dieses μ automatisch sigmaendlich. Warum? Na ja, da μ sigmaendlich ist, finden Sie eine Mengenfolge a1, a2 und so weiter, die von unten gegen, in dem Fall war es der R oben N konvergiert und μ-Wert jeweils kleiner und endlich hat.
02:46
Und Sie bilden jetzt eine neue Mengenfolge bN, das wären alle x aus aN, wo R von x kleiner als N ist zum Beispiel. Und dann machen Sie nicht klar, logischerweise dieses bN ist genauso monoton wachsend.
03:00
Sie machen sich klar, μ von bN ist kleiner und endlich, weil der Integrant ist auf allen diesen Mengen kleiner als N und das Maß von der Menge ist beschränkt nach Voraussetzung oder ist endlich. Und drittens, Sie machen sich klar, diese bN konvergieren von unten gegen Rn. Das ist aber auch klar, wenn Sie die aN haben, die von unten gegen Rn haben und Sie nehmen dann davon die
03:25
Einschränkung, wo eben das R von x kleiner als ein N ist, wenn N genügend groß sind, sind da alle x drin. Das heißt, dieses Maß, was ich hier habe, ohne dass ich eine Zusatzvoraussetzung an R zum Beispiel mache, ist automatisch sigmaendlich und ich kann automatisch dann die Existenz dieser bedingten Erwartungen voraussetzen.
03:47
Okay, Fragen soweit? Klingt nicht so. Dann fangen wir heute direkt mit etwas Alten an, nämlich das, was Sie schon längst kennen, Einführung in die statistische Testtheorie.
04:10
Also statistische Testtheorie kennen Sie alle schon aus der Einführung in die Stochastik, aber ich muss wohl oder übel noch mal eine Kurzeinführung machen. Das heißt, wir brauchen den Begriff des statistischen Tests, wir werden ein bisschen erweitern im Vergleich zur Einführung in die Stochastik.
04:23
Ich werde einen randomisierten statistischen Test zulassen. Also bisher waren unsere statistischen Tests immer so, wir haben uns entweder für die eine Hypothese entschieden oder für die andere Hypothese. Und das Neue ist jetzt, wir lassen zu, wir wissen nicht, wie wir uns entscheiden wollen. Deswegen geben wir eine Wahrscheinlichkeit vor, mit der wir uns für die eine Hypothese entscheiden.
04:40
Das heißt, wir führen weiteres Zufallsexperiment durch. Das ermöglicht eine Vollauschöpfung des Niveaus dann sicherzustellen. Und der eigentliche neue Teil wird dann sein, dass wir eben Optimalitätseigenschaften der Tests beweisen, die Sie schon längst kennen, zum Beispiel vom Gaustest. Ok, kommen wir zu Kapitel 4, Statistische Testverfahren.
05:28
Ne, wir kommen zu Kapitel 6, Statistische Testverfahren. Wenn ich ganz ehrlich bin. Ich komme zu Kapitel 6, Statistische Testverfahren. Ich orientiere mich am Skript, also es ist ein Skript enthalten, aber es steht mehr im Skript drin, als ich hier gerade präsentiere.
05:44
Ich mache jetzt für die Aufgabenstellung eigentlich eine Kurzform, weil Sie ja alle schon die Einführung der Stochastik im Prinzip gehört haben. Und als ich die Vorlesungen zum ersten Mal gehalten habe hier, hatte ich das nicht vorausgesetzt. Also wir kommen zu 6.1, Aufgabenstellung.
06:10
Und um das auch ein bisschen abzukutzen, erkläre ich erstmal die Aufgabenstellung, oder nur die Aufgabenstellung, bei Einstichprobenproblemen.
06:37
Wir haben eine Parametermenge, TETA und gleich der leere Menge.
06:42
Wir haben dann für TETA aus TETA ein Wahrscheinlichkeitsmaß WETETA mit einem gewissen Definitionsbereich, den bezeichne ich mal mit RL.
07:14
Wir bekommen eine Stichprobe von unabhängig identisch verteilten Zufallsvariablen, deren Verteilung eben gleich einem WETETA ist für ein TETA.
07:21
Also x1 bis xn seien unabhängig identisch verteilte Zufallsvariablen mit px1 gleich WETETA für ein TETA aus TETA.
07:55
Und wie üblich wollen wir jetzt Aussagen über TETA machen, also soweit war es unser allgemeines Framework.
08:01
Wir wollen Aussagen über TETA machen. Und die Aussagen werden jetzt folgendermaßen sein. Ich partitioniere mein TETA in zwei Mengen, TETA 0 und TETA 1, die beide nicht leer sind. Und ich möchte dann wissen, ob mein wahres TETA, also mein Parameter, der hier zugrunde liegt, in TETA 0 drin liegt oder in TETA 1 drin liegt.
08:25
Also seien TETA 0 und TETA 1 jeweils nicht leere Mengen, zwei Mengen, deren Schnitt sei leer und die Vereinigung sei eben gleich TETA.
08:56
Und die Aufgabenstellung ist jetzt, ausgehend von x1 bis xn wollen wir uns entscheiden, ob die Hypothese H0, TETA ist ein TETA 0,
09:04
die sogenannte Nullhypothese oder die Hypothese H1, TETA ist ein TETA 1 zutrifft.
09:37
Also ausgehend von x1 bis xn wollen wir uns entscheiden, ob Nullhypothese H0, TETA ist ein TETA 0,
09:50
also sogenannte Nullhypothese, oder eben H1, TETA ist ein TETA 1, die Alternativhypothese zutreffen.
10:45
Also uns interessiert jetzt nicht so sehr diesmal der genaue Wert des Parameters, sondern wir wollen nur wissen, liegt er im gewissen Bereich drin, ja oder nein? Übersteigt er einen gewissen Wert, ja oder nein?
11:03
Wir verwenden dazu sogenannte randomisierte statistische Tests, die ich in der nächsten Definition einführe, Definition 6.1, ein randomisierter statistischer Test ist jetzt eine Abbildung vom Wertebereich meiner Schichtprobe nach 0,1,
11:25
messbare Abbildung, ein randomisierter Test ist eine Testphi,
11:55
ist eine Funktion phi, Wertebereich meiner Schichtprobe, ich bezeichne es mal mit x nach 0,1,
12:16
wobei eben x der Wertebereich von x1 bis xn ist. Ja, Wertebereich von x1 bis xn ist der r oben l mal n.
12:30
Das ist der Wertebereich von x1 bis xn. Das heißt, unser randomisierter statistischer Test ist eine Funktion,
12:59
wo wir die Werte unserer Schichtprobe reinstecken und wir kriegen eine Zahl zwischen 0 und 1 raus.
13:13
Und diese Zahl verwenden wir jetzt für die Entscheidung zwischen h0 und h1 wie folgt. Wenn die Zahl gleich 1 ist, entscheiden wir uns für h1. Wenn die Zahl gleich 0 ist, entscheiden wir uns für h0.
13:26
Und wenn die Zahl zwischen 0 und 1 ist, führen wir ein Zufallsexperiment durch, unabhängig von unserer bisherigen Schichtprobe. Also Sie können sich vorstellen, werfen an einer gezinkten Münze vielleicht, wo wir eben genau mit Erfolg eintritt oder wo 1 rauskommt,
13:43
genau mit der Wahrscheinlichkeit, die diese Zahl angibt. Und wenn da 1 rauskommt, entscheiden wir uns für h1. Das heißt, wenn, also man kann es auch anders mit einem Satz sagen, mit Wahrscheinlichkeit phi von x1 bis xn, entscheiden wir uns für h1.
14:08
Also bei Vorliegen von x1 bis xn und Verwendung von phi entscheiden wir uns wie folgt.
14:53
Wir nehmen h1 ab, wir nehmen h1 an bzw. lehnen h0 ab mit Wahrscheinlichkeit phi von x1 bis xn.
15:54
Ok, also neu ist, dass wir eine, im Vergleich zur Einführung in die Stochastik, dass wir eine Randomisierung bei den Tests zulassen.
16:06
Ok, Definition 6.2. Wir führen die Gütefunktion eines Tests ein. Die Gütefunktion wird letzten Endes genau die Wahrscheinlichkeit sein, dass bei, also es ist eine Funktion von theta, wird bei vorliegendes Parameter theta genau die Wahrscheinlichkeit sein, dass, wenn die Stichprobe in
16:24
der Tat die Verteilung W theta hat, dass wir uns dann für h1 entscheiden. Definition 6.2. Ist phi randomisierter statistischer Test, so heißt beta phi Funktion von theta nach 0,1.
16:43
Beta phi von theta ist gerade der Erwartungswert bei warmen Parameter theta von phi von x1 bis xn die Gütefunktion des Tests phi.
17:07
Ist phi randomisierter statistischer Test, so heißt beta phi.
17:20
Beta phi von theta ist gerade der Erwartungswert bei warmen Parameter theta von phi von x1 bis xn die Gütefunktion des Tests phi.
18:44
Es gilt, wenn wir uns überlegen, dieses beta phi von theta ist ja nach
19:01
Definition der Erwartungswert bei warmen Parameter theta von dem phi von x1 bis xn. Das phi von x1 bis xn, habe ich gesagt, ist ja gerade die Wahrscheinlichkeit bei warmen Parameter theta, dass phi zur Annahme von h1 führt, gegeben die x1 bis xn.
19:50
Ja, und dann sehen Sie, der Erwartungswert von dieser bedingten Wahrscheinlichkeit ist einfach die totale Wahrscheinlichkeit nach Definition der bedingten Wahrscheinlichkeit. Das heißt, hier kommt die Wahrscheinlichkeit raus über ein Parameter theta, das phi zur Annahme von h1 führt.
20:55
Was ich jetzt als nächstes brauche, ist was, was ich auch schon aus der Einführung in die Stochastik kenne. Ich brauche die Bezeichnung für Fehler erster Art und Fehler zweiter Art.
21:03
Wir überlegen uns mal dazu, was sind die möglichen Fälle bei Anwenden eines Testes. Und das können Sie sich halt mit der Tabelle klar machen.
21:21
Entweder h0 ist richtig oder h0 ist falsch. H0 ist richtig. Oder ich schreibe hier h1 ist richtig.
21:45
Und dann können wir uns entweder für h0 oder für h1 entscheiden. Entscheidung für h0.
22:12
Und dann sehen Sie, wenn eben h0 richtig ist und wir entscheiden uns für h0, dann ist das richtig.
22:22
Und genauso, wenn h1 richtig ist und wir entscheiden uns für h1, ist es auch richtig. Und die beiden anderen Sachen sind natürlich falsch. Also wenn h0 richtig ist, wir entscheiden uns für h1, haben wir einen Fehler gemacht. Wenn h1 richtig ist, wir entscheiden uns für h0, haben wir Fehler gemacht.
22:41
Und der Fehler oder die Entscheidung, diese falsche Entscheidung, dass h0 richtig ist, aber wir haben uns für h1 entschieden, die heißt, das ist der sogenannte Fehler erster Art. Das wäre falsch.
23:07
Und das andere ist entsprechend der Fehler zweiter Art.
23:35
Und das sind einfach Bezeichnungen, die man sich merken muss. Also in der Testtheorie, dummerweise.
23:40
Also klar, man kann sich merken, es gibt einen Fehler erster Art, es gibt einen Fehler zweiter Art. Aber irgendwie kenne ich keine Regel, warum man sich merken soll, warum das der Fehler erster Art ist und das der Fehler zweiter Art. Aber man merkt sich am besten diese Tabelle und das, was man zuerst einträgt, nämlich den Fehler hier, ist der Fehler erster Art, das ist der Fehler zweiter Art.
24:13
Gut, machen wir weiter mit Notationen. Also damit gilt, für Theta aus Theta0 ist dieses Beta Phi von Theta ja die Wahrscheinlichkeit für die Annahme von h1.
24:24
Das ist damit gerade die Wahrscheinlichkeit, dass ein Fehler erster Art auftaucht, wenn Beta der wahre Parameter ist. Damit für Theta aus Theta0 ist dieses Beta Phi von Theta die
24:56
Wahrscheinlichkeit für das Auftreten eines Fehlers erster Art bei vorliegendes Parameters Theta.
25:35
Also das ist eine Fehlerwahrscheinlichkeit erster Art, wobei eben zu beachten ist, es gibt nicht eine Fehlerwahrscheinlichkeit erster Art, sondern es gibt für jeden einzelnen Wert aus Theta0 eine andere Fehlerwahrscheinlichkeit erster Art.
25:46
Es gibt also viele Fehlerwahrscheinlichkeiten erster Art. Aber das sind die ganzen Fehlerwahrscheinlichkeiten erster Art, kann ich ablesen aus der Gütefunktion. Analog für Theta aus Theta1 ist ja dieses Beta Phi von Theta die Wahrscheinlichkeit,
26:05
dass wir uns für 1 entscheiden, gerade die Wahrscheinlichkeit, dass kein Fehler erster Art auftaucht. Das heißt, 1 minus Beta Phi von Theta ist dann die Wahrscheinlichkeit für das Auftreten eines Fehlers zweiter Art bei vorliegendes Parameters Theta.
26:37
Für Theta aus Theta1 ist 1 minus Beta Phi von Theta die
26:40
Wahrscheinlichkeit für das Auftreten eines Fehlers zweiter Art bei vorliegendes Parameters Theta.
27:36
Und wenn Sie es so betrachten, dann sehen Sie eigentlich, was die ideale Gütefunktion wäre. Die ideale Gütefunktion wäre eben 0 für Theta aus Theta0 und wäre 1 für Theta aus Theta1.
27:49
Und Sie wissen schon aus der Einführung die Stochastik, so eine Gütefunktion wird im Allgemeinen nicht existieren. Das werden Sie in aller Regel nicht hinbekommen. Und deswegen strebt man jetzt in der Testtheorie oder formuliert man dann ein Optimalitätskriterium in der
28:06
Testtheorie eben nicht mehr so, dass diese ideale Gütefunktion rauskommen soll, weil das schafft man eigentlich nicht. Also allgemeines Problem ist, wir haben hier viele verschiedene Fehler, die wir eigentlich gleichzeitig minimieren wollen.
28:22
Und insbesondere die Minimierung der Fehler erster Art und gleichzeitig Minimierung der Fehler zweiter Art widerspricht sich. Das kriegen wir nicht gleichzeitig hin. Also im Allgemeinen existiert kein Test, der die Fehlerwahrscheinlichkeiten erster und zweiter Art gleichmäßig minimiert.
29:17
Wenn Sie so einen Test hätten, dann müssten die ganzen Fehlerwahrscheinlichkeiten erster Art gleich 0 sein,
29:23
weil Sie können ganz einfach einen Test hinschreiben, wo die Fehlerwahrscheinlichkeiten erster Art gleich 0 sind. Sie entscheiden sich einfach immer für H0. Sie können genauso einfach einen Test hinschreiben, wo die Fehlerwahrscheinlichkeiten zweiter Art alle gleich 0 sind, nämlich Sie entscheiden sich ganz egal, was Ihr Datenmaterial ist, immer für H1.
29:41
Also wenn Sie jetzt einen Test hätten, der die Fehlerwahrscheinlichkeiten erster und zweiter Art gleichmäßig minimiert, dann bräuchten Sie eben genauso einen Test. Fehlerwahrscheinlichkeiten erster Art sind alle gleich 0, Fehlerwahrscheinlichkeiten zweiter Art sind alle gleich 0, gleichzeitig das geht in aller Regel nicht.
30:06
Okay, was wir stattdessen machen, wir schwächen das Optimalitätskriterium ab. Das machen wir in Definition 6.3. Wir verwenden sogenannte Tests zum Niveau Alpha. Da beschränken wir die Fehlerwahrscheinlichkeiten erster Art, denen wir eine Schranke vorgeben, zum Beispiel 5 Prozent.
30:20
Und dann nur noch Tests angucken, wo diese Fehlerwahrscheinlichkeiten erster Art kleiner gleich diesem Alpha sind, kleiner gleich diesen 5 Prozent und zwar alle Fehlerwahrscheinlichkeiten erster Art. Und dann suchen wir unter dieser Nebenbedingungen einen Test, der die Fehlerwahrscheinlichkeiten zweiter Art gleichmäßig minimiert. Und der Witz ist eben, solche Tests finden Sie dann. Solche Tests gibt es.
30:40
Okay, gibt's Definition 6.3. Sei Phi randomisierter statistischer Test, dann Alpha zwischen 0 und 1.
31:12
Phi ist Test zum Niveau Alpha, falls für alle Beta aus, für alle Theta aus Theta 0 eben Beta Phi von Theta kleiner gleich Alpha ist.
31:46
Das heißt eben, alle Fehlerwahrscheinlichkeiten erster Art sind kleiner gleich Alpha.
32:16
Und was wir dann suchen, ist der sogenannte gleichmäßig beste Test zum Niveau Alpha.
32:21
Das ist ein Test zum Niveau Alpha, der unter allen Tests zum Niveau Alpha die Fehlerwahrscheinlichkeiten zweiter Art gleichmäßig minimiert. Also Phi ist gleichmäßig bester Test zum Niveau Alpha, genau dann, wenn Phi Test zum Niveau Alpha ist.
33:12
Und für alle Tests, Phi quer zum Niveau Alpha gilt, für alle Beta aus, für alle Theta aus Theta 1.
33:41
Ich gucke mir die Fehlerwahrscheinlichkeit erster Art von Phi bei vorliegendes Parameter Theta an. Das ist 1 minus Beta Phi von Theta. Das ist die Fehlerwahrscheinlichkeit zweiter Art.
34:11
Und diese Fehlerwahrscheinlichkeit zweiter Art von Phi soll eben kleiner gleich als der entsprechende Wert von Phi quer sein.
34:36
Und das soll simultan für alle Fehlerwahrscheinlichkeiten zweiter Art, also für alle Theta
34:42
aus Theta 1 und alle anderen Tests Phi quer zum Niveau Alpha gelten.
35:03
Und das Ziel ist jetzt, gleichmäßig beste Tests zum Niveau Alpha zu konstruieren.
35:59
Okay, Fragen soweit? Dann hätte ich eine Frage.
36:18
Sehen Sie in Zusammenhang mit den Optimalitätsbegriffen, die wir mal eingeführt haben für Punkt-Jets-Verfahren?
36:25
Da hatte ich so ein Minimax-Prinzip. Ich hatte so ein Bayes-Prinzip. Und ich hatte die Einschränkung der Klasse der betrachteten Verteilungen oder Einschränkung der Klasse der betrachteten Verfahren. So war es. Also im Prinzip war es ja genauso wie mit der Risikofunktion.
36:48
Die Risikofunktion konnten wir auch nicht gleichmäßig minimieren. Genauso wenig können wir hier die Gütefunktion gleichmäßig minimieren.
37:17
Wir schränken die Klasse der Tests dadurch ein, dass wir sagen, wir lassen nur Tests zum Niveau Alpha zu.
37:22
Also eigentlich wäre es die Einschränkung der Klasse der betrachteten Testverfahren, wobei wir auch gleichzeitig dann nur noch die Fehlerwahrscheinlichkeiten zweiter Artens angucken. Aber de facto wären Sie... Nee, stimmt nicht ganz. Also der Test wird nicht gleichzeitig, wenn wir zum Beispiel nachher den einseitigen oder später den einseitigen Gaustest betrachten,
37:44
wird er nicht gleichzeitig alle Fehlerwahrscheinlichkeiten erster Art mit minimieren, weil da finden Sie einfach einen Test zum Niveau Alpha, der konstant Null ist und der hat dann Fehlerwahrscheinlichkeit erster Art alle gleich Null. Aber wenn Sie noch fordern, dass das Niveau an einer einzigen, an der...
38:01
Also für einen einseitigen Test theta kleiner gleich theta Null versus theta größer als theta Null an der Stelle theta Null voll ausgeschöpft wird, wird der einseitige Gaustest sogar noch die Fehlerwahrscheinlichkeiten erster Art mit minimieren gleichmäßig. Okay. Und was wir jetzt eben die nächsten Stunden machen, also heute fange ich an.
38:23
Ich stelle Ihnen erstmal die klassische Neumann und Pearson Theorie vor. Wir fangen an mit dem Fundamental immer von Neumann und Pearson. Da werden wir voraussetzen, dass theta Null und theta Eins jeweils nur aus einem einzigen Parameter bestehen. Also ein Spezialfall und werden dafür einen optimalen Test konstruieren.
38:43
Und das wird gehen, indem wir uns... Wir werden noch voraussetzen, dass W theta Dichten hat und wir werden diese Dichten angucken und daraus den optimalen Test herleiten. Dann werden wir das hochziehen auf eine sogenannte Klasse mit monotonen Dichtenquotienten. Und dann könnte ich es noch immer weiter hochziehen, aber das werde ich dann... Und damit werden wir dann zum Beispiel die Optimalität vom einseitigen Gaustest beweisen oder auch vom binomial-Test.
39:06
Von den beiden werden wir wirklich zeigen, das ist ein gleichmäßig bester Test zum Niveau alpha. Und dann könnte ich anfangen, ich ziehe es noch weiter hoch auf den... Auf den zweiseitigen Test und so weiter. Aber... Naja, das ist wieder so eine endlose Sache. Also wir könnten einen Test, der nächste Test, noch einen Test und die Theorie immer allgemeiner machen.
39:24
Aber da werde ich dann irgendwann abbrechen. Also ich werde noch ein bisschen Tests im Zusammenhang mit Normalverteilungen vorstellen. Da werden wir primär eben uns die Prüfgrößen angucken und gucken, was ist die Verteilung der Prüfgröße. Und die Niveaubedingungen nachrechnen. Der Rest wird plausibel sein.
39:40
Okay, mache ich jetzt fünf Minuten Pause, wir machen dann um 10.37 Uhr weiter. Kommen wir zu Abschnitt 6.2, das Fundamentallämmer von Neumann und Pearson.
40:33
Das erste, was wir brauchen, ist die Definition des sogenannten Alpha-Fraktils einer Verteilung. Das ist die Definition 6.4.
40:49
Sei Q ein Wahrscheinlichkeitsmaß auf B mit Verteilungsfunktion F.
41:11
Das heißt, F von T wäre einfach Q vom halboffenen Intervall von Minus nennendlich bis T.
41:30
Dann heißt Q Alpha die minimale Zahl T aus R mit F von T größer gleich 1 minus Alpha. Ach so, ich brauche noch, sei Alpha aus 0,1.
41:47
Also Alpha sei aus dem offenen Intervall von 0 bis 1. Dann heißt Q Alpha die kleinste reelle Zahl mit F von T größer gleich 1 minus Alpha das Alpha-Fraktil von Q.
42:42
Also ich definiere das Alpha-Fraktil als die kleinste Zahl, wo die Verteilungsfunktion größer gleich 1 minus Alpha ist. Man muss sich jetzt erstmal klar machen, dass das ganze Ding wohl definiert ist. Kann jetzt jemand von Ihnen sagen, warum ist dieses Q Alpha, wenn ich es so definiere, wohl definiert?
43:04
Oder was könnte denn schiefgehen, dass es nicht wohl definiert ist?
43:26
Man braucht, dass die Verteilungsfunktion rechtzeitig stetig ist, aber das erfüllt ja, denn Verteilungsfunktionen sind immer rechtzeitig stetig. Und was zeigen Sie damit? Dass das Infimum auch angenommen wird.
43:41
Und das reicht? Oder Sie brauchen noch mehr? Also vielleicht sollte ich Ihnen einfach erzählen, was wäre denn schlecht bei dieser Definition. Schlecht wäre, wenn die Menge leer wäre. Das wäre irgendwie schlecht. Warum ist die Menge nicht leer? Genau, weil F von T gegen 1 konvergiert.
44:01
Also Bemerkung, Q Alpha ist wohl definiert. Der erste Punkt ist eben, diese Menge ist nicht die leere Menge. Da F von T gegen 1 konvergiert, wird T gegen 1 endlich.
44:22
Das heißt in der Tat, dieses 1 minus Alpha, Alpha habe ich als größer als 0 vorausgesetzt, ist eine Zahl kleiner als 1. Also Sie finden ein T, was da drin ist.
44:48
Also das wäre das erste was Schlechtes. Das zweite was Schlechtes wäre, wenn die Menge nach unten nicht beschränkt wäre. Dann hätten Sie zwar auch ein Infimum, aber das Infimum wäre minusenendlich.
45:02
Also wir brauchen irgendwie, diese Menge ist nach unten beschränkt. Woher wissen wir das?
45:29
Weil F von T gegen 0 konvergiert, wird T gegen minusenendlich als Verteilungsfunktion.
45:46
Und hier brauche ich jetzt, dass dieses Alpha kleiner als 1 ist. Damit ist 1 minus Alpha in der Tat größer als 0. Und jetzt kommt das dritte Argument von Ihnen. Dieses Infimum wird angenommen oder Minimum wird angenommen, weil F rechtzeitig stetig ist.
46:37
Okay, also wohl definiert das ganze Ding.
46:41
Nächste Bemerkung, wenn X eine Zufallsvariable mit Verteilung Q ist, und wir bezeichnen als Q alpha, das ist entsprechend der Alpha-Fraktil von Q, dann können wir die Wahrscheinlichkeiten, dass X größer als Q alpha ist,
47:01
und die Wahrscheinlichkeit, dass X größer als Q alpha ist, durch Ausdrucken. Also Bemerkung ist X Zufallsvariable mit PX gleich Q.
47:24
So gilt. Und was ich behaupte, ist, dass die Wahrscheinlichkeit, dass X größer als Q alpha ist, die ist kleiner gleich Alpha. Und das ist wieder kleiner gleich, heißt die Wahrscheinlichkeit, dass X größer gleich Q alpha ist.
47:54
Okay, sieht jetzt jemand von Ihnen? Oder ein Teil davon?
48:13
Also jetzt würde ich gerne ein Denn da drunter schreiben und die Begründung.
48:45
Naja, überlegen Sie sich mal für diese Ungleichungsbeziehung, wie können Sie denn die Wahrscheinlichkeit, dass X größer als Q alpha, durch die Verteilungsfunktion F von X ausdrücken?
49:02
Das ist 1 minus P von X kleiner gleich Q alpha. Und das ist gerade die Verteilungsfunktion an der Stelle Q alpha. Das heißt, wir haben hier die Wahrscheinlichkeit, dass X größer als Q alpha ist, ist gleich 1 minus, ja jetzt könnte ich kurz schreiben, was ausführlich hin,
49:21
Wahrscheinlichkeit X kleiner gleich Q alpha. Und das ist dann 1 minus F von Q alpha. Und wenn Sie sich jetzt überlegen, das Q alpha war das Minimum von dieser Menge, also Q alpha liegt in dieser Menge drin. Minimum wird ja angenommen. Das heißt F von Q alpha ist größer gleich als 1 minus Alpha.
49:41
Also nach Definition Q alpha und der Beachtung, dass eben Q alpha in der Menge drin liegt, wissen wir, wenn ich das abschätze durch 1 durch 1 minus Alpha, dann habe ich diesen Wert durch seine untere Schranke ersetzt.
50:03
Und wenn ich diesen Wert durch eine untere Schranke, dann wird das ganze Ding kleiner gleich. Das heißt, wir haben hier auf alle Fälle alpha stehen und haben die erste Beziehung gezeigt. Jetzt fehlt die zweite.
50:31
Wie können Sie denn die Wahrscheinlichkeit, dass X größer gleich Q alpha ist, durch die Verteilungsfunktion ausdrücken?
51:08
Also Sie wissen, wenn ich Ihnen die Verteilungsfunktion vorgebe, dann kennen Sie das gesamte Wahrscheinlichkeitsmaß, oder das gesamte Wahrscheinlichkeitsmaß ist festgelegt. Das heißt, Sie müssen eigentlich in der Lage sein, mit Hilfe dieser Verteilungsfunktion diese Wahrscheinlichkeit ausdrücken zu können.
51:23
Und es geht sogar explizit. Aber wie?
51:58
Okay, also Sie schlagen vor, ich schreibe das zweite Punkt,
52:03
machen wir hier vielleicht einen Punkt dran, gründe ich es doch in zwei Zeilen. Zweite Punkt, ich gucke mir die Wahrscheinlichkeit das X größer gleich Q alpha an. Das ist natürlich eins minus die Wahrscheinlichkeit, dass es kleiner ist.
52:30
Und das würde ich jetzt gerne mit der Verteilungsfunktion ausdrücken. Also ich möchte das irgendwie mit Wahrscheinlichkeiten, dass groß X kleiner gleich als ein klein X in Verbindung bringen.
52:45
Sie haben monotonie gesagt, aber das wäre zu grob, das reicht hier nicht.
53:01
Ich kann es umschreiben als Grenzwert. Das heißt, ich mache ein Limes für X gegen Q alpha. Und X soll aber kleiner als Q alpha sein. Von Wahrscheinlichkeit von X kleiner gleich X. Das heißt, ich nehme die Stetigkeit des Wahrscheinlichkeitsmaßes von unten.
53:22
Also diese ganzen Ereignisse konvergieren von unten gegen dieses Ereignis. Wahrscheinlichkeitsmaße waren stetig von unten. Ja, dann sehen Sie, jetzt habe ich das F an der Stelle. Das heißt, jetzt habe ich hier eins minus Limes X gegen Q alpha.
53:43
X kleiner als Q alpha. F an X. Und jetzt kann ich mir die F an X angucken. Ich weiß, wenn X kleiner als Q alpha ist, dann kann es nicht in der obigen Menge drin liegen.
54:03
Weil ansonsten, weil das Q alpha war ja die kleinste Zahl in der obigen Menge. Das heißt, es liegt nicht drin. Das heißt, die Bedingung da oben kann nicht gelten. Das heißt, für X kleiner als Q alpha gilt F an X ist kleiner als eins minus alpha.
54:34
Sonst wäre es ja in der Menge drin. Ja, und dann sehen Sie, dann haben Sie hier einen Limes von lauter Zahlen, die kleiner als alpha sind.
54:40
Das heißt, der Limes ist dann kleiner gleich als eins minus alpha. Und ja, ich will eigentlich gar nicht nach oben abschätzen. Ich will nach unten abschätzen. Und ich kann hier auch nach unten abschätzen. Das heißt, das ganze Ding hier ist kleiner gleich als eins minus alpha. Das heißt, eins minus das ganze Ding ist größer gleich als wenn ich die obere Schranke ziehe.
55:07
Und wir haben es.
55:30
Okay, Fragen dazu?
55:41
Ja, ich kann Sie noch fraktiv raten lassen. Das wäre so die übliche Sache. Macht irgendwelche Zeichnungen. Also ich zeig Ihnen hier Verteilungsfunktionen. Oder ich zeichne eine Verteilungsfunktion auf. Und die Verteilungsfunktion ist monoton. Fängt irgendwie bei null hier irgendwo an.
56:02
Hat vielleicht auch noch irgendwo eine Sprungstelle. Ja, die Sprungstelle ist dann so. Ist vielleicht auch irgendwo konstant. Und dann können wir uns überlegen, wenn ich hier alpha mache, wo ist dann Q alpha?
56:27
Alpha-fraktil. Na ja, vielleicht sollte ich irgendwie, vielleicht sollte ich da eher eins minus alpha machen.
56:46
Dann sieht man es besser. Sonst müssen Sie erst da oben ausrechnen. Also wir machen hier eins minus alpha, wo ist dann... Hier haben wir T, hier haben wir F und T. Wo ist dann das Q alpha?
57:17
Das ist dann der T-Stelle, wo gerade der Funktionswert eins minus alpha rauskommt. Das heißt, ich gehe hier rüber und hätte dann hier Q alpha.
57:30
Das heißt im Prinzip ist es so etwas wie die Umkehrabbildung. Nur wenn ich jetzt irgendwo hingehe, wenn ich hier hingehe,
57:43
und Sie suchen wieder die T-Stelle, dann laufen Sie ins Nichts. Ok, wo sind Sie dann? Wir gehen ein bisschen weiter nach rechts, also wir nehmen die kleinste Stelle, die größer ist. Das heißt, wir wären hier. Hier wären wir hier bei Q alpha.
58:00
Und jetzt bräuchte ich die dritte Farbe. Nehmen wir weiß als dritte Farbe. Und jetzt sehen Sie, die spannende Stelle ist vielleicht noch die hier, wo die genau waagrecht ist.
58:23
Also wenn ich hier eins minus alpha habe, wo ist dann mein Q alpha? Dann treffe ich jetzt diesmal nicht einmal die Funktion, sondern eben an ganz vielen Stellen. Wir nehmen die kleinste an der Stelle.
58:41
Wenn es mehrere Stellen gibt, nehmen wir die kleinste. Wir haben hier ein Q alpha. Ok.
59:03
Sie können sich auch überlegen, können Sie durch die obere Beziehung in der Bemerkung Wahrscheinlichkeit X größer als Q alpha kleiner gleich alpha, kleiner gleich Wahrscheinlichkeit von X größer gleich Q alpha, direkt das alpha-faktil auch bestimmen? Also gilt umgekehrt auch. Geht das für Q alpha, dann ist Q alpha das alpha-faktil.
59:38
Dann müsste man sich irgendwie an dem Bild hier klar machen, ob die Sonderfälle damit erfasst sind.
59:42
Ob Sie den Sonderfall erwischt haben. Oder ob Sie hier mehrere Punkte haben. Oder ob Sie hier mehrere. Na gut, das war immer. Also das entscheidende Frage wäre, ob der hier erfasst ist oder nicht.
01:00:09
Und ich vermute eigentlich nicht, dass der waagrechte Linie erfasst ist. Aber können Sie sich selber überlegen, wäre mein Vorschlag. Okay, jetzt was wir eigentlich machen.
01:00:22
Ich formuliere unser Testproblem nochmal um, dass ich sage, ich habe keine ganze Stichprobe gegeben, sondern ich bekomme nur einen einzigen Wert gegeben und dieser einzige Wert kann meine ganze Stichprobe sein. Das heißt, ich kann sagen, ich beobachte eigentlich nur mein x und mein x kann eigentlich die x1 bis xn sein. Also im Folgenden. Gegeben sei eine Zufallsvariable x auf dem Wahrscheinlichkeitsraum omega ap
01:01:04
nach rnbn mit eben px ist gleich wie theta für ein theta ein theta
01:01:22
und mein theta sei nur zwei elementig. Mit theta 0 sei ungleich theta 1. Und zu testen sei h0, theta ist gleich theta 0,
01:02:01
Versus h1, theta ist gleich theta 1. Also wir machen hier den Spezialfall. Unsere Menge theta 0 besteht nur aus dem kleinen theta 0, Menge theta 1 besteht nur aus theta 1. Und das sind sogenannte einfache Hypothesen.
01:03:04
Okay, mir fehlt noch ein Satz, nämlich dass W theta eine Dichte f theta bezüglich Maß mu hat. Sigma endliches Maß mu, was schreibe ich dann nachher gleich drunter. Also wenn Sie angucken, was ist der Spezialfall, dass ich da nur ein x nehme, ist eigentlich keine Einschränkung, weil ich in das x eben meine x1 bis xn einstecken kann. Aber die eigentliche Einschränkung ist, dass ich hier nur zwei Parameterwerte zulasse.
01:03:51
Also ich schreibe noch dazu, W theta besitze Dichte f theta bezüglich eines Maßes mu für theta aus theta.
01:04:10
Und naheliegenderweise sigma endlich ein Maß mu für theta aus theta.
01:04:49
Und der zentrale Satz aus der Testtheorie ist jetzt der Satz 6.1, das sogenannte Fundamentallämmer von Neumann und Pearson. Wir betrachten das obige Testproblem. Wir betrachten Niveau alpha echt zwischen 0 und 1.
01:05:01
Ich gebe dann erstens eine Bedingung an, wann ein Test ein gleichmäßig bester Test zum Niveau alpha ist. Und zwar ein Test unter der Nebenbedingung, dass das Niveau an der Stelle theta 0 voll ausschöpft. Das heißt, die Fehlerwahrscheinlichkeit erster Art sei genau gleich alpha. Und dann kann ich eine notwendige und hinreichende Bedingung angeben.
01:05:23
Und zweitens zeige ich dann, dass so ein Test existiert. Ok, also Satz 6.1, Fundamentallämmer von Neumann und Pearson.
01:05:59
Betrachtet wird das obige Testproblem, sei alpha zwischen 0 und 1.
01:06:31
Der A-Teil besagt, ein Test phi mit Erwartungswert bei warmen Parametern theta 0 von phi von x gleich alpha ist gleichmäßig bester Test zum Niveau alpha. Genau dann, ein Test phi mit Erwartungswert bei warmen Parametern theta von phi von x gleich alpha
01:07:11
ist gleichmäßig bester Test zum Niveau alpha.
01:07:32
Genau dann, wenn dieses Phi die folgende Bauart hat. Es existiert ein K-Stern aus R plus, sodass für mu fast alle x aus Rn dieses phi von x gleich 1 ist.
01:07:43
Für alle x mit f theta 1 von x größer als K-Stern mal f theta 0 von x. Und phi von x gleich 0 für alle x, wo diese Bedingung mit kleiner erfüllt ist. Also wenn für ein K-Stern aus R plus und mu fast alle x aus Rn ist 1, falls f theta 1 von x größer als K-Stern mal f theta 0 von x.
01:08:47
0, falls f theta 1 von x kleiner als K-Stern mal f theta 0 von x.
01:09:02
Und im Falle, dass f theta 1 von x gleich K-Stern mal f theta 0 von x ist, wird hier keine Aussage gemacht. Dabei egal, ob da 0 oder 1 oder irgendwas dazwischen rauskommt.
01:09:21
Und das ganze Ding muss auch nur für mu fast alle x gelten, aber das ist klar, weil wenn Sie den Test auf einer Nullmenge abändern, dann ändert sich ja der Wert der Gütefunktion, also weder an der Stelle theta 0 noch an der Stelle theta 1.
01:09:49
Also wenn ich hier eine mu Nullmenge habe, dann sind die entsprechenden Werte von der Zufallsvariable x auf dieser mu Nullmenge natürlich eine w theta Nullmenge.
01:10:03
Und das hat dann keinen Einfluss auf diesen Erwartungswert oder den entsprechenden anderen Erwartungswert bewahren Parameter theta 1 von phi von x.
01:10:22
Okay, also in dieser einfachen Situation können wir genau angeben, wie der gleichmäßig beste Test zum Niveau alpha aussehen muss. Und jetzt stellt sich noch die Frage, existiert auch ein Test, der diese Bauart hat und diese Nebenbedingungen erfüllt? Und das sagt Teil B. B sagt, es gibt einen gleichmäßig besten Testvielstern zum Niveau alpha.
01:11:12
Dieser lässt sich folgendermaßen konstruieren. Wir setzen T von x als dichte Pozienten, f theta 1 von x durch f theta Null von x.
01:12:03
Wobei ich sagen muss, was da rauskommt, wenn ich durch Null teile. Also a durch Null setze ich als ein Endlich für a größer Null und Null durch Null setze ich gleich Null.
01:12:24
Wir wählen k Stern als alpha-faktil der Verteilung von T von x bei Warenparameter theta Null.
01:13:07
Wir wählen dann ein Gamma-Stern aus Null 1 mit Wahrscheinlichkeit, dass bei Warenparameter theta Null T von x größer als k Stern ist.
01:13:39
Plus Gamma-Stern mal Wahrscheinlichkeit bei Warenparameter theta Null T von x gleich k Stern.
01:13:50
Das soll gleich alpha sein. Die Bedingung bekommt die Nummer 6 2 und 6 1 war dann diese Form von Phi von x.
01:14:05
Das war hier.
01:14:42
Ja und damit kann ich meinen V-Stern definieren, setze dann.
01:15:02
V-Stern von x nimmt jetzt drei Werte an, nämlich 1 Gamma-Stern und Null. Also 1 nimmt er an, falls T von x größer als k Stern ist.
01:15:26
Gamma-Stern wird angenommen, falls T von x gleich k Stern ist. Und Null ebenfalls, falls T von x kleiner als k Stern ist.
01:15:57
Ja und Sie sehen, in unserem einfachen Problem, dass unser Parameterraum nur aus zwei Parametern besteht,
01:16:05
erschlägt dieser Satz die Situation völlig. Weil A, er gibt uns an, wie wir einen gleichmäßig besten Test zum Niveau alpha finden können. Und B, er sagt alle anderen erfüllen eigentlich die Bauart 6 1.
01:16:21
Und wir werden dann sehen, dass die Bauart 6 1 letzten Endes auf das Ding hier führt. Da habe ich glaube ich keine Nummer mehr gegeben. Aber letzten Endes, das ist auch mehr oder weniger der einzige Test, den es da gibt.
01:16:42
Zwei Bemerkungen dazu. Die erste Bemerkung, die Bedingung 6 2 ist immer erfüllbar. Also Bemerkungen. Aus der Definition des Alpha-Fraktils wissen wir, dass die Wahrscheinlichkeit,
01:17:03
dass die Zufallsvariable größer als das Alpha-Fraktil ist, dass es kleiner gleich alpha ist. Und das wiederum. Nein, dass die Wahrscheinlichkeit, dass die Zufallsvariable größer als das Alpha-Fraktil ist, ist kleiner gleich alpha. Und das ist kleiner gleich als die Wahrscheinlichkeit, dass das größer gleich alpha ist.
01:17:21
Also wegen, das da ist kleiner gleich alpha. Und das ist kleiner gleich als zeta 0 d von x größer gleich k Stern.
01:17:49
Und dieses größer gleich kann ich jetzt umschreiben als größer plus die Wahrscheinlichkeit, dass es gleich ist. Ja, und dann sehen Sie, entweder hier tritten gleich auf, dann ist die Bedingung 6 2 mit Gamma Stern gleich 0 erfüllt.
01:18:22
Oder hier tritten gleich auf, dann ist die Bedingung 6 2 mit Gamma Stern gleich 1 erfüllt. Oder es treten beides mal kleiner auf, dann ist aber die eine Zahl kleiner, die andere größer. Das heißt, wenn ich hier diese 1 absenke langsam auf die 0, komme ich irgendwo auf einen Wert, der gleich ist.
01:18:40
Also wegen dem existiert Gamma Stern aus 0 1, sodass 6 2 gilt.
01:19:07
Und letzte Bemerkung, unser Test Phi Stern schöpft das Niveau an der Stelle theta 0 voll aus.
01:19:21
Wenn wir uns angucken, was ist der Erwartungswert, was ist die Gütefunktion an der Stelle theta. Naja, Sie haben eine Zufallsvariable mit drei Werten, 1 Gamma Stern und 0. Das heißt, der Erwartungswert ist gewichtete Mittel von diesen drei Werten.
01:19:42
Gewichte sind die jeweiligen Wahrscheinlichkeiten, die 0 kann nicht wegfallen lassen. Das heißt, das ist einmal die Wahrscheinlichkeit bei Warenparameter theta 0 von T von x größer K Stern plus Gamma Stern.
01:20:09
Und das ist nach Voraussetzung 6 2 jetzt gerade gleich Alpha. Und dann sehen Sie, wegen dem schöpft Phi Stern das Niveau an der Stelle theta gleich theta 0 voll aus.
01:20:54
Okay, Fragen soweit. Dann haben wir den perfekten Punkt für den Übergang für die nächste Stunde.
01:21:05
Ich weiß dann, die nächste Stunde zu Anfang des Fundamentallenners von Neumann-Piersen. Dankeschön.