F-test
F-test je jakýkoliv statistický test, ve kterém má testová statistika rozdělení F za předpokladu platnosti nulové hypotézy. Nejčastěji se používá při porovnávání statistických modelů, které byly odhadnuty na základě datového souboru, za účelem identifikace modelu, který nejlépe odpovídá populaci, ze které byla data vybrána. Exaktní F-testy vznikají zejména v případě, že modely byly odhadovány za použití metody nejmenších čtverců. Název F-test razil George W. Snedecor na počest Ronalda A. Fishera. Fisher F-statistiku vyvinul jako poměr rozptylů ve 20. letech 20. století.[1]
Běžné použití
Mezi běžné příklady použití F-testů patří následující případy:
- Hypotéza, že se sobě rovnají střední hodnoty dané množiny normálně rozdělených populací, všech se stejnou směrodatnou odchylkou. To je asi nejznámější F- test a hraje důležitou roli v analýze rozptylu (ANOVA).
- Hypotéza, že navrhovaný regresní model dobře odpovídá datům.
- Hypotéza, že data v regresní analýze vyhovují jednoduššímu ze dvou navrhovaných lineárních modelech, který je vnořený do složitějšího.
- Další použití F-testu se týká testování rovnosti rozptylů daného ukazatele ve dvou různých populacích. Test je citlivý na odchylky od normálního rozdělení ukazatele.[2] [3] V analýze rozptylu (ANOVA) se jako alternativní testy používají Leveneův test, Bartlettův test a Brownův-Forsytheův test. Nicméně aplikace kteréhokoli z těchto testů za účelem testování předpokladu homoskedasticity (tj. stejnosti rozptylu ve skupinách) jako předběžného kroku před testováním středních hodnot efektů vede ke zvýšení podílu chyb 1. typu.[4]
Některé další statistické postupy, jako je Schefféova metoda pro mnohonásobná srovnání v lineárních modelech, také používají F-testy.
Výpočet
Většina F-testů vzniká na základě rozkladu rozptylu jakožto součtu čtverců odchylek od střední hodnoty. Testová statistika je poměrem dvou členů úměrných součtům čtverců odrážejících různé zdroje variability. Tyto součty čtverců jsou utvořeny tak, aby statistika měla tendenci být vyšší, pokud nulová hypotéza není pravdivá. Aby statistika mohla mít rozdělení F za předpokladu nulové hypotézy, musejí být oba součty čtverců statisticky nezávislé a každý by měl mít vhodně škálované rozdělení χ². Posledně uvedená podmínka je zaručena, pokud jsou hodnoty analyzované veličiny vzájemně nezávislé a normálně distribuované se stejným rozptylem.
Reference
V tomto článku byl použit překlad textu z článku F-test na anglické Wikipedii.
- ↑ G., Lomax, Richard. Statistical concepts : a second course. 3rd ed. vyd. Mahwah, N.J.: Lawrence Erlbaum Associates 266 s. ISBN 9780805858501, ISBN 0805858504. OCLC 150257419
- ↑ BOX, G. E. P. Non-Normality and Tests on Variances. Biometrika. 1953, s. 318–335. DOI 10.1093/biomet/40.3-4.318. JSTOR 2333350. (anglicky)
- ↑ MARKOWSKI, Carol A; MARKOWSKI, EDWARD P. Conditions for the Effectiveness of a Preliminary Test of Variance. The American Statistician. 1990, s. 322–326. DOI 10.2307/2684360. JSTOR 2684360. (anglicky)
- ↑ SAWILOWSKY, S. Fermat, Schubert, Einstein, and Behrens–Fisher: The Probable Difference Between Two Means When σ12 ≠ σ22. Journal of Modern Applied Statistical Methods. 2002, s. 461–472. Dostupné v archivu pořízeném z originálu dne 2015-04-03. (anglicky)