Test de Fisher d'égalité de deux variances

Page d’aide sur l’homonymie

Pour la loi de probabilité, voir Loi de Fisher.

Test de Fisher d'égalité de deux variances
Type
Test statistiqueVoir et modifier les données sur Wikidata
Nom court
(en) F TestVoir et modifier les données sur Wikidata
Nommé en référence à
Ronald Aylmer FisherVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

En statistique, le test F d'égalité de deux variances, est un test d'hypothèse qui permet de tester l'hypothèse nulle que deux lois normales ont la même variance. Il fait partie du grand ensemble de tests appelé "test F".

Le test

Soient deux variables aléatoires indépendantes X N ( m 1 , σ 1 2 ) , Y N ( m 2 , σ 2 2 ) {\displaystyle X\sim {\mathcal {N}}(m_{1},\sigma _{1}^{2}),Y\sim {\mathcal {N}}(m_{2},\sigma _{2}^{2})} et deux échantillons X 1 , , X n 1 {\displaystyle X_{1},\dots ,X_{n_{1}}} , Y 1 , , Y n 2 {\displaystyle Y_{1},\dots ,Y_{n_{2}}} .

Si les moyennes sont inconnues

On veut tester H 0 : σ 1 2 = σ 2 2 , H 1 : σ 1 2 σ 2 2 {\displaystyle H_{0}:\sigma _{1}^{2}=\sigma _{2}^{2},H_{1}:\sigma _{1}^{2}\neq \sigma _{2}^{2}} , si les moyennes m 1 {\displaystyle m_{1}} et m 2 {\displaystyle m_{2}} sont inconnues on les estime par X n 1 ¯ {\displaystyle {\overline {X_{n_{1}}}}} et Y n 2 ¯ {\displaystyle {\overline {Y_{n_{2}}}}}  :

La statistique de test est

Z = S n 1 2 S n 2 2 F ( n 1 1 , n 2 1 ) , {\displaystyle Z={\frac {S_{n_{1}}^{2}}{S_{n_{2}}^{2}}}\sim F(n_{1}-1,n_{2}-1),}

avec

S n 1 2 = 1 n 1 1 i = 1 n 1 ( X i X ¯ n 1 ) 2 {\displaystyle S_{n_{1}}^{2}={\frac {1}{n_{1}-1}}\sum _{i=1}^{n_{1}}\left(X_{i}-{{\bar {X}}_{n_{1}}}\right)^{2}} et S n 2 2 = 1 n 2 1 i = 1 n 2 ( Y i Y ¯ n 2 ) 2 . {\displaystyle S_{n_{2}}^{2}={\frac {1}{n_{2}-1}}\sum _{i=1}^{n_{2}}\left(Y_{i}-{{\bar {Y}}_{n_{2}}}\right)^{2}.}

On rejette (au niveau α {\displaystyle \alpha } ) l'hypothèse nulle si la réalisation de la statistique de test Z {\displaystyle Z} est soit plus grande que le quantile d'ordre 1 α 2 {\displaystyle 1-{\frac {\alpha }{2}}} soit plus petite que le quantile α 2 {\displaystyle {\frac {\alpha }{2}}} de la loi de Fisher correspondante.

Si les moyennes sont connues

On veut tester H 0 : σ 1 2 = σ 2 2 , H 1 : σ 1 2 σ 2 2 {\displaystyle H_{0}:\sigma _{1}^{2}=\sigma _{2}^{2},H_{1}:\sigma _{1}^{2}\neq \sigma _{2}^{2}} , si les moyennes m 1 {\displaystyle m_{1}} et m 2 {\displaystyle m_{2}} sont connues. La statistique de test est alors

Z ~ = S ~ n 1 2 S ~ n 2 2 F ( n 1 , n 2 ) , {\displaystyle {\tilde {Z}}={\frac {{\tilde {S}}_{n_{1}}^{2}}{{\tilde {S}}_{n_{2}}^{2}}}\sim F(n_{1},n_{2}),}

avec

S ~ n 1 2 = 1 n 1 i = 1 n 1 ( X i m 1 ) 2 {\displaystyle {\tilde {S}}_{n_{1}}^{2}={\frac {1}{n_{1}}}\sum _{i=1}^{n_{1}}\left(X_{i}-{m_{1}}\right)^{2}} et S ~ n 2 2 = 1 n 2 i = 1 n 2 ( Y i m 2 ) 2 . {\displaystyle {\tilde {S}}_{n_{2}}^{2}={\frac {1}{n_{2}}}\sum _{i=1}^{n_{2}}\left(Y_{i}-{m_{2}}\right)^{2}.}

On rejette (au niveau α {\displaystyle \alpha } ) l'hypothèse nulle si la réalisation de la statistique de test Z ~ {\displaystyle {\tilde {Z}}} est soit plus grande que le quantile d'ordre 1 α 2 {\displaystyle 1-{\frac {\alpha }{2}}} soit plus petite que le quantile α 2 {\displaystyle {\frac {\alpha }{2}}} de la loi de Fisher correspondante.

Remarque

Initialement, à l'époque où on utilisait des tables des quantiles, le test était souvent présenté en calculant le rapport de la variance la plus grande sur la variance la plus faible, ce qui permettait de ne comparer la valeur de la statistique de test qu'au quantile 1 α 2 {\displaystyle 1-{\frac {\alpha }{2}}} . Dorénavant, puisqu'on n'utilise plus de tables de quantiles mais des logiciels statistiques, cette présentation a perdu de son intérêt.

Propriétés

Ce test est particulièrement sensible à la non normalité[1],[2]. Donc, il existe des alternatives comme le test de Bartlett ou le test de Levene.

Applications

Le test de Chow est une application du test de Fisher pour tester l'égalité des coefficients sur deux populations différentes.

Ce test est utilisé en biologie dans la recherche de QTL.

Implémentation

  • var.testavec R et la librairie "stats"[3]

Articles connexes

Notes et références

  1. G.E.P. Box, « Non-Normality and Tests on Variances », Biometrika, vol. 40, nos 3/4,‎ , p. 318–335 (DOI 10.1093/biomet/40.3-4.318, JSTOR 2333350)
  2. Carol A Markowski et Markowski, Edward P., « Conditions for the Effectiveness of a Preliminary Test of Variance », The American Statistician, vol. 44, no 4,‎ , p. 322–326 (DOI 10.2307/2684360, JSTOR 2684360)
  3. « R: F Test to Compare Two Variances », sur stat.ethz.ch (consulté le )
v · m
Tests de comparaison d'une seule variable
Pour un échantillon
Pour deux échantillons
Pour 3 échantillons ou plus
Tests de comparaison de deux variables
Deux variables quantitatives : Tests de corrélation
Deux variables qualitatives
Plus de deux variables
Tests d'adéquation à une loi
Tests d'appartenance à une famille de lois
Autres tests
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique