Loi du χ²

Page d’aide sur l’homonymie

Pour les méthodes expérimentales, voir Test du χ2 et méthode des moindres carrés.

Loi du χ2
Image illustrative de l’article Loi du χ²
Densité de probabilité

Image illustrative de l’article Loi du χ²
Fonction de répartition

Paramètres k N 0 {\displaystyle k\in \mathbb {N} _{0}} degrés de liberté
Support x [ 0 , + [ {\displaystyle x\in [0,+\infty [\,}
Densité de probabilité ( 1 / 2 ) k / 2 Γ ( k / 2 ) x k / 2 1 e x / 2 {\displaystyle {\frac {(1/2)^{k/2}}{\Gamma (k/2)}}x^{k/2-1}{\rm {e}}^{-x/2}\,}

Γ {\displaystyle \Gamma } est la fonction gamma

Fonction de répartition γ ( k / 2 , x / 2 ) Γ ( k / 2 ) {\displaystyle {\frac {\gamma (k/2,x/2)}{\Gamma (k/2)}}\,}

γ {\displaystyle \gamma } est la fonction gamma incomplète

Espérance k {\displaystyle k\,}
Médiane k 2 / 3 {\displaystyle \approx k-2/3\,}
Mode k 2 {\displaystyle k-2\,} si k 2 {\displaystyle k\geq 2\,}
Variance 2 k {\displaystyle 2\,k\,}
Asymétrie 8 / k {\displaystyle {\sqrt {8/k}}\,}
Kurtosis normalisé 12 k {\displaystyle {\frac {12}{k}}\,}
Entropie k 2 + ln ( 2 Γ ( k / 2 ) ) + ( 1 k / 2 ) ψ ( k / 2 ) {\displaystyle {\frac {k}{2}}\!+\!\ln(2\Gamma (k/2))\!+\!(1\!-\!k/2)\psi (k/2)}
Fonction génératrice des moments ( 1 2 t ) k / 2 {\displaystyle (1-2\,t)^{-k/2}} pour 2 t < 1 {\displaystyle 2\,t<1\,}
Fonction caractéristique ( 1 2 i t ) k / 2 {\displaystyle (1-2\,i\,t)^{-k/2}\,}
modifier Consultez la documentation du modèle

En statistiques et en théorie des probabilités, la loi du χ2 centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes.

La loi du χ2 est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ².

La loi du χ² non centrée généralise la loi du χ2.

Définition et caractéristiques

Définition

Soient k variables aléatoires X1, ... , Xk indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} de moyenne 0 et d'écart-type 1. Alors par définition la variable X définie par

X := i = 1 k X i 2 {\displaystyle X:=\sum _{i=1}^{k}X_{i}^{2}}

suit une loi du χ2 à k degrés de liberté. La loi de X est notée χ2 (k)[réf. nécessaire] ou χ 2
k
.

Caractéristiques

La densité de probabilité de X notée fX est :

f X ( x ; k ) = 1 2 k 2 Γ ( k 2 ) x k 2 1 e x 2 {\displaystyle f_{X}(x;k)={\frac {1}{2^{\frac {k}{2}}\Gamma ({\frac {k}{2}})}}x^{{\frac {k}{2}}-1}{\rm {e}}^{-{\frac {x}{2}}}\,} pour tout x positif

Γ est la fonction gamma[1].

Sa fonction de répartition est :

F X ( x ; k ) = γ ( k 2 , x 2 ) Γ ( k 2 ) {\displaystyle F_{X}(x;\,k)={\frac {\gamma ({\frac {k}{2}},\,{\frac {x}{2}})}{\Gamma ({\frac {k}{2}})}}} γ ( s , t ) {\displaystyle \gamma (s,t)} est la fonction gamma incomplète.

Approximation

Conformément au théorème central limite, lorsque k est « grand » (k > 100[2]), la loi d'une variable de χ2, somme de variables aléatoires indépendantes, peut être approchée par une loi normale d'espérance k et de variance 2k.

D'autres fonctions en χ2 peuvent converger plus rapidement vers la loi normale, notamment en ayant X ~ χ2(k) et k > 30 :

  • 2X2k–1 peut être approchée par une loi normale centrée réduite (approximation de Ronald Aylmer Fisher[3]).
  • 3X/k peut être approchée par une loi normale de moyenne 1 – 2/9k et de variance 2/9k (approximation de Wilson et Hilferty, 1931[4]).
  • X peut être approchée par 1 , 37266 + 1 , 06807 k + ( 2 , 13161 0 , 0458 k ) log 10 ( α ) {\textstyle -1,37266+1,06807{\sqrt {k}}+(2,13161-0,0458{\sqrt {k}}){\sqrt {-\log _{10}(\alpha )}}} (approximation de Hoaglin[5]).

Utilisation

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Cette loi est principalement utilisée dans le test du χ2 basé sur la loi multinomiale pour vérifier l'adéquation d'une distribution empirique à une loi de probabilité donnée. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).

Elle est également utilisée pour établir des intervalles de confiance concernant la variance ou l'écart-type de variables aléatoires gaussiennes.

Histoire

Cette loi a été décrite pour la première fois par le géodésiste et statisticien allemand Friedrich Robert Helmert dans des articles de 1875–6,[6][7] où il a calculé la distribution d'échantillonnage de la variance de l'échantillon d'une population normale. Ainsi, en allemand, cela était traditionnellement connu sous le nom de Helmert'sche ("Helmertien") ou "distribution d'Helmert".

Cette loi a été redécouverte indépendamment par le mathématicien anglais Karl Pearson dans le contexte de la qualité de l'ajustement, pour lequel il a développé son test du χ² de Pearson, publié en 1900, avec une table calculée de valeurs publiées dans (Elderton 1902), recueillies dans (Pearson 1914, Table XII). Le nom "chi-carré" dérive finalement de la sténographie de Pearson pour l'exposant dans une loi normale multidimensionnelle avec la lettre grecque Chi, écrivant 1/2χ2 pour ce qui apparaîtrait dans la notation moderne comme 1/2xTΣ−1x' (Σ étant la matrice de covariance)[8].

L'idée d'une famille de "distributions du chi carré", cependant, n'est pas due à Pearson mais est apparue comme un développement ultérieur dû à Ronald Aylmer Fisher dans les années 1920[6].

Liens avec d'autres lois

Soient Xi des variables aléatoires indépendantes suivant des lois normales d'espérance μi et de variance σi2.

Différentes lois du χ et χ2
Lois en fonction de variables de loi normale
loi du χ2 i = 1 k ( X i μ i σ i ) 2 {\displaystyle \sum _{i=1}^{k}\left({\frac {X_{i}-\mu _{i}}{\sigma _{i}}}\right)^{2}}
Loi du χ2 non centrée i = 1 k ( X i σ i ) 2 {\displaystyle \sum _{i=1}^{k}\left({\frac {X_{i}}{\sigma _{i}}}\right)^{2}}
Loi inverse-χ2 [ i = 1 k ( X i μ i σ i ) 2 ] 1 {\displaystyle \left[\sum _{i=1}^{k}\left({\frac {X_{i}-\mu _{i}}{\sigma _{i}}}\right)^{2}\right]^{-1}}
loi du χ i = 1 k ( X i μ i σ i ) 2 {\displaystyle {\sqrt {\sum _{i=1}^{k}\left({\frac {X_{i}-\mu _{i}}{\sigma _{i}}}\right)^{2}}}}
loi du χ non centrée i = 1 k ( X i σ i ) 2 {\displaystyle {\sqrt {\sum _{i=1}^{k}\left({\frac {X_{i}}{\sigma _{i}}}\right)^{2}}}}

Si X est une variable aléatoire de loi normale centrée et réduite et Y suit une loi du χ2 à n degrés de liberté, X et Y étant indépendantes, alors X Y / n {\displaystyle {\frac {X}{\sqrt {Y/n}}}} suit une loi de Student à n degrés de liberté.

Si X suit une loi du χ2 à n degrés de liberté, et Y une loi du χ2 à m degrés de liberté, et si X et Y sont indépendantes, alors X / n Y / m {\displaystyle {\frac {X/n}{Y/m}}} suit une loi de Fisher à n et m degrés de liberté.

Table de valeurs des quantiles

Le tableau suivant fournit les valeurs de certains quantiles de la loi du χ2 pour différents degrés de liberté k. Pour chaque valeur de α, le quantile donné est tel que la probabilité pour qu'une variable suivant une loi de χ2 à k degrés de liberté lui soit inférieur est de 1 – α. Par exemple, pour 1 – α = 0,95 et k = 7, si X suit une loi de χ2 à 7 degrés de liberté, on lit dans la table que P ( X 14 , 07 ) = 0 , 95. {\displaystyle \mathbb {P} (X\leqslant 14,07)=0,95.}

Degrés de liberté Valeur du χ2
1 0.004 0.02 0.06 0.15 0.46 1.07 1.64 2.71 3.84 6.63 10.83
2 0.10 0.21 0.45 0.71 1.39 2.41 3.22 4.61 5.99 9.21 13.82
3 0.35 0.58 1.01 1.42 2.37 3.66 4.64 6.25 7.81 11.34 16.26
4 0.71 1.06 1.65 2.20 3.36 4.88 5.99 7.78 9.49 13.28 18.47
5 1.14 1.61 2.34 3.00 4.35 6.06 7.29 9.24 11.07 15.09 20.52
6 1.63 2.20 3.07 3.83 5.35 7.23 8.56 10.64 12.59 16.81 22.46
7 2.17 2.83 3.82 4.67 6.35 8.38 9.80 12.02 14.07 18.48 24.32
8 2.73 3.49 4.59 5.53 7.34 9.52 11.03 13.36 15.51 20.09 26.12
9 3.32 4.17 5.38 6.39 8.34 10.66 12.24 14.68 16.92 21.67 27.88
10 3.94 4.87 6.18 7.27 9.34 11.78 13.44 15.99 18.31 23.21 29.59
11 4.57 5.58 6.99 8.15 10.3 12.9 14.6 17.3 19.7 24.7 31.3
12 5.23 6.30 7.81 9.03 11.3 14.0 15.8 18.5 21.0 26.2 32.9
13 5.89 7.04 8.63 9.93 12.3 15.1 17.0 19.8 22.4 27.7 34.5
14 6.57 7.79 9.47 10.8 13.3 16.2 18.2 21.1 23.7 29.1 36.1
15 7.26 8.55 10.3 11.7 14.3 17.3 19.3 22.3 25.0 30.6 37.7
1 – α 0.05 0.1 0.2 0.3 0.5 0.7 0.8 0.9 0.95 0.99 0.999

Lien avec les méthodes bayésiennes

Dans son ouvrage Décisions rationnelles dans l'incertain (1974), qui constitue une somme des techniques bayésiennes dont la grande émergence se fait à cette époque, le professeur Myron Tribus montre que le χ2 constitue un exemple de passage à la limite du psi-test (test de plausibilité) bayésien lorsque le nombre de valeurs en présence devient grand - ce qui est la condition de travail des statistiques classiques, mais pas nécessairement des bayésiennes. Le raccord entre les deux disciplines, qui sont asymptotiquement convergentes, est ainsi complet.

L'ouvrage de référence de Jaynes en donne également une démonstration en page 287[9].

Voir aussi

Articles connexes

Notes et références

  1. La loi de X est un cas particulier de loi plus générale dite loi Gamma.
  2. (en) Eric J. Beh, « Exploring How to Simply Approximate the P-value of a Chi-Squared Statistic », Austrian Journal of Statistics, vol. 47,‎ , p. 63–75 ([http://www.ajs.or.at/ doi:10.17713/ajs.v47i3.757 lire en ligne])
  3. (en) Ronald Aylmer Fisher, Statistical Methods for Research Workers, 2,
  4. (en) Edwin B. Wilson et Margaret M. Hilferty,, The distribution of Chi-square, Department of vital statistics, Harvard school of public health, , p. 687 (lire en ligne)
  5. (en) DC Hoaglin, « Approximations for Chi-squared Percentage Points », Journal of the American Statistical Association, vol. 2,‎ , p. 508 – 515
  6. a et b Hald 1998, 27. Distributions d'échantillonnage sous normalité, p. 633–692.
  7. (de) Friedrich Robert Helmert, Zeitschrift für Mathematik und Physik, , 192–218 p. (lire en ligne), « Ueber die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und über einige damit im Zusammenhange stehende Fragen »
  8. (en) R. L. Plackett, « Karl Pearson and the Chi-Squared Test », International Statistical Review, vol. 51, no 1,‎ , pp. 59-72 (JSTOR 1402731) Voir aussi Jeff Miller, Early Known Uses of Some of the Words of Mathematics.
  9. Introduction du livre

Bibliographie

  • H. O. Lancaster (1969) The Chi-squared Distribution, New York: Wiley.
v · m
Lois discrètes
à support fini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
Lois absolument continues
à support compact
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
à support semi-infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Lois multidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
  • icône décorative Portail des probabilités et de la statistique