Intervalle de confiance

Page d’aide sur l’homonymie

Ne pas confondre avec l'intervalle de fluctuation ni avec le calcul d'incertitude en physique.

Chaque ligne montre 20 échantillons tirés selon une loi normale de moyenne μ inconnue. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu ; sinon il est rouge.

En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance est un intervalle censé contenir un paramètre inconnu que l'on cherche à estimer (typiquement, une moyenne, la médiane ou la variance). Sa définition est subtile et souvent mal comprise[1]. Un intervalle de confiance est construit par une méthode à partir de données. L'intervalle construit peut contenir la valeur du paramètre inconnu ou pas. On lui accorde un niveau de confiance souvent exprimé sous la forme d'un pourcentage : le plus commun est le niveau à 95%. Cela signifie que la méthode a 95% de chances de produire un intervalle contenant la vraie valeur du paramètre inconnu.

Mathématiquement, un intervalle de confiance est aléatoire, puisque les données le sont. En effet, les données résultent souvent d'une série de mesures indépendantes sur une population. La figure de droite montre un phénomène qui suit une loi normale (une loi dite en cloche) de moyenne μ inconnue à estimer. Les données sont les échantillons tirés aléatoirement. On applique la méthode 20 fois. L'intervalle produit contient des fois μ et des fois il ne le contient pas. Ici, la méthode a un niveau de confiance de 50% donc l'intervalle produit contient μ dans environ la moitié des cas.

En particulier, cette notion permet de définir une marge d'erreur entre les résultats d'un sondage et un relevé exhaustif de la population totale. Pour obtenir un intervalle plus réduit, donc plus précis, sans changer le nombre de sondés, il faut accepter un niveau plus faible, donc un plus grand risque de se tromper. Au contraire, pour réduire le risque d’erreur, on peut élargir l’intervalle.

Attention, la notion d'intervalle de confiance ne doit pas être confondue avec celle d'intervalle de fluctuation. Ce dernier est déterminé par le paramètre et encadre une variable aléatoire. Mais c’est précisément en renversant les inégalités d’un intervalle de fluctuation, issu du théorème central limite ou de l’inégalité de Bienaymé-Tchebychev, que l’on peut obtenir l’expression d’un intervalle de confiance, comme celui qui estime l’espérance d’une loi à partir de la moyenne empirique et d’une majoration de l’écart type.

Histoire

À la fin du XVIIIe siècle, le mathématicien Laplace calcule le taux de natalité[2] sur quelques paroisses et en déduit la population de la France entière à partir du nombre total de naissances, consigné dans les registres de baptêmes de l'année[3]. Mais il va plus loin en joignant à cette évaluation par proportionnalité une estimation de l'erreur commise.

En effet, s'il est théoriquement possible que la valeur observée sur quelques cas particuliers corresponde exactement à la valeur sur l'ensemble de la population, il est théoriquement possible aussi que l'échantillon choisi ne soit pas du tout représentatif. Or le calcul de probabilités, qui s'est développé depuis le XVIe siècle, permet de décrire la probabilité qu'il y ait un écart donné entre ces deux valeurs. En fixant un seuil à cette probabilité, il est alors possible de majorer l'écart.

La dénomination « intervalle de confiance » est due à Jerzy Neyman[4].

Exemple introductif : encadrement d'une proportion

Pour estimer la proportion de personnes qui portent un chapeau, on sélectionne un échantillon. De cet échantillon, on calcule un intervalle de confiance (en vert). Avec une grande probabilité, la réalisation de l'intervalle de confiance contient la vraie proportion (inconnue).

Dans cette section, nous présentons l'intervalle de confiance pour un sondage. On construit d'abord un intervalle de fluctuation, puis un intervalle de confiance.

Contexte

Cherchons à estimer la proportion p réelle de la population se reconnaissant dans une catégorie donnée (qu’elle soit médicale, sociale, politique...). Il n'est pas possible d'avoir l'information pour tous les individus car il y a trop d'individus dans la population. Au lieu de cela, on réalise un sondage. Ainsi, on pose la question à un nombre n d’individus (pas nécessairement différents) tirés au hasard. On calcule ensuite la proportion observée f définie comme le quotient du nombre de réponses positives par le nombre n de personnes sondées. On suppose tout de même que n est suffisamment grand pour profiter de la loi des grands nombres et du théorème central limite. La loi des grands nombres assure qu’il est très probable que la fréquence observée soit proche de la proportion p. Dans la suite, nous allons montrer la formulation suivante :

Formulation simple de l'intervalle de confiance de niveau 95%

proportion réelle [ proportion observée 1 n , proportion observée + 1 n ] {\displaystyle {\text{proportion réelle}}\in \left[{\text{proportion observée}}-{\frac {1}{\sqrt {n}}},{\text{proportion observée}}+{\frac {1}{\sqrt {n}}}\right]}

Autrement dit, le sondage produit une estimation f (la proportion observée) et il y a (au moins) 95% de chances que la vraie valeur p soit dans l'intervalle de confiance [ f 1 n , f + 1 n ] {\displaystyle \left[f-{\frac {1}{\sqrt {n}}},f+{\frac {1}{\sqrt {n}}}\right]} . Dans cette formulation simple, on voit, pour un niveau de confiance fixé (ici 95%), quand le nombre n de personnes sondées augmente, alors l'intervalle de confiance se resserre autour de f . Avant de construire l'intervalle de confiance, construisons un intervalle de fluctuation.

Obtention de l'intervalle de fluctuation

Le nombre de réponses positives suit une loi binomiale de paramètre p. Sa moyenne est n p {\displaystyle np} et l'écart type est n p ( 1 p ) {\displaystyle {\sqrt {np(1-p)}}} . Ainsi la variable f suit une loi paramètre p et d'écart type σ = p ( 1 p ) n {\displaystyle \sigma ={\sqrt {\frac {p(1-p)}{n}}}} . Grâce au théorème central limite, la loi de probabilité de f est proche d’une loi normale de moyenne p et d'écart type σ {\displaystyle \sigma } . Avec cette approximation, on obtient avec une certaine probabilité 1 α {\displaystyle 1-\alpha } , un encadrement de la forme p k σ f p + k σ {\displaystyle p-k\sigma \leq f\leq p+k\sigma } , où k est le quantile d'ordre α / 2 {\displaystyle \alpha /2} de la loi normale centrée réduite. Plus précisément, la valeur de k provient des tables de la loi normale centrée réduite. La valeur de et qui est d’autant plus grande k que l’on souhaite un niveau de confiance élevé, ce qui dégrade la précision. En particulier[5], pour un niveau de 90 %, on a k ≈ 1,645, mais pour un niveau de 95 %, on a k ≈ 1,96. L'intervalle [ p k σ , p + k σ ] {\displaystyle [p-k\sigma ,p+k\sigma ]} est appelé intervalle de fluctuation.

De l'intervalle de fluctuation vers l'intervalle de confiance

La résolution des inéquations apparaissant dans l’encadrement de f donne un encadrement[6] de p entre les bornes ( 2 f + k 2 n ) ± k 4 n 2 + 4 f k 2 n 4 f 2 k 2 n 2 ( 1 + k 2 n ) {\displaystyle {\frac {\left(2f+{\frac {k^{2}}{n}}\right)\pm {\sqrt {{\frac {k^{4}}{n^{2}}}+4f{\frac {k^{2}}{n}}-4f^{2}{\frac {k^{2}}{n}}}}}{2\left(1+{\frac {k^{2}}{n}}\right)}}} . Ainsi par un développement asymptotique, on retrouve l’encadrement suivant qui définit l’intervalle de confiance classique : f k f ( 1 f ) n p f + k f ( 1 f ) n {\displaystyle f-k{\sqrt {\frac {f(1-f)}{n}}}\leq p\leq f+k{\sqrt {\frac {f(1-f)}{n}}}} .

La symétrie des relations entre p et f dans ce contexte ne se vérifie pas forcément dans d’autres problèmes d’estimation. En outre, l’expression obtenue repose sur deux approximations successives, de la loi binomiale par la loi normale d’abord, puis de la fraction par les premiers termes du développement asymptotique ensuite.

Les inégalités f ( 1 f ) 1 2 {\displaystyle {\sqrt {f(1-f)}}\leq {\frac {1}{2}}} et k < 2 mènent à l’approximation par un intervalle de confiance légèrement plus grand mais à la formulation plus simple[7] [ f 1 n , f + 1 n ] {\displaystyle \left[f-{\frac {1}{\sqrt {n}}},f+{\frac {1}{\sqrt {n}}}\right]} .

Principe général

On considère une famille de variables aléatoires (X1, ... , Xn), dont la loi conjointe est définie par un ou plusieurs paramètres inconnus. Il s’agit souvent d’un échantillon, c’est-à-dire que les variables sont indépendantes et identiquement distribuées, mais on peut traiter également des familles de variables provenant d’un processus stochastique.

Pour obtenir un intervalle de confiance sur l’un des paramètres λ, on peut essayer de calculer une nouvelle variable aléatoire Y = f(X1, ... , Xn, λ) à partir des précédentes et du paramètre à déterminer, dont la loi soit connue et dont on puisse exprimer des quantiles k1 et k2 tels que la probabilité P ( k 1 < Y < k 2 ) {\displaystyle {\bf {P}}(k_{1}<Y<k_{2})} soit égale (ou supérieure) au niveau de confiance souhaité. La résolution algébrique des inéquations k1 < f(X1, ... , Xn, λ) < k2 peut fournir alors un encadrement de λ qui constitue un intervalle de confiance.

Intervalles de référence

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

La table suivante donne des intervalles de confiance de référence de niveau de confiance 1 α {\displaystyle 1-\alpha } . On considère un échantillon (X1, ... , Xn) où les X i {\displaystyle X_{i}} sont indépendantes et identiquement distribuées. On note μ l'espérance et σ l'écart-type communs aux X i {\displaystyle X_{i}} . On note X ¯ = X 1 + + X n n {\displaystyle {\overline {X}}={\frac {X_{1}+\dots +X_{n}}{n}}} la moyenne empirique.

Hypothèses Asymptotique ? Paramètre estimé Intervalle Informations supplémentaires Sources
X i {\displaystyle X_{i}} suivent une loi normale

σ connu

non μ [ X ¯ η σ n , X ¯ + η σ n ] {\displaystyle \left[{\overline {X}}-\eta {\frac {\sigma }{\sqrt {n}}},{\overline {X}}+\eta {\frac {\sigma }{\sqrt {n}}}\right]} η {\displaystyle \eta } est le quantile d'ordre 1 α / 2 {\displaystyle 1-\alpha /2} de la loi normale centrée réduite [réf. nécessaire]
X i {\displaystyle X_{i}} suivent une loi normale non μ [ X ¯ η S n , X ¯ + η S n ] {\displaystyle \left[{\bar {X}}-\eta {\frac {S}{\sqrt {n}}},{\bar {X}}+\eta {\frac {S}{\sqrt {n}}}\right]} S = V n {\displaystyle S={\sqrt {V_{n}}}} avec la variance empirique corrigée V n = 1 n 1 i = 1 n ( X i X ¯ n ) 2 {\displaystyle V_{n}={\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\bar {X}}_{n})^{2}} , et η {\displaystyle \eta } est le quantile d'ordre 1 α / 2 {\displaystyle 1-\alpha /2} de la loi de Student à n 1 {\displaystyle n-1} degrés de liberté Th. 2.3, premier point, p. 38, dans [8]
σ connu oui μ [ X ¯ η σ n , X ¯ + η σ n ] {\displaystyle \left[{\overline {X}}-\eta {\frac {\sigma }{\sqrt {n}}},{\overline {X}}+\eta {\frac {\sigma }{\sqrt {n}}}\right]} η {\displaystyle \eta } est le quantile d'ordre 1 α / 2 {\displaystyle 1-\alpha /2} de la loi normale centrée réduite [réf. nécessaire]
X i {\displaystyle X_{i}} suivent une loi normale non σ [ S η n 1 , S ξ n 1 ] {\displaystyle \left[S{\sqrt {\frac {\eta }{n-1}}},S{\sqrt {\frac {\xi }{n-1}}}\right]} S = V n {\displaystyle S={\sqrt {V_{n}}}} avec la variance empirique corrigée, η {\displaystyle \eta } et ξ {\displaystyle \xi } sont les quantiles respectifs d'ordre α / 2 {\displaystyle \alpha /2} et 1 α / 2 {\displaystyle 1-\alpha /2} de la loi du chi deux à n 1 {\displaystyle n-1} degrés de liberté Th. 2.3, deuxième point, p. 38, dans [8]
X i {\displaystyle X_{i}} suivent une loi à densité non le quantité d'ordre p [ X ( j ) , X ( k ) ] {\displaystyle [X_{(j)},X_{(k)}]} X ( 1 ) X ( n ) {\displaystyle X_{(1)}\leq \dots \leq X_{(n)}} est une statistique d'ordre, et j k {\displaystyle j\leq k} avec la probabilité d'une binômiale de paramètres n et p donne un nombre entre j et k-1 est plus grande que 1 α {\displaystyle 1-\alpha } Th. 2.1 dans [8]

Démonstrations

Dans cette section, nous démontrons quelques résultats énoncés dans la table ci-dessus.

Loi normale

L’espérance μ et la variance σ 2 {\displaystyle \sigma ^{2}} d’une loi normale peuvent être estimées[9] à partir d’un échantillon (X1, ... , Xn). Dans l'échantillon (X1, ... , Xn), chaque X i {\displaystyle X_{i}} est une variable aléatoire qui suit une loi normale de moyenne μ (ou espérance) et d'écart type σ. On suppose que les variables X i {\displaystyle X_{i}} sont indépendantes et identiquement distribuées.

Intervalle de confiance pour la moyenne quand l'écart type est connu

On cherche l'intervalle de confiance de niveau 1 α {\displaystyle 1-\alpha } pour la moyenne μ {\displaystyle \mu } . On suppose que l'écart type σ {\displaystyle \sigma } est connu. La moyenne empirique X ¯ = X 1 + + X n n {\displaystyle {\overline {X}}={\frac {X_{1}+\dots +X_{n}}{n}}} suit une loi normale de même espérance μ et de variance σ2/n. Ainsi, le quotient n ( X ¯ μ ) σ {\displaystyle {\frac {{\sqrt {n}}({\overline {X}}-\mu )}{\sigma }}} suit la loi normale centrée réduite (loi normale de moyenne 0 et de variance 1). Utilisons maintenant un quantile q α / 2 {\displaystyle q_{\alpha /2}} d'ordre α / 2 {\displaystyle \alpha /2} de la loi normale centrée réduite. La probabilité que q α / 2 n ( X ¯ μ ) σ q α / 2 {\displaystyle -q_{\alpha /2}\leq {\frac {{\sqrt {n}}({\overline {X}}-\mu )}{\sigma }}\leq q_{\alpha /2}} vaut 1 α {\displaystyle 1-\alpha } . Dit autrement, la probabilité que μ q α / 2 σ n X ¯ μ + q α / 2 σ n {\displaystyle \mu -q_{\alpha /2}{\frac {\sigma }{\sqrt {n}}}\leq {\overline {X}}\leq \mu +q_{\alpha /2}{\frac {\sigma }{\sqrt {n}}}} vaut 1 α {\displaystyle 1-\alpha } . En réordonnant les inégalités, la probabilité que X ¯ q α / 2 σ n μ X ¯ + q α / 2 σ n {\displaystyle {\overline {X}}-q_{\alpha /2}{\frac {\sigma }{\sqrt {n}}}\leq \mu \leq {\overline {X}}+q_{\alpha /2}{\frac {\sigma }{\sqrt {n}}}} vaut 1 α {\displaystyle 1-\alpha } . Autrement dit [ X ¯ q α / 2 σ n , X ¯ + q α / 2 σ n ] {\displaystyle \left[{\overline {X}}-q_{\alpha /2}{\frac {\sigma }{\sqrt {n}}},{\overline {X}}+q_{\alpha /2}{\frac {\sigma }{\sqrt {n}}}\right]} est un intervalle de confiance pour le paramètre μ {\displaystyle \mu } de niveau 1 α {\displaystyle 1-\alpha } . Comme X ¯ {\displaystyle {\overline {X}}} est aléatoire, on voit que l'intervalle de confiance est également aléatoire.

Intervalle de confiance pour la moyenne quand l'écart type est inconnu

Le fond de cette section est à vérifier (octobre 2023).
Améliorez-le ou discutez des points à vérifier. Si vous venez d’apposer le bandeau, merci d’indiquer ici les points à vérifier.

On cherche l'intervalle de confiance de niveau 1 α {\displaystyle 1-\alpha } pour la moyenne μ {\displaystyle \mu } lorsque l'écart type σ {\displaystyle \sigma } est inconnu. On estime σ 2 {\displaystyle \sigma ^{2}} par la variance empirique corrigée V n = 1 n 1 i = 1 n ( X i X ¯ n ) 2 {\displaystyle V_{n}={\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\bar {X}}_{n})^{2}} , et on pose S = V n {\displaystyle S={\sqrt {V_{n}}}} . D'après le théorème de Student, T = n X ¯ n μ S {\displaystyle T={\sqrt {n}}{\frac {{\bar {X}}_{n}-\mu }{S}}} suit une loi de Student à n 1 {\displaystyle n-1} degrés de liberté. On considère le quantile t 1 α / 2 n 1 {\displaystyle t_{1-\alpha /2}^{n-1}} d'ordre 1 α / 2 {\displaystyle 1-\alpha /2} de la loi de Student à n 1 {\displaystyle n-1} degrés de liberté. Ainsi, la probabilité d'avoir l'encadrement t 1 α / 2 n 1 T t 1 α / 2 n 1 {\displaystyle -t_{1-\alpha /2}^{n-1}\leq T\leq t_{1-\alpha /2}^{n-1}} est 1 α {\displaystyle 1-\alpha } . Ainsi, en réécrivant l'encadrement, on a une probabilité de 1 α {\displaystyle 1-\alpha } d'avoir X ¯ n t 1 α / 2 n 1 S n < μ < X ¯ n + t 1 α / 2 n 1 S n {\displaystyle {\bar {X}}_{n}-t_{1-\alpha /2}^{n-1}{\frac {S}{\sqrt {n}}}<\mu <{\bar {X}}_{n}+t_{1-\alpha /2}^{n-1}{\frac {S}{\sqrt {n}}}} . L'intervalle de confiance de niveau 1 α {\displaystyle 1-\alpha } est [ X ¯ n t 1 α / 2 n 1 S n , X ¯ n + t 1 α / 2 n 1 S n ] {\displaystyle \left[{\bar {X}}_{n}-t_{1-\alpha /2}^{n-1}{\frac {S}{\sqrt {n}}},{\bar {X}}_{n}+t_{1-\alpha /2}^{n-1}{\frac {S}{\sqrt {n}}}\right]} .

Intervalle de confiance pour la variance quand l'espérance est connue

On cherche l'intervalle de confiance de niveau 1 α {\displaystyle 1-\alpha } pour la variance σ 2 {\displaystyle \sigma ^{2}} en supposons que l’espérance μ est connue. Pour estimer la variance σ 2 {\displaystyle \sigma ^{2}} , on peut calculer l’estimateur T = 1 n i = 1 n ( X i μ ) 2 {\displaystyle T={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu )^{2}} . En multipliant T {\displaystyle T} par n σ 2 {\displaystyle {\frac {n}{\sigma ^{2}}}} , on obtient une somme de carrés de n {\displaystyle n} variables indépendantes qui suivent une loi normale centrée réduite. Ainsi, n T σ 2 {\displaystyle {\frac {nT}{\sigma ^{2}}}} suit une loi du χ² (« khi-deux ») avec n degrés de liberté. L’encadrement par des quantiles k1 < nT/σ2 < k2 donne un intervalle de confiance défini par n T k 2 < σ 2 < n T k 1 {\displaystyle {\frac {nT}{k_{2}}}<\sigma ^{2}<{\frac {nT}{k_{1}}}} .

Intervalle de confiance pour la variance quand l'espérance est inconnue

On cherche l'intervalle de confiance de niveau 1 α {\displaystyle 1-\alpha } pour la variance σ 2 {\displaystyle \sigma ^{2}} en supposons que l’espérance μ est inconnue. On calcule l’estimateur S 2 = 1 n i = 1 n ( X i X ¯ ) 2 {\displaystyle S^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}} , sachant que nS2/σ2 suit une loi du χ² avec (n – 1) degrés de liberté. L’encadrement par des quantiles k1 < nS2/σ2 < k2 donne un intervalle de confiance défini par n S 2 k 2 < σ 2 < n S 2 k 1 {\displaystyle {\frac {nS^{2}}{k_{2}}}<\sigma ^{2}<{\frac {nS^{2}}{k_{1}}}} .

Loi uniforme

Cette section ne cite pas suffisamment ses sources (mars 2024)
Pour l'améliorer, ajoutez des références de qualité et vérifiables (comment faire ?) ou le modèle {{Référence nécessaire}} sur les passages nécessitant une source.

Pour un échantillon (X1, ... , Xn) de variables uniformes sur un intervalle [0, b], la variable M = max(X1, ... , Xn) a pour fonction de répartition F(x) = xn/bn sur le même intervalle, d’où P ( c < M < b ) = 1 α {\displaystyle {\bf {P}}(c<M<b)=1-\alpha } pour c = b nα.

On obtient alors un intervalle de confiance[De quoi ?] défini par M < b < M α–1/n au niveau (1 – α).

Loi exponentielle

Cette section ne cite pas suffisamment ses sources (mars 2024)
Pour l'améliorer, ajoutez des références de qualité et vérifiables (comment faire ?) ou le modèle {{Référence nécessaire}} sur les passages nécessitant une source.
Densités de distributions exponentielles pour différentes valeurs du paramètre λ {\displaystyle \lambda } .

On cherche l'intervalle de confiance de niveau 1 α {\displaystyle 1-\alpha } pour le paramètre λ > 0 inconnu d'une loi exponentielle. On note X est la moyenne empirique calculée à partir d’un échantillon (X1, ... , Xn) de variables exponentielles de paramètre λ > 0. On rappelle que la moyenne de X i {\displaystyle X_{i}} est 1 / λ {\displaystyle 1/\lambda } et sa variance 1 / λ 2 {\displaystyle 1/\lambda ^{2}} . Le théorème central limite permet d’approcher la loi de X ¯ 1 / λ 1 / n λ 2 {\displaystyle {\frac {{\overline {X}}-1/\lambda }{1/{\sqrt {n\lambda ^{2}}}}}} par la loi normale centrée réduite, donc en considérant le quantile k d'ordre α / 2 {\displaystyle \alpha /2} [Information douteuse] de cette loi, on obtient un intervalle de confiance défini par 1 k / n X ¯ < λ < 1 + k / n X ¯ {\displaystyle {\frac {1-k/{\sqrt {n}}}{\overline {X}}}<\lambda <{\frac {1+k/{\sqrt {n}}}{\overline {X}}}} .

Signification

La notion d'intervalle de confiance apparaît lorsqu'on tente d'obtenir des informations synthétiques sur une population que l'on ne connaît pas entièrement. Dans le cas contraire, en statistique descriptive, le problème se résout par des méthodes purement algébriques. Ici il faut associer à la population une loi de probabilité dont la pertinence doit être justifiée. Ceci conduit à interpréter un élément de la population comme une variable aléatoire et un échantillon comme un ensemble de telles variables.

En particulier, la moyenne et la variance, dites empiriques, calculées à partir de l'échantillon selon les règles algébriques applicables en statistique descriptive, sont elles-mêmes des variables aléatoires dont il est possible de calculer la moyenne et la variance, sous réserve d'indépendance des éléments de l'échantillon. Dans certains cas il est même possible de déterminer leur loi de probabilité. C'est ce qu'on appelle l'échantillonnage.

La moyenne empirique et la variance empirique calculées à partir de réalisations d'un échantillon fournissent donc des estimations aléatoires de la moyenne et de la variance de la loi de probabilité associée à la population.

Si on connaît la loi de probabilité d'une estimation on peut donc en déduire, pour une probabilité de non-dépassement donnée, un intervalle de confiance autour de la valeur estimée, défini comme l'intervalle dans lequel la probabilité a priori de l'estimateur est supérieure à une valeur donnée si la valeur réelle se trouve dans cet intervalle.

Ces notions, présentées ici de manière élémentaire, se généralisent dans la théorie des estimateurs.

Applications

Estimation d'une moyenne

Article détaillé : Règle 68-95-99.7.

L'usage le plus simple des intervalles de confiance concerne les populations à distribution normale (en forme de cloche) dont on cherche à estimer la moyenne X. Si on connaît l'écart type σ(X) (ou si on en connaît une estimation assez fiable) de cette distribution, et si on mesure la moyenne x sur un échantillon de taille n pris au hasard, alors

  • l'intervalle [ x ¯ σ ( X ) n ; x ¯ + σ ( X ) n ] {\displaystyle \left[{\overline {x}}-{\frac {\sigma (X)}{\sqrt {n}}};{\overline {x}}+{\frac {\sigma (X)}{\sqrt {n}}}\right]} est un intervalle de confiance de X à environ 68 %
  • l'intervalle [ x ¯ 2 σ ( X ) n ; x ¯ + 2 σ ( X ) n ] {\displaystyle \left[{\overline {x}}-2{\frac {\sigma (X)}{\sqrt {n}}};{\overline {x}}+2{\frac {\sigma (X)}{\sqrt {n}}}\right]} est un intervalle de confiance de X à environ 95 %[10]
  • l'intervalle [ x ¯ 3 σ ( X ) n ; x ¯ + 3 σ ( X ) n ] {\displaystyle \left[{\overline {x}}-3{\frac {\sigma (X)}{\sqrt {n}}};{\overline {x}}+3{\frac {\sigma (X)}{\sqrt {n}}}\right]} est un intervalle de confiance de X à environ 99,7 %

Ces formules sont valables pour des échantillons supposés infinis (n > 100). Dans le cas d'échantillon plus petit, la consultation d'une table de distribution de la loi de Student est nécessaire.

Encore faut-il connaître ou avoir une estimation de l'écart type σ(X). En pratique, on prend comme estimation de σ(X) la valeur s, l'écart-type de la série de mesures issues de l'échantillon.

Ainsi l'on voit que pour augmenter la confiance, il faut élargir l'intervalle et pour obtenir un intervalle plus fin avec même degré de confiance, il faut augmenter la taille de l'échantillon.

Sondage d'opinion

On cherche à estimer le pourcentage de personnes ayant une voiture rouge. Pour cela on effectue un sondage. Comme on ne sonde pas toute la population, on a de bonnes chances de ne pas tomber exactement sur la bonne valeur mais de faire une erreur. On veut alors donner un intervalle qui a 95 % de chances de contenir la vraie valeur.

Pour cela on effectue un sondage sur 1 000 personnes. Les résultats sont les suivants : 150 personnes ont une voiture rouge, 850 n’en ont pas.

On appelle p la « vraie » proportion de personnes dans la population totale qui ont une voiture rouge. On cherche à estimer p. On appelle N le nombre de personnes ayant été sondées, ici N = 1000. On appelle S le nombre de personnes ayant une voiture rouge parmi les N personnes sondées. L’idée est de présenter comme estimation de p la valeur S/N.

On applique le théorème central limite aux variables aléatoires X1, …, XnXi vaut 1 si la i-ème personne sondée a une voiture rouge et 0 sinon. Chaque variable Xi suit une loi de Bernoulli de moyenne p et de variance p(1–p). Ces variables aléatoires ne sont mathématiquement indépendantes que si l’on laisse la possibilité de sonder éventuellement plusieurs fois la même personne dans le sondage (ce qui s’identifie à un tirage avec remise). Compte tenu de cette remarque, on applique le théorème central limite. Alors :

S N p N p ( 1 p ) {\displaystyle {\frac {S-Np}{\sqrt {Np(1-p)}}}} tend vers une loi normale de moyenne 0 et de variance 1 (car S = X1 + … + XN et N est assez grand).

Pour une loi normale de moyenne 0 et de variance 1 on a : P(−1,96 < Z < 1,96) = 0,95. La valeur -1,96 est le quantile d’ordre 2,5 % de la loi normale. Ces valeurs peuvent se trouver dans des tables de quantiles ou être calculées à partir de la fonction d’erreur réciproque : q = 2 erf-1(P) par exemple, q = 2 erf-1(0,95) = 1,9599… (voir par exemple les quantiles de la loi de Student pour un exemple de table de quantile.)

P ( 1 , 96 < S / N p p ( 1 p ) / N < 1 , 96 ) 0 , 95. {\displaystyle P\left(-1,96<{\frac {S/N-p}{\sqrt {p(1-p)/N}}}<1,96\right)\approx 0,95.}

Soit encore

P ( S N 1 , 96 p ( 1 p ) / N < p < S N + 1 , 96 p ( 1 p ) / N ) 0 , 95. {\displaystyle P\left({\frac {S}{N}}-1,96{\sqrt {p(1-p)/N}}<p<{\frac {S}{N}}+1,96{\sqrt {p(1-p)/N}}\right)\approx 0,95.}

En estimant p ( 1 p ) {\displaystyle {\sqrt {p(1-p)}}} par ( S / N ) ( 1 ( S / N ) ) {\displaystyle {\sqrt {(S/N)(1-(S/N))}}} on peut alors encadrer p :

Pourquoi l’on peut bien faire cette estimation

En fait si on appelle σ ¯ = N N 1 S N ( 1 S N ) {\displaystyle {\overline {\sigma }}={\sqrt {{\frac {N}{N-1}}{\frac {S}{N}}\left(1-{\frac {S}{N}}\right)}}} l’estimateur de la variance constatée, la variable S N p σ ¯ N {\displaystyle {\frac {S-Np}{{\overline {\sigma }}{\sqrt {N}}}}} suit une loi de Student à N-1 degrés de libertés. Ici, (N-1)=999 donc les quantiles d’ordre 999 de la loi de Student sont les mêmes d’un point de vue numérique que ceux d’ordre infini qui correspondent à la loi normale. On peut donc remplacer la variance par l’estimateur de la variance constatée.

Ensuite l’on peut remplacer σ ¯ S N ( 1 S N ) {\displaystyle {\overline {\sigma }}\approx {\sqrt {{\frac {S}{N}}\left(1-{\frac {S}{N}}\right)}}} l’erreur en pourcentage sur la variance constatée en omettant la normalisation N/N–1 qui pour N = 1 000 est de l’ordre de 5/10 000 que l’on néglige pour ne pas alourdir la présentation.
 
P ( S N 1 , 96 ( S / N ) ( 1 ( S / N ) ) N < p < S N + 1 , 96 ( S / N ) ( 1 ( S / N ) ) N   ) 0 , 95 {\displaystyle P\left({\frac {S}{N}}-1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}<p<{\frac {S}{N}}+1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}\ \right)\approx 0,95} .

L’intervalle de confiance à 95 % vaut alors [0,127 ; 0,173]. On est sûr à environ 95 % qu’entre 12,7 % et 17,3 % de personnes ont une voiture rouge avec ce sondage[11].

Pour avoir une plus grande précision, il faudrait sonder plus de personnes. On remarque en effet l’existence d’un N apparaissant au dénominateur des deux racines carrées. Si on sonde plus de personnes (N plus grand), ces deux termes auront tendance à devenir plus petits et l’intervalle sera plus petit.

Remarque

À la suite des diverses approximations du raisonnement, le résultat d’une confiance à 95 % n’est pas toujours assuré. On arrive à un résultat inférieur à 95 % pour certaines valeurs de p et N. Par exemple :

si N = 100 et p = 0,5, alors P ( S N 1 , 96 ( S / N ) ( 1 ( S / N ) ) N < p < S N + 1 , 96 ( S / N ) ( 1 ( S / N ) ) N   ) 0 , 9431 {\displaystyle P\left({\frac {S}{N}}-1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}<p<{\frac {S}{N}}+1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}\ \right)\simeq 0,9431}  ;
si N = 100 et p = 0,37, alors P ( S N 1 , 96 ( S / N ) ( 1 ( S / N ) ) N < p < S N + 1 , 96 ( S / N ) ( 1 ( S / N ) ) N   ) 0 , 9370 {\displaystyle P\left({\frac {S}{N}}-1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}<p<{\frac {S}{N}}+1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}\ \right)\simeq 0,9370}  ;
si N = 150 et p = 0,4245, alors P ( S N 1 , 96 ( S / N ) ( 1 ( S / N ) ) N < p < S N + 1 , 96 ( S / N ) ( 1 ( S / N ) ) N   ) 0 , 9426 {\displaystyle P\left({\frac {S}{N}}-1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}<p<{\frac {S}{N}}+1,96{\sqrt {\frac {(S/N)(1-(S/N))}{N}}}\ \right)\simeq 0,9426}
Cas particulier où le sondage porte sur un échantillon de taille non négligeable par rapport à celle de la population totale

On effectue un sondage sur N personnes différentes, prises aléatoirement dans une population totale de M individus. On suppose que N n’est pas négligeable devant M (par exemple N / M = 1 / 3 {\displaystyle N/M=1/3} ), si bien que le théorème central limite ne s’applique plus vraiment (pour cause de non-indépendance des variables aléatoires X i {\displaystyle X_{i}} décrites au-dessus). On appelle p la « vraie » proportion de personnes dans la population totale, et on appelle N le nombre de personnes ayant été sondées (par exemple N = 1000 {\displaystyle N=1000} ). On appelle S le nombre de personnes ayant une voiture rouge parmi les N personnes différentes. Alors S suit une loi proche de la loi normale d’espérance N p {\displaystyle Np} et, non pas de variance N p ( 1 p ) {\displaystyle Np(1-p)} , mais de variance N p ( 1 p ) ( 1 N / M ) {\displaystyle Np(1-p)(1-N/M)} . Cette dernière est plus petite et réduit ainsi d’autant la longueur de l’intervalle de confiance, lequel est alors : ( S N 1 , 96 ( S / N ) ( 1 S / N ) ( 1 N / M ) N < p < S N + 1 , 96 ( S / N ) ( 1 S / N ) ( 1 N / M ) N   ) {\displaystyle \left({\frac {S}{N}}-1,96{\sqrt {\frac {(S/N)(1-S/N)(1-N/M)}{N}}}<p<{\frac {S}{N}}+1,96{\sqrt {\frac {(S/N)(1-S/N)(1-N/M)}{N}}}\ \right)}

Cas particulier avec de faibles (ou fortes) probabilités

Si le résultat du sondage est qu’aucune personne n’a de voiture rouge sur les 1 000 interrogés, cela ne signifie pas qu’il n’existe aucune voiture rouge. Selon « la règle de trois (en)»[12], l’estimation de la borne supérieure de l’intervalle de confiance est de 3/n, soit 3/1 000 dans l’exemple. D’où l’estimation de 0 % de personnes possédant une voiture rouge avec un intervalle de confiance de [0 % ; 0,3 %].

Estimation de l'espérance de la loi exponentielle

On cherche à estimer l'espérance XX suit la loi exponentielle. On se fixe un niveau de confiance P ∈ ]0;1[ et on calcule q = 2 erf-1(P) (quantile d'ordre de la loi normale). Si on mesure la moyenne x sur un échantillon de taille n pris au hasard, alors l'intervalle I ( n , q ) = [ x ¯ 1 + q / n ; x ¯ 1 q / n ] {\displaystyle I(n,q)=\left[{\frac {\overline {x}}{1+q/{\sqrt {n}}}};{\frac {\overline {x}}{1-q/{\sqrt {n}}}}\right]} est un intervalle de confiance de X à un niveau de confiance proche de P, cela quels que soient le niveau P ∈ ]0;1[ et la taille de l'échantillon n > q².

Par exemple, si la moyenne d'un échantillon de taille n = 20 est x = 3, alors l'intervalle de confiance à P=95 % est I ( 20 , 1 , 96 ) = [ 3 1 + 1 , 96 / 20 ; 3 1 1 , 96 / 20 ] [ 2 , 09 ; 5 , 34 ] {\displaystyle I(20,1{,}96)=\left[{\frac {3}{1+1{,}96/{\sqrt {20}}}};{\frac {3}{1-1{,}96/{\sqrt {20}}}}\right]\simeq [2{,}09;5{,}34]} . Cela étant, lorsque la taille de l'échantillon et le niveau de confiance sont fixés, on peut calculer facilement un intervalle de confiance J de longueur inférieure à celle de I(n,q) et de manière exacte : par exemple, si on fixe n = 20 et P = 95 %, alors on obtient l'intervalle de confiance J = [ x ¯ 1 , 63 ; x ¯ 0 , 68 ] {\displaystyle J=\left[{\frac {\overline {x}}{1{,}63}};{\frac {\overline {x}}{0{,}68}}\right]} (qui donne environ [1,84 ; 4,41] lorsque x = 3). Le lecteur en trouvera la preuve dans le premier exemple de la page 295 du livre de Delmas "Introduction au calcul des probabilités et à la statistique" (en référence ci-dessous).

De façon plus globale

L'intervalle de confiance mesure le degré de précision que l'on a sur les estimations issues de l'échantillon. Il y a deux sources principales de variations sur les données qui peuvent être la cause d'un manque de précision dans l'estimation d'une grandeur.

  • Un nombre insuffisant de données : par exemple, dans le cas d'un sondage, on ne sonde pas toute la population mais qu'une fraction de la population. De même, pour les mesures physiques, on n'effectue qu'un nombre fini de mesures alors qu'il faudrait souvent en théorie pouvoir en faire une infinité pour obtenir un résultat parfait.
  • Il peut également y avoir du bruit dans la mesure des données ce qui est pratiquement toujours le cas pour la mesure des grandeurs physiques.

Parmi les méthodes d'estimation, nous pouvons citer l'estimation par intervalle de confiance. Il s'agit de trouver un intervalle contenant un paramètre (inconnu) à estimer avec une probabilité ou niveau de confiance de 1–α. Pour p un paramètre (inconnu) à estimer, on souhaite déterminer a et b tels que :

P ( a < p < b ) = 1 α {\displaystyle \mathbb {P} (a<p<b)=1-\alpha }

ce qui est impossible. Par contre, si on appelle p la valeur exacte du paramètre, et que la valeur mesurée suit une loi de probabilité dépendant de p : P p {\displaystyle \mathbb {P} _{p}} , l'intervalle de confiance I(x) (au « niveau de confiance » 1–α) relatif à une observation x constatée, est l'intervalle dans lequel, pour toute valeur p,

P p ( x : p I ( x ) ) 1 α {\displaystyle \mathbb {P} _{p}(x:p\in I(x))\geq 1-\alpha } .

Pour un p donné, c'est la probabilité d'observer une valeur x pour laquelle le paramètre à estimer soit dans l'intervalle de confiance associé à cette observation x.

Ceci ne signifie pas que « la probabilité que la valeur réelle soit dans I(x) est 1–α », ce qui n'aurait pas de sens puisque la valeur réelle n'est pas une variable aléatoire. Cela signifie que « si la valeur réelle n'est pas dans I(x), la probabilité a priori du résultat de l'observation que l'on a obtenu était inférieure à α ». Par exemple si le paramètre n'est pas dans l'intervalle, c'est que l'observation effectuée correspond à un phénomène rare dans lequel l'intervalle de confiance ne contient pas la vraie valeur.

Notes et références

  1. (en) Sander Greenland, Stephen J. Senn, Kenneth J. Rothman et John B. Carlin, « Statistical tests, P values, confidence intervals, and power: a guide to misinterpretations », European Journal of Epidemiology, vol. 31, no 4,‎ , p. 337–350 (ISSN 1573-7284, PMID 27209009, PMCID PMC4877414, DOI 10.1007/s10654-016-0149-3, lire en ligne, consulté le )
  2. Plus précisément, il calcule son inverse, appelé « multiplicateur des naissances ».
  3. Alain Desrosières, « Le nombre et la constitution », Histoire des nombres, Éditions Tallandier, Paris 2007.
  4. Georges Morlat, « Statistique », Dictionnaire des mathématiques – fondements, probabilités, applications, Encyclopædia Universalis et Albin Michel, Paris 1998.
  5. Les valeurs de k indiquées correspondent au quantile double, puisque les intervalles sont symétriques par rapport à 0.
  6. Gilles Saporta, Probabilités, analyse de données et statistique, §13.5.4 « Intervalle de confiance pour une proportion p », Éditions TECHNIP, Paris 2011
  7. Voir par exemple le document ressource pour les probabilités de la classe de terminale en France, page 32, réalisé par le Ministère de l’éducation nationale en février 2012.
  8. a b et c (en) Jean-Yves Le Boudec, Performance Evaluation of Computer and Communication Systems, Taylor & Francis Inc, (ISBN 978-1-4200-5317-3, lire en ligne)
  9. Gilles Saporta, Probabilités, analyse de données et statistique, §13.5 « L’estimation par intervalles », Éditions TECHNIP, Paris 2011
  10. l'intervalle de confiance à 95 % est plus précisément ] x ¯ 1 , 96 σ ( X ) n ; x ¯ + 1 , 96 σ ( X ) n [ {\displaystyle \left]{\overline {x}}-1,96{\frac {\sigma (X)}{\sqrt {n}}};{\overline {x}}+1,96{\frac {\sigma (X)}{\sqrt {n}}}\right[}
  11. L’interprétation correcte de cette probabilité est la suivante. Si l’on prend 100 échantillons de 1 000 personnes et pour chaque échantillon on calcule un intervalle de confiance, alors dans 95 de ces intervalles on trouve p et dans 5 la proportion p est en dehors. On a donc une confiance de 95 %.
  12. Hanley JA L-HA. If nothing goes wrong, is everything all right?: Interpreting zero numerators. JAMA. avr 1983 ; 249(13):1743-1745.

Voir aussi

Articles connexes

Liens externes

  • « Expérience numérique interactive d'intervalles de confiance », sur experiences.math.cnrs.fr
  • Introduction au calcul des probabilités et à la statistique, livre de 315 pages.

Bibliographie

  • Schenker N & Gentleman JF (2001) On judging the significance of differences by examining the overlap between confidence intervals. Am. Stat. 55, 182–186.
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
  • Intervalle de confiance
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique