Loi uniforme continue

Loi uniforme continue
de paramètres a {\displaystyle a} et b {\displaystyle b}
Image illustrative de l’article Loi uniforme continue
Densité de probabilité

Image illustrative de l’article Loi uniforme continue
Fonction de répartition

Paramètres < a < b < + {\displaystyle -\infty <a<b<+\infty }
Support [ a , b ] {\displaystyle [a,b]}
Densité de probabilité { 1 b a pour  a x b 0 pour  x < a  ou  x > b {\displaystyle {\begin{cases}{\frac {1}{b-a}}&{\text{pour }}a\leq x\leq b\\0&{\text{pour }}x<a{\text{ ou }}x>b\end{cases}}}
Fonction de répartition { 0 pour  x < a x a b a pour  a x < b 1 pour  x b {\displaystyle {\begin{cases}0&{\text{pour }}x<a\\{\frac {x-a}{b-a}}&{\text{pour }}a\leq x<b\\1&{\text{pour }}x\geq b\end{cases}}}
Espérance a + b 2 {\displaystyle {\frac {a+b}{2}}}
Médiane a + b 2 {\displaystyle {\frac {a+b}{2}}}
Mode toute valeur dans  [ a , b ] {\displaystyle {\text{toute valeur dans }}[a,b]}
Variance ( b a ) 2 12 {\displaystyle {\frac {(b-a)^{2}}{12}}}
Asymétrie 0 {\displaystyle 0}
Kurtosis normalisé 6 5 {\displaystyle -{\frac {6}{5}}}
Entropie ln ( b a ) {\displaystyle \ln(b-a)}
Fonction génératrice des moments e t b e t a t ( b a ) {\displaystyle {\frac {{\rm {e}}^{tb}-{\rm {e}}^{ta}}{t(b-a)}}}
Fonction caractéristique e i t b e i t a i t ( b a ) {\displaystyle {\frac {{\rm {e}}^{{\rm {i}}tb}-{\rm {e}}^{{\rm {i}}ta}}{{\rm {i}}t(b-a)}}}
modifier Consultez la documentation du modèle

En théorie des probabilités et en statistiques, les lois uniformes continues forment une famille de lois de probabilité à densité. Une telle loi est caractérisée par la propriété suivante : tous les intervalles de même longueur inclus dans le support de la loi ont la même probabilité. Cela se traduit par le fait que la densité de probabilité d'une loi uniforme continue est constante sur son support.

Elles constituent donc une généralisation de la notion d'équiprobabilité dans le cas continu pour des variables aléatoires à densité ; le cas discret étant couvert par les lois uniformes discrètes.

Une loi uniforme est paramétrée par la plus petite valeur a {\displaystyle a} et la plus grande valeur b {\displaystyle b} que la variable aléatoire correspondante peut prendre. La loi uniforme continue ainsi définie est souvent notée U ( a , b ) . {\displaystyle {\mathcal {U}}(a,b).}

Les densités associées aux lois uniformes continues sont des généralisations de la fonction rectangle en raison de leurs formes.

Caractérisation

Densité

La densité de probabilité de la loi U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} est une fonction porte sur l'intervalle [a, b] :

f ( x ) = { 1 b a pour  a x b , 0 sinon . {\displaystyle \mathrm {f} (x)={\begin{cases}{\dfrac {1}{b-a}}&{\text{pour }}a\leq x\leq b,\\0&{\text{sinon}}.\end{cases}}}

Fonction de répartition

La fonction de répartition de la loi U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)}  est :

F ( x ) = { 0 pour  x < a , x a b a pour  a x < b , 1 pour  x b . {\displaystyle \mathrm {F} (x)={\begin{cases}0&{\text{pour }}x<a,\\{\dfrac {x-a}{b-a}}&{\text{pour }}a\leq x<b,\\1&{\text{pour }}x\geq b.\end{cases}}}

Fonctions génératrices

Fonction génératrice des moments

La fonction génératrice des moments de la loi U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)}  est :

M X = E [ e t X ] = e t b e t a t ( b a ) . {\displaystyle M_{X}=\mathbb {E} [{\rm {e}}^{tX}]={\frac {{\rm {e}}^{tb}-{\rm {e}}^{ta}}{t(b-a)}}.}

Elle permet de calculer tous les moments non centrés, mk :

m 1 = a + b 2 , {\displaystyle m_{1}={\frac {a+b}{2}},}
m 2 = a 2 + a b + b 2 3 , {\displaystyle m_{2}={\frac {a^{2}+ab+b^{2}}{3}},}
m k = 1 k + 1 i = 0 k a i b k i . {\displaystyle m_{k}={\frac {1}{k+1}}\sum _{i=0}^{k}a^{i}b^{k-i}.}

Ainsi, pour une variable aléatoire suivant la loi U ( a , b ) , {\displaystyle {\mathcal {U}}(a,b),} l'espérance est m1 = (a + b)/2, et la variance est m2 − m12 = (b − a)2/12.

Fonction génératrice des cumulants

Pour n ≥ 2, le n-ième cumulant de la loi uniforme continue sur l'intervalle [0, 1] est bn/n, où bn est le n-ième nombre de Bernoulli.

Propriétés

Statistiques d'ordre

Soit X1, ..., Xn un échantillon i.i.d. issu de la loi U ( 0 , 1 ) . {\displaystyle {\mathcal {U}}(0,1).} Soit X(k) la k-ième statistique d'ordre de l'échantillon. Alors la distribution de X(k) est une loi bêta de paramètres k et n − k + 1.

L'espérance est :

E [ X ( k ) ] = k n + 1 . {\displaystyle \mathbb {E} [X_{(k)}]={k \over n+1}.}

Ce fait est utile lorsqu'on construit une droite de Henry.

La variance est :

V [ X ( k ) ] = k ( n k + 1 ) ( n + 1 ) 2 ( n + 2 ) . {\displaystyle \mathbb {V} [X_{(k)}]={k(n-k+1) \over (n+1)^{2}(n+2)}.}

Aspect uniforme

La probabilité qu'une variable uniforme tombe dans un intervalle donné est indépendante de la position de cet intervalle, mais dépend seulement de sa longueur ( ) , {\displaystyle (\ell ),} à condition que cet intervalle soit inclus dans le support de la loi. Ainsi, si X suit la loi U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} et si [ x , x + ] {\displaystyle [x,x+\ell ]} est un sous-intervalle de [a, b], avec > 0 {\displaystyle \ell >0} fixé, alors :

P ( X [ x , x + ] ) = x x + d y b a = b a , {\displaystyle \mathbb {P} {\big (}X\in [x,x+\ell ]{\big )}=\int _{x}^{x+\ell }{\frac {\mathrm {d} y}{b-a}}={\frac {\ell }{b-a}},}

qui est indépendant de x. Ce fait motive la dénomination de cette loi.

Loi uniforme standard

Le cas particulier a = 0 et b = 1 donne naissance à la loi uniforme standard, notée U ( 0 , 1 ) . {\displaystyle {\mathcal {U}}(0,1).} Il faut noter le fait suivant : si u1 est distribué selon une loi uniforme standard, alors c'est aussi le cas pour u2 = 1 – u1.

Loi uniforme sur une partie borélienne

À toute partie A de R d , {\displaystyle \mathbb {R} ^{d},} borélienne, dont la mesure de Lebesgue λ(A) est finie et strictement positive, on associe une loi de probabilité, appelée loi uniforme sur A, de densité de probabilité ƒ définie, pour tout x R d , {\displaystyle x\in \mathbb {R} ^{d},} par :

f ( x )   =   1 λ ( A )   χ A ( x ) , {\displaystyle \mathrm {f} (x)\ =\ {\frac {1}{\lambda (A)}}\ \chi _{A}(x),}

χA est la fonction indicatrice (ou caractéristique), notée aussi 𝟙A, de l'ensemble A. La densité f {\displaystyle \mathrm {f} } est donc nulle à l'extérieur de A, mais égale à la constante 1λ(A) sur A.

Cette page traite principalement du cas particulier où d = 1 et où A est un intervalle [a, b] de R . {\displaystyle \mathbb {R} .}

Transport et invariance

Condition suffisante — La loi de la variable aléatoire Y = T(X), image par une transformation T d'une variable X uniforme sur une partie A de R d , {\displaystyle \mathbb {R} ^{d},} est encore la loi uniforme sur T(A) si T est, à un ensemble négligeable près, injective et différentiable, et si, presque partout sur A, la valeur absolue du jacobien de T est constante.

Exemples de transformations respectant l'uniformité :
  • Si T est affine et bijective, alors Y suit la loi uniforme sur T(A).
  • En particulier, si T est une isométrie de R d {\displaystyle \mathbb {R} ^{d}} laissant A globalement invariant, alors Y a même loi que X.
  • Par exemple, une isométrie de R d {\displaystyle \mathbb {R} ^{d}} laisse invariante la loi uniforme sur B(O, 1], la boule unité centrée en l'origine, à condition de laisser l'origine invariante (donc de laisser B(O, 1] globalement invariante).
  • Autre exemple d'isométrie : si U est uniforme sur [0, 1], alors 1 – U l'est aussi.
  • Notons { x } {\displaystyle \{x\}} la partie fractionnaire de x . {\displaystyle x.} Les fonctions T + , a ( x ) = { a + x } {\displaystyle T_{+,a}(x)=\{a+x\}} et T , a ( x ) = { a x } {\displaystyle T_{-,a}(x)=\{a-x\}} ne sont ni injectives ni différentiables sur tout [0, 1], mais satisfont les hypothèses énoncées plus haut, avec T([0, 1[) = [0, 1[. En conséquence, si U U ( 0 , 1 ) , {\displaystyle U\sim {\mathcal {U}}(0,1),} alors { a + U } {\displaystyle \{a+U\}} et { a U } {\displaystyle \{a-U\}} ont même loi que U . {\displaystyle U.} En sortant un peu du cadre de cette page, et en notant M(x) le point du cercle trigonométrique ayant pour affixe e 2 i π x , {\displaystyle {\rm {e}}^{2{\rm {i}}\pi x},} on peut voir M(U) comme un point tiré au hasard uniformément sur le cercle trigonométrique. Les points M ( { a + U } ) {\displaystyle M(\{a+U\})} et M ( { a U } ) {\displaystyle M(\{a-U\})} respectivement sont alors obtenus par rotation d'angle a et par symétrie par rapport à la droite d'angle directeur πa respectivement, qui sont des isométries laissant le cercle unité globalement invariant. Donc ces points suivent aussi la loi uniforme sur le cercle unité. Cela traduit une propriété très particulière de la loi uniforme : elle est la mesure de Haar de R Z . {\displaystyle \mathbb {R} \backslash \mathbb {Z} .}

Conséquence — Si la suite V = ( V 1 , V 2 , , V n ) {\displaystyle V=(V_{1},V_{2},\dots ,V_{n})} est une suite de variables aléatoires indépendantes et uniformes sur [0, 1], et si U k = { V 1 + V 2 + + V k } , {\displaystyle U_{k}=\{V_{1}+V_{2}+\dots +V_{k}\},} alors la suite U = ( U 1 , U 2 , , U n ) {\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} est une suite de variables aléatoires indépendantes et uniformes sur [0, 1].

Démonstration

La loi conditionnelle de U k , {\displaystyle U_{k},} sachant que ( V 1 , V 2 , , V k 1 ) = ( a 1 , a 2 , , a k 1 ) , {\displaystyle (V_{1},V_{2},\dots ,V_{k-1})=(a_{1},a_{2},\dots ,a_{k-1}),} est la loi de { a 1 + a 2 + + a k 1 + V k } , {\displaystyle \{a_{1}+a_{2}+\dots +a_{k-1}+V_{k}\},} qui se trouve être la loi uniforme sur [0, 1], comme on vient de le voir quelques lignes plus haut. Donc la loi conditionnelle de U k {\displaystyle U_{k}} sachant que ( V 1 , V 2 , , V k 1 ) = ( a 1 , a 2 , , a k 1 ) {\displaystyle (V_{1},V_{2},\dots ,V_{k-1})=(a_{1},a_{2},\dots ,a_{k-1})} ne dépend absolument pas de ( a 1 , a 2 , , a k 1 ) . {\displaystyle (a_{1},a_{2},\dots ,a_{k-1}).} Cela a deux conséquences :

  • U k {\displaystyle U_{k}} suit la loi uniforme sur [0, 1] ;
  • U k {\displaystyle U_{k}} est indépendante de la tribu engendrée par ( V 1 , V 2 , , V k 1 ) {\displaystyle (V_{1},V_{2},\dots ,V_{k-1})} et, a fortiori, de la tribu engendrée par ( U 1 , U 2 , , U k 1 ) , {\displaystyle (U_{1},U_{2},\dots ,U_{k-1}),} puisque σ ( V 1 , V 2 , , V k 1 )     σ ( U 1 , U 2 , , U k 1 ) . {\displaystyle \sigma (V_{1},V_{2},\dots ,V_{k-1})\ \supset \ \sigma (U_{1},U_{2},\dots ,U_{k-1}).}

Cela suffit pour conclure.

Il peut sembler surprenant que les variables { V 1 + V 2 } {\displaystyle \{V_{1}+V_{2}\}} et { V 1 + V 2 + V 3 } , {\displaystyle \{V_{1}+V_{2}+V_{3}\},} par exemple, soient indépendantes, alors qu'elles dépendent toutes deux de manière cruciale des variables V 1 {\displaystyle V_{1}} et V 2 . {\displaystyle V_{2}.} C'est une conséquence particulière de la propriété d'invariance de la loi uniforme : par exemple, étant la mesure de Haar de R Z , {\displaystyle \mathbb {R} \backslash \mathbb {Z} ,} elle est idempotente pour la convolution.

Distributions associées

Le théorème suivant[1] stipule que toutes les distributions sont liées à la loi uniforme :

Théorème de la réciproque — Pour une variable aléatoire de fonction de répartition F , {\displaystyle \mathrm {F} ,} on note G {\displaystyle \mathrm {G} } sa réciproque généralisée, définie, pour tout ω   ] 0 , 1 [ , {\displaystyle \omega \in \ ]0,1[,} par :

G ( ω ) = inf { x R   |   F ( x ) ω } . {\displaystyle \mathrm {G} (\omega )=\inf \left\{x\in \mathbb {R} \ |\ \mathrm {F} (x)\geq \omega \right\}.}

Si U {\displaystyle U} désigne une variable aléatoire réelle uniforme sur [ 0 , 1 ] , {\displaystyle [0,1],} alors X = G ( U ) {\displaystyle X=\mathrm {G} (U)} a pour fonction de répartition F . {\displaystyle \mathrm {F} .}

Ainsi, pour obtenir des tirages (indépendants) selon la loi répartie par F , {\displaystyle \mathrm {F} ,} il suffit d'appliquer l'inverse de F {\displaystyle \mathrm {F} } à des tirages (indépendants) uniformes sur [ 0 , 1 ] . {\displaystyle [0,1].}

Voici quelques exemples d’application de ce théorème ( U U ( 0 , 1 ) ) : {\displaystyle {\big (}U\sim {\mathcal {U}}(0,1){\big )}:}

  • Y = ln U λ {\displaystyle Y=-{\tfrac {\ln U}{\lambda }}} suit la loi exponentielle de paramètre λ   ; {\displaystyle \lambda \ ;}
  • Y = 1 – U1/n suit la loi bêta de paramètres 1 et n. Ceci implique que la loi uniforme standard est un cas particulier de la loi bêta, de paramètres 1 et 1.

On trouvera un tableau plus complet ici. Par ailleurs, l'art d'engendrer des variables aléatoires de lois arbitraires, par exemple à l'aide de variables uniformes, est développé dans Non-Uniform Random Variate Generation, de Luc Devroye, édité chez Springer, disponible sur le web[2].


Inférence statistique

Estimation de l'un des paramètres lorsque l'autre est connu

Cette section décrit l'estimation de la borne supérieure ( b ) {\displaystyle (b)} de la distribution U ( a , b ) , {\displaystyle {\mathcal {U}}(a,b),} au vu d'un échantillon de n {\displaystyle n} individus, la borne inférieure ( a ) {\displaystyle (a)} étant connue.

Estimation du maximum

Estimateur sans biais de variance minimale

Pour une loi uniforme sur [ 0 , b ] {\displaystyle [0,b]} avec b {\displaystyle b} inconnu, l'estimateur sans biais de valeur minimale (en) pour le maximum est donné par :

b ^ M V = k + 1 k m = m + m k , {\displaystyle {\hat {b}}_{MV}={\frac {k+1}{k}}m=m+{\frac {m}{k}},}

m {\displaystyle m} est le maximum de l'échantillon et k {\displaystyle k} la taille de l'échantillon, échantillonné sans remise (bien que cette précision n'a aucune incidence dans le cas uniforme).

On obtient cette valeur par un raisonnement similaire au cas discret. Ce problème peut être vu comme un cas simple d'estimation de l'espacement maximal (en). Il est connu sous le nom de Problème du char d'assaut allemand, par son application d'estimation maximale de la production des chars d'assaut allemands pendant la Seconde Guerre mondiale.

Estimateur par maximum de vraisemblance

L'estimateur par maximum de vraisemblance est :

b ^ M L = m , {\displaystyle {\hat {b}}_{ML}=m,}

m {\displaystyle m} est la valeur maximum dans l'échantillon, qui est aussi la statistique d'ordre maximale de l'échantillon.

Estimateur par la méthode des moments

L'estimateur par la méthode des moments est :

b ^ M M = 2 X ¯ , {\displaystyle {\hat {b}}_{MM}=2{\bar {X}},}

X ¯ {\displaystyle {\bar {X}}} est la moyenne de l'échantillon.

Estimation du milieu

Le milieu a + b 2 {\displaystyle {\tfrac {a+b}{2}}} de l'intervalle de la loi uniforme U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} est à la fois la moyenne et la médiane de cette loi. Bien que la moyenne et la médiane de l'échantillon sont des estimateurs sans biais du milieu, ils ne sont pas aussi efficaces que le milieu de gamme de l'échantillon, i.e. la moyenne arithmétique du maximum et du minimum de l'échantillon, qui est l'estimateur sans biais de variance minimale du milieu (et aussi l'estimateur par maximum de vraisemblance).

Intervalle de confiance

Pour le maximum

On considère X1, X2, ..., Xn un échantillon de U [ 0 , L ] , {\displaystyle {\mathcal {U}}_{[0,L]},} L est la valeur maximum dans la population. Alors X(n) = max( X1, X2, ..., Xn ) a la densité de Lebesgue-Borel[3] f = d P X ( n ) d λ : {\displaystyle \mathrm {f} ={\frac {\mathrm {d} \mathbb {P} _{X_{(n)}}}{\mathrm {d} \lambda }}:}

f ( t ) = n 1 L ( t L ) n 1 1 1 [ 0 ; L ] ( t ) = n t n 1 L n 1 1 [ 0 ; L ] ( t ) , {\displaystyle \mathrm {f} (t)=n{\frac {1}{L}}\left({\frac {t}{L}}\right)^{n-1}1\!\!1_{[0;L]}(t)=n{\frac {t^{n-1}}{L^{n}}}1\!\!1_{[0;L]}(t),}

1 1 [ 0 , L ] {\displaystyle 1\!\!1_{[0,L]}} est la fonction caractéristique (ou indicatrice) de [ 0 , L ] . {\displaystyle [0,L].}

L'intervalle de confiance est mathématiquement incorrect, car P ( [ θ ^ , θ ^ + ε ] θ ) 1 α {\displaystyle \mathbb {P} ([{\hat {\theta }},{\hat {\theta }}+\varepsilon ]\ni \theta )\geq 1-\alpha } ne peut être résolu pour ε {\displaystyle \varepsilon } sans information sur θ . {\displaystyle \theta .} On peut cependant résoudre

P ( [ θ ^ , θ ^ ( 1 + ε ) ] θ ) 1 α {\displaystyle \mathbb {P} ([{\hat {\theta }},{\hat {\theta }}(1+\varepsilon )]\ni \theta )\geq 1-\alpha } pour ε ( 1 α ) 1 / n 1 {\displaystyle \varepsilon \geq (1-\alpha )^{-1/n}-1} pour tout θ {\displaystyle \theta } inconnu mais valide ;

on peut alors choisir le plus petit ε {\displaystyle \varepsilon } possible vérifiant la condition ci-dessus. On note que la longueur de l'intervalle [ θ ^ , θ ^ ( 1 + ε ) ] {\displaystyle [{\hat {\theta }},{\hat {\theta }}(1+\varepsilon )]} dépend de la variable aléatoire θ ^ . {\displaystyle {\hat {\theta }}.}

Estimation simultanée des deux paramètres

Cette section décrit l'estimation des deux bornes ( a ; b ) {\displaystyle (a;b)} de la distribution uniforme continue U ( a , b ) , {\displaystyle {\mathcal {U}}(a,b),} au vu d'un échantillon de n {\displaystyle n} individus.

Soient a ^ {\displaystyle {\hat {a}}} et b ^ {\displaystyle {\hat {b}}} les estimateurs respectifs des bornes inférieure ( a ) {\displaystyle (a)} et supérieure ( b ) {\displaystyle (b)} de la distribution mère, construits sur la base de l'échantillon contenant les n {\displaystyle n} modalités de la variable aléatoire X {\displaystyle X} issues de la distribution U ( a , b ) . {\displaystyle {\mathcal {U}}(a,b).}

La méthode du maximum de vraisemblance aboutit à la sélection des minimum et maximum empiriques :

{ a ^ = min ( x i ) i = 1 , n b ^ = max ( x i ) i = 1 , n . {\displaystyle {\begin{cases}{\hat {a}}&=&\min \,(x_{i})_{i=1,n}\\{\hat {b}}&=&\max \,(x_{i})_{i=1,n}.\end{cases}}}
Démonstration

Soit L ( a , b ) {\displaystyle L(a,b)} la vraisemblance d'un n-échantillon { x i } i = 1 , n {\displaystyle \{x_{i}\}_{i=1,n}} tiré suivant une loi uniforme U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} dont les deux paramètres doivent être estimés :

L ( a , b ) = i = 1 n f a , b ( x i ) = { i = 1 n 1 b a = 1 ( b a ) n si a min i { x i } et b max i { x i } 0 dans tous les autres cas. {\displaystyle L(a,b)=\prod _{i=1}^{n}f_{a,b}(x_{i})={\begin{cases}\prod _{i=1}^{n}{\frac {1}{b-a}}&=&{\frac {1}{(b-a)^{n}}}&{\text{si}}\,a\leq \min _{i}\{x_{i}\}\;{\text{et}}\;b\geq \max _{i}\{x_{i}\}\\0&&&{\text{dans tous les autres cas.}}\end{cases}}}

Maximiser la vraisemblance revient à minimiser ( b a ) {\displaystyle (b-a)} sous les contraintes :

{ a min i { x i } b max i { x i } . {\displaystyle {\begin{cases}a\leq \min _{i}\{x_{i}\}\\b\geq \max _{i}\{x_{i}\}.\end{cases}}}

Le couple d'estimateurs ( a ^ , b ^ ) {\displaystyle ({\hat {a}},{\hat {b}})} qui réalise cette maximisation est :

{ a ^ = min i { x i } b ^ = max i { x i } . {\displaystyle {\begin{cases}{\hat {a}}&=&\min _{i}\{x_{i}\}\\{\hat {b}}&=&\max _{i}\{x_{i}\}.\end{cases}}}

Ce couple d'estimateurs est biaisé : la probabilité qu'un n {\displaystyle n} -échantillon capture le minimum ( a ) {\displaystyle (a)} ou le maximum ( b ) {\displaystyle (b)} permis par la distribution mère étant quasi-nulle, la moyenne d'un grand nombre d'observations sur de tels n {\displaystyle n} -échantillons ne converge pas vers les bornes de ladite distribution mère :

{ E ( a ^ ) a E ( b ^ ) b . {\displaystyle {\begin{cases}\mathbb {E} ({\hat {a}})&\geq &a\\\mathbb {E} ({\hat {b}})&\leq &b.\end{cases}}}

La démonstration est produite plus bas.

Loi de distribution régissant ces estimateurs biaisés

Les densités de probabilité sont notées en minuscules (par ex. f {\displaystyle \mathrm {f} } ), les fonctions de répartition sont notées en majuscules (par ex. F {\displaystyle \mathrm {F} } ).

Densité de probabilité associée au couple d'estimateurs biaisés

d 2 P ( x a ^ x + d x ; y b ^ y + d y ) = n ( n 1 ) ( b a ) n ( y x ) n 2 f a ^ , b ^ ( x , y ) d x d y . {\displaystyle d^{2}\mathbb {P} \,\left(x\leq {\hat {a}}\leq x+dx\,;\,y\leq {\hat {b}}\leq y+dy\right)=\underbrace {{\frac {n\,\left(n-1\right)}{\left(b-a\right)^{n}}}\,\left(y-x\right)^{n-2}} _{f_{{\hat {a}},{\hat {b}}}(x,y)}\,dx\,dy.}

Démonstration

Pour que a ^ {\displaystyle {\hat {a}}} soit compris entre x {\displaystyle x} et x + d x {\displaystyle x+dx} et que b ^ {\displaystyle {\hat {b}}} soit compris entre y {\displaystyle y} et y + d y {\displaystyle y+dy} , il faut :

  1. que le minimum des x i {\displaystyle x_{i}} soit compris entre x {\displaystyle x} et x + d x {\displaystyle x+dx}  : d P = d x b a {\displaystyle d\mathbb {P} ={\frac {dx}{b-a}}}
  2. que le maximum des x i {\displaystyle x_{i}} soit compris entre y {\displaystyle y} et y + d y {\displaystyle y+dy}  : d P = d y b a {\displaystyle d\mathbb {P} ={\frac {dy}{b-a}}}
  3. et que les ( n 2 ) {\displaystyle (n-2)} autres x i {\displaystyle x_{i}} soient compris entre x {\displaystyle x} et y {\displaystyle y}  : P = ( y a b a x a b a ) n 2 = ( y x b a ) n 2 . {\displaystyle \mathbb {P} =\left({\frac {y-a}{b-a}}-{\frac {x-a}{b-a}}\right)^{n-2}=\left({\frac {y-x}{b-a}}\right)^{n-2}.}

Comme n'importe quelle paire choisie parmi les x i {\displaystyle x_{i}} peut constituer le couple (min, max) de l'échantillon, il y a A n 2 = n ! ( n 2 ) ! = n ( n 1 ) {\displaystyle A_{n}^{2}={\frac {n!}{\left(n-2\right)!}}=n\,\left(n-1\right)} arrangements possibles, d'où la probabilité énoncée.

La notion d'arrangement (plutôt que de combinaisons) découle du fait qu'être min ou max de l'échantillon ne constitue pas le même évènement, ce qui introduit une notion d'ordre.

Lois marginales régissant les minimum et maximum empiriques

Concernant l'estimateur de la borne inférieure ( a ^ )   : {\displaystyle ({\hat {a}})\ :}

x [ a , b ] { d P ( x a ^ x + d x ) = f a ^ ( x ) d x = n b a ( b x b a ) n 1 d x P ( a ^ x ) = F a ^ ( x ) = 1 ( b x b a ) n . {\displaystyle \forall x\in [a,b]\;{\begin{cases}d\mathbb {P} \,(x\leq {\hat {a}}\leq x+dx)&=&f_{\hat {a}}(x)\,dx&=&{\frac {n}{b-a}}\,{\Bigl (}{\frac {b-x}{b-a}}{\Bigr )}^{n-1}\,dx\\\mathbb {P} \,({\hat {a}}\leq x)&=&F_{\hat {a}}(x)&=&1-{\Bigl (}{\frac {b-x}{b-a}}{\Bigr )}^{n}.\end{cases}}}
Démonstration

Pour que a ^ {\displaystyle {\hat {a}}} soit compris entre x {\displaystyle x} et x + d x {\displaystyle x+dx} , il faut :

  1. que le minimum des x i {\displaystyle x_{i}} soit compris entre x {\displaystyle x} et x + d x {\displaystyle x+dx}  : d P = d x b a {\displaystyle d\mathbb {P} ={\frac {dx}{b-a}}}
  2. et que tous les autres x i {\displaystyle x_{i}} soient supérieurs ou égaux à x {\displaystyle x}  : P = ( b x b a ) n 1 . {\displaystyle \mathbb {P} =\left({\frac {b-x}{b-a}}\right)^{n-1}.}

Comme n'importe lequel des x i {\displaystyle x_{i}} peut être le minimum, il y a n {\displaystyle n} possibilités, d'où :

d P ( x a ^ x + d x ) = f a ^ ( x ) d x = n b a ( b x b a ) n 1 d x . {\displaystyle d\mathbb {P} \,(x\leq {\hat {a}}\leq x+dx)=f_{\hat {a}}(x)\,dx={\frac {n}{b-a}}\,\left({\frac {b-x}{b-a}}\right)^{n-1}\,dx.}

On obtient la fonction de répartition par intégration :

F ( a ^ ) = a x f a ^ ( t ) d t = ( b t b a ) x a = 1 ( b x b a ) n . {\displaystyle F({\hat {a}})=\int _{a}^{x}f_{\hat {a}}(t)\,\mathrm {d} t=\left({\frac {b-t}{b-a}}\right)_{x}^{a}=1-\left({\frac {b-x}{b-a}}\right)^{n}.}

Remarque :
Une intégration partielle de la densité de probabilité f a ^ , b ^ ( x , y ) {\displaystyle f_{{\hat {a}},{\hat {b}}}\left(x,y\right)} définie au paragraphe précédent aboutit aux mêmes résultats :

  1. sur le domaine b ^ [ a ^ , b ] {\displaystyle {\hat {b}}\in \left[{\hat {a}},b\right]} pour établir la densité marginale du minimum empirique,
  2. ou sur le domaine a ^ [ a , b ^ ] {\displaystyle {\hat {a}}\in \left[a,{\hat {b}}\right]} pour établir la densité marginale du maximum empirique.

Par une démonstration similaire, on obtient pour l'estimateur de la borne supérieure ( b ^ ) {\displaystyle ({\hat {b}})}  :

x [ a , b ] { d P ( x b ^ x + d x ) = f b ^ ( x ) d x = n b a ( x a b a ) n 1 d x P ( b ^ x ) = F b ^ ( x ) = ( x a b a ) n . {\displaystyle \forall x\in [a,b]\;{\begin{cases}\mathrm {d} \mathbb {P} \,(x\leq {\hat {b}}\leq x+dx)&=&f_{\hat {b}}(x)\,\mathrm {d} x&=&{\frac {n}{b-a}}\,\left({\frac {x-a}{b-a}}\right)^{n-1}\,\mathrm {d} x\\\mathbb {P} \,({\hat {b}}\leq x)&=&F_{\hat {b}}(x)&=&\left({\frac {x-a}{b-a}}\right)^{n}.\end{cases}}}

Convergence de ces estimateurs

La définition de la convergence d'un estimateur est donnée dans le document référencé [4].

Concernant l'estimateur de la borne inférieure ( a ^ n {\displaystyle {\hat {a}}_{n}} sur un n-échantillon) : P ( | a ^ n a | > ε ) = P ( a ^ n > a + ε ) {\displaystyle \mathbb {P} \,(|{\hat {a}}_{n}-a|>\varepsilon )=\mathbb {P} \,({\hat {a}}_{n}>a+\varepsilon )} car aucune valeur inférieure à a ne peut être observée. Donc :

P ( | a ^ n a | > ε ) = ( b a ε b a ) n = ( 1 ε b a ) n n + 0. {\displaystyle \mathbb {P} \,(|{\hat {a}}_{n}-a|>\varepsilon )=\left({\frac {b-a-\varepsilon }{b-a}}\right)^{n}=\left(1-{\frac {\varepsilon }{b-a}}\right)^{n}{\xrightarrow[{n\rightarrow +\infty }]{}}\,0.}

Une démonstration similaire s'applique pour l'estimateur de la borne supérieure.

( a ^ ; b ^ ) {\displaystyle ({\hat {a}};{\hat {b}})} forme donc un couple d'estimateurs convergents.

Biais de ces estimateurs

Lorsque l'on multiplie les échantillons (de taille n {\displaystyle n} donnée), la moyenne des observations ne tend pas vers le couple de bornes ( a , b ) {\displaystyle (a,b)} de la distribution mère :

{ E ( a ^ ) = a + b a n + 1 E ( b ^ ) = b b a n + 1 . {\displaystyle {\begin{cases}\mathbb {E} ({\hat {a}})&=&a+{\frac {b-a}{n+1}}\\\mathbb {E} ({\hat {b}})&=&b-{\frac {b-a}{n+1}}.\end{cases}}}

Ces deux estimateurs ne sont qu'asymptotiquement sans biais[4], i.e. lorsque la taille n {\displaystyle n} de l'échantillon tend vers l'infini.

Démonstration
E ( a ^ ) = a b n x b a ( b x b a ) n 1 d x = n ( b a ) n a b x ( b x ) n 1 d x . {\displaystyle \mathbb {E} ({\hat {a}})=\int _{a}^{b}{\frac {n\,x}{b-a}}\,\left({\frac {b-x}{b-a}}\right)^{n-1}\,\mathrm {d} x={\frac {n}{(b-a)^{n}}}\,\int _{a}^{b}x\,(b-x)^{n-1}\,\mathrm {d} x.}

Une intégration par parties permet d'arriver au résultat énoncé.

Idem pour le calcul de l'espérance de b ^ . {\displaystyle {\hat {b}}.}

Recherche d'estimateurs sans biais

Le couple d'estimateurs ( a ^ ^ ; b ^ ^ ) {\displaystyle ({\hat {\hat {a}}}\,;\,{\hat {\hat {b}}})} défini ci-dessous est sans biais[5] :

{ a ^ ^ = a ^ b ^ a ^ n 1 = n a ^ b ^ n 1 b ^ ^ = b ^ + b ^ a ^ n 1 = n b ^ a ^ n 1 . {\displaystyle {\begin{cases}{\hat {\hat {a}}}&=&{\hat {a}}-{\frac {{\hat {b}}-{\hat {a}}}{n-1}}&=&{\frac {n\,{\hat {a}}-{\hat {b}}}{n-1}}\\{\hat {\hat {b}}}&=&{\hat {b}}+{\frac {{\hat {b}}-{\hat {a}}}{n-1}}&=&{\frac {n\,{\hat {b}}-{\hat {a}}}{n-1}}.\end{cases}}}
Démonstration

On vérifie l'espérance de l'estimateur a ^ ^ {\displaystyle {\hat {\hat {a}}}}  :

E ( a ^ ^ ) = E ( a ^ ) 1 n 1 ( E ( b ^ ) E ( a ^ ) ) = a + b a n + 1 b a n 1 n 1 n + 1 = a . {\displaystyle \mathbb {E} ({\hat {\hat {a}}})=\mathbb {E} ({\hat {a}})-{\frac {1}{n-1}}\left(\mathbb {E} ({\hat {b}})-\mathbb {E} ({\hat {a}})\right)=a+{\frac {b-a}{n+1}}-{\frac {b-a}{n-1}}\,{\frac {n-1}{n+1}}=a.}

L'espérance de l'erreur commise ( a ^ ^ a ) {\displaystyle ({\hat {\hat {a}}}-a)} est nulle, ce qui en fait un estimateur sans biais de a . {\displaystyle a.}

La démonstration est identique avec l'autre estimateur b ^ ^ . {\displaystyle {\hat {\hat {b}}}.}

Le calcul de ces estimateurs (avec ou sans biais) ne nécessite pas la connaissance des paramètres ( a ; b ) {\displaystyle (a;b)} de la distribution mère.

Les lois de distribution qui régissent le couple d'estimateurs sans biais sont plus complexes à déterminer. Le document [5] donne les lois suivantes :

Densité de probabilité associée au couple d'estimateurs sans biais
d 2 P ( x a ^ ^ x + d x ; y b ^ ^ y + d y ) = n ( n 1 ) n ( n + 1 ) n 1 ( b a ) n ( y x ) n 2 f a ^ ^ , b ^ ^ ( x , y ) d x d y . {\displaystyle d^{2}\mathbb {P} \,\left(x\leq {\hat {\hat {a}}}\leq x+dx\,;\,y\leq {\hat {\hat {b}}}\leq y+dy\right)=\underbrace {{\frac {n\,\left(n-1\right)^{n}}{\left(n+1\right)^{n-1}\,\left(b-a\right)^{n}}}\,\left(y-x\right)^{n-2}} _{f_{{\hat {\hat {a}}},{\hat {\hat {b}}}}(x,y)}\,dx\,dy.}
Lois marginales régissant chacun des deux estimateurs sans biais

Sachant que la variable a ^ ^ {\displaystyle {\hat {\hat {a}}}} admet comme support l'intervalle [ n a b n 1 ; b ] {\displaystyle \left[{\frac {n\,a-b}{n-1}}\,;\,b\right]}  :

{ x a d P ( x a ^ ^ x + d x ) = ( n 1 ) n 1 n n 2 ( b a ) n [ ( b x ) n 1 n n 1 ( a x ) n 1 ] d x x a d P ( x a ^ ^ x + d x ) = ( n 1 ) n 1 n n 2 ( b a ) n ( b x ) n 1 d x . {\displaystyle {\begin{cases}\forall x\leq a&d\mathbb {P} \,\left(x\leq {\hat {\hat {a}}}\leq x+dx\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left[\left(b-x\right)^{n-1}-n^{n-1}\left(a-x\right)^{n-1}\right]\,dx\\\forall x\geq a&d\mathbb {P} \,\left(x\leq {\hat {\hat {a}}}\leq x+dx\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left(b-x\right)^{n-1}\,dx.\end{cases}}}

Sachant que la variable b ^ ^ {\displaystyle {\hat {\hat {b}}}} admet comme support l'intervalle [ a ; n b a n 1 ] {\displaystyle \left[a\,;\,{\frac {n\,b-a}{n-1}}\right]}  :

{ y b d P ( y b ^ ^ y + d y ) = ( n 1 ) n 1 n n 2 ( b a ) n ( y a ) n 1 d y y b d P ( y b ^ ^ y + d y ) = ( n 1 ) n 1 n n 2 ( b a ) n [ ( y a ) n 1 n n 1 ( y b ) n 1 ] d y . {\displaystyle {\begin{cases}\forall y\leq b&d\mathbb {P} \,\left(y\leq {\hat {\hat {b}}}\leq y+dy\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left(y-a\right)^{n-1}\,dy\\\forall y\geq b&d\mathbb {P} \,\left(y\leq {\hat {\hat {b}}}\leq y+dy\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left[\left(y-a\right)^{n-1}-n^{n-1}\left(y-b\right)^{n-1}\right]\,dy.\end{cases}}}

Intervalle de pari

On considère ici :

  • une loi mère uniforme U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} donnée et connue,
  • le couple d'estimateurs avec biais formé par le minimum ( a ^ ) {\displaystyle ({\hat {a}})} et le maximum ( b ^ ) {\displaystyle ({\hat {b}})} empiriques déterminés sur un n {\displaystyle n} -échantillon.

Les estimateurs considérés sont ceux avec biais car :

  • leurs lois de distribution sont simples à manipuler ;
  • le document référencé [5] montre que construire des intervalles de pari à partir des estimateurs sans biais n'aboutit pas in fine à des intervalles plus réduits pour un niveau de confiance donné, et en explique la raison.

On cherche à connaître comment se répartissent les n-échantillons possibles formés à partir de la distribution mère U ( a , b ) {\displaystyle {\mathcal {U}}\,(a,b)} , en plaçant dans le plan R 2 {\displaystyle \mathbb {R} ^{2}}  :

  • sur l'axe des abscisses, la borne inférieure ( a ) {\displaystyle (a)} de la distribution mère et les minima empiriques des échantillons ;
  • sur l'axe des ordonnées, la borne supérieure ( b ) {\displaystyle (b)} de la distribution mère et les maxima empiriques des échantillons.

On note :

{ m = valeur de a ^ = min ( x i ) i = 1 , n M = valeur de b ^ = max ( x i ) i = 1 , n . {\displaystyle {\begin{cases}m&=&{\text{valeur de}}\,{\hat {a}}&=&\min \,(x_{i})_{i=1,n}\\M&=&{\text{valeur de}}\,{\hat {b}}&=&\max \,(x_{i})_{i=1,n}.\end{cases}}}
Zone du plan où l'on peut trouver des des échantillons issus de U (a,b)
Zone du plan où l'on peut trouver des échantillons issus de U (a,b)

La distribution mère U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} et la construction des estimateurs imposent la hiérarchie suivante : a m M b . {\displaystyle a\leq m\leq M\leq b.} Les échantillons issus de cette loi mère sont tous situés à l'intérieur du triangle rectangle formé par la droite x = a {\displaystyle x=a} , la droite y = b {\displaystyle y=b} et la première bissectrice (cf. figure ci-contre).

Un bon échantillon (i.e. un échantillon représentatif de sa population mère) se caractérise par :

  • un minimum empirique ( m ) {\displaystyle (m)} proche de a {\displaystyle a}
  • et un maximum empirique ( M ) {\displaystyle (M)} proche de b . {\displaystyle b.}

Le risque de pari ( α ) {\displaystyle (\alpha )} associé à un échantillon ( a ^ = m ; b ^ = M ) {\displaystyle ({\hat {a}}=m\,;{\hat {b}}=M)} est défini par la probabilité de trouver un échantillon plus mauvais que lui, i.e. présentant :

  • un minimum empirique supérieur ou égal à m , {\displaystyle m,}
  • ou un maximum empirique inférieur ou égal à M . {\displaystyle M.}
Intervalle de pari sur le minimum empirique
Intervalle de pari sur le minimum empirique d'un échantillon issu de U (a,b)
Intervalle de pari sur le minimum empirique d'un échantillon issu de U (a,b)

L'expérimentateur choisit son risque de pari ( α ) {\displaystyle (\alpha )} . Le risque de pari sur le minimum empirique est défini par l'équation suivante :

α = P ( a ^ m b ^ [ a ^ ; b ] ) = ( b m b a ) n m 1 α = b ( b a ) α 1 n {\displaystyle \alpha =\mathbb {P} \,\left({\hat {a}}\geq m\;\forall {\hat {b}}\in \left[{\hat {a}}\,;\,b\right]\right)=\left({\frac {b-m}{b-a}}\right)^{n}\Rightarrow \,m_{1-\alpha }=b-(b-a)\cdot \alpha ^{\frac {1}{n}}}

La surface de pari sur le minimum empirique au niveau de confiance ( 1 α ) {\displaystyle (1-\alpha )} rassemble les échantillons qui vérifient : a ^ [ a ; m 1 α ] {\displaystyle {\hat {a}}\in [a\,;m_{1-\alpha }]} et b ^ [ a ^ ; b ] {\displaystyle {\hat {b}}\in [{\hat {a}}\,;b]} .

Intervalle de pari sur le maximum empirique
Intervalle de pari sur le maximum empirique d'un échantillon issu de U (a,b)
Intervalle de pari sur le maximum empirique d'un échantillon issu de U (a,b)

De façon similaire, le risque de pari sur le maximum empirique est défini par l'équation suivante :

α = P ( b ^ M a ^ [ a ; b ^ ] ) = ( M a b a ) n M 1 α = a + ( b a ) α 1 n {\displaystyle \alpha =\mathbb {P} \,\left({\hat {b}}\leq M\;\forall {\hat {a}}\in \left[a\,;{\hat {b}}\right]\right)=\left({\frac {M-a}{b-a}}\right)^{n}\Rightarrow \,M_{1-\alpha }=a+(b-a)\cdot \alpha ^{\frac {1}{n}}}

La surface de pari sur le maximum empirique au niveau de confiance ( 1 α ) {\displaystyle (1-\alpha )} rassemble les échantillons qui vérifient : b ^ [ M 1 α ; b ] {\displaystyle {\hat {b}}\in [M_{1-\alpha }\,;b]} et a ^ [ a ; b ^ ] {\displaystyle {\hat {a}}\in [a\,;{\hat {b}}]} .

Surface de pari sur les deux bornes

La surface de pari est celle qui capture la proportion ( 1 α ) {\displaystyle (1-\alpha )} des échantillons formés à partir d'une population mère U ( a , b ) {\displaystyle {\mathcal {U}}\,(a,b)} donnée et connue.

Choix de la forme de la surface de pari, représenté dans les coordonnées réduites (φ;ψ)
Choix de la forme de la surface de pari, représenté dans les coordonnées réduites ( φ ; ψ ) {\displaystyle \left(\varphi \,;\,\psi \right)}

Le problème dépend de la forme que l'on aura choisi de donner à cette surface, qui peut être un carré, un triangle, un quart de cercle, ... On choisit ici un triangle rectangle, de sommet P 1 ( a ; b ) {\displaystyle P_{1}\,\left(a\,;\,b\right)} et dont l'hypoténuse est parallèle à la première bissectrice (cf. figure ci-contre). La raison est que la densité de probabilité associée au couple ( a ^ ; b ^ ) {\displaystyle \left({\hat {a}}\,;\,{\hat {b}}\right)} est constante le long d'un lieu y x = C t e {\displaystyle y-x=Cte} . Ceci permet de découper l'espace suivant une ligne iso-densité, minimisant ainsi la surface de pari pour capturer un effectif donné.

Les variables réduites classiques pour les distributions uniformes sont introduites afin de simplifier les calculs qui suivent :

{ φ = m a b a ψ = M a b a {\displaystyle {\begin{cases}\varphi &=&{\frac {m-a}{b-a}}\\\psi &=&{\frac {M-a}{b-a}}\end{cases}}}

Les relations de conversion du domaine réel en domaine réduit sont données par le tableau ci-dessous :

Échantillon {m ; M} à population {a ; b} donnée Représentation adimensionnée Population {a ; b} à échantillon {m ; M} donné
a m M b {\displaystyle a\leq m\leq M\leq b} 0 φ ψ 1 {\displaystyle 0\leq \varphi \leq \psi \leq 1} a m M b {\displaystyle a\leq m\leq M\leq b}
{ m [ a ; M ] M [ m ; b ] {\displaystyle {\begin{cases}m&\in &\left[a\,;\,M\right]\\M&\in &\left[m\,;\,b\right]\end{cases}}} { a ] ; m ] b [ M ; + [ {\displaystyle {\begin{cases}a&\in &\left]-\infty \,;m\right]\\b&\in &\left[M\,;+\infty \right[\end{cases}}}
m = a {\displaystyle m=a} φ = 0 {\displaystyle \varphi =0} a = m {\displaystyle a=m}
m M = b {\displaystyle m\rightarrow M=b} φ = 1 {\displaystyle \varphi =1} a {\displaystyle a\rightarrow -\infty }
M m = a {\displaystyle M\rightarrow m=a} ψ = 0 {\displaystyle \psi =0} b + {\displaystyle b\rightarrow +\infty }
M = b {\displaystyle M=b} ψ = 1 {\displaystyle \psi =1} b = M {\displaystyle b=M}

Exprimée dans le plan des coordonnées réduites, la surface pari au niveau de confiance ( 1 α ) {\displaystyle (1-\alpha )} est constituée par l'intérieur du triangle rectangle de sommets :

P 1 ( 0 1 ) P 2 ( δ 1 ) P 3 ( 0 1 δ ) {\displaystyle P_{1}{\begin{pmatrix}0\\1\end{pmatrix}}\;\;P_{2}{\begin{pmatrix}\delta \\1\end{pmatrix}}\;\;P_{3}{\begin{pmatrix}0\\1-\delta \end{pmatrix}}}

La marge réduite ( δ ) {\displaystyle \left(\delta \right)} est reliée au risque de pari ( α ) {\displaystyle \left(\alpha \right)} par l'équation suivante :

( 1 δ ) n 1 [ 1 + ( n 1 ) δ ] = α {\displaystyle \left(1-\delta \right)^{n-1}\,\left[1+\left(n-1\right)\delta \right]=\alpha }

Marge réduite = f (effectif de l'échantillon, risque de pari)
Marge réduite = f (effectif de l'échantillon, risque de pari
Démonstration

La densité de probabilité associée au couple ( m ; M ) {\displaystyle \left(m\,;\,M\right)} et exprimée en fonction des variables réduites s'écrit :

d 2 P ( φ m a b a φ + d φ ; ψ M a b a ψ + d ψ ) = n ( n 1 ) ( ψ φ ) n 2 d φ d ψ {\displaystyle d^{2}\mathbb {P} \,\left(\varphi \leq {\frac {m-a}{b-a}}\leq \varphi +d\varphi \,;\,\psi \leq {\frac {M-a}{b-a}}\leq \psi +d\psi \right)=n\,\left(n-1\right)\,\left(\psi -\varphi \right)^{n-2}\,d\varphi \,d\psi }

La surface de pari triangulaire recherchée doit capturer la proportion ( 1 α ) {\displaystyle \left(1-\alpha \right)} des échantillons générés à partir de la poplulation mère. En s'aidant de la figure ci-dessus plaçant le domaine de pari dans le plan des coordonnées réduites, il vient :

φ = 0 δ ψ = φ + 1 δ 1 n ( n 1 ) ( ψ φ ) n 2 d φ d ψ = 1 α {\displaystyle \int _{\varphi =0}^{\delta }\int _{\psi =\varphi +1-\delta }^{1}n\left(n-1\right)\,\left(\psi -\varphi \right)^{n-2}\,d\varphi \,d\psi =1-\alpha }

Soit, tous calculs effectués : 1 ( 1 δ ) n 1 [ 1 + ( n 1 ) δ ] = 1 α {\displaystyle 1-\left(1-\delta \right)^{n-1}\,\left[1+\left(n-1\right)\delta \right]=1-\alpha }

D'où la relation énoncée liant δ {\displaystyle \delta } à α {\displaystyle \alpha } .

L'équation liant la marge réduite ( δ 1 α ) {\displaystyle \left(\delta _{1-\alpha }\right)} au risque de pari ( α ) {\displaystyle \left(\alpha \right)} peut être résolue par la méthode du point fixe : la suite ( x n ) {\displaystyle \left(x_{n}\right)} définie ci-dessous converge rapidement vers la solution, même avec une initialisation forfaitaire :

Surface pari au niveau de confiance (1−α) tracée dans le plan des coordonnées de l'expérimentateur
Surface pari au niveau de confiance ( 1 α ) {\displaystyle \left(1-\alpha \right)} tracée dans le plan des coordonnées de l'expérimentateur

{ x 0 = 1 2 x n + 1 = 1 ( α 1 + ( n 1 ) x n ) 1 n 1 {\displaystyle {\begin{cases}x_{0}&=&{\frac {1}{2}}\\x_{n+1}&=&1-\left({\frac {\alpha }{1+\left(n-1\right)\,x_{n}}}\right)^{\frac {1}{n-1}}\end{cases}}}

Le lieu des solutions est tracé ci-contre, en fonction de l'effectif de l'échantillon et du risque de pari α {\displaystyle \alpha } .

Replacée dans le plan des coordonnées correspondant au problème réel de l'expérimentateur, la surface pari au niveau de confiance ( 1 α ) {\displaystyle (1-\alpha )} est constituée par l'intérieur du triangle rectangle de sommets :

P 1 ( a b ) P 2 ( a + δ 1 α ( b a ) b ) P 3 ( a b δ 1 α ( b a ) ) {\displaystyle P_{1}{\begin{pmatrix}a\\b\end{pmatrix}}\;\;P_{2}{\begin{pmatrix}a+\delta _{1-\alpha }\,\left(b-a\right)\\b\end{pmatrix}}\;\;P_{3}{\begin{pmatrix}a\\b-\delta _{1-\alpha }\,\left(b-a\right)\end{pmatrix}}}

Surface de confiance

Le point de vue est inversé par rapport à la section précédente :

  • le n-échantillon est connu, et le couple des minimum et maximum empiriques obtenus est ( m ; M ) {\displaystyle \left(m\,;M\right)}  ;
  • on veut connaître quelles populations mères U ( a , b ) {\displaystyle {\mathcal {U}}\,(a,b)} auraient pu générer cet échantillon, au niveau de confiance ( 1 α ) {\displaystyle (1-\alpha )} choisi par l'expérimentateur.
Surface de confiance au niveau de confiance {\displaystyle \left(1-\alpha \right)} tracée dans le plan des coordonnées de l'expérimentateur
Surface de confiance au niveau de confiance ( 1 α ) {\displaystyle \left(1-\alpha \right)} tracée dans le plan des coordonnées de l'expérimentateur

Il s'agit donc de recenser les populations mères qui contiennent l'échantillon en question dans leurs surfaces de pari respectives au niveau de confiance ( 1 α ) {\displaystyle (1-\alpha )} .

L'intégrale calculée lors de la démonstration qui établit la surface de pari en coordonnées réduites ( φ ; ψ ) {\displaystyle \left(\varphi \,;\,\psi \right)} reste inchangée, quelles que soient les raisons qui font varier ces coordonnées réduites :

  • les variations du couple ( m ; M ) {\displaystyle \left(m\,;M\right)} à population mère U ( a , b ) {\displaystyle {\mathcal {U}}\,(a,b)} fixée,
  • ou bien les variations des bornes ( a ; b ) {\displaystyle \left(a\,;\,b\right)} de la population mère à échantillon ( m ; M ) {\displaystyle \left(m\,;M\right)} fixé

La surface de confiance est obtenue par déréduction de la surface établie en coordonnées ( φ ; ψ ) {\displaystyle \left(\varphi \,;\,\psi \right)} pour le niveau de confiance ( 1 α ) {\displaystyle (1-\alpha )} , en cherchant ( a ; b ) {\displaystyle \left(a\,;\,b\right)} à échantillon ( m ; M ) {\displaystyle \left(m\,;M\right)} fixé. Cette surface de confiance est constituée par l'intérieur du triangle rectangle de sommets :

Q 1 ( m M ) Q 2 ( m δ 1 α M 1 δ 1 α M ) Q 3 ( m M δ 1 α m 1 δ 1 α ) {\displaystyle Q_{1}{\begin{pmatrix}m\\M\end{pmatrix}}\;\;Q_{2}{\begin{pmatrix}{\frac {m-\delta _{1-\alpha }\,M}{1-\delta _{1-\alpha }}}\\M\end{pmatrix}}\;\;Q_{3}{\begin{pmatrix}m\\{\frac {M-\delta _{1-\alpha }\,m}{1-\delta _{1-\alpha }}}\end{pmatrix}}}

Applications

En statistiques, lorsqu'une valeur p (p-value) est utilisée dans une procédure de test statistique pour une hypothèse nulle simple, et que la distribution du test est continue, alors la valeur p est uniformément distribuée selon la loi uniforme sur [0, 1] si l'hypothèse nulle est vérifiée.

Obtenir des réalisations de la loi uniforme

La plupart des langages de programmation fournissent un générateur de pseudo-nombres aléatoires, dont la distribution est effectivement la loi uniforme standard.

Si u est U(0, 1), alors v = a + (ba)u suit la loi U(a, b).

Obtenir des réalisations d'une loi continue quelconque

D'après le théorème cité plus haut, la loi uniforme permet en théorie d'obtenir des tirages de toute loi continue à densité. Il suffit pour cela d'inverser la Fonction de répartition de cette loi, et de l'appliquer à des tirages de la loi uniforme standard. Malheureusement, dans bien des cas pratiques, on ne dispose pas d'une expression analytique pour la fonction de répartition; on peut alors utiliser une inversion numérique (coûteuse en calculs) ou des méthodes concurrentes, comme la Méthode de rejet.

Le plus important exemple d'échec de la méthode de la transformée inverse est la Loi normale. Toutefois, la Méthode de Box-Muller fournit une méthode pratique pour transformer un échantillon uniforme en un échantillon normal, et ce de manière exacte[6].

Permutations aléatoires uniformes et loi uniforme

Des mathématiciens comme Luc Devroye ou Richard P. Stanley ont popularisé l'utilisation de la loi uniforme sur [0, 1] pour l'étude des permutations aléatoires (tailles des cycles, nombres eulériens, analyse d'algorithmes de tri comme le tri rapide, par exemple).

Construction d'une permutation aléatoire uniforme à l'aide d'un échantillon de loi uniforme

Soit U = ( U 1 , U 2 , , U n ) {\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} une suite de variables aléatoires i.i.d. uniformes sur [0, 1], définies sur un espace probabilisé ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} (par exemple, définies sur Ω = [ 0 , 1 ] n {\displaystyle \Omega =[0,1]^{n}} muni de sa tribu des boréliens et de sa mesure de Lebesgue, par U k ( ω 1 , ω 2 , , ω n )   =   ω k , {\displaystyle U_{k}(\omega _{1},\omega _{2},\dots ,\omega _{n})\ =\ \omega _{k},} ou, de manière équivalente, par U ( ω ) = ω {\displaystyle U(\omega )=\omega } ). Pour tout entier k compris entre 1 et n, posons

σ ( k , ω )   =   C a r d { i   t e l s   q u e   1 i n ,   e t   t e l s   q u e   U i ( ω ) U k ( ω ) } . {\displaystyle \sigma (k,\omega )\ =\ \mathrm {Card} \left\{i\ \mathrm {tels~que} \ 1\leq i\leq n,\ \mathrm {et~tels~que} \ U_{i}(\omega )\leq U_{k}(\omega )\right\}.}

Ainsi, σ ( k , ω ) {\displaystyle \sigma (k,\omega )} s'interprète comme le rang de U k ( ω ) {\displaystyle U_{k}(\omega )} dans l'échantillon, une fois celui-ci rangé dans l'ordre croissant.

Proposition —  L'application k σ ( k , ω ) {\displaystyle k\mapsto \sigma (k,\omega )} est une permutation aléatoire uniforme.

Démonstration

Pour une permutation τ fixée, notons

A τ =   { x R n x τ ( 1 ) < x τ ( 2 ) < < x τ ( n ) } , {\displaystyle A_{\tau }=\ \left\{x\in \mathbb {R} ^{n}\mid x_{\tau (1)}<x_{\tau (2)}<\dots <x_{\tau (n)}\right\},}

et posons

τ . x =   ( x τ ( 1 ) , x τ ( 2 ) , , x τ ( n ) ) . {\displaystyle \tau .x=\ (x_{\tau (1)},x_{\tau (2)},\dots ,x_{\tau (n)}).}

Alors

{ x A τ }     { τ . x A I d } . {\displaystyle \{x\in A_{\tau }\}\ \Leftrightarrow \ \{\tau .x\in A_{\mathrm {Id} }\}.}

Par ailleurs, de manière évidente, si U ( ω ) A τ , {\displaystyle U(\omega )\in A_{\tau },} alors

{ k   t e l   q u e   1 k n , σ ( τ ( k ) , ω )   =   k }   o u   e n c o r e   { σ ( . , ω ) = τ 1 } . {\displaystyle \left\{\forall k\ \mathrm {tel~que} \ 1\leq k\leq n,\quad \sigma (\tau (k),\omega )\ =\ k\right\}\ \mathrm {ou~encore} \ \{\sigma (.,\omega )=\tau ^{-1}\}.}

Comme

τ S n A τ   =   { x R n | l e s   x i   s o n t   t o u s   d i f f e ´ r e n t s } , {\displaystyle \bigcup _{\tau \in {\mathfrak {S}}_{n}}A_{\tau }\ =\ \left\{x\in \mathbb {R} ^{n}\,|\,\mathrm {les} \ x_{i}\ \mathrm {sont~tous~diff{\acute {e}}rents} \right\},}

il en découle que

B = Ω ( τ S n A τ )   =   1 i < j n { x R n | x i = x j } . {\displaystyle B=\Omega \backslash \left(\bigcup _{\tau \in {\mathfrak {S}}_{n}}A_{\tau }\right)\ =\ \bigcup _{1\leq i<j\leq n}\left\{x\in \mathbb {R} ^{n}\,|\,x_{i}=x_{j}\right\}.}

Si U ( ω ) B , {\displaystyle U(\omega )\in B,} il existe donc un couple i < j tel que U i ( ω ) = U j ( ω ) , {\displaystyle U_{i}(\omega )=U_{j}(\omega ),} et, par suite, σ ( i , ω ) = σ ( j , ω ) . {\displaystyle \sigma (i,\omega )=\sigma (j,\omega ).} Ainsi σ(., ω) n'est pas une permutation. Finalement, comme B et les ensembles de type A ρ {\displaystyle A_{\rho }} forment une partition de R n , {\displaystyle \mathbb {R} ^{n},} il en découle que pour toute permutation τ,

{ U ( ω ) A τ }     { σ ( . , ω ) τ 1 } , {\displaystyle \left\{U(\omega )\notin A_{\tau }\right\}\ \Rightarrow \ \{\sigma (.,\omega )\neq \tau ^{-1}\},}

et par conséquent

P ( U A τ )   =   P ( σ = τ 1 ) . {\displaystyle \mathbb {P} \left(U\in A_{\tau }\right)\ =\ \mathbb {P} \left(\sigma =\tau ^{-1}\right).}

Comme les composantes du vecteur aléatoire U = ( U 1 , U 2 , , U n ) {\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} sont des variables aléatoires indépendantes à densité de densités respectives notées f i , 1 i n , {\displaystyle f_{i},\quad 1\leq i\leq n,} on sait que le vecteur aléatoire U possède lui-même une densité f, définie par

f ( x ) = i = 1 n f i ( x i ) . {\displaystyle f(x)=\prod _{i=1}^{n}f_{i}(x_{i}).}

De même, une densité de probabilité du vecteur aléatoire τ.U est g, définie par :

g ( x ) = i = 1 n f τ ( i ) ( x i ) . {\displaystyle g(x)=\prod _{i=1}^{n}f_{\tau (i)}(x_{i}).}

Dans le cas, comme ici, où les composantes d'un vecteur aléatoire sont i.i.d., on peut choisir les densités de probabilités f i {\displaystyle f_{i}} toutes égales. Ainsi, les densités f et g des vecteurs aléatoires U et τ.U sont égales : les vecteurs aléatoires U et τ.U ont donc même loi. Par conséquent, pour toute permutation τ,

P ( U A I d )   =   P ( τ . U A I d )   =   P ( U A τ )   =   P ( σ = τ 1 ) . {\displaystyle \mathbb {P} \left(U\in A_{\mathrm {Id} }\right)\ =\ \mathbb {P} \left(\tau .U\in A_{\mathrm {Id} }\right)\ =\ \mathbb {P} \left(U\in A_{\tau }\right)\ =\ \mathbb {P} \left(\sigma =\tau ^{-1}\right).}

Par ailleurs,

P ( U B )   =   P ( i < j   t e l s   q u e   U i = U j )     1 i < j n P ( U i = U j )   =   0. {\displaystyle \mathbb {P} \left(U\in B\right)\ =\ \mathbb {P} \left(\exists i<j\ \mathrm {tels~que} \ U_{i}=U_{j}\right)\ \leq \ \sum _{1\leq i<j\leq n}\mathbb {P} \left(U_{i}=U_{j}\right)\ =\ 0.}

En effet l'hyperplan { x i = x j } {\displaystyle \{x_{i}=x_{j}\}} est de mesure de Lebesgue nulle, et la loi de probabilité de U est à densité donc absolument continue par rapport à la mesure de Lebesgue, donc

{ λ ( { x i = x j } ) = 0 }     { 0 = P U ( { x i = x j } ) ( = P ( U i = U j ) ) } . {\displaystyle \left\{\lambda (\{x_{i}=x_{j}\})=0\right\}\ \Rightarrow \ \left\{0=\mathbb {P} _{U}(\{x_{i}=x_{j}\})(=\mathbb {P} \left(U_{i}=U_{j}\right))\right\}.}

Finalement

n ! P ( σ = τ ) = n ! P ( U A τ 1 )   =   n ! P ( U A I d ) = ρ S n P ( U A ρ ) = P ( U B ) + ρ S n P ( U A ρ ) = 1 , {\displaystyle {\begin{aligned}n!\,\mathbb {P} \left(\sigma =\tau \right)&=n!\,\mathbb {P} \left(U\in A_{\tau ^{-1}}\right)\ =\ n!\,\mathbb {P} \left(U\in A_{\mathrm {Id} }\right)\\&=\sum _{\rho \in {\mathfrak {S}}_{n}}\mathbb {P} \left(U\in A_{\rho }\right)\\&=\mathbb {P} \left(U\in B\right)+\sum _{\rho \in {\mathfrak {S}}_{n}}\mathbb {P} \left(U\in A_{\rho }\right)\\&=1,\end{aligned}}}

où la dernière égalité utilise le fait que B et les ensembles A ρ {\displaystyle A_{\rho }} forment une partition de R n . {\displaystyle \mathbb {R} ^{n}.}

La proposition ci-dessus reste vérifiée si la distribution de probabilité commune aux variables U i {\displaystyle U_{i}} possède une densité, quelle qu'elle soit, et non pas seulement pour la densité uniforme. On peut même se contenter de variables i.i.d. dont la loi est diffuse (sans atomes) modulo une modification mineure de la démonstration. Cependant la loi uniforme est particulièrement commode pour diverses applications.

Nombres de descentes d'une permutation aléatoire, et nombres eulériens

Soit X n ( ω ) {\displaystyle X_{n}(\omega )} le nombre de descentes d'une permutation σ ( ω ) {\displaystyle \sigma (\omega )} tirée au hasard uniformément dans S n . {\displaystyle {\mathfrak {S}}_{n}.} Bien sûr,

P ( X n = k ) = n o m b r e   d e   c a s   f a v o r a b l e s n o m b r e   d e   c a s   p o s s i b l e s = A ( n , k ) n ! , {\displaystyle {\begin{aligned}\mathbb {P} \left(X_{n}=k\right)&={\frac {\mathrm {nombre~de~cas~favorables} }{\mathrm {nombre~de~cas~possibles} }}\\&={\frac {A(n,k)}{n!}},\end{aligned}}}

A(n,k) désigne le nombre de permutations de S n {\displaystyle {\mathfrak {S}}_{n}} possédant exactement k descentes. A(n,k) est appelé nombre eulérien. Posons

S n = U 1 + U 2 + + U n . {\displaystyle S_{n}=U_{1}+U_{2}+\dots +U_{n}.}

On a alors[7]

Théorème (S. Tanny, 1973) — De manière équivalente,

P ( X n = k )   =   P ( S n = k )   =   P ( k S n < k + 1 ) , {\displaystyle \mathbb {P} \left(X_{n}=k\right)\ =\ \mathbb {P} \left(\lfloor S_{n}\rfloor =k\right)\ =\ \mathbb {P} \left(k\leq S_{n}<k+1\right),}

ou bien

A ( n , k )   =   n !   P ( k S n < k + 1 ) . {\displaystyle A(n,k)\ =\ n!\ \mathbb {P} \left(k\leq S_{n}<k+1\right).}
Démonstration

On suppose la suite U = ( U 1 , U 2 , , U n ) {\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} construite à l'aide d'une suite V = ( V 1 , V 2 , , V n ) {\displaystyle V=(V_{1},V_{2},\dots ,V_{n})} de variables aléatoires indépendantes et uniformes sur [0, 1], via la relation U k = { V 1 + V 2 + + V k } {\displaystyle U_{k}=\{V_{1}+V_{2}+\dots +V_{k}\}} (on rappelle que { } désigne la partie fractionnaire). On sait alors, grâce à des considérations d'invariance (voir plus haut), que U = ( U 1 , U 2 , , U n ) {\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} est une suite de variables aléatoires indépendantes et uniformes sur [0, 1]. On construit alors une permutation aléatoire uniforme σ(., ω) à l'aide de la suite U, comme indiqué à la section ci-dessus : il y a descente au rang i pour σ(., ω) si σ(i, ω) > σ(i + 1, ω) ou, de manière équivalente, si U i ( ω ) > U i + 1 ( ω ) . {\displaystyle U_{i}(\omega )>U_{i+1}(\omega ).} Parallèlement, on dessine, sur le cercle trigonométrique, les points M k ( ω ) {\displaystyle M_{k}(\omega )} ayant pour affixes e 2 i π U k ( ω ) . {\displaystyle {\rm {e}}^{2{\rm {i}}\pi U_{k}(\omega )}.} On entreprend alors un voyage sur le cercle unité, consistant à parcourir les points M 1 ( ω ) , {\displaystyle M_{1}(\omega ),} puis M 2 ( ω ) , {\displaystyle M_{2}(\omega ),} puis… , puis M n ( ω ) , {\displaystyle M_{n}(\omega ),} dans cet ordre, en tournant toujours dans le sens trigonométrique, et en partant du point A d'affixe 1 (de coordonnées cartésiennes (0, 1)). La longueur totale du chemin ainsi parcouru est alors

2 π   ( V 1 + V 2 + + V n ) . {\displaystyle 2\pi \ \left(V_{1}+V_{2}+\dots +V_{n}\right).}

Par ailleurs, il y a descente au rang i pour σ(., ω) si et seulement si l'étape du voyage ci-dessus allant du point M i ( ω ) {\displaystyle M_{i}(\omega )} au point M i + 1 ( ω ) {\displaystyle M_{i+1}(\omega )} traverse A. Donc le nombre de descentes de σ(., ω) est le nombre de traversées du point A, qui est aussi le nombre de tours complets du cercle unité effectués lors du voyage de A à M n ( ω ) . {\displaystyle M_{n}(\omega ).} Au vu du calcul donnant la longueur totale du chemin ainsi parcouru, voir ci-dessus, le nombre de tours complets s'écrit aussi :

V 1 ( ω ) + V 2 ( ω ) + + V n ( ω ) . {\displaystyle \left\lfloor V_{1}(\omega )+V_{2}(\omega )+\dots +V_{n}(\omega )\right\rfloor .}

Ainsi le nombre de descentes de σ(., ω) est égal à V 1 ( ω ) + V 2 ( ω ) + + V n ( ω ) . {\displaystyle \left\lfloor V_{1}(\omega )+V_{2}(\omega )+\dots +V_{n}(\omega )\right\rfloor .} Le nombre de descentes de σ a donc même loi que S n . {\displaystyle \left\lfloor S_{n}\right\rfloor .}

Il en découle immédiatement un théorème central limite pour X n , {\displaystyle X_{n},} via le théorème de Slutsky.

Notes et références

  1. Voir l'article détaillé ici.
  2. La version pdf (libre et autorisée) de (en) Luc Devroye, Non-Uniform Random Variate Generation, New York, Springer-Verlag, , 1re éd. (lire en ligne) est disponible, ainsi qu'un récit humoristique des démêlés de Luc Devroye avec son éditeur.
  3. (en) KN Nechval, NA Nechval NA, EK Vasermanis et VY Makeev, « Constructing shortest-length confidence intervals », Transport and Telecommunication, vol. 3, no 1,‎ , p. 95-103 (lire en ligne)
  4. a et b Jean-Jacques Ruch, « Statistiques : estimation », sur www.google.fr (consulté le )
  5. a b et c Christophe Boilley, « Estimation des bornes d'une loi uniforme », sur Classeur numérique de Christophe Boilley, (consulté le )
  6. Plus exactement, la méthode nécessite deux tirages indépendants U(0, 1) pour fournir deux tirages normaux indépendants.
  7. voir (en) S. Tanny, « A probabilistic interpretation of the Eulerian numbers », Duke Math. J., vol. 40,‎ , p. 717-722 ou bien (en) R.P. Stanley, « Eulerian partitions of a unit hypercube », Higher Combinatorics, Dordrecht, M. Aigner, ed., Reidel,‎ .

Articles connexes

v · m
Lois discrètes
à support fini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
Lois absolument continues
à support compact
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
à support semi-infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Lois multidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique