Distribuzione di Bernoulli

Distribuzione di Bernoulli B ( p ) {\displaystyle {\mathcal {B}}(p)}
Funzione di distribuzione discreta
Funzione di densità di una variabile casuale normale
Tre esempi di distribuzioni di Bernoulli:
  •       P ( x = 0 ) = 0 , 2 {\displaystyle P(x=0)=0,2} e P ( x = 1 ) = 0 , 8 {\displaystyle P(x=1)=0,8}

  •       P ( x = 0 ) = 0 , 8 {\displaystyle P(x=0)=0,8} e P ( x = 1 ) = 0 , 2 {\displaystyle P(x=1)=0,2}

  •       P ( x = 0 ) = 0 , 5 {\displaystyle P(x=0)=0,5} e P ( x = 1 ) = 0 , 5 {\displaystyle P(x=1)=0,5}

Funzione di ripartizione
Parametri p [ 0 , 1 ] {\displaystyle p\in [0,1]}
q = 1 p {\displaystyle q=1-p}
Supporto { 0 , 1 }   {\displaystyle \{0,1\}\ }
Funzione di densità f ( x ) = { q = 1 p se  x = 0 p se  x = 1 0 altrimenti {\displaystyle f(x)={\begin{cases}q=1-p&{\text{se }}x=0\\p&{\text{se }}x=1\\0&{\text{altrimenti}}\end{cases}}}
Funzione di ripartizione F ( x ) = { 0 se  x < 0 1 p se  0 x < 1 1 se  x 1 {\displaystyle F(x)={\begin{cases}0&{\text{se }}x<0\\1-p&{\text{se }}0\leq x<1\\1&{\text{se }}x\geq 1\end{cases}}}
Valore atteso p   {\displaystyle p\ }
Varianza p q   {\displaystyle pq\ }
Indice di asimmetria q p p q {\displaystyle {\frac {q-p}{\sqrt {pq}}}}
Curtosi 1 p q 6 {\displaystyle {\frac {1}{pq}}-6}
Entropia q log ( q ) p log ( p )   {\displaystyle -q\log(q)-p\log(p)\ }
Funzione generatrice dei momenti q + p e t   {\displaystyle q+pe^{t}\ }
Funzione caratteristica q + p e i t   {\displaystyle q+pe^{it}\ }
Manuale

In teoria delle probabilità la distribuzione di Bernoulli (o bernoulliana) è una distribuzione di probabilità su due soli valori: 0 {\displaystyle 0} e 1 {\displaystyle 1} ,[1] detti anche fallimento e successo. Prende il nome dallo scienziato svizzero Jakob Bernoulli (1654-1705).

Definizione

Una variabile aleatoria discreta X {\displaystyle X} ha distribuzione di Bernoulli B ( p ) {\displaystyle {\mathcal {B}}(p)} di parametro p [ 0 , 1 ] {\displaystyle p\in [0,1]} se e solo se

P ( X = 1 ) = p , {\displaystyle P(X=1)=p,}
P ( X = 0 ) = q = 1 p , {\displaystyle P(X=0)=q=1-p,}

ossia

P ( X = i ) = p i ( 1 p ) 1 i {\displaystyle P(X=i)=p^{i}(1-p)^{1-i}} per i = 0 , 1. {\displaystyle i=0,1.}

Il valore atteso è

E ( X ) = 0 p 0 ( 1 p ) 1 0 + 1 p 1 ( 1 p ) 1 1 = p , {\displaystyle \mathrm {E} (X)=0\cdot p^{0}(1-p)^{1-0}+1\cdot p^{1}(1-p)^{1-1}=p,}

e la varianza è

V a r ( X ) = p q = p ( 1 p ) . {\displaystyle \mathrm {Var} (X)=pq=p(1-p).}

Altre leggi

Un processo di Bernoulli è una successione di variabili aleatorie indipendenti X i {\displaystyle X_{i}} di uguale distribuzione di Bernoulli B ( p ) {\displaystyle {\mathcal {B}}(p)} , dette prove di Bernoulli. Da tale processo si possono definire le seguenti ulteriori leggi. La distribuzione binomiale descrive la probabilità del numero di successi in n {\displaystyle n} prove di Bernoulli, ovvero della variabile aleatoria

S n = X 1 + X 2 + + X n . {\displaystyle S_{n}=X_{1}+X_{2}+\ldots +X_{n}.}

La distribuzione geometrica e più in generale la distribuzione di Pascal descrivono il tempo del primo e del k {\displaystyle k} -esimo successo rispettivamente, ovvero le variabili aleatorie T = T 1 {\displaystyle T=T_{1}} e T k {\displaystyle T_{k}} definite come

T k = min { t : S t = k } . {\displaystyle T_{k}=\min\{t\colon S_{t}=k\}.}

Note

  1. ^ Ross, p. 145.

Bibliografia

  • Alexander M. Mood, Franklin A. Graybill, Duane C. Boes, Introduzione alla statistica, McGraw-Hill, 1991.
  • Paolo Baldi, Calcolo delle probabilità e statistica, 2ª ed., McGraw-Hill, 1998, ISBN 9788838607370.
  • Sheldon M. Ross, Probabilità e statistica per l'ingegneria e le scienze, Trento, Apogeo, 2003, ISBN 88-7303-897-2.

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su distribuzione di Bernoulli

Collegamenti esterni

  Portale Matematica
  Portale Statistica