Distribuzione normale

Variabile casuale normale (o di Gauss)
Funzione di densità
Funzione di densità di una variabile casuale normale
La linea in rosso si riferisce alla variabile casuale normale standardizzata
Funzione di ripartizione
Funzione di ripartizione di una variabile casuale normale o semi-campana di Gauss
I colori corrispondono a quelli delle densità della figura precedente
Parametri μ     R {\displaystyle \mu ~\in ~\mathbb {R} } , σ 2     ( 0 , ) {\displaystyle \sigma ^{2}~\in ~(0,\infty )}
Supporto R {\displaystyle \mathbb {R} }
Funzione di densità 1 2 π σ 2 exp { 1 2 ( x μ σ ) 2 } {\displaystyle {\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp \left\{-{\frac {1}{2}}\left({\frac {x-\mu }{\sigma }}\right)^{2}\right\}}
Funzione di ripartizione 1 2 ( 1 + e r f x μ σ 2 ) {\displaystyle {\frac {1}{2}}\left(1+\mathrm {erf} \,{\frac {x-\mu }{\sigma {\sqrt {2}}}}\right)}
Valore atteso μ {\displaystyle \mu }
Mediana μ {\displaystyle \mu }
Moda μ {\displaystyle \mu }
Varianza σ 2 {\displaystyle \sigma ^{2}}
Indice di asimmetria 0 {\displaystyle 0}
Curtosi 0 {\displaystyle 0}
Entropia ln ( σ 2 π e ) {\displaystyle \ln \left(\sigma {\sqrt {2\,\pi \,e}}\right)}
Funzione generatrice dei momenti M X ( t ) = exp ( μ t + σ 2 t 2 2 ) {\displaystyle {M_{X}(t)=\exp \left(\mu \,t+{\frac {\sigma ^{2}t^{2}}{2}}\right)}}
Funzione caratteristica φ X ( t ) = exp ( μ i t σ 2 t 2 2 ) {\displaystyle \varphi _{X}(t)=\exp \left(\mu \,i\,t-{\frac {\sigma ^{2}t^{2}}{2}}\right)}
Manuale

La distribuzione normale (o distribuzione di Gauss dal nome del matematico tedesco Carl Friedrich Gauss, o distribuzione a Campana di Gauss), nella teoria della probabilità, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio.

Il grafico della funzione di densità di probabilità associata è simmetrico e ha una forma a campana, nota come "curva a campana", "curva normale", "curva gaussiana"[1] o "curva degli errori".[2]

Descrizione

La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema del limite centrale. Un insieme di valori dato potrebbe essere normale: per stabilirlo si può usare un test di normalità. Più specificamente, assumendo certe condizioni, la somma di n {\displaystyle n} variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n {\displaystyle n} all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali[3] come un semplice modello per fenomeni complessi.

La distribuzione normale dipende da due parametri, la media μ {\displaystyle \mu } e la varianza σ 2 {\displaystyle \sigma ^{2}} , ed è indicata tradizionalmente con:

  N ( μ ; σ 2 ) . {\displaystyle \ N(\mu ;\sigma ^{2}).} [4]

Metodologia

La distribuzione normale è caratterizzata dalla seguente funzione di densità di probabilità, cui spesso si fa riferimento con la dizione curva di Gauss o gaussiana:

f ( x ) = 1 2 π σ 2 e ( x μ ) 2 2 σ 2    con    x R . {\displaystyle f(x)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\;e^{-{\frac {\left(x-\mu \right)^{2}}{2\sigma ^{2}}}}~{\mbox{ con }}~x\in \mathbb {R} .}

Dove μ {\displaystyle \mu } è il valore atteso e σ 2 {\displaystyle \sigma ^{2}} la varianza.

Per dimostrare che p X ( x ) {\displaystyle p_{X}(x)} è effettivamente una funzione di densità di probabilità si ricorre innanzi tutto alla standardizzazione (statistica) della variabile casuale, cioè alla trasformazione tale per cui risulta:

Z = x μ σ {\displaystyle Z={\frac {x-\mu }{\sigma }}} ,

dove la variabile risultante < Z < + {\displaystyle -\infty <Z<+\infty } ha anch'essa distribuzione normale con parametri μ = 0 {\displaystyle \mu =0} e σ = 1 {\displaystyle \sigma =1} . L'integrale della funzione di densità di probabilità della variabile casuale standardizzata Z {\displaystyle Z} è il seguente:

S = + p Z ( z ) d z = + 1 2 π e z 2 2 d z {\displaystyle S=\int _{-\infty }^{+\infty }p_{Z}(z)dz=\int _{-\infty }^{+\infty }{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {z^{2}}{2}}}dz}

Dato che deve necessariamente valere la condizione S = 1 {\displaystyle S=1} , allora risulta anche S 2 = 1 {\displaystyle S^{2}=1} quindi:

S 2 = + p Z ( z ) d z + p Y ( y ) d y {\displaystyle S^{2}=\int _{-\infty }^{+\infty }p_{Z}(z)dz\int _{-\infty }^{+\infty }p_{Y}(y)dy}
S 2 = 1 2 π + + e z 2 + y 2 2 d z d y {\displaystyle S^{2}={\frac {1}{2\pi }}\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }e^{-{\frac {z^{2}+y^{2}}{2}}}dzdy}

dove anche la variabile casuale Y {\displaystyle Y} ha distribuzione normale standardizzata. Per risolvere questo integrale doppio si ricorre alle coordinate polari z = ρ cos θ {\displaystyle z=\rho \cos \theta } e y = ρ sin θ {\displaystyle y=\rho \sin \theta } , dove ρ 0 {\displaystyle \rho \geq 0} e 0 θ 2 π {\displaystyle 0\leq \theta \leq 2\pi } . La matrice jacobiana della trasformazione è

J ( ρ , θ ) = [ z ρ z θ y ρ y θ ] = [ cos θ ρ sin θ sin θ ρ cos θ ] {\displaystyle J(\rho ,\theta )=\left[{\begin{array}{cc}{\frac {\partial z}{\partial \rho }}&{\frac {\partial z}{\partial \theta }}\\\\{\frac {\partial y}{\partial \rho }}&{\frac {\partial y}{\partial \theta }}\end{array}}\right]=\left[{\begin{array}{cc}\cos \theta &-\rho \sin \theta \\\sin \theta &\rho \cos \theta \end{array}}\right]} ,

il cui determinante è pari a | J ( ρ , θ ) | = ρ ( cos 2 θ + sin 2 θ ) = ρ {\displaystyle |J(\rho ,\theta )|=\rho (\cos ^{2}\theta +\sin ^{2}\theta )=\rho } . Sostituendo nell'integrale di cui sopra si ottiene:

S 2 = 1 2 π 0 + 0 2 π e ρ 2 ( cos 2 θ + sin 2 θ ) 2 | J ( ρ , θ ) | d θ d ρ = 0 + e ρ 2 2 ρ   d ρ = 1 {\displaystyle S^{2}={\frac {1}{2\pi }}\int _{0}^{+\infty }\int _{0}^{2\pi }e^{-{\frac {\rho ^{2}(\cos ^{2}\theta +\sin ^{2}\theta )}{2}}}|J(\rho ,\theta )|d\theta d\rho =\int _{0}^{+\infty }e^{-{\frac {\rho ^{2}}{2}}}\rho \ d\rho =1}

La sua funzione generatrice dei momenti è

g ( x ) = e μ x + σ 2 x 2 2 {\displaystyle g(x)=e^{\mu x+\sigma ^{2}{\frac {x^{2}}{2}}}}

Il valore atteso e la varianza (che sono gli unici due parametri di questa variabile casuale) sono appunto μ {\displaystyle \mu } e σ 2 {\displaystyle \sigma ^{2}} .

Non essendo possibile esprimere l'integrale della p X ( x ) {\displaystyle p_{X}(x)} in forma chiusa mediante funzioni elementari, è necessario rendere disponibili in forma tabellare i valori della sua funzione di ripartizione. I più usati sono:

68 , 3 % = P { μ 1 , 00 σ < X < μ + 1 , 00 σ } {\displaystyle 68,3\%=P\left\{\mu -1,00\sigma <X<\mu +1,00\sigma \right\}}
95 , 0 % = P { μ 1 , 96 σ < X < μ + 1 , 96 σ } {\displaystyle 95,0\%=P\left\{\mu -1,96\sigma <X<\mu +1,96\sigma \right\}}
95 , 5 % = P { μ 2 , 00 σ < X < μ + 2 , 00 σ } {\displaystyle 95,5\%=P\left\{\mu -2,00\sigma <X<\mu +2,00\sigma \right\}}
99 , 0 % = P { μ 2 , 58 σ < X < μ + 2 , 58 σ } {\displaystyle 99,0\%=P\left\{\mu -2,58\sigma <X<\mu +2,58\sigma \right\}}
99 , 7 % = P { μ 3 , 00 σ < X < μ + 3 , 00 σ } {\displaystyle 99,7\%=P\left\{\mu -3,00\sigma <X<\mu +3,00\sigma \right\}}

Essendo p X ( x ) {\displaystyle p_{X}(x)} una funzione simmetrica è sufficiente conoscere la funzione di ripartizione dei valori positivi, per conoscere pure quella dei valori negativi (e viceversa).

Dalla variabile casuale Normale si possono ottenere altre variabili casuali, come la t di Student, la Chi Quadrato e la F di Fisher-Snedecor, nonché le loro "varianti" non centrali (t non centrale, chi quadrato non centrale e F non centrale).

Teoremi

Combinazione lineare di variabili gaussiane

Se
X 1 , X 2 , , X n {\displaystyle X_{1},\,X_{2},\,\cdots ,X_{n}} sono n {\displaystyle n} variabili casuali Normali tra di loro indipendenti, ciascuna con valore atteso μ i {\displaystyle \mu _{i}} e varianza σ i 2 {\displaystyle \sigma _{i}^{2}} ,
allora
la variabile casuale Y = α 1 X 1 + α 2 X 2 + + α n X n {\displaystyle Y=\alpha _{1}X_{1}+\alpha _{2}X_{2}+\cdots +\alpha _{n}X_{n}} è a sua volta una variabile casuale Normale con valore atteso μ = α 1 μ 1 + α 2 μ 2 + + α n μ n {\displaystyle \mu =\alpha _{1}\mu _{1}+\alpha _{2}\mu _{2}+\cdots +\alpha _{n}\mu _{n}} e varianza σ 2 = α 1 2 σ 1 2 + α 2 2 σ 2 2 + + α n 2 σ n 2 {\displaystyle \sigma ^{2}=\alpha _{1}^{2}\sigma _{1}^{2}+\alpha _{2}^{2}\sigma _{2}^{2}+\cdots +\alpha _{n}^{2}\sigma _{n}^{2}} .

Altri teoremi: teorema di Cochran.

Relazioni con altre variabili casuali

La Normale come derivazione da altre voci

I teoremi del limite centrale sono una famiglia di teoremi che hanno in comune l'affermazione che la somma (normalizzata) di un grande numero di variabili casuali è distribuita approssimativamente come una variabile casuale normale.

Se X {\displaystyle X} è distribuita come una variabile casuale binomiale con n {\displaystyle n} molto grande (per dare un'idea di quanto grande, possiamo dire che deve essere n > 30 {\displaystyle n>30} ), e approssimativamente n p > 10 {\displaystyle np>10} , allora la binomiale può essere approssimata con una Normale con valore atteso pari a n p {\displaystyle np} e varianza uguale a n p q : N ( n p ; n p q ) {\displaystyle npq:N(np;npq)} .

Se X {\displaystyle X} è distribuita come una variabile casuale poissoniana con il parametro λ {\displaystyle \lambda } molto grande (orientativamente λ > 10 {\displaystyle \lambda >10} ), allora la Poissoniana può essere approssimata con una Normale con valore atteso e varianza pari a λ : N ( λ ; λ ) {\displaystyle \lambda :N(\lambda ;\lambda )} .

Variabili casuali derivate dalla Normale

Date n {\displaystyle n} distribuzioni normali Z 1 ( 0 ; 1 ) ; Z 2 ( 0 ; 1 ) ; Z n ( 0 ; 1 ) {\displaystyle Z_{1}(0;1);\,Z_{2}(0;1);\,\cdots \,Z_{n}(0;1)} con media nulla e varianza unitaria indipendenti tra loro. Allora

χ n 2 = Z 1 2 + Z 2 2 + + Z n 2 {\displaystyle \chi _{n}^{2}=Z_{1}^{2}+Z_{2}^{2}+\cdots +Z_{n}^{2}}

è una variabile casuale chi quadro con n {\displaystyle n} gradi di libertà.

Siano Z 1 , Z 2 , , Z n {\displaystyle Z_{1},\,Z_{2},\,\cdots ,\,Z_{n}} variabili casuali indipendenti distribuite come una Normale con media nulla e varianza unitaria, e siano inoltre a 1 , a 2 , , a n {\displaystyle a_{1},\,a_{2},\,\cdots ,\,a_{n}} delle costanti tali che

λ = a i 2 , {\displaystyle \lambda =\sum {a_{i}^{2}},}

allora si indica con χ 2 {\displaystyle \chi '^{2}} la variabile casuale chi quadro non centrale con n {\displaystyle n} gradi di libertà costruita come

χ 2 = ( Z i + a i ) 2 . {\displaystyle \chi '^{2}=\sum (Z_{i}+a_{i})^{2}.}

Se Z N ( 0 ; 1 ) {\displaystyle Z\sim N(0;1)} e X χ n 2 {\displaystyle X\sim \chi _{n}^{2}} tra loro indipendenti, allora T = Z / X / n {\displaystyle T=Z/{\sqrt {X/n}}} è distribuita come una t di Student con n {\displaystyle n} gradi di libertà.

Se X 1 , X 2 , , X n  i.i.d. N ( μ , σ 2 ) {\displaystyle X_{1},X_{2},\dots ,X_{n}{\text{ i.i.d.}}\sim {\mathcal {N}}(\mu ,\sigma ^{2})} e X ¯ = i = 1 n X i n {\displaystyle \displaystyle {\bar {X}}={\frac {\sum _{i=1}^{n}X_{i}}{n}}} è la v.c. media campionaria, mentre σ ^ 2 = i = 1 n ( X i X ¯ ) 2 n {\displaystyle {\hat {\sigma }}^{2}={\frac {\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}}{n}}} è la v.c. varianza campionaria non corretta, allora X ¯ N ( μ , σ 2 n ) {\displaystyle {\bar {X}}\sim {\mathcal {N}}\left(\mu ,{\frac {\sigma ^{2}}{n}}\right)} e n σ ^ 2 σ 2 χ 2 ( n 1 ) {\displaystyle {\frac {n{\hat {\sigma }}^{2}}{\sigma ^{2}}}\sim \chi ^{2}(n-1)} , inoltre X ¯ {\displaystyle {\bar {X}}} e σ ^ 2 {\displaystyle {\hat {\sigma }}^{2}} sono indipendenti.

Se Z N ( 0 ; 1 ) {\displaystyle Z\sim N(0;1)} e T = β ( α Z 2 + ( α Z ) 2 4 + 1 ) 2 {\displaystyle T=\beta \left({\tfrac {\alpha Z}{2}}+{\sqrt {{\tfrac {(\alpha Z)^{2}}{4}}+1}}\right)^{2}} , allora T {\displaystyle T} è una v.c. di Birnbaum-Saunders con i parametri α {\displaystyle \alpha } e β {\displaystyle \beta } .

La normale nell'inferenza bayesiana

Variabile casuale Gamma come priori coniugati della normale

Nell'ambito dell'inferenza bayesiana si trova la seguente relazione tra la normale e la distribuzione Gamma.

Se x {\displaystyle x} è una distribuzione normale con parametri μ {\displaystyle \mu } e 1 / θ {\displaystyle 1/\theta }

f ( x | θ ) = N ( x | μ ; 1 / θ ) {\displaystyle f(x|\theta )=N(x|\mu ;1/\theta )}

e il parametro θ {\displaystyle \theta } ha una distribuzione Γ {\displaystyle \Gamma } con i parametri a {\displaystyle a} e b {\displaystyle b}

g ( θ ) = Γ ( θ | a ; b ) , {\displaystyle g(\theta )=\Gamma (\theta |a;b),}

allora il parametro θ {\displaystyle \theta } è distribuito a posteriori anch'esso come una variabile casuale Gamma, ma con parametri a + 1 2 {\displaystyle a+{\frac {1}{2}}} e b + ( μ x ) 2 2 {\displaystyle b+{\frac {(\mu -x)^{2}}{2}}} :

g ( θ | x ) = Γ ( θ | a + 1 / 2 ; b + ( μ x ) 2 / 2 ) . {\displaystyle g(\theta |x)=\Gamma (\theta |a+1/2;b+(\mu -x)^{2}/2).}

Priori coniugati normale di una normale

Se X {\displaystyle X} è distribuita come una v.c. normale con parametri m {\displaystyle m} e σ 2 {\displaystyle \sigma ^{2}}

f ( x | m ) = N ( x | m ; 1 / r 2 ) {\displaystyle f(x|m)=N(x|m;1/r^{2})}

e il parametro m {\displaystyle m} è distribuito a priori come una v.c. normale con i parametri μ {\displaystyle \mu } e σ 2 {\displaystyle \sigma ^{2}}

g ( m ) = N ( m | μ ; σ 2 ) , {\displaystyle g(m)=N(m|\mu ;\sigma ^{2}),}

allora il parametro m {\displaystyle m} è distribuito a posteriori anch'esso come una v.c. Normale, ma con parametri:

( σ 2 μ + r 2 x ) / ( σ 2 + r 2 ) {\displaystyle (\sigma ^{2}\mu +r^{2}x)/(\sigma ^{2}+r^{2})} e ( σ 2 r 2 ) / ( σ 2 + r 2 ) {\displaystyle (\sigma ^{2}r^{2})/(\sigma ^{2}+r^{2})}

g ( m | x ) = N ( m | ( σ 2 μ + r 2 x ) / ( σ 2 + r 2 ) ; ( σ 2 r 2 ) / ( σ 2 + r 2 ) ) . {\displaystyle g(m|x)=N(m|(\sigma ^{2}\mu +r^{2}x)/(\sigma ^{2}+r^{2});(\sigma ^{2}r^{2})/(\sigma ^{2}+r^{2})).}

Storia

Abraham de Moivre, nell'ambito dei suoi studi sulla probabilità, introdusse per la prima volta la distribuzione normale in un articolo del 1733. Gauss, che a quel tempo non era ancora nato, ne fu invece un grande utilizzatore: egli propose la "distribuzione normale" studiando il moto dei corpi celesti[5]. Altri la usavano per descrivere fenomeni anche molto diversi come i colpi di sfortuna nel gioco d'azzardo o la distribuzione dei tiri attorno ai bersagli. Da qui i nomi "curva di Gauss" e "curva degli errori".

Nel 1809 il matematico americano Adrain pubblicò due derivazioni della legge normale di probabilità, simultaneamente e indipendentemente da Gauss[6] I suoi lavori rimasero ampiamente ignorati dalla comunità scientifica fino al 1871, allorché furono "riscoperti" da Cleveland Abbe.[7].

Nel 1835 Quételet pubblicò uno scritto nel quale, fra le altre cose, c'erano i dati riguardanti la misura del torace di soldati scozzesi e la statura dei militari di leva francesi. Quételet mostrò come tali dati si distribuivano come una "Gaussiana", ma non andò oltre.

Fu Galton a intuire che la curva in questione, da lui detta anche "ogiva", poteva essere applicata a fenomeni anche molto diversi, e non solo ad "errori". Questa idea di curva per descrivere i "dati" in generale portò ad usare il termine "Normale", in quanto rappresentava un substrato "normale" ovvero la "norma" per qualsiasi distribuzione presente in natura.

Nel tentativo di confrontare curve diverse, Galton - in mancanza di strumenti adeguati - si limitò ad usare due soli parametri: la media e la varianza, dando così inizio alla statistica parametrica.

Note

  1. ^ curva normale in "Enciclopedia della Matematica", su treccani.it. URL consultato il 27 gennaio 2022.
  2. ^ gaussiana, distribuzione in "Dizionario di Economia e Finanza", su treccani.it. URL consultato il 27 gennaio 2022.
  3. ^ Gale Encyclopedia of Psychology — Normal Distribution
  4. ^ Ross (2003), p. 170.
  5. ^ Tony Crilly, 50 grandi idee di matematica, EDIZIONI DEDALO, 1º gennaio 2009, ISBN 9788822068095. URL consultato il 26 febbraio 2017.
  6. ^ Stigler (1978), p. 243.
  7. ^ Stigler (1978), p. 244.

Bibliografia

  • Sheldon Ross, Probabilità e statistica per l'ingegneria e le scienze, Apogeo, 2003, ISBN 9788873038979.
  • Stephen M. Stigler, Mathematical Statistics in the Early States, in The Annals of Statistics, vol. 6, n. 2, 1º marzo 1978, pp. 239–265, DOI:10.1214/aos/1176344123.

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file sulla distribuzione normale

Collegamenti esterni

  • (EN) normal distribution, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Distribuzione normale, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Thermopedia, "Gaussian Distribution"
Controllo di autoritàThesaurus BNCF 57810 · LCCN (EN) sh85053556 · GND (DE) 4075494-7 · BNF (FR) cb119421818 (data) · J9U (ENHE) 987007560462505171
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica