Bernoulli-Verteilung

Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung für p = 0 , 2 {\displaystyle p=0{,}2} (blau), p = 0 , 5 {\displaystyle p=0{,}5} (grün) und p = 0 , 8 {\displaystyle p=0{,}8} (rot)

Zufallsvariablen mit einer Bernoulli-Verteilung (auch als Bernoullische Verteilung[1], Null-Eins-Verteilung[1], Alternativ-Verteilung[2] oder Boole-Verteilung[3] bezeichnet) benutzt man zur Beschreibung von zufälligen Ereignissen, bei denen es nur zwei mögliche Versuchsausgänge gibt. Einer der Versuchsausgänge wird meistens mit Erfolg bezeichnet und der komplementäre Versuchsausgang mit Misserfolg. Die zugehörige Wahrscheinlichkeit p {\displaystyle p} für einen Erfolg nennt man Erfolgswahrscheinlichkeit und q = 1 p {\displaystyle q=1-p} die Wahrscheinlichkeit eines Misserfolgs. Beispiele:

  • Werfen einer Münze: Kopf (Erfolg), p = 1 / 2 {\displaystyle p=1/2} , und Zahl (Misserfolg), q = 1 / 2 {\displaystyle q=1/2} .
  • Werfen eines Würfels, wobei nur eine „6“ als Erfolg gewertet wird: p = 1 / 6 {\displaystyle p=1/6} , q = 5 / 6 {\displaystyle q=5/6} .
  • Betrachte sehr kleines Raum/Zeit-Intervall: Ereignis tritt ein ( p 0 ) {\displaystyle (p\gtrapprox 0)} , tritt nicht ein ( q 1 ) {\displaystyle (q\lessapprox 1)} .

Die Bezeichnung Bernoulli-Versuch (Bernoullian trials nach Jakob I Bernoulli) wurde erstmals 1937 in dem Buch Introduction to Mathematical Probability von James Victor Uspensky verwendet.[4]

Definition

Eine diskrete Zufallsgröße X {\displaystyle X} mit Werten in der Menge { 0 , 1 } {\displaystyle \{0,1\}} unterliegt der Bernoulli-Verteilung oder Null-Eins-Verteilung mit dem Parameter p ( 0 , 1 ) {\displaystyle p\in (0,1)} , wenn sie der folgenden Wahrscheinlichkeitsfunktion folgt

f ( x ) = P ( X = x ) = { 1 p falls x = 0 , p falls x = 1 , 0 sonst. {\displaystyle f(x)=P(X=x)={\begin{cases}1-p&{\text{falls}}\quad x=0,\\p&{\text{falls}}\quad x=1,\\0&{\text{sonst.}}\end{cases}}}

Die Verteilungsfunktion ist dann

F ( x ) = P ( X x ) = { 0  falls  x < 0 1 p  falls  0 x < 1 1  falls  x 1 {\displaystyle F(x)=P(X\leq x)={\begin{cases}0&{\text{ falls }}\quad x<0\\1-p&{\text{ falls }}\quad 0\leq x<1\\1&{\text{ falls }}\quad x\geq 1\end{cases}}} .

Man schreibt dann X B ( p ) {\displaystyle X\sim {\mathcal {B}}(p)} , X B e r ( p ) {\displaystyle X\sim \mathrm {Ber} (p)} oder X B e r p {\displaystyle X\sim Ber_{p}} . Der Parameter p {\displaystyle p} heißt in diesem Zusammenhang auch Bernoulli-Parameter.

Eine Zufallsvariable, deren Verteilung eine Bernoulli-Verteilung ist, heißt Bernoulli-verteilt. Eine Bernoulli-verteilte Zufallsvariable wird auch als Bernoulli-Variable bezeichnet.

Ein Zufallsexperiment, dessen Ausgang durch eine Bernoulli-Variable beschrieben ist, heißt Bernoulli-Experiment oder Bernoulli-Versuch. Eine Folge von Bernoulli-Versuchen, deren Zufallsvariablen stochastisch unabhängig und identisch – d. h. mit demselben Bernoulli-Parameter – verteilt sind, heißt Bernoulli-Prozess oder bernoullisches Versuchsschema.

Für bestimmte statistische Anwendungen ist es sinnvoll, den erweiterten Parameterraum [ 0 , 1 ] {\displaystyle [0,1]} ergänzt durch die beiden Grenzfälle p = 0 {\displaystyle p=0} und p = 1 {\displaystyle p=1} zugrunde zu legen, bei denen die Bernoulli-Verteilung zu einer Einpunktverteilung auf 0 oder 1 degeneriert. In diesen Fällen gilt P ( X = 0 ) = 1 {\displaystyle P(X=0)=1} bzw. P ( X = 1 ) = 1 {\displaystyle P(X=1)=1} .

Eigenschaften

Im Folgenden ist X B e r ( p ) {\displaystyle X\sim \mathrm {Ber} (p)} mit 0 < p < 1 {\displaystyle 0<p<1} vorausgesetzt.

Erwartungswert

Die Bernoulli-Verteilung mit Parameter p {\displaystyle p} hat den Erwartungswert:

E ( X ) = p {\displaystyle \operatorname {E} \left(X\right)=p}

Dies hat den Grund, dass für eine Bernoulli-verteilte Zufallsvariable X {\displaystyle X} mit P ( X = 1 ) = p {\displaystyle P(X=1)=p} und P ( X = 0 ) = q {\displaystyle P(X=0)=q} gilt:

E ( X ) = P ( X = 1 ) 1 + P ( X = 0 ) 0 = p 1 + q 0 = p {\displaystyle \operatorname {E} (X)=P(X=1)\cdot 1+P(X=0)\cdot 0=p\cdot 1+q\cdot 0=p}

Varianz und weitere Streumaße

Die Bernoulli-Verteilung besitzt die Varianz

Var ( X ) = p ( 1 p ) = p q {\displaystyle \operatorname {Var} (X)=p\cdot (1-p)=pq}

denn es ist E ( X 2 ) = p 1 2 + q 0 2 = p {\displaystyle \operatorname {E} (X^{2})=p\cdot 1^{2}+q\cdot 0^{2}=p} und damit

E ( X 2 ) E ( X ) 2 = p p 2 = p ( 1 p ) = p q {\displaystyle \operatorname {E} \left(X^{2}\right)-\operatorname {E} (X)^{2}=p-p^{2}=p\cdot (1-p)=pq} .

Damit ist die Standardabweichung

σ X = p q {\displaystyle \sigma _{X}={\sqrt {pq}}}

und der Variationskoeffizient

VarK ( X ) = q p {\displaystyle \operatorname {VarK} (X)={\sqrt {\frac {q}{p}}}} .

Symmetrie

Für den Parameter p = 1 2 {\displaystyle p={\tfrac {1}{2}}} ist die Bernoulli-Verteilung symmetrisch um den Punkt a = 1 2 {\displaystyle a={\tfrac {1}{2}}} .

Schiefe

Die Schiefe der Bernoulli-Verteilung ist

v ( X ) = 1 2 p p q {\displaystyle \operatorname {v} (X)={\frac {1-2p}{\sqrt {pq}}}} .

Dies kann folgendermaßen gezeigt werden. Eine standardisierte Zufallsvariable X E ( X ) Var ( X ) {\displaystyle {\frac {X-\operatorname {E} (X)}{\sqrt {\operatorname {Var} (X)}}}} mit X {\displaystyle X} Bernoulli-verteilt nimmt den Wert q p q {\displaystyle {\frac {q}{\sqrt {pq}}}} mit Wahrscheinlichkeit p {\displaystyle p} an und den Wert p p q {\displaystyle -{\frac {p}{\sqrt {pq}}}} mit Wahrscheinlichkeit q {\displaystyle q} . Damit erhalten wir für die Schiefe

v ( X ) = E [ ( X E ( X ) Var ( X ) ) 3 ] = p ( q p q ) 3 + q ( p p q ) 3 = 1 p q 3 ( p q 3 q p 3 ) = p q p q 3 ( q p ) = q p p q {\displaystyle {\begin{aligned}\operatorname {v} (X)&=\operatorname {E} \left[\left({\frac {X-\operatorname {E} (X)}{\sqrt {\operatorname {Var} (X)}}}\right)^{3}\right]\\&=p\cdot \left({\frac {q}{\sqrt {pq}}}\right)^{3}+q\cdot \left(-{\frac {p}{\sqrt {pq}}}\right)^{3}\\&={\frac {1}{{\sqrt {pq}}^{3}}}\left(pq^{3}-qp^{3}\right)\\&={\frac {pq}{{\sqrt {pq}}^{3}}}(q-p)\\&={\frac {q-p}{\sqrt {pq}}}\end{aligned}}}

Wölbung und Exzess

Der Exzess der Bernoulli-Verteilung ist

γ ( X ) = 1 6 p q p q {\displaystyle \gamma (X)={\frac {1-6pq}{pq}}}

und damit ist die Wölbung

β 2 ( X ) = 1 3 p q p q {\displaystyle \beta _{2}(X)={\frac {1-3pq}{pq}}} .

Momente

Alle k-ten Momente m k {\displaystyle m_{k}} sind gleich und es gilt

m k = p {\displaystyle m_{k}=p} .

Es ist nämlich

m k = E ( X k ) = p 1 k + q 0 k = p {\displaystyle m_{k}=\operatorname {E} \left(X^{k}\right)=p\cdot 1^{k}+q\cdot 0^{k}=p} .

Entropie

Die Entropie der Bernoulli-Verteilung ist

H = q log 2 ( q ) p log 2 ( p ) {\displaystyle \mathrm {H} =-q\log _{2}(q)-p\log _{2}(p)}

gemessen in Bit.

Modus

Der Modus der Bernoulli-Verteilung ist

x D = { 0 falls  q > p 0 ; 1 falls  q = p 1 falls  q < p {\displaystyle x_{D}={\begin{cases}0&{\text{falls }}\quad q>p\\0;1&{\text{falls }}\quad q=p\\1&{\text{falls }}\quad q<p\end{cases}}} .

Median

Der Median der Bernoulli-Verteilung ist

m ~ X = { 0 falls  q > p , 1 falls  q < p , {\displaystyle {\tilde {m}}_{X}={\begin{cases}0&{\text{falls }}\quad q>p,\\1&{\text{falls }}\quad q<p,\end{cases}}}

falls p = q {\displaystyle p=q} gilt, ist jedes m ~ X [ 0 , 1 ] {\displaystyle {\tilde {m}}_{X}\in [0,1]} ein Median.

Kumulanten

Die kumulantenerzeugende Funktion ist

g X ( t ) = ln ( p e t + q ) {\displaystyle g_{X}(t)=\ln(pe^{t}+q)} .

Damit sind die ersten Kumulanten κ 1 = p , κ 2 = p q {\displaystyle \kappa _{1}=p,\kappa _{2}=pq} und es gilt die Rekursionsgleichung

κ n + 1 = p ( 1 p ) d κ n d p . {\displaystyle \kappa _{n+1}=p(1-p){\frac {d\kappa _{n}}{dp}}.}

Wahrscheinlichkeitserzeugende Funktion

Die wahrscheinlichkeitserzeugende Funktion ist

m X ( t ) = 1 p + p t {\displaystyle m_{X}(t)=1-p+pt} .

Charakteristische Funktion

Die charakteristische Funktion ist

φ X ( t ) = 1 p + p e i t {\displaystyle \varphi _{X}(t)=1-p+pe^{\mathrm {i} t}} .

Momenterzeugende Funktion

Die momenterzeugende Funktion ist

M X ( t ) = 1 p + p e t {\displaystyle M_{X}(t)=1-p+pe^{t}} .

Beziehung zu anderen Verteilungen

Beziehung zur Binomialverteilung

Die Bernoulli-Verteilung ist ein Spezialfall der Binomialverteilung für n = 1 {\displaystyle n=1} . Mit anderen Worten, die Summe von unabhängigen Bernoulli-verteilten Zufallsgrößen mit identischem Parameter p {\displaystyle p} genügt der Binomialverteilung, demnach ist die Bernoulli-Verteilung nicht reproduktiv. Die Binomialverteilung ist die n {\displaystyle n} -fache Faltung der Bernoulli-Verteilung bei gleichem Parameter p {\displaystyle p} bzw. mit gleicher Wahrscheinlichkeit p {\displaystyle p} .

Beziehung zur verallgemeinerten Binomialverteilung

Die Summe von n {\displaystyle n} voneinander unabhängigen Bernoulli-verteilten Zufallsvariablen, die alle einen unterschiedlichen Parameter p i {\displaystyle p_{i}} besitzen, ist verallgemeinert binomialverteilt.

Beziehung zur Poisson-Verteilung

Die Summe von Bernoulli-verteilten Zufallsgrößen genügt für n {\displaystyle n\to \infty } , p n 0 {\displaystyle p_{n}\to 0} und lim n n p n = λ > 0 {\displaystyle \lim \limits _{n\to \infty }np_{n}=\lambda >0} einer Poisson-Verteilung mit dem Parameter λ {\displaystyle \lambda } . Dies folgt direkt daraus, dass die Summe binomialverteilt ist und für die Binomialverteilung die Poisson-Approximation gilt.

Beziehung zur Zweipunktverteilung

Die Bernoulli-Verteilung ist ein Spezialfall der Zweipunktverteilung mit a = 0 , b = 1 {\displaystyle a=0,b=1} . Umgekehrt ist die Zweipunktverteilung eine Verallgemeinerung der Bernoulli-Verteilung auf beliebige zweielementige Punktmengen.

Beziehung zur Rademacher-Verteilung

Sowohl die Bernoulli-Verteilung mit p = q = 0 , 5 {\displaystyle p=q=0{,}5} als auch die Rademacher-Verteilung modellieren einen fairen Münzwurf (oder eine faire, zufällige Ja/Nein-Entscheidung). Der Unterschied besteht lediglich darin, dass Kopf (Erfolg) und Zahl (Misserfolg) unterschiedlich codiert werden.

Beziehung zur geometrischen Verteilung

Bei Hintereinanderausführung von Bernoulli-verteilten Experimenten ist die Wartezeit auf den ersten Erfolg (oder letzten Misserfolg, je nach Definition) geometrisch verteilt.

Beziehung zur diskreten Gleichverteilung

Die Bernoulli-Verteilung mit p = q = 1 2 {\displaystyle p=q={\frac {1}{2}}} ist eine diskrete Gleichverteilung auf { 0 , 1 } {\displaystyle \{0,1\}} .

Urnenmodell

Die Bernoulli-Verteilung lässt sich auch aus dem Urnenmodell erzeugen, wenn p = k n {\displaystyle p={\frac {k}{n}}} mit k , n N {\displaystyle k,n\in \mathbb {N} } ist. Dann entspricht dies dem einmaligen Ziehen aus einer Urne mit n {\displaystyle n} Kugeln, von denen genau k {\displaystyle k} rot sind und alle anderen eine andere Farbe besitzen. Die Wahrscheinlichkeit, eine rote Kugel zu ziehen, ist dann p {\displaystyle p} .

Simulation

Bei der Simulation macht man sich zunutze, dass, wenn U {\displaystyle {\mathcal {U}}} eine stetig gleichverteilte Zufallsvariable auf [ 0 , 1 ] {\displaystyle [0,1]} ist, die Zufallsvariable Y = 1 { U 1 p } {\displaystyle Y=\mathbf {1} _{\{{\mathcal {U}}\geq 1-p\}}} Bernoulli-verteilt ist mit Parameter p {\displaystyle p} . Da fast jeder Computer Standardzufallszahlen erzeugen kann, ist die Simulation wie folgend:

  1. Erzeuge eine Standardzufallszahl u i {\displaystyle u_{i}}
  2. Ist u i 1 p {\displaystyle u_{i}\leq 1-p} , gib 0 aus, ansonsten gib 1 aus.

Dies entspricht genau der Inversionsmethode. Die einfache Simulierbarkeit von Bernoulli-verteilten Zufallsvariablen kann auch zur Simulation von binomialverteilten oder verallgemeinert Binomialverteilten Zufallsvariablen genutzt werden.

Literatur

  • Hans-Otto Georgii: Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage, de Gruyter, 2009, ISBN 978-3-11-021526-7.

Einzelnachweise

  1. a b P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 527. 
  2. Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, S. 63, doi:10.1007/978-3-642-45387-8. 
  3. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg Dordrecht London New York 2011, ISBN 978-3-642-21025-9, S. 254, doi:10.1007/978-3-642-21026-6. 
  4. James Victor Uspensky: Introduction to Mathematical Probability, McGraw-Hill, New York 1937, Seite 45
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart