Exponentialverteilung

Mittelwert, Varianz, Momente und MedianEdit

Der Mittelwert ist das Wahrscheinlichkeitsmassenzentrum, das ist der erste Moment.

Die Median ist das Vorbild F – 1 (1/2).

Der Mittelwert oder erwartete Wert einer exponentiell verteilten Zufallsvariablen X mit dem Ratenparameter λ ist gegeben durch

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

In Anbetracht der folgenden Beispiele ist dies sinnvoll: Wenn Sie Anrufe mit einer durchschnittlichen Rate von 2 pro Stunde erhalten Dann können Sie damit rechnen, eine halbe Stunde auf jeden Anruf zu warten.

Die Varianz von X ist gegeben durch

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}

, sodass die Standardabweichung gleich dem Mittelwert ist.

Die Momente von X für n ∈ N {\ displaystyle n \ in \ mathbb {N}} sind gegeben durch

E ⁡ = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}

Die zentralen Momente von X für n ∈ N {\ displaystyle n \ in \ mathbb {N}} sind gegeben durch

μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

wobei! n das Unterfaktor von n ist

Der Median von X ist gegeben durch

m ⁡ = ln ⁡ (2) λ < E ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

wobei sich ln auf den natürlichen Logarithmus bezieht. Somit beträgt der absolute Unterschied zwischen dem Mittelwert und dem Median

| E ⁡ – m ⁡ | = 1 – ln ⁡ (2) λ < 1 λ = σ ⁡, {\ displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

gemäß der mittleren mittleren Ungleichung.

MemorylessnessEdit

Eine exponentiell verteilte Zufallsvariable T gehorcht der Beziehung

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

Dies kann unter Berücksichtigung der komplementären kumulativen Verteilungsfunktion gesehen werden:

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T. > s) Pr (T > s) = Pr (T iv id = „df86ae7 09b “ s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T. > t). {\ displaystyle {\ begin {align} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {align}}}

Wenn T als Wartezeit für das Auftreten eines Ereignisses relativ zu einer Anfangszeit interpretiert wird, impliziert diese Beziehung, dass T davon abhängig ist, dass das Ereignis über einen Anfangszeitraum nicht beobachtet wird der Zeit s ist die Verteilung der verbleibenden Wartezeit dieselbe wie die ursprüngliche bedingungslose Verteilung. Wenn beispielsweise ein Ereignis nach 30 Sekunden nicht aufgetreten ist, entspricht die bedingte Wahrscheinlichkeit, dass das Auftreten mindestens 10 weitere Sekunden dauert, der bedingungslosen Wahrscheinlichkeit, das Ereignis mehr als 10 Sekunden nach der Anfangszeit zu beobachten.

Die Exponentialverteilung und die geometrische Verteilung sind die einzigen memorylosen Wahrscheinlichkeitsverteilungen.

Die Exponentialverteilung ist folglich auch notwendigerweise die einzige kontinuierliche Wahrscheinlichkeitsverteilung mit einer konstanten Ausfallrate.

QuantilesEdit

Tukey-Kriterien für Anomalien.

Die Quantilfunktion (inverse kumulative Verteilungsfunktion) für Exp (λ) ist

F – 1 (p; λ) = – ln ⁡ (1 – p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {- 1} (p; \ lambda) = {\ frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}

Die Quartile sind daher:

  • erstes Quartil: ln (4/3 ) / λ
  • Median: ln (2) / λ
  • drittes Quartil: ln (4) / λ
  • Und infolgedessen die Der Interquartilbereich beträgt ln (3) / λ.

    Kullback-Leibler-DivergenzEdit

    Δ (λ 0 λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0) e – λ 0 x λ e – λ x) = log ⁡ (λ 0) – log ⁡ (λ) – (λ 0 – λ) E λ 0 (x) = log ⁡ (λ 0) – log ⁡ (λ) + λ λ 0 – 1. {\ displaystyle {\ begin {align} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}} {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {align}}}

    Maximale EntropieverteilungEdit

    Unter allen kontinuierlichen Wahrscheinlichkeitsverteilungen mit Unterstützung ist festgelegt.

    Verteilung des Minimums exponentieller ZufallsvariablenEdit

    Sei X1 ,. .., Xn unabhängig exponentiell verteilte Zufallsvariablen mit Ratenparametern λ1, …, λn sein. Dann ist

    min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}

    ebenfalls exponentiell verteilt, mit Parameter

    λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

    Dies kann unter Berücksichtigung der komplementären kumulativen Verteilungsfunktion gesehen werden:

    Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp ⁡ (- x λ i) = exp ⁡ (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {align} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right ). \ end {align}}}

    Der Index der Variablen, die das Minimum erreicht, wird gemäß der kategorialen Verteilung

    Pr (k ∣ X k = min {X 1,…, X n}) verteilt. = λ k λ 1 + ⋯ + λ n. {\ displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

    Ein Beweis lautet wie folgt:

    Sei I = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} dann ist Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ kne – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ displaystyle {\ begin {align} {\ text {then}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ rechts) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ end {align}}}

    Beachten Sie, dass

    max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

    ist nicht exponentiell verteilt.

    Gemeinsame Momente von iid Statistik der exponentiellen OrdnungBearbeiten

    E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {align}}}

    Dies kann durch Aufrufen des Gesetzes der totalen Erwartung und der memorylosen Eigenschaft gesehen werden:

    E ⁡ = ∫ 0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (da X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (durch die memorylose Eigenschaft) = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡.{\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {seit}} ~ X _ {(i )} = x \ impliziert X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ rechts] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { durch die memorylose Eigenschaft}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {align}}}

    Summe zweier unabhängiger exponentieller ZufallsvariablenEdit

    f Z (z) = ∫ – ∞ ∞ f X. 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) wenn λ 1 ≠ λ 2 λ 2 ze – λ z wenn λ 1 = λ 2 = λ. {\ displaystyle {\ begin {align} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { Fälle} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ Ende {Fälle}} \ Ende {ausgerichtet}}} H (Z) = 1 + γ + ln ⁡ (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ Anzeigestil {\ begin {align} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ rechts) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ right), \ end {align}}}

    wobei γ {\ displaystyle \ gamma} die Euler-Mascheroni-Konstante ist und ψ (⋅) {\ displaystyle \ psi (\ cdot)} ist die Digammafunktion.

    Bei Parametern mit gleicher Rate ist das Ergebnis eine Erlang-Verteilung mit Form 2 und Parameter λ, {\ displaystyle \ lambda,}, die in wiederum ist ein Sonderfall der Gammaverteilung.

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.