Eksponensiell fordeling

Gjennomsnitt, varians, momenter og medianredigering

Gjennomsnitt er sannsynlighetsmassesenteret, det er første øyeblikk.

The median er forhåndsbildet F − 1 (1/2).

Gjennomsnitts- eller forventet verdi av en eksponensielt fordelt tilfeldig variabel X med hastighetsparameter λ er gitt av

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

I lys av eksemplene nedenfor er dette fornuftig: hvis du mottar telefonsamtaler med en gjennomsnittlig hastighet på 2 per time , så kan du forvente å vente en halv time på hver samtale.

Variansen til X er gitt av

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}

så standardavviket er lik gjennomsnittet.

Øyeblikkene til X, for n ∈ N {\ displaystyle n \ in \ mathbb {N}} er gitt av

E ⁡ = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}

De sentrale øyeblikkene til X, for n ∈ N {\ displaystyle n \ i \ mathbb {N}} er gitt av

μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

hvor! n er underfaktor av n

Medianen for X er gitt av

m ⁡ = ln ⁡ (2) λ < E ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

der ln refererer til den naturlige logaritmen. Dermed er den absolutte forskjellen mellom gjennomsnitt og median

| E ⁡ – m ⁡ | = 1 – ln ⁡ (2) λ < 1 λ = σ ⁡, {\ displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

i samsvar med den median-gjennomsnittlige ulikheten.

MemorylessnessEdit

En eksponentielt fordelt tilfeldig variabel T adlyder forholdet

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

Dette kan sees ved å ta i betraktning den komplementære kumulative fordelingsfunksjonen:

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ displaystyle {\ begin {align} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ høyre)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {align}}}

Når T tolkes som ventetiden for en hendelse å inntreffe i forhold til en viss starttid, innebærer denne relasjonen at hvis T er betinget av manglende overholdelse av hendelsen over en innledende periode av tid s er fordelingen av gjenværende ventetid den samme som den opprinnelige ubetingede fordelingen. For eksempel, hvis en hendelse ikke har skjedd etter 30 sekunder, er den betingede sannsynligheten for at hendelsen vil ta minst 10 sekunder lik den ubetingede sannsynligheten for å observere hendelsen mer enn 10 sekunder etter starttiden.

Den eksponensielle fordelingen og den geometriske fordelingen er de eneste minneløse sannsynlighetsfordelingene.

Den eksponensielle fordelingen er følgelig også nødvendigvis den eneste kontinuerlige sannsynlighetsfordelingen som har en konstant feilrate.

QuantilesEdit

Tastekriterier for avvik.

Kvantilfunksjonen (invers kumulativ fordelingsfunksjon) for Exp (λ) er

F – 1 (p; λ) = – ln ⁡ (1 – p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {- 1} (p; \ lambda) = {\ frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}

Kvartilene er derfor:

  • første kvartil: ln (4/3 ) / λ
  • median: ln (2) / λ
  • tredje kvartil: ln (4) / λ

Og som en konsekvens interkvartilområdet er ln (3) / λ.

Kullback – Leibler divergenceEdit

Δ (λ 0 ∥ λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0 e – λ 0 x λ e – λ x) = log ⁡ (λ 0) – log ⁡ (λ) – (λ 0 – λ) E λ 0 (x) = log ⁡ (λ 0) – log ⁡ (λ) + λ λ 0 – 1. {\ displaystyle {\ begin {justert} \ Delta (\ lambda _ {0} \ parallell \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}} {\ lambda e ^ {- \ lambda x}}} \ høyre) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {align}}}

Maksimal entropifordelingEdit

Blant alle kontinuerlige sannsynlighetsfordelinger med support er løst.

Distribusjon av minimum eksponensielle tilfeldige variablerRediger

La X1,. .., Xn være uavhengige eksponentielt fordelte tilfeldige variabler med hastighetsparametere λ1, …, λn. Deretter

min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}

distribueres også eksponentielt, med parameter

λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

Dette kan sees ved å ta i betraktning den komplementære kumulative fordelingsfunksjonen:

Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp ⁡ (- x λ i) = exp ⁡ (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {align} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right \. {end}}}

Indeksen til variabelen som oppnår minimum fordeles i henhold til den kategoriske fordelingen

Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λ n. {\ displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

Et bevis er som følger:

La jeg = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} deretter Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ kne – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ displaystyle {\ begin {align} {\ text {then}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ høyre) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ høyre) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ slutt {justert}}}

Merk at

maks {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

distribueres ikke eksponentielt.

Felles øyeblikk av iid eksponentiell ordrestatistikk Rediger

E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} høyre) ^ {2}. \ slutt {justert}}}

Dette kan sees ved å påkalle loven om total forventning og den minneløse egenskapen:

E ⁡ = ∫ 0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (siden X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (av den minneløse egenskapen) = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡.{\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {siden}} ~ X _ {(i )} = x \ innebærer X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { av den minneløse egenskapen}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {align}}}

Summen av to uavhengige eksponensielle tilfeldige variabler Rediger

f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) hvis λ 1 ≠ λ 2 λ 2 ze – λ z hvis λ 1 = λ 2 = λ. {\ displaystyle {\ begin {align} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { saker} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {cases}} \ end {aligned}}} H (Z) = 1 + γ + ln ⁡ (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ displaystyle {\ begin {align} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ høyre) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} høyre), \ slutt {justert}}}

der γ {\ displaystyle \ gamma} er Euler-Mascheroni-konstanten, og ψ (⋅) {\ displaystyle \ psi (\ cdot)} er digamma-funksjonen.

Ved like hastighetsparametere er resultatet en Erlang-fordeling med form 2 og parameter λ, {\ displaystyle \ lambda,} som i turn er et spesielt tilfelle av gammadistribusjon.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *