Rozkład wykładniczy

Średnia, wariancja, momenty i medianaEdycja

Średnia to środek masy prawdopodobieństwa, czyli pierwszy moment.

mediana to obraz wstępny F − 1 (1/2).

Średnia lub oczekiwana wartość zmiennej losowej X o rozkładzie wykładniczym z parametrem szybkości λ jest wyrażona wzorem

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

W świetle poniższych przykładów ma to sens: jeśli odbierasz połączenia telefoniczne ze średnią szybkością 2 na godzinę , możesz spodziewać się, że będziesz czekać pół godziny na każde połączenie.

Wariancja X jest podana przez

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ Frac {1} {\ lambda ^ {2}}},}

więc odchylenie standardowe jest równe średniej.

Momenty X, dla n ∈ N {\ displaystyle n \ in \ mathbb {N}} są podane przez

E ⁡ = n! λ n. {\ Displaystyle \ operatorname {E} \ left = {\ Frac {n!} {\ lambda ^ {n}}}.}

Centralne momenty X, dla n ∈ N {\ displaystyle n \ in \ mathbb {N}} są podane przez

μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ Displaystyle \ mu _ {n} = {\ Frac {! n} {\ lambda ^ {n}}} = {\ Frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

gdzie! n jest podczynnikiem liczby n

Mediana X jest dana wzorem

m ⁡ = ln ⁡ (2) λ < E ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

gdzie ln oznacza logarytm naturalny. Zatem bezwzględna różnica między średnią a medianą wynosi

| E ⁡ – m ⁡ | = 1 – ln ⁡ (2) λ < 1 λ = σ ⁡, {\ displaystyle \ lewo | \ operatorname {E} \ lewo- \ nazwa_operatora {m} \ lewo \ prawo | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

zgodnie z nierównością mediany-średniej.

Bez pamięciEdit

Zmienna losowa T o rozkładzie wykładniczym zachowuje zależność

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ Displaystyle \ Pr \ lewo (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

Można to zobaczyć, rozważając komplementarną skumulowaną funkcję dystrybucji:

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ Displaystyle {\ rozpocząć {wyrównane} \ Pr \ lewo (T > s + t \ mid T > s \ prawej) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {aligned}}}

Kiedy T jest interpretowane jako czas oczekiwania na wystąpienie zdarzenia w stosunku do pewnego czasu początkowego, relacja ta oznacza, że jeśli T jest uwarunkowane brakiem obserwacji zdarzenia w pewnym początkowym okresie czasu s, rozkład pozostałego czasu oczekiwania jest taki sam, jak pierwotny rozkład bezwarunkowy. Na przykład, jeśli zdarzenie nie nastąpiło po 30 sekundach, warunkowe prawdopodobieństwo, że zajmie to co najmniej 10 sekund więcej, jest równe bezwarunkowemu prawdopodobieństwu zaobserwowania zdarzenia więcej niż 10 sekund po początkowym czasie.

Rozkład wykładniczy i rozkład geometryczny to jedyne bez pamięci rozkłady prawdopodobieństwa.

Rozkład wykładniczy jest w konsekwencji koniecznie jedynym ciągłym rozkładem prawdopodobieństwa, który ma stałą częstość błędów.

QuantilesEdit

Kryteria Tukey dotyczące anomalii.

Funkcja kwantyla (odwrotna skumulowana funkcja dystrybucji) dla Exp (λ) to

F – 1 (p; λ) = – ln ⁡ (1 – p ) λ, 0 ≤ p < 1 {\ Displaystyle F ^ {- 1} (p; \ lambda) = {\ Frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}

Kwartyle to zatem:

  • pierwszy kwartyl: ln (4/3 ) / λ
  • mediana: ln (2) / λ
  • trzeci kwartyl: ln (4) / λ

I w konsekwencji rozstęp międzykwartylowy to ln (3) / λ.

Rozbieżność Kullbacka – LeibleraEdit

Δ (λ 0 ∥ λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0 e – λ 0 x λ e – λ x) = log ⁡ (λ 0) – log ⁡ (λ) – (λ 0 – λ) E λ 0 (x) = log ⁡ (λ 0) – log ⁡ (λ) + λ λ 0 – 1. {\ Displaystyle {\ zaczynać {wyrównane} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}}) {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {aligned}}}

Maksymalny rozkład entropiiEdytuj

Spośród wszystkich ciągłych rozkładów prawdopodobieństwa z obsługa jest stała.

Rozkład minimum wykładniczych zmiennych losowychEdytuj

Niech X1,. .., Xn być niezależnymi zmiennymi losowymi o rozkładzie wykładniczym o parametrach szybkości λ1, …, λn. Następnie

min {X 1,…, X n} {\ Displaystyle \ min \ lewo \ {X_ {1}, \ dotsc, X_ {n} \ prawo \}}

jest również rozkładem wykładniczym, z parametr

λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

Można to zobaczyć, biorąc pod uwagę komplementarną funkcję rozkładu skumulowanego:

Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp ⁡ (- x λ i) = exp ⁡ (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {aligned} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right) ). \ end {aligned}}}

Indeks zmiennej, która osiąga minimum jest rozkładany zgodnie z rozkładem kategorialnym

Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λ n. {\ Displaystyle \ Pr \ lewo (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ prawej) = {\ Frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

Dowód jest następujący:

Niech I = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ Displaystyle {\ tekst {Let}} ja = \ nazwa operatora {argmin} _ {ja \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} następnie Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ kne – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ Displaystyle {\ rozpocząć {wyrównane} {\ tekst {to}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ koniec {wyrównane}}}

Zauważ, że

max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

nie ma rozkładu wykładniczego.

Wspólne momenty iid statystyki rzędu wykładniczego Edytuj

E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {aligned} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {aligned}}}

Można to zobaczyć, odwołując się do prawa całkowitego oczekiwania i własności bez pamięci:

E ⁡ = ∫ 0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (ponieważ X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (przez właściwość bez pamięci) = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡.{\ Displaystyle {\ rozpocząć {wyrównane} \ operatorname {E} \ lewo & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {od}} ~ X _ {(i )} = x \ implies X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { przez właściwość bez pamięci}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {aligned}}}

Suma dwóch niezależnych losowych zmiennych wykładniczychEdytuj

f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) jeśli λ 1 ≠ λ 2 λ 2 ze – λ z, jeśli λ 1 = λ 2 = λ. {\ displaystyle {\ begin {wyrównane} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { przypadki} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {cases}} \ end {aligned}}} H (Z) = 1 + γ + ln ⁡ (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ Displaystyle {\ początek {wyrównane} H (Z) & = 1 + \ gamma + \ ln \ left ({\ Frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ po prawej), \ koniec {wyrównane}}}

gdzie γ {\ Displaystyle \ gamma} jest stałą Eulera-Mascheroniego i ψ (⋅) {\ Displaystyle \ psi (\ cdot)} jest funkcją digamma.

W przypadku parametrów równej stawki wynikiem jest rozkład Erlanga o kształcie 2 i parametr λ, {\ Displaystyle \ lambda,} który w turn to szczególny przypadek rozkładu gamma.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *