Średnia, wariancja, momenty i medianaEdycja
Średnia to środek masy prawdopodobieństwa, czyli pierwszy moment.
mediana to obraz wstępny F − 1 (1/2).
Średnia lub oczekiwana wartość zmiennej losowej X o rozkładzie wykładniczym z parametrem szybkości λ jest wyrażona wzorem
E = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}
W świetle poniższych przykładów ma to sens: jeśli odbierasz połączenia telefoniczne ze średnią szybkością 2 na godzinę , możesz spodziewać się, że będziesz czekać pół godziny na każde połączenie.
Wariancja X jest podana przez
Var = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ Frac {1} {\ lambda ^ {2}}},}
więc odchylenie standardowe jest równe średniej.
Momenty X, dla n ∈ N {\ displaystyle n \ in \ mathbb {N}} są podane przez
E = n! λ n. {\ Displaystyle \ operatorname {E} \ left = {\ Frac {n!} {\ lambda ^ {n}}}.}
Centralne momenty X, dla n ∈ N {\ displaystyle n \ in \ mathbb {N}} są podane przez
μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ Displaystyle \ mu _ {n} = {\ Frac {! n} {\ lambda ^ {n}}} = {\ Frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}
gdzie! n jest podczynnikiem liczby n
Mediana X jest dana wzorem
m = ln (2) λ < E , {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}
gdzie ln oznacza logarytm naturalny. Zatem bezwzględna różnica między średnią a medianą wynosi
| E – m | = 1 – ln (2) λ < 1 λ = σ , {\ displaystyle \ lewo | \ operatorname {E} \ lewo- \ nazwa_operatora {m} \ lewo \ prawo | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }
zgodnie z nierównością mediany-średniej.
Bez pamięciEdit
Zmienna losowa T o rozkładzie wykładniczym zachowuje zależność
Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ Displaystyle \ Pr \ lewo (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}
Można to zobaczyć, rozważając komplementarną skumulowaną funkcję dystrybucji:
Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ Displaystyle {\ rozpocząć {wyrównane} \ Pr \ lewo (T > s + t \ mid T > s \ prawej) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {aligned}}}
Kiedy T jest interpretowane jako czas oczekiwania na wystąpienie zdarzenia w stosunku do pewnego czasu początkowego, relacja ta oznacza, że jeśli T jest uwarunkowane brakiem obserwacji zdarzenia w pewnym początkowym okresie czasu s, rozkład pozostałego czasu oczekiwania jest taki sam, jak pierwotny rozkład bezwarunkowy. Na przykład, jeśli zdarzenie nie nastąpiło po 30 sekundach, warunkowe prawdopodobieństwo, że zajmie to co najmniej 10 sekund więcej, jest równe bezwarunkowemu prawdopodobieństwu zaobserwowania zdarzenia więcej niż 10 sekund po początkowym czasie.
Rozkład wykładniczy i rozkład geometryczny to jedyne bez pamięci rozkłady prawdopodobieństwa.
Rozkład wykładniczy jest w konsekwencji koniecznie jedynym ciągłym rozkładem prawdopodobieństwa, który ma stałą częstość błędów.
QuantilesEdit
Kryteria Tukey dotyczące anomalii.
Funkcja kwantyla (odwrotna skumulowana funkcja dystrybucji) dla Exp (λ) to
F – 1 (p; λ) = – ln (1 – p ) λ, 0 ≤ p < 1 {\ Displaystyle F ^ {- 1} (p; \ lambda) = {\ Frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}
Kwartyle to zatem:
- pierwszy kwartyl: ln (4/3 ) / λ
- mediana: ln (2) / λ
- trzeci kwartyl: ln (4) / λ
I w konsekwencji rozstęp międzykwartylowy to ln (3) / λ.
Rozbieżność Kullbacka – LeibleraEdit
Δ (λ 0 ∥ λ) = E λ 0 (log p λ 0 (x) p λ (x)) = E λ 0 (log λ 0 e – λ 0 x λ e – λ x) = log (λ 0) – log (λ) – (λ 0 – λ) E λ 0 (x) = log (λ 0) – log (λ) + λ λ 0 – 1. {\ Displaystyle {\ zaczynać {wyrównane} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}}) {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {aligned}}}
Maksymalny rozkład entropiiEdytuj
Spośród wszystkich ciągłych rozkładów prawdopodobieństwa z obsługa jest stała.
Rozkład minimum wykładniczych zmiennych losowychEdytuj
Niech X1,. .., Xn być niezależnymi zmiennymi losowymi o rozkładzie wykładniczym o parametrach szybkości λ1, …, λn. Następnie
min {X 1,…, X n} {\ Displaystyle \ min \ lewo \ {X_ {1}, \ dotsc, X_ {n} \ prawo \}}
jest również rozkładem wykładniczym, z parametr
λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}
Można to zobaczyć, biorąc pod uwagę komplementarną funkcję rozkładu skumulowanego:
Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp (- x λ i) = exp (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {aligned} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right) ). \ end {aligned}}}
Indeks zmiennej, która osiąga minimum jest rozkładany zgodnie z rozkładem kategorialnym
Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λ n. {\ Displaystyle \ Pr \ lewo (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ prawej) = {\ Frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}
Dowód jest następujący:
Niech I = argmin i ∈ {1, ⋯, n} {X 1 ,…, X n} {\ Displaystyle {\ tekst {Let}} ja = \ nazwa operatora {argmin} _ {ja \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} następnie Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ kne – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ Displaystyle {\ rozpocząć {wyrównane} {\ tekst {to}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ koniec {wyrównane}}}
Zauważ, że
max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}
nie ma rozkładu wykładniczego.
Wspólne momenty iid statystyki rzędu wykładniczego Edytuj
E = ∑ k = 0 j – 1 1 (n – k) λ E + E = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {aligned} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {aligned}}}
Można to zobaczyć, odwołując się do prawa całkowitego oczekiwania i własności bez pamięci:
E = ∫ 0 ∞ E f X (i) (x) dx = ∫ x = 0 ∞ x E f X (i) (x) dx (ponieważ X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (przez właściwość bez pamięci) = ∑ k = 0 j – 1 1 (n – k) λ E + E .{\ Displaystyle {\ rozpocząć {wyrównane} \ operatorname {E} \ lewo & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {od}} ~ X _ {(i )} = x \ implies X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { przez właściwość bez pamięci}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {aligned}}}
Suma dwóch niezależnych losowych zmiennych wykładniczychEdytuj
f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) jeśli λ 1 ≠ λ 2 λ 2 ze – λ z, jeśli λ 1 = λ 2 = λ. {\ displaystyle {\ begin {wyrównane} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { przypadki} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {cases}} \ end {aligned}}} H (Z) = 1 + γ + ln (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ Displaystyle {\ początek {wyrównane} H (Z) & = 1 + \ gamma + \ ln \ left ({\ Frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ po prawej), \ koniec {wyrównane}}}
gdzie γ {\ Displaystyle \ gamma} jest stałą Eulera-Mascheroniego i ψ (⋅) {\ Displaystyle \ psi (\ cdot)} jest funkcją digamma.
W przypadku parametrów równej stawki wynikiem jest rozkład Erlanga o kształcie 2 i parametr λ, {\ Displaystyle \ lambda,} który w turn to szczególny przypadek rozkładu gamma.