Media, varianța, momentele și medianEdit
Media este centrul de masă al probabilității, adică primul moment.
mediana este preimaginea F − 1 (1/2).
Valoarea medie sau așteptată a unei variabile aleatorii distribuite exponențial X cu parametrul de rată λ este dată de
E = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}
În lumina exemplelor date mai jos, acest lucru are sens: dacă primiți apeluri telefonice la o rată medie de 2 pe oră , atunci vă puteți aștepta să așteptați o jumătate de oră pentru fiecare apel.
Varianța lui X este dată de
Var = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}
deci abaterea standard este egală cu media.
Momentele lui X, pentru n ∈ N {\ displaystyle n \ in \ mathbb {N}} sunt date de
E = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}
Momentele centrale ale lui X, pentru n ∈ N {\ displaystyle n \ in \ mathbb {N}} sunt date de
μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}
unde! n este subfactorialul lui n
Mediana lui X este dată de
m = ln (2) λ < E , {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}
unde ln se referă la logaritmul natural. Astfel diferența absolută între medie și mediană este
| E – m | = 1 – ln (2) λ < 1 λ = σ , {\ displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }
în conformitate cu inegalitatea medie-medie.
MemorylessnessEdit
O variabilă aleatorie distribuită exponențial T respectă relația
Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}
Acest lucru poate fi văzut luând în considerare funcția de distribuție cumulativă complementară:
Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ displaystyle {\ begin {align} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {aliniat}}}
Când T este interpretat ca timpul de așteptare pentru ca un eveniment să apară relativ la un anumit timp inițial, această relație implică faptul că, dacă T este condiționat de eșecul de a observa evenimentul pe o anumită perioadă inițială de timp s, distribuția timpului de așteptare rămas este aceeași cu distribuția necondiționată originală. De exemplu, dacă un eveniment nu a avut loc după 30 de secunde, probabilitatea condiționată ca apariția să dureze cel puțin încă 10 secunde este egală cu probabilitatea necondiționată de a observa evenimentul la mai mult de 10 secunde după ora inițială.
Distribuția exponențială și distribuția geometrică sunt singurele distribuții de probabilitate fără memorie.
Distribuția exponențială este, prin urmare, în mod necesar și singura distribuție de probabilitate continuă care are o rată de eșec constantă. / h3>
Criterii Tukey pentru anomalii.
Funcția cuantilă (funcția de distribuție inversă cumulativă) pentru Exp (λ) este
F – 1 (p; λ) = – ln (1 – p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {- 1} (p; \ lambda) = {\ frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}
Prin urmare, quartile sunt:
- primul quartile: ln (4/3 ) / λ
- mediană: ln (2) / λ
- a treia quartilă: ln (4) / λ
Și în consecință intervalul intercuartil este de ln (3) / λ.
Divergența Kullback – Leibler Editează
Δ (λ 0 ∥ λ) = E λ 0 (log p λ 0 (x) p λ (x)) = E λ 0 (log λ 0 e – λ 0 x λ e – λ x) = log (λ 0) – log (λ) – (λ 0 – λ) E λ 0 (x) = log (λ 0) – log (λ) + λ λ 0 – 1. {\ displaystyle {\ begin {align} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}} {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {align}}}
Distribuție maximă de entropieEdit
Printre distribuțiile de probabilitate continue cu suportul este fix.
Distribuția minimului de variabile aleatorii exponențiale Editați
Fie X1,. .., Xn să fie variabile aleatoare independente distribuite exponențial cu parametrii ratei λ1, …, λn. Apoi
min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}
este, de asemenea, distribuit exponențial, cu parametru
λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}
Acest lucru poate fi văzut luând în considerare funcția de distribuție cumulativă complementară:
Pr (min {X 1, …, X n} > x) = Pr (X 1 > x, …, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp (- x λ i) = exp (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {align} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right ). \ end {align}}}
Indicele variabilei care atinge minimul este distribuit în funcție de distribuția categorică
Pr (k ∣ X k = min {X 1, …, X n}) = λ k λ 1 + ⋯ + λ n. {\ displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}
O dovadă este următoarea:
Fie I = argmin i ∈ {1, ⋯, n} {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} apoi Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ kne – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ displaystyle {\ begin {align} {\ text {then}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ end {align}}}
Rețineți că
max {X 1, …, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}
nu este distribuit exponențial.
Momente comune ale iid statistici de ordine exponențială Editați
E = ∑ k = 0 j – 1 1 (n – k) λ E + E = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {align}}}
Acest lucru poate fi văzut invocând legea așteptării totale și proprietatea fără memorie:
E = ∫ 0 ∞ E f X (i) (x) dx = ∫ x = 0 ∞ x E f X (i) (x) dx (din moment ce X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (prin proprietatea fără memorie) = ∑ k = 0 j – 1 1 (n – k) λ E + E .{\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {since}} ~ X _ {(i )} = x \ implică X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { de proprietatea fără memorie}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {align}}}
Suma a două variabile aleatorii exponențiale independenteEdit
f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) dacă λ 1 ≠ λ 2 λ 2 ze – λ z dacă λ 1 = λ 2 = λ. {\ displaystyle {\ begin {align} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { case} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {cases}} \ end {align}}} H (Z) = 1 + γ + ln (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ displaystyle {\ begin {align} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ right), \ end {align}}}
unde γ {\ displaystyle \ gamma} este constanta Euler-Mascheroni și ψ (⋅) {\ displaystyle \ psi (\ cdot)} este funcția digamma.
În cazul parametrilor ratei egale, rezultatul este o distribuție Erlang cu forma 2 și parametrul λ, {\ displaystyle \ lambda,} care în rândul său, este un caz special de distribuție gamma.