Distribuzione esponenziale

Media, varianza, momenti e medianEdit

La media è il centro di massa di probabilità, ovvero il primo momento.

Il mediana è limmagine precedente F − 1 (1/2).

Il valore medio o atteso di una variabile casuale distribuita esponenzialmente X con parametro di velocità λ è dato da

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

Alla luce degli esempi forniti di seguito, questo ha senso: se ricevi chiamate telefoniche a una frequenza media di 2 allora , quindi puoi aspettarti di aspettare mezzora per ogni chiamata.

La varianza di X è data da

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}

quindi la deviazione standard è uguale alla media.

I momenti di X, per n ∈ N {\ displaystyle n \ in \ mathbb {N}} sono dati da

E ⁡ = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}

I momenti centrali di X, per n ∈ N {\ displaystyle n \ in \ mathbb {N}} sono dati da

μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

dove! n è il sottofattoriale di n

La mediana di X è data da

m ⁡ = ln ⁡ (2) λ < E ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

dove ln si riferisce al logaritmo naturale. Quindi la differenza assoluta tra la media e la mediana è

| E ⁡ – m ⁡ | = 1 – ln ⁡ (2) λ < 1 λ = σ ⁡, {\ displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

in conformità con la disuguaglianza media-mediana.

MemorylessnessEdit

Una variabile casuale distribuita esponenzialmente T obbedisce alla relazione

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

Questo può essere visto considerando la funzione di distribuzione cumulativa complementare:

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ displaystyle {\ begin {align} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {allineato}}}

Quando T è interpretato come il tempo di attesa perché un evento si verifichi rispetto a un certo tempo iniziale, questa relazione implica che, se T è condizionato dalla mancata osservazione dellevento in un certo periodo iniziale di tempo s, la distribuzione del tempo di attesa rimanente è la stessa della distribuzione incondizionata originale. Ad esempio, se un evento non si è verificato dopo 30 secondi, la probabilità condizionale che occorra almeno altri 10 secondi è uguale alla probabilità incondizionata di osservare levento più di 10 secondi dopo lora iniziale.

La distribuzione esponenziale e la distribuzione geometrica sono le uniche distribuzioni di probabilità senza memoria.

La distribuzione esponenziale è di conseguenza anche necessariamente lunica distribuzione di probabilità continua che ha un tasso di errore costante.

QuantilesEdit

Criteri di Tukey per le anomalie.

La funzione quantile (funzione di distribuzione cumulativa inversa) per Exp (λ) è

F – 1 (p; λ) = – ln ⁡ (1 – p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {- 1} (p; \ lambda) = {\ frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}

I quartili sono quindi:

  • primo quartile: ln (4/3 ) / λ
  • mediana: ln (2) / λ
  • terzo quartile: ln (4) / λ

E di conseguenza il lintervallo interquartile è ln (3) / λ.

Divergenza Kullback – Leibler Modifica

Δ (λ 0 ∥ λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0 e – λ 0 x λ e – λ x) = log ⁡ (λ 0) – log ⁡ (λ) – (λ 0 – λ) E λ 0 (x) = log ⁡ (λ 0) – log ⁡ (λ) + λ λ 0 – 1. {\ displaystyle {\ begin {align} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}} {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {align}}}

Massima distribuzione di entropiaEdit

Tra tutte le distribuzioni di probabilità continue con il supporto è fisso.

Distribuzione del minimo di variabili casuali esponenzialiEdit

Sia X1,. .., Xn essere variabili casuali distribuite esponenzialmente indipendenti con parametri di velocità λ1, …, λn. Quindi

min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}

è anche distribuito esponenzialmente, con parametro

λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

Questo può essere visto considerando la funzione di distribuzione cumulativa complementare:

Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp ⁡ (- x λ i) = exp ⁡ (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {align} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right ). \ end {align}}}

Lindice della variabile che raggiunge il minimo è distribuito secondo la distribuzione categoriale

Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λ n. {\ displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

Una dimostrazione è la seguente:

Sia I = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} quindi Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ kne – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ displaystyle {\ begin {align} {\ text {then}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ end {align}}}

Nota che

max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

non è distribuito esponenzialmente.

Momenti congiunti di iid statistiche ordine esponenziale Modifica

E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {align}}}

Questo può essere visto invocando la legge dellaspettativa totale e la proprietà senza memoria:

E ⁡ = ∫ 0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (poiché X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (dalla proprietà senza memoria) = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡.{\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {since}} ~ X _ {(i )} = x \ implica X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { dalla proprietà senza memoria}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ nomeoperatore {E} \ sinistra + \ nomeoperatore {E} \ sinistra. \ end {allineato}}}

Somma di due variabili casuali esponenziali indipendenti Modifica

f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) se λ 1 ≠ λ 2 λ 2 ze – λ z se λ 1 = λ 2 = λ. {\ displaystyle {\ begin {align} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { case} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {casi}} \ end {allineato}}} H (Z) = 1 + γ + ln ⁡ (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ displaystyle {\ begin {align} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ right), \ end {align}}}

dove γ {\ displaystyle \ gamma} è la costante di Eulero-Mascheroni e ψ (⋅) {\ displaystyle \ psi (\ cdot)} è la funzione digamma.

Nel caso di parametri di velocità uguale, il risultato è una distribuzione di Erlang con forma 2 e parametro λ, {\ displaystyle \ lambda,} che in turn è un caso speciale di distribuzione gamma.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *