Distribución exponencial

Media, varianza, momentos y medianaEditar

La media es el centro de masa de probabilidad, que es el primer momento.

El mediana es la preimagen F − 1 (1/2).

La media o el valor esperado de una variable aleatoria X distribuida exponencialmente con el parámetro de tasa λ viene dado por

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

A la luz de los ejemplos que se dan a continuación, esto tiene sentido: si recibe llamadas telefónicas a una tasa promedio de 2 por hora , entonces puede esperar media hora para cada llamada.

La varianza de X viene dada por

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}

por lo que la desviación estándar es igual a la media.

Los momentos de X, para n ∈ N {\ displaystyle n \ in \ mathbb {N}} están dadas por

E ⁡ = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}

Los momentos centrales de X, para n ∈ N {\ displaystyle n \ in \ mathbb {N}} están dados por

μ n =! n λ n = n! λ norte ∑ k = 0 norte (- 1) k k! . {\ Displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

donde! n es el subfactorial de n

La mediana de X está dada por

m ⁡ = ln ⁡ (2) λ < Mi ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

donde ln se refiere al logaritmo natural. Por tanto, la diferencia absoluta entre la media y la mediana es

| E ⁡ – m ⁡ | = 1 – ln ⁡ (2) λ < 1 λ = σ ⁡, {\ Displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

de acuerdo con la desigualdad mediana-media.

MemorylessnessEdit

Una variable aleatoria T distribuida exponencialmente obedece a la relación

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

Esto se puede ver considerando la función de distribución acumulativa complementaria:

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ Displaystyle {\ begin {align} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {alineado}}}

Cuando T se interpreta como el tiempo de espera para que ocurra un evento en relación con un tiempo inicial, esta relación implica que, si T está condicionado a que no se observe el evento durante un período inicial del tiempo s, la distribución del tiempo de espera restante es la misma que la distribución incondicional original. Por ejemplo, si un evento no ha ocurrido después de 30 segundos, la probabilidad condicional de que ocurra tardará al menos 10 segundos más es igual a la probabilidad incondicional de observar el evento más de 10 segundos después del tiempo inicial.

La distribución exponencial y la distribución geométrica son las únicas distribuciones de probabilidad sin memoria.

En consecuencia, la distribución exponencial también es necesariamente la única distribución de probabilidad continua que tiene una tasa de falla constante.

QuantilesEdit

Criterios de Tukey para anomalías.

La función cuantil (función de distribución acumulativa inversa) para Exp (λ) es

F – 1 (p; λ) = – ln ⁡ (1 – p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {- 1} (p; \ lambda) = {\ frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}

Por tanto, los cuartiles son:

  • primer cuartil: ln (4/3 ) / λ
  • mediana: ln (2) / λ
  • tercer cuartil: ln (4) / λ

Y como consecuencia el el rango intercuartílico es ln (3) / λ.

Divergencia de Kullback-Leibler Editar

Δ (λ 0 ∥ λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0 e – λ 0 x λ e – λ x) = log ⁡ (λ 0) – log ⁡ (λ) – (λ 0 – λ) E λ 0 (x) = log ⁡ (λ 0) – log ⁡ (λ) + λ λ 0 – 1. {\ displaystyle {\ begin {alineado} \ Delta (\ lambda _ {0} \ paralelo \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}} {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {alineado}}}

Distribución máxima de entropíaEditar

Entre todas las distribuciones de probabilidad continua con el soporte es fijo.

Distribución del mínimo de variables aleatorias exponencialesEditar

Sea X1,. .., Xn ser variables aleatorias independientes distribuidas exponencialmente con parámetros de tasa λ1, …, λn. Entonces

min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}

también se distribuye exponencialmente, con parámetro

λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

Esto se puede ver considerando la función de distribución acumulativa complementaria:

Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp ⁡ (- x λ i) = exp ⁡ (- x ∑ yo = 1 norte λ yo). {\ displaystyle {\ begin {alineado} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right ). \ end {alineado}}}

El índice de la variable que alcanza el mínimo se distribuye según la distribución categórica

Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λ n. {\ Displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

Una demostración es la siguiente:

Sea I = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} luego Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ yo = 1, yo ≠kín – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ displaystyle {\ begin {align} {\ text {then}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ end {alineado}}}

Tenga en cuenta que

max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

no se distribuye exponencialmente.

Momentos conjuntos de iid Estadística de orden exponencialEditar

E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (norte – k) λ + ∑ k = 0 yo – 1 1 ((norte – k) λ) 2 + (∑ k = 0 yo – 1 1 (norte – k) λ) 2. {\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {alineado}}}

Esto se puede ver invocando la ley de la expectativa total y la propiedad sin memoria:

E ⁡ = ∫ 0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (ya que X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (por la propiedad sin memoria) = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡.{\ displaystyle {\ begin {align} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {since}} ~ X _ {(i )} = x \ implica X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { por la propiedad sin memoria}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {alineado}}}

Suma de dos variables aleatorias exponenciales independientesEditar

f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) si λ 1 ≠ λ 2 λ 2 ze – λ z si λ 1 = λ 2 = λ. {\ displaystyle {\ begin {alineado} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { casos} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {casos}} \ end {alineado}}} H (Z) = 1 + γ + ln ⁡ (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ Displaystyle {\ begin {alineado} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ right), \ end {alineado}}}

donde γ {\ displaystyle \ gamma} es la constante de Euler-Mascheroni, y ψ (⋅) {\ displaystyle \ psi (\ cdot)} es la función digamma.

En el caso de parámetros de igual tasa, el resultado es una distribución de Erlang con forma 2 y parámetro λ, {\ displaystyle \ lambda,} que en turn es un caso especial de distribución gamma.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *