Distribuição exponencial

Média, variância, momentos e medianaEditar

A média é o centro de massa de probabilidade, que é o primeiro momento.

O mediana é a pré-imagem F − 1 (1/2).

A média ou valor esperado de uma variável aleatória distribuída exponencialmente X com o parâmetro de taxa λ é dado por

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

À luz dos exemplos dados abaixo, isso faz sentido: se você recebe chamadas telefônicas a uma taxa média de 2 por hora , então você pode esperar meia hora para cada chamada.

A variação de X é dada por

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}

então o desvio padrão é igual à média.

Os momentos de X, para n ∈ N {\ displaystyle n \ in \ mathbb {N}} são dados por

E ⁡ = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}

Os momentos centrais de X, para n ∈ N {\ displaystyle n \ in \ mathbb {N}} são fornecidos por

μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

onde! n é o subfatorial de n

A mediana de X é dada por

m ⁡ = ln ⁡ (2) λ < E ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

onde ln se refere ao logaritmo natural. Assim, a diferença absoluta entre a média e a mediana é

| E ⁡ – m ⁡ | = 1 – ln ⁡ (2) λ < 1 λ = σ ⁡, {\ displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

de acordo com a desigualdade de média mediana.

MemorylessnessEdit

Uma variável aleatória distribuída exponencialmente T obedece à relação

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

Isso pode ser visto considerando a função de distribuição cumulativa complementar:

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ displaystyle {\ begin {alinhados} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {lined de tempo s, a distribuição do tempo de espera restante é a mesma que a distribuição incondicional original. Por exemplo, se um evento não ocorreu após 30 segundos, a probabilidade condicional de que a ocorrência levará pelo menos 10 segundos a mais é igual à probabilidade incondicional de observar o evento mais de 10 segundos após o tempo inicial.

A distribuição exponencial e a distribuição geométrica são as únicas distribuições de probabilidade sem memória.

A distribuição exponencial é, consequentemente, necessariamente a única distribuição de probabilidade contínua que tem uma taxa de falha constante.

QuantilesEdit

Critérios de Tukey para anomalias.

A função quantil (função de distribuição cumulativa inversa) para Exp (λ) é

F – 1 (p; λ) = – ln ⁡ (1 – p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {- 1} (p; \ lambda) = {\ frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}

Os quartis são, portanto:

  • primeiro quartil: ln (4/3 ) / λ
  • mediana: ln (2) / λ
  • terceiro quartil: ln (4) / λ

E, como consequência, o intervalo interquartil é ln (3) / λ.

divergenceEdit de Kullback – Leibler

Δ (λ 0 ∥ λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0 e – λ 0 x λ e – λ x) = log ⁡ (λ 0) – log ⁡ (λ) – (λ 0 – λ) E λ 0 (x) = log ⁡ (λ 0) – log ⁡ (λ) + λ λ 0 – 1. {\ displaystyle {\ begin {alinhados} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}} {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {alinhados}}}

Entropia máxima de distribuiçãoEditar

Entre todas as distribuições de probabilidade contínua com suporte é fixo.

Distribuição do mínimo de variáveis aleatórias exponenciaisEditar

Seja X1,. .., Xn sejam variáveis aleatórias independentes distribuídas exponencialmente com parâmetros de taxa λ1, …, λn. Então

min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}

também é distribuído exponencialmente, com parâmetro

λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

Isso pode ser visto considerando a função de distribuição cumulativa complementar:

Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp ⁡ (- x λ i) = exp ⁡ (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {align} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right ). \ end {align}}}

O índice da variável que atinge o mínimo é distribuído de acordo com a distribuição categórica

Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λ n. {\ displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

Uma prova é a seguinte:

Let I = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} então Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ kne – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ displaystyle {\ begin {align} {\ text {then}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ end {align}}}

Observe que

max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

não é distribuído exponencialmente.

Momentos conjuntos de iid estatísticas de ordem exponencialEditar

E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {alinhados} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {align}}}

Isso pode ser visto invocando a lei da expectativa total e a propriedade sem memória:

E ⁡ = ∫ 0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (uma vez que X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (pela propriedade sem memória) = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡.{\ displaystyle {\ begin {alinhados} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {desde}} ~ X _ {(i )} = x \ implica X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { pela propriedade sem memória}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {alinhado}}}

Soma de duas variáveis aleatórias exponenciais independentesEditar

f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) se λ 1 ≠ λ 2 λ 2 ze – λ z se λ 1 = λ 2 = λ. {\ displaystyle {\ begin {align} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { casos} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {casos}} \ end {alinhado}}} H (Z) = 1 + γ + ln ⁡ (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ displaystyle {\ begin {alinhados} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ right), \ end {align}}}

onde γ {\ displaystyle \ gamma} é a constante de Euler-Mascheroni, e ψ (⋅) {\ displaystyle \ psi (\ cdot)} é a função digamma.

No caso de parâmetros de taxa iguais, o resultado é uma distribuição Erlang com forma 2 e parâmetro λ, {\ displaystyle \ lambda,} que em turn é um caso especial de distribuição gama.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *