Distribution exponentielle

Moyenne, variance, moments et médiane Modifier

La moyenne est le centre de masse de probabilité, cest-à-dire le premier moment.

Le la médiane est la pré-image F − 1 (1/2).

La valeur moyenne ou attendue dune variable aléatoire X à distribution exponentielle avec le paramètre de taux λ est donnée par

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

À la lumière des exemples ci-dessous, cela a du sens: si vous recevez des appels téléphoniques à un taux moyen de 2 par heure , alors vous pouvez vous attendre à attendre une demi-heure pour chaque appel.

La variance de X est donnée par

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}

donc lécart type est égal à la moyenne.

Les moments de X, pour n ∈ N {\ displaystyle n \ in \ mathbb {N}} sont donnés par

E ⁡ = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}

Les moments centraux de X, pour n ∈ N {\ displaystyle n \ in \ mathbb {N}} sont donnés par

μ n =! n λ n = n! λ n ∑ k = 0 n (- 1) k k! . {\ displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

où! n est le sous-factoriel de n

La médiane de X est donnée par

m ⁡ = ln ⁡ (2) λ < E ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

où ln fait référence au logarithme naturel. Ainsi, la différence absolue entre la moyenne et la médiane est

| E ⁡ – m ⁡ | = 1 – ln ⁡ (2) λ < 1 λ = σ ⁡, {\ displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

conformément à linégalité médiane-moyenne.

MemorylessnessEdit

Une variable aléatoire distribuée exponentiellement T obéit à la relation

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

Ceci peut être vu en considérant la fonction de distribution cumulative complémentaire:

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e – λ (s + t) e – λ s = e – λ t = Pr (T > t). {\ displaystyle {\ begin {aligné} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}}} \\ & = e ^ {- \ lambda t} \\ & = \ Pr (T > t) . \ end {aligné}}}

Lorsque T est interprété comme le temps dattente pour quun événement se produise par rapport à un moment initial, cette relation implique que, si T est conditionné à un échec dobservation de lévénement sur une période initiale du temps s, la distribution du temps dattente restant est la même que la distribution inconditionnelle dorigine. Par exemple, si un événement ne sest pas produit après 30 secondes, la probabilité conditionnelle que loccurrence prendra au moins 10 secondes de plus est égale à la probabilité inconditionnelle dobserver lévénement plus de 10 secondes après lheure initiale.

La distribution exponentielle et la distribution géométrique sont les seules distributions de probabilité sans mémoire.

La distribution exponentielle est par conséquent aussi nécessairement la seule distribution de probabilité continue qui a un taux déchec constant.

QuantilesEdit

Critères Tukey pour les anomalies.

La fonction quantile (fonction de distribution cumulative inverse) pour Exp (λ) est

F – 1 (p; λ) = – ln ⁡ (1 – p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {- 1} (p; \ lambda) = {\ frac {- \ ln (1-p)} {\ lambda}}, \ qquad 0 \ leq p < 1}

Les quartiles sont donc:

  • premier quartile: ln (4/3 ) / λ
  • médiane: ln (2) / λ
  • troisième quartile: ln (4) / λ

Et par conséquent le lintervalle interquartile est ln (3) / λ.

Divergence Kullback – LeiblerEdit

Δ (λ 0 ∥ λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0 e – λ 0 x λ e – λ x) = log ⁡ (λ 0) – log ⁡ (λ) – (λ 0 – λ) E λ 0 (x) = log ⁡ (λ 0) – log ⁡ (λ) + λ λ 0 – 1. {\ displaystyle {\ begin {aligné} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {- \ lambda _ {0} x}} {\ lambda e ^ {- \ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) – ( \ lambda _ {0} – \ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0}) – \ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}} – 1. \ end {aligné}}}

Distribution dentropie maximale Modifier

Parmi toutes les distributions de probabilités continues avec le support est fixe.

Distribution du minimum de variables aléatoires exponentiellesEdit

Soit X1,. .., Xn être des variables aléatoires indépendantes distribuées exponentiellement avec des paramètres de taux λ1, …, λn. Alors

min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}

est également distribué de manière exponentielle, avec paramètre

λ = λ 1 + ⋯ + λ n. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

Ceci peut être vu en considérant la fonction de distribution cumulative complémentaire:

Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, X n > x) = ∏ i = 1 n Pr (X i > x) = ∏ i = 1 n exp ⁡ (- x λ i) = exp ⁡ (- x ∑ i = 1 n λ i). {\ displaystyle {\ begin {aligné} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right ). \ end {aligné}}}

Lindice de la variable qui atteint le minimum est distribué selon la distribution catégorielle

Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λ n. {\ displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

Une preuve est la suivante:

Soit I = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} alors Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke – λ kx (∏ i = 1, i ≠ genou – λ ix) dx = λ k ∫ 0 ∞ e – (λ 1 + ⋯ + λ n) xdx = λ k λ 1 + ⋯ + λ n. {\ displaystyle {\ begin {aligné} {\ text {puis}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {- \ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {- \ gauche (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ end {aligné}}}

Notez que

max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

nest pas distribué de manière exponentielle.

Moments conjoints de iid Statistiques dordre exponentiel Modifier

E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡ = ∑ k = 0 j – 1 1 (n – k) λ ∑ k = 0 i – 1 1 (n – k) λ + ∑ k = 0 i – 1 1 ((n – k) λ) 2 + (∑ k = 0 i – 1 1 (n – k) λ) 2. {\ displaystyle {\ begin {aligné} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {aligné}}}

Cela peut être vu en invoquant la loi de lespérance totale et la propriété sans mémoire:

E ⁡ = ∫ 0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (puisque X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (par la propriété sans mémoire) = ∑ k = 0 j – 1 1 (n – k) λ E ⁡ + E ⁡.{\ displaystyle {\ begin {aligné} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {depuis}} ~ X _ {(i )} = x \ implique X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { par la propriété sans mémoire}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {viewed}}}

Somme de deux variables aléatoires exponentielles indépendantes Modifier

f Z (z) = ∫ – ∞ ∞ f X 1 (x 1) f X 2 (z – x 1) dx 1 = ∫ 0 z λ 1 e – λ 1 x 1 λ 2 e – λ 2 (z – x 1) dx 1 = λ 1 λ 2 e – λ 2 z ∫ 0 ze (λ 2 – λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 – λ 1 (e – λ 1 z – e – λ 2 z) si λ 1 ≠ λ 2 λ 2 ze – λ z si λ 1 = λ 2 = λ. {\ displaystyle {\ begin {aligné} f_ {Z} (z) & = \ int _ {- \ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {- \ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {- \ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {- \ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2} – \ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { cases} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2} – \ lambda _ {1}}} \ left (e ^ {- \ lambda _ {1} z} -e ^ {- \ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {- \ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {cas}} \ end {aligné}}} H (Z) = 1 + γ + ln ⁡ (λ 1 – λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 – λ 2), {\ displaystyle {\ begin {aligné} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1} – \ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1} – \ lambda _ {2}}} \ right), \ end {aligné}}}

où γ {\ displaystyle \ gamma} est la constante dEuler-Mascheroni, et ψ (⋅) {\ displaystyle \ psi (\ cdot)} est la fonction digamma.

Dans le cas de paramètres de taux égaux, le résultat est une distribution dErlang avec la forme 2 et le paramètre λ, {\ displaystyle \ lambda,} qui dans turn est un cas particulier de distribution gamma.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *