지수 분포

평균, 분산, 모멘트 및 중앙값 편집

평균 첫 번째 순간입니다.

중앙값은 프리 이미지 F-1 (1/2)입니다.

속도 매개 변수가 λ 인 지수 분포 랜덤 변수 X의 평균 또는 기대 값은 다음과 같습니다.

E ⁡ = 1 λ. {\ displaystyle \ operatorname {E} = {\ frac {1} {\ lambda}}.}

아래에 주어진 예를 고려할 때 이는 의미가 있습니다. 평균 시간당 2 번의 통화 속도로 전화를받는 경우 , 그러면 모든 호출에 대해 30 분을 기다릴 수 있습니다.

X의 분산은 다음과 같습니다.

Var ⁡ = 1 λ 2, {\ displaystyle \ operatorname {Var} = {\ frac {1} {\ lambda ^ {2}}},}

표준 편차는 평균과 같습니다.

n ∈ N {\ displaystyle n \ in에 대한 X의 모멘트 \ mathbb {N}}은

E ⁡ = n! λ n. {\ displaystyle \ operatorname {E} \ left = {\ frac {n!} {\ lambda ^ {n}}}.}

n ∈ N {\ displaystyle n \ in \ mathbb에 대한 X의 중심 순간 {N}}은

μ n =! n λ n = n! λ n ∑ k = 0 n (− 1) k k! . {\ displaystyle \ mu _ {n} = {\ frac {! n} {\ lambda ^ {n}}} = {\ frac {n!} {\ lambda ^ {n}}} \ sum _ {k = 0 } ^ {n} {\ frac {(-1) ^ {k}} {k!}}.}

여기서! n은 n의 하위 계수입니다.

X의 중앙값은 다음과 같습니다.

m ⁡ = ln ⁡ (2) λ < E ⁡, {\ displaystyle \ operatorname {m} = {\ frac {\ ln (2)} {\ lambda }} < \ operatorname {E},}

여기서 ln은 자연 로그를 나타냅니다. 따라서 평균과 중앙값의 절대 차이는 다음과 같습니다.

| E ⁡ − m ⁡ | = 1 − ln ⁡ (2) λ < 1 λ = σ ⁡, {\ displaystyle \ left | \ operatorname {E} \ left- \ operatorname {m} \ left \ right | = {\ frac {1- \ ln (2)} {\ lambda}} < {\ frac {1} {\ lambda}} = \ operatorname {\ sigma}, }

중위 평균 불평등에 따라.

MemorylessnessEdit

지수 분포 랜덤 변수 T는 관계식을 따릅니다

Pr (T > s + t ∣ T > s) = Pr (T > t), ∀ s, t ≥ 0 . {\ displaystyle \ Pr \ left (T > s + t \ mid T > s \ right) = \ Pr (T > t), \ qquad \ forall s, t \ geq 0.}

상보 적 누적 분포 함수를 고려하면 알 수 있습니다.

Pr (T > s + t ∣ T > s) = Pr (T > s + t ∩ T > s) Pr (T > s) = Pr (T s + t) Pr (T > s) = e − λ (s + t) e − λ s = e − λ t = Pr (T > t) {\ displaystyle {\ begin {aligned} \ Pr \ left (T > s + t \ mid T > s \ right) & = {\ frac {\ Pr \ left (T > s + t \ cap T > s \ right)} {\ Pr \ left (T > s \ right)}} \\ & = {\ frac {\ Pr \ left (T > s + t \ right)} {\ Pr \ left (T > s \ right)} } \\ & = {\ frac {e ^ {-\ lambda (s + t)}} {e ^ {-\ lambda s}}} \\ & = e ^ {-\ lambda t} \\ & = \ Pr (T > t) . \ end {aligned}}}

T가 일부 초기 시간에 상대적인 이벤트가 발생하기위한 대기 시간으로 해석 될 때이 관계는 T가 초기 기간 동안 이벤트를 관찰하지 못한 것을 조건으로한다는 것을 의미합니다. 시간의 s, 남은 대기 시간의 분포는 원래 무조건 분포와 동일합니다. 예를 들어, 이벤트가 30 초 후에 발생하지 않은 경우 발생하는 데 최소 10 초가 더 소요될 조건부 확률은 초기 시간 이후 10 초 이상 이벤트를 관찰 할 무조건 확률과 같습니다.

지수 분포와 기하 분포는 유일한 메모리없는 확률 분포입니다.

결과적으로 지수 분포는 결과적으로 일정한 실패율을 갖는 유일한 연속 확률 분포이기도합니다.

QuantilesEdit

이상에 대한 터키 기준.

Exp (λ)에 대한 분위수 함수 (역 누적 분포 함수)는 다음과 같습니다.

F − 1 (p; λ) = − ln ⁡ (1 − p ) λ, 0 ≤ p < 1 {\ displaystyle F ^ {-1} (p; \ lambda) = {\ frac {-\ ln (1-p)} {\ 람다}}, \ qquad 0 \ leq p < 1}

따라서 사 분위수는 다음과 같습니다.

  • 1 사 분위 : ln (4/3 ) / λ
  • 중앙값 : ln (2) / λ
  • 3 분위 : ln (4) / λ

결과적으로 사 분위수 범위는 ln (3) / λ입니다.

Kullback–Leibler divergenceEdit

Δ (λ 0 ∥ λ) = E λ 0 (log ⁡ p λ 0 (x) p λ (x)) = E λ 0 (log ⁡ λ 0 e − λ 0 x λ e − λ x) = log ⁡ (λ 0) − log ⁡ (λ) − (λ 0 − λ) E λ 0 (x) = log ⁡ (λ 0) − log ⁡ (λ) + λ λ 0 − 1. {\ displaystyle {\ begin {aligned} \ Delta (\ lambda _ {0} \ parallel \ lambda) & = \ mathbb {E} _ { \ lambda _ {0}} \ left (\ log {\ frac {p _ {\ lambda _ {0}} (x)} {p _ {\ lambda} (x)}} \ right) \\ & = \ mathbb {E} _ {\ lambda _ {0}} \ left (\ log {\ frac {\ lambda _ {0} e ^ {-\ lambda _ {0} x}} {\ lambda e ^ {-\ lambda x}}} \ right) \\ & = \ log (\ lambda _ {0})-\ log (\ lambda)-( \ lambda _ {0}-\ lambda) E _ {\ lambda _ {0}} (x) \\ & = \ log (\ lambda _ {0})-\ log (\ lambda) + {\ frac {\ lambda} {\ lambda _ {0}}}-1. \ end {aligned}}}

최대 엔트로피 분포 편집

모든 연속 확률 분포 중에서 지원은 고정되어 있습니다.

최소 지수 랜덤 변수 분포 편집

Let X1,. .., Xn은 속도 매개 변수가 λ1, …, λn 인 독립적 인 지수 분포 랜덤 변수입니다. 그런 다음

min {X 1,…, X n} {\ displaystyle \ min \ left \ {X_ {1}, \ dotsc, X_ {n} \ right \}}

도 기하 급수적으로 분포됩니다. 매개 변수

λ = λ 1 + ⋯ + λn. {\ displaystyle \ lambda = \ lambda _ {1} + \ dotsb + \ lambda _ {n}.}

보완 적 누적 분포 함수를 고려하면 알 수 있습니다.

Pr (min {X 1, …, X n} > x) = Pr (X 1 > x,…, Xn > x) = ∏ i = 1n Pr (X i > x) = ∏ i = 1n exp ⁡ (− x λ i) = exp ⁡ (− x ∑ i = 1n λ i). {\ displaystyle {\ begin {aligned} & \ Pr \ left (\ min \ {X_ {1}, \ dotsc, X_ {n} \} > x \ right) \\ = {} & \ Pr \ left (X_ {1} > x, \ dotsc, X_ {n} > x \ right) \\ = {} & \ prod _ {i = 1} ^ { n} \ Pr \ left (X_ {i} > x \ right) \\ = {} & \ prod _ {i = 1} ^ {n} \ exp \ left (-x \ lambda _ {i} \ right) = \ exp \ left (-x \ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right ). \ end {aligned}}}

최소값을 달성 한 변수의 인덱스는 범주 분포에 따라 분포됩니다.

Pr (k ∣ X k = min {X 1,…, X n}) = λ k λ 1 + ⋯ + λn. {\ displaystyle \ Pr \ left (k \ mid X_ {k} = \ min \ {X_ {1}, \ dotsc, X_ {n} \} \ right) = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}.}

증명은 다음과 같습니다.

Let I = argmin i ∈ {1, ⋯, n} ⁡ {X 1 ,…, X n} {\ displaystyle {\ text {Let}} I = \ operatorname {argmin} _ {i \ in \ {1, \ dotsb, n \}} \ {X_ {1}, \ dotsc, X_ {n} \}} 그러면 Pr (I = k) = ∫ 0 ∞ Pr (X k = x) Pr (X i ≠ k > x) dx = ∫ 0 ∞ λ ke − λ kx (∏ i = 1, i ≠ kne − λ ix) dx = λ k ∫ 0 ∞ e − (λ 1 + ⋯ + λn) xdx = λ k λ 1 + ⋯ + λn. {\ displaystyle {\ begin {aligned} {\ text {then}} \ Pr (I = k) & = \ int _ {0} ^ {\ infty} \ Pr ( X_ {k} = x) \ Pr (X_ {i \ neq k} > x) dx \\ & = \ int _ {0} ^ {\ infty} \ lambda _ {k} e ^ {-\ lambda _ {k} x} \ left (\ prod _ {i = 1, i \ neq k} ^ {n} e ^ {- \ lambda _ {i} x} \ right) dx \\ & = \ lambda _ {k} \ int _ {0} ^ {\ infty} e ^ {-\ left (\ lambda _ {1} + \ dotsb + \ lambda _ {n} \ right) x} dx \\ & = {\ frac {\ lambda _ {k}} { \ lambda _ {1} + \ dotsb + \ lambda _ {n}}}. \ end {aligned}}}

참고

max {X 1,…, X n} {\ displaystyle \ max \ {X_ {1}, \ dotsc, X_ {n} \}}

는 지수 분포가 아닙니다.

iid의 합동 모멘트 지수 차수 통계 편집

E ⁡ = ∑ k = 0 j − 1 1 (n − k) λ E ⁡ + E ⁡ = ∑ k = 0 j − 1 1 (n − k) λ ∑ k = 0 i − 1 1 (n − k) λ + ∑ k = 0 i − 1 1 ((n − k) λ) 2 + (∑ k = 0 i − 1 1 (n − k) λ) 2. {\ displaystyle {\ begin {aligned} \ operatorname {E} \ left & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} { (nk) \ lambda}} \ operatorname {E} \ left + \ operatorname {E} \ left \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda}} \ sum _ {k = 0} ^ {i-1} {\ frac {1} {(nk) \ lambda}} + \ sum _ {k = 0 } ^ {i-1} {\ frac {1} {((nk) \ lambda) ^ {2}}} + \ left (\ sum _ {k = 0} ^ {i-1} {\ frac {1 } {(nk) \ lambda}} \ right) ^ {2}. \ end {aligned}}}

총 기대치의 법칙과 메모리가없는 속성을 호출하면 알 수 있습니다.

E ⁡ = ∫0 ∞ E ⁡ f X (i) (x) dx = ∫ x = 0 ∞ x E ⁡ f X (i) (x) dx (X (i) = x ⟹ X (j) ≥ x) = ∫ x = 0 ∞ x + x] f X (i) (x) dx (기억없는 속성에 의해) = ∑ k = 0 j − 1 1 (n − k) λ E ⁡ + E ⁡.{\ displaystyle {\ begin {aligned} \ operatorname {E} \ left & = \ int _ {0} ^ {\ infty} \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx \\ & = \ int _ {x = 0} ^ {\ infty} x \ operatorname {E} \ leftf_ {X_ { (i)}} (x) \, dx & & \ left ({\ textrm {since}} ~ X _ {(i )} = x \ implies X _ {(j)} \ geq x \ right) \\ & = \ int _ {x = 0} ^ {\ infty} x \ left + x \ right] f_ {X _ {(i)}} (x) \, dx & & \ left ({\ text { 메모리가없는 속성}} \ right) \\ & = \ sum _ {k = 0} ^ {j-1} {\ frac {1} {(nk) \ lambda }} \ operatorname {E} \ left + \ operatorname {E} \ left. \ end {aligned}}}

두 독립 지수 랜덤 변수의 합 편집

f Z (z) = ∫ − ∞ ∞ f X 1 (x 1) f X 2 (z − x 1) dx 1 = ∫0 z λ 1 e − λ 1 x 1 λ 2 e − λ 2 (z − x 1) dx 1 = λ 1 λ 2 e − λ 2 z ∫ 0 ze (λ 2 − λ 1) x 1 dx 1 = {λ 1 λ 2 λ 2 − λ 1 (e − λ 1 z − e − λ 2 z) if λ 1 ≠ λ 2 λ 2 ze − λ 1 = λ 2 = λ 인 경우 λ z. {\ displaystyle {\ begin {aligned} f_ {Z} (z) & = \ int _ {-\ infty} ^ {\ infty} f_ {X_ {1}} ( x_ {1}) f_ {X_ {2}} (z-x_ {1}) \, dx_ {1} \\ & = \ int _ {0} ^ {z } \ lambda _ {1} e ^ {-\ lambda _ {1} x_ {1}} \ lambda _ {2} e ^ {-\ lambda _ {2} (z-x_ {1})} \, dx_ {1} \\ & = \ lambda _ {1} \ lambda _ {2} e ^ {-\ lambda _ {2} z} \ int _ {0} ^ { z} e ^ {(\ lambda _ {2}-\ lambda _ {1}) x_ {1}} \, dx_ {1} \\ & = {\ begin { 사례} {\ dfrac {\ lambda _ {1} \ lambda _ {2}} {\ lambda _ {2}-\ lambda _ {1}}} \ left (e ^ {-\ lambda _ {1} z} -e ^ {-\ lambda _ {2} z} \ right) & {\ text {if}} \ lambda _ {1} \ neq \ lambda _ {2} \ \\ lambda ^ {2} ze ^ {-\ lambda z} & {\ text {if}} \ lambda _ {1} = \ lambda _ {2} = \ lambda . \ end {cases}} \ end {aligned}}} H (Z) = 1 + γ + ln ⁡ (λ 1 − λ 2 λ 1 λ 2) + ψ (λ 1 λ 1 − λ 2), {\ 디스플레이 스타일 {\ begin {aligned} H (Z) & = 1 + \ gamma + \ ln \ left ({\ frac {\ lambda _ {1}-\ lambda _ {2 }} {\ lambda _ {1} \ lambda _ {2}}} \ right) + \ psi \ left ({\ frac {\ lambda _ {1}} {\ l ambda _ {1}-\ lambda _ {2}}} \ right), \ end {aligned}}}

여기서 γ {\ displaystyle \ gamma}는 Euler-Mascheroni 상수이고 ψ (⋅) {\ displaystyle \ psi (\ cdot)}는 디 감마 함수입니다.

동일 비율 매개 변수의 경우 결과는 형태 2와 매개 변수 λ, {\ displaystyle \ lambda,}가있는 Erlang 분포입니다. turn은 감마 분포의 특별한 경우입니다.

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다