【統計学】ポアソン分布についてわかりやすく解説

こんにちは青の統計学です。

今回はポアソン分布について解説します。

確率分布には、離散確率分布と連続確率分布の2種類がありますが、ポアソン分布は、離散確率分布の一つです。

 ポアソン分布(poisson distribution)

統計学および確率論で用いられるポアソン分布とは、ある事象が一定の時間内に発生する回数を表す離散確率分布です。

定数\( λ > 0\) に対し、0 以上の整数を値にとる確率変数 X が特定の条件を満たすとき、確率変数 X は母数 λ のポアソン分布に従うと言います。

ポアソン分布は、現実の多くの現象をモデル化するのに適しています。

例えば、1分間のWebサーバへのアクセス数や、一定期間内に起こる交通事故の数などは、ポアソン分布によってモデル化することができます。

・交通事故に遭う確率

・火事が発生する確率

などの確率分布にポアソン分布は使われます。

確率pが限りなく0に近く、観測数Nが極めて大きいことを必要としています。

このような特徴を持つ二項分布を、特にポアソン分布と呼んでいます。

数学的背景

分布関数は以下のようになります。

$$p(x)=\frac{λ^x}{x!}e^{-λ}$$

x:稀な現象が起きる数。0,1,2,3,4と離散的な数です。

λ:生起率、強度(intensity)と呼ばれる。稀な現象が単位時間あたりに起きる回数の平均を表しています。

e:自然対数の底。

このポアソン分布が使われる確率過程「ポアソン過程」については以下のコンテンツでご覧ください。

【統計検定】ポアソン過程をわかりやすく解説|待ち行列理論

ポアソン分布のモーメント母関数についての導出チートシートは以下のコンテンツをご覧ください。

【統計検定】確率分布のモーメント(積率)母関数完全ガイド|導出チートシート

[例題1]

ある町の1日あたりの交通死亡発生数はλ=1のポアソン分布に従います。次の確率を求めなさい。
(1)少なくとも一件の交通事故が発生する確率
(2)多くても一件しか発生しない確率

(1)1から交通事故が一件も起きない確率を引けば良いです。

\(P(x=0)=e^{-1}\)です。

(2)求める確率は、「多くても一件」なので、\(P(x<=1) = P(x = 0) + P(x = 1)\)です。
\(P(x = 0)\)は(1)で求めたように、\(e^{-1}\)でした。


同じように、\(λ=1,x=1\)を分布関数に代入すると、\(P(x = 1) = e^{-1}\)となります。
よって求める確率は、\(2e^{-1}\)です。

 

 

期待値と分散(expectation & variance)

結論としては、期待値も分散もλ(生起率)です。

数式で書くと、\(E[X] = Var(X) = λ\) というわけです。

[例題2]

確率変数Xがポアソン分布Po(λ)に従うとする。
(1)\(μ = E[X]とE[X(X-1)]\)を求めなさい。
(2)\(Var(X) = E[X(X-1)] + μ -μ^2\)になることを示し、\(Var(X)\)を求めなさい。

 

[解説]
(1)まず期待値は、このように0から無限大までの確率の和にxをかけてあげます。

$$E(X)=\sum_{x=0}^∞x\frac{λ^x}{x!}e^{-λ}$$

次に、かけた\(x\)を使って\(x!\)を\((x-1)!\)に約分してみましょう。

$$E(X)=\sum_{x=0}^∞x\frac{λ^x}{(x-1)!}e^{-λ}$$

そして分子の\(λ\)だけ外に出してあげると、\(λ\)と、\(x\)が\(0\)から無限大のポアソン確率の和が出来上がります。

$$E(X)=λ\sum_{x=0}^∞x\frac{λ^{x-1}}{(x-1)!}e^{-λ}$$

全ての確率の和は1であるという、確率質量関数の定義に従い、λと1の積になり、期待値はλです。

次は、\(E[x(x-1)]\)です。

やることは同じです。今度は、xでなくx(x-1)をかけます。

$$E(X(X-1))=\sum_{x=0}^∞x(x-1)\frac{λ^x}{x!}e^{-λ}$$

約分をすると今度は、分子のλを2個だけΣの前に持ってくる必要があります(分子とXの数を合わせるため)

$$E(X(X-1))=\sum_{x=0}^∞\frac{λ^{x-1}}{(x-2)!}e^{-λ}$$

よって\(λ^2\)と1の積になるので、答えはλ^2です。

 

(2)分散は、2乗の期待値から期待値の2乗を引いたものでした。

\(Var(X) = E[x^2] – E[x]^2\) でしたね。

第一項をよく見ると、(1)の形がうまく使えることに気が付きます。

$$E(X^2)=E(X(X-1))+E(X)$$

\(μ = E[X]\)であることから、\(Var(X) = E[X(X-1)] + μ -μ^2\) は示されました。

あとは、計算するだけです。

$$Var(X)=E(X(X-1))+E(X)-E(X)^2$$

(1)より、\(λ^2 + λ – λ^2 = λ\) となる事がわかります。よって分散もλになります。

 

CODE

有名なポアソン分布の例を扱ってみましょう。

プロイセン騎兵連隊において1年間に馬に蹴られて死んだ兵隊の数の分布です。

死亡数012345
観測数1096522310

1年間に馬に蹴られて1人の兵士が死亡するという生起率λが0.61と知られているとしましょう。

これは、単位あたりの平均事故数と考えていただいてokです。

y <- c(0, 1, 2, 3, 4, 5)

#yにベクトルを入れてあげます。

prob <- dpois(y, lambda = 0.61)

#生起率λに0.61を代入したポアソン分布関数を作成します。

plot(y,prob,type="o")

#実際に図を書いてみました。点はoで表しています。

横軸は死亡数で、縦軸はその確率です。

prob(確率)をみてみましょう。5人の兵士が1年間に死ぬ確率が0.0031ととても低い事がわかりますね。

生起率λの検定(hypothesis testing)

$$p(x)=\frac{λ^x}{e^{-λ}}$$

以上のようなポアソン分布の生起率λが正の実数λ_0という特定の値であるという帰無仮説を立てます。

H0(帰無仮説):\(λ = λ_0\)

H1(対立仮説):\(λ > λ_0\)

棄却域は以下のように設定します。

$$\hat{λ}-λ_0>C$$

左辺の第1項は生起率の最尤推定量です。

【尤度って?】尤度関数と最尤推定量の解説と例題で解説しましたが、生起率の最尤推定量は標本平均です。

ここで検定統計量は、以下のようになります。

分散も生起率λに一致しています。

$$\frac{\hat{λ}-λ_0}{\sqrt{λ_0}}〜N(0,1)$$

この検定統計量は標準正規分布に従います。

そのほか統計的仮説検定について学習したい方は、以下のコンテンツをご覧ください。

【仮説検定】p値をゼロから解説(第一種の過誤,第二種の過誤,検出力)

再生性(reproductive property)

ポアソン分布には、「再生性」という嬉しい特性があります。

再生性とは、「確率変数同士を足しても、その分布がわかる」という特性です。

以下、命題です。

命題

1:X1とX2は独立

2:X1 ~ Po(λ1)

3:X2 ~ Po(λ2)

ならば、X1 + X2 ~ Po(λ1 + λ2)が成り立つ。

つまり、X1とX2という独立した確率変数がそれぞれポアソン分布に従っている場合には、その確率変数の和自体も、生起率を\((λ1+λ2)\)とするポアソン分布に従います。

もっと汎用的な話としては、以下のようになります。

X1,X2,‥,Xn ~ Po(λ)で独立かつ同一の分布に従うとき、

Wn = X1 + X2 + ‥ + Xn ~ Po(nλ) 

和の分布も当然ポアソン分布に従います。生起率はnλです。

では、再生性があると何が嬉しいのかというと、

標本平均の分布が正確にわかる

ということが挙げられます。

$$P(\overline{X}=\frac{k}{n})=P(W_n=k)=\frac{(nλ)^k}{k!}e^{-nλ}$$

標本平均が\(\frac{k}{n}\)になるという確率は、和がkになるという確率と同じです。

あとは、ポアソン分布の分布関数を用いると答えが求められる、という話です。

ちなみにベルヌーイ分布や正規分布にも再生性はありますので、確率変数同士を足しても分布がわかります。

正規分布について知りたい方は、【例題つき】正規分布の確率密度についてをご覧ください。

一般線形モデルを学習したい方やポアソン分布の最尤推定量を知りたい方は以下のコンテンツをご覧ください。 

【汎用性抜群】尤度比検定を解説します

【python】尤度比検定で統計モデルの比較をしよう|統計的仮説検定

【尤度って?】尤度関数と最尤推定量の解説と例題。

補足|ポアソンの極限定理と二項分布

ちなみにポアソン分布は、二項分布の極限としても現れます。

具体的には、試行回数nが大きく\(n→∞\)、成功確率pが小さいとき\(p→0\)、二項分布\(Bin(n, p)\)はポアソン分布\(Po(np)\)に近づきます。

これは「ポアソンの極限定理」として知られています。

$$\lim_{{n \to \infty, p \to 0}} P(X=k) = \frac{\lambda^k e^{-\lambda}}{k!}$$

二項分布の試行回数\(n\)と成功確率\(p\)の積、\(np\)が強度\(λ\)に等しいので

$$np=λ,p=\frac{λ}{n}$$

二項分布の確率質量関数である、\(P(X=x)={}_nC_xp^x(1-p)^{n-x}\)に代入してみます。

$$=\frac{n!}{x!(n-x)!} (\frac{λ}{n})^x(1-\frac{λ}{n})^{n-x}$$

\((1-\frac{λ}{n})^{n-x}\)をn乗の部分と-x乗の部分にわけて、あげると以下のように変形できます。

$$=\frac{1}{x!} (1-\frac{1}{n})…(1-\frac{x-1}{n})λ^x (1-\frac{λ}{n})^n(1-\frac{λ}{n})^{-x}$$

ここで、nを∞に近づけると、\((1-\frac{λ}{n})^n\)以外は\(1-0\)の形になり、積としては1をかけるだけになります。

ネイピア数の公式より以下のようなことが言えます。

$$\lim_{n\to \infty} (1-\frac{λ}{n})^n=\lim_{n\to \infty}(1-\frac{λ}{n})^{-\frac{n}{λ}}^{-λ}=e^{-λ}$$

よって、残ったものは\(e^{-λ}\frac{λ^{x}}{x!} \)となり、ポアソン分布の確率質量関数と一致しますね。

FOLLOW ME !