条件付き確率 Conditional Probability


|| 前に起きたことが後のことに影響する感じ

いわゆる「事前の影響を考えた確率」のことです。

前後が必要なので「複数回の試行の結果」が前提になります。

スポンサーリンク




目次


条件付き確率「前に起きたことが後に起きたことに関わる」


   事前確率「前に起きたことの確率(条件付確率)」

   事後確率「後に起きたことの確率(条件付確率)」

   周辺確率「他の影響を考えなくていい確率」

   同時確率「二つの事象がどちらとも起きる確率」



ベイズの定理「後に起きることが前に起きることに影響を与える」








「前に起きたことが後に影響を及ぼす」というのは普通の考えです。

例えば「今日やったこと」が「明日の成果につながる」とか。

いわゆる『独立』を考えない場合の確率がこれです。




「影響を考える」ので、基本的に 2 つの変数を考えます。

単純に「前に起きたこと」と「その後に起きたこと」の 2 つを。



そう、これは『複数回の試行』を考えるのに必要なんです。



どういうことかというと、

「ある確率」は、『1回の試行の確率』であって、

『2回以上の試行』は想定されていません。



しかし、確率を「実際に利用する」には、

『2回以上の試行』を考える必要があります。



この時に、「前の試行」と「後の試行」が必要になり、

その上で「条件付き確率」という考え方が必要になる感じ。




結論から行くと、定義は↓になります。

P(E_{\mathrm{af}}∩E_{\mathrm{pre}}) 」は「 E_{\mathrm{pre}}E_{\mathrm{af}} が同時に起きる確率」です。



P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})=P(E_{\mathrm{af}}∩E_{\mathrm{pre}})


\displaystyle P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})=\frac{P(E_{\mathrm{af}}∩E_{\mathrm{pre}})}{P(E_{\mathrm{pre}})}



この「 P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}}) 」が、条件付き確率になります。

事象 E_{\mathrm{pre}} が起こったうえで、事象 E_{\mathrm{af}} が起きる確率

とか言われたりします。(記号の意味)



「こうした後に、ああした確率」とか、そんな感じ。

「あれ選んだあとに、あれを選ぶ確率」とかでも。




他にも「 P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}}) 」を「 P(E_{\mathrm{af}}\,;\,E_{\mathrm{pre}}) 」と表したりも。

この辺はやりたいようにやる感じで。




というわけで、この内訳を見ていきましょう。

まずは用語の紹介ですね。







事前確率 Prior Probability


|| 前の事象が起きる確率

相対的に見て「後の前に起きる事象の確率」のことです。

基本的に「事前と事後はセット」になります。




↑の定義にはありませんが「 P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}}) 」のことです。

これは『ベイズの定理』から「条件付確率」として定義されます。

ベイズの定理については↓で解説してます。






事後確率 Posterior Probability


|| 後の事象が起きる確率のこと

つまり「事前の影響をうけるかもしれない確率」のことで、

要するに『条件付確率』は基本的にこれのことを指します。




↑の定義から見れば「 P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}}) 」がこれです。

影響を受けない時は、単に「 P(E_{\mathrm{af}}) 」と表せます。

まあ当然の話で、「影響が無い」なら「独立」でしょう。






周辺確率 Marginal Probability


|| 他と関わりの無い事象の確率

要は「影響を考えなくても良い確率」のことです。

より直観的で一般的な確率はこれになります。




↑の定義の「 P(E_{\mathrm{pre}}) 」とかがそうです。

より厳密には「試行の結果一個をそのまま事象にした確率」とか。

これはいわゆる『仮定されるもの』になります。






同時確率 Simultaneous Probability


|| 一緒に起きる確率

つまりは「二つの事象がどちらも起きる確率」のことです。

「事象 E_{\mathrm{pre}} が起きて、かつ事象 E_{\mathrm{af}} が起きる確率」がこれ。

(排反だと 0




↑の定義での「 P(E_{\mathrm{af}}∩E_{\mathrm{pre}}) 」のことですね。

他にも「 P(E_{\mathrm{af}},E_{\mathrm{pre}}) 」と表したりもします。




「~起きて、かつ~が起きて、かつ~が起きて・・・」の、

いわゆる「~かつ」という考え方がこれになります。



要はどれも起きるということを示す「 \mathrm{and} 」ですね。

「試行の回数が2回以上」であることを想定されています。





例えば「 1 が出る確率」と「 2 になる確率」なんかの、

「1回の試行の確率」を考えると、



これを使って同時確率を考えると、

1 が出て、かつ 2 が出る確率」などが考えられます。



この事象「 1 が出る かつ 2 が出る」であれば、

「どちらの事象でも起きている」と言えますよね。

ですから同時確率と呼ばれます。




補足しておきますと、これは「2回以上の試行」でもOK。

例えば「 1 が出て、かつ 1 が出て、かつ 2 が出る」とか。







ベイズの定理 Bayes’ theorem


|| 後に起きることが前に起きることに影響を与える

要は「前後関係を入れ替えて考えられる」って言ってます。

「原因」と「結果」が入れ替わる、と考えるのはおすすめしません。




この定理の形式は↓です。



\displaystyle P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})=P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})P(E_{\mathrm{af}})


\displaystyle P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})=\frac{P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})}{P(E_{\mathrm{af}})}



これが「ベイズの定理」になります。

見ての通り「前の結果」が、「後の結果」から導かれてます。



これが、見た目には「因果関係の逆転」に見えるわけですね。






証明は単純に「同時確率」を考えれば導かれます。



P(E_{\mathrm{af}}∩E_{\mathrm{pre}})=P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})

P(E_{\mathrm{pre}}∩E_{\mathrm{af}})=P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})P(E_{\mathrm{af}})



記号 は「交換律」が成立しますから、

P(E_{\mathrm{af}}∩E_{\mathrm{pre}})=P(E_{\mathrm{pre}}∩E_{\mathrm{af}}) ですので、



P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})=P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})P(E_{\mathrm{af}}) となります。



『原因』という概念をどう考えるかによりますが、

これは見た目には「因果関係を変更できる」ことを示してます。

「後の結果」が「原因」に影響を与えているので。



といっても、そう特別なものではありません。

思い返してみれば、わりと身近にあふれた話です。




例えば感覚的な話をするなら、

「予定していること」が「その前の行動」に影響を与える感じ。

考えてみれば、まあわりと普通の話ですよね。




それに『事象』は「集合」として与えられているので、

これは「集合同士の関係」として、必然的に導かれます。

の交換律)




よく「因果関係の逆転」というような記述がみられますが、

自分の感覚としては、前後関係なく「どちらも結果」なので、

「前の結果」と「後の結果」を入れ替えてるだけという感じ。




実際、事象(集合)の関係もそんな感じです。

あくまで「前の結果」と「後の結果」が重なってるみたいな。






原因と結果に関する考察は『実用的数学』で行います。

興味があれば見てあげてください。