|| 前に起きたことが後のことに影響する感じ
いわゆる「事前の影響を考えた確率」のことです。
前後が必要なので「複数回の試行の結果」が前提になります。
スポンサーリンク
目次
条件付き確率「前に起きたことが後に起きたことに関わる」
事前確率「前に起きたことの確率(条件付確率)」
事後確率「後に起きたことの確率(条件付確率)」
周辺確率「他の影響を考えなくていい確率」
同時確率「二つの事象がどちらとも起きる確率」
ベイズの定理「後に起きることが前に起きることに影響を与える」
「前に起きたことが後に影響を及ぼす」というのは普通の考えです。
例えば「今日やったこと」が「明日の成果につながる」とか。
いわゆる『独立』を考えない場合の確率がこれです。
「影響を考える」ので、基本的に 2 つの変数を考えます。
単純に「前に起きたこと」と「その後に起きたこと」の 2 つを。
そう、これは『複数回の試行』を考えるのに必要なんです。
どういうことかというと、
「ある確率」は、『1回の試行の確率』であって、
『2回以上の試行』は想定されていません。
しかし、確率を「実際に利用する」には、
『2回以上の試行』を考える必要があります。
この時に、「前の試行」と「後の試行」が必要になり、
その上で「条件付き確率」という考え方が必要になる感じ。
結論から行くと、定義は↓になります。
「 P(E_{\mathrm{af}}∩E_{\mathrm{pre}}) 」は「 E_{\mathrm{pre}} と E_{\mathrm{af}} が同時に起きる確率」です。
P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})=P(E_{\mathrm{af}}∩E_{\mathrm{pre}})
\displaystyle P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})=\frac{P(E_{\mathrm{af}}∩E_{\mathrm{pre}})}{P(E_{\mathrm{pre}})}
この「 P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}}) 」が、条件付き確率になります。
事象 E_{\mathrm{pre}} が起こったうえで、事象 E_{\mathrm{af}} が起きる確率
とか言われたりします。(記号の意味)
「こうした後に、ああした確率」とか、そんな感じ。
「あれ選んだあとに、あれを選ぶ確率」とかでも。
他にも「 P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}}) 」を「 P(E_{\mathrm{af}}\,;\,E_{\mathrm{pre}}) 」と表したりも。
この辺はやりたいようにやる感じで。
というわけで、この内訳を見ていきましょう。
まずは用語の紹介ですね。
事前確率 Prior Probability
|| 前の事象が起きる確率
相対的に見て「後の前に起きる事象の確率」のことです。
基本的に「事前と事後はセット」になります。
↑の定義にはありませんが「 P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}}) 」のことです。
これは『ベイズの定理』から「条件付確率」として定義されます。
ベイズの定理については↓で解説してます。
事後確率 Posterior Probability
|| 後の事象が起きる確率のこと
つまり「事前の影響をうけるかもしれない確率」のことで、
要するに『条件付確率』は基本的にこれのことを指します。
↑の定義から見れば「 P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}}) 」がこれです。
影響を受けない時は、単に「 P(E_{\mathrm{af}}) 」と表せます。
まあ当然の話で、「影響が無い」なら「独立」でしょう。
周辺確率 Marginal Probability
|| 他と関わりの無い事象の確率
要は「影響を考えなくても良い確率」のことです。
より直観的で一般的な確率はこれになります。
↑の定義の「 P(E_{\mathrm{pre}}) 」とかがそうです。
より厳密には「試行の結果一個をそのまま事象にした確率」とか。
これはいわゆる『仮定されるもの』になります。
同時確率 Simultaneous Probability
|| 一緒に起きる確率
つまりは「二つの事象がどちらも起きる確率」のことです。
「事象 E_{\mathrm{pre}} が起きて、かつ事象 E_{\mathrm{af}} が起きる確率」がこれ。
(排反だと 0 )
↑の定義での「 P(E_{\mathrm{af}}∩E_{\mathrm{pre}}) 」のことですね。
他にも「 P(E_{\mathrm{af}},E_{\mathrm{pre}}) 」と表したりもします。
「~起きて、かつ~が起きて、かつ~が起きて・・・」の、
いわゆる「~かつ」という考え方がこれになります。
要はどれも起きるということを示す「 \mathrm{and} 」ですね。
「試行の回数が2回以上」であることを想定されています。
例えば「 1 が出る確率」と「 2 になる確率」なんかの、
「1回の試行の確率」を考えると、
これを使って同時確率を考えると、
「 1 が出て、かつ 2 が出る確率」などが考えられます。
この事象「 1 が出る かつ 2 が出る」であれば、
「どちらの事象でも起きている」と言えますよね。
ですから同時確率と呼ばれます。
補足しておきますと、これは「2回以上の試行」でもOK。
例えば「 1 が出て、かつ 1 が出て、かつ 2 が出る」とか。
ベイズの定理 Bayes’ theorem
|| 後に起きることが前に起きることに影響を与える
要は「前後関係を入れ替えて考えられる」って言ってます。
「原因」と「結果」が入れ替わる、と考えるのはおすすめしません。
この定理の形式は↓です。
\displaystyle P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})=P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})P(E_{\mathrm{af}})
\displaystyle P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})=\frac{P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})}{P(E_{\mathrm{af}})}
これが「ベイズの定理」になります。
見ての通り「前の結果」が、「後の結果」から導かれてます。
これが、見た目には「因果関係の逆転」に見えるわけですね。
証明は単純に「同時確率」を考えれば導かれます。
P(E_{\mathrm{af}}∩E_{\mathrm{pre}})=P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})
P(E_{\mathrm{pre}}∩E_{\mathrm{af}})=P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})P(E_{\mathrm{af}})
記号 ∩ は「交換律」が成立しますから、
P(E_{\mathrm{af}}∩E_{\mathrm{pre}})=P(E_{\mathrm{pre}}∩E_{\mathrm{af}}) ですので、
P(E_{\mathrm{af}}\,|\,E_{\mathrm{pre}})P(E_{\mathrm{pre}})=P(E_{\mathrm{pre}}\,|\,E_{\mathrm{af}})P(E_{\mathrm{af}}) となります。
『原因』という概念をどう考えるかによりますが、
これは見た目には「因果関係を変更できる」ことを示してます。
「後の結果」が「原因」に影響を与えているので。
といっても、そう特別なものではありません。
思い返してみれば、わりと身近にあふれた話です。
例えば感覚的な話をするなら、
「予定していること」が「その前の行動」に影響を与える感じ。
考えてみれば、まあわりと普通の話ですよね。
それに『事象』は「集合」として与えられているので、
これは「集合同士の関係」として、必然的に導かれます。
( ∩ の交換律)
よく「因果関係の逆転」というような記述がみられますが、
自分の感覚としては、前後関係なく「どちらも結果」なので、
「前の結果」と「後の結果」を入れ替えてるだけという感じ。
実際、事象(集合)の関係もそんな感じです。
あくまで「前の結果」と「後の結果」が重なってるみたいな。
原因と結果に関する考察は『実用的数学』で行います。
興味があれば見てあげてください。