|| 後付けで修正できる統計のやり方
「全体の特徴なんざ正確には分からん」って感じの考え方。
スポンサーリンク
この根拠として「出たものと出たものが影響し合う」って理屈が。
直観的に理解しやすいようでそうでもありません。
ともあれ、まずはこれの基礎から見てきましょうか。
基礎は『ベイズの定理』です。
「条件付確率」の定義からすぐに導かれます。
基本的なことを確認しておきましょう。
「事象 E の起きる確率」を P(E)
「事象 E_1 と事象 E_2 が同時に起きる確率」なら P(E_1,E_2)
この上で「事象が独立している」かどうかは分からないとして、
「ある事象が起きた上での、ある事象の確率」という意味で、
『条件付き確率』というものを考えてみます。
↑を実現するための定義を確認しましょうか。
事象 E_{pre} が起きた上で事象 E_{af} が起きる確率
これを P(E_{af}|E_{pre}) と表します。
これは言ってしまえば「 P(E_{pre}∩E_{af}) 」に関連する確率です。
『独立』であれば、これは「 P(E_{pre})P(E_{af}) 」になります。
そうなれば当然、条件付確率 P(E_{af}|E_{pre}) も
影響を受けない周辺確率 P(E_{af}) にならないといけません。
以上から、条件付確率は↓みたいに「定義」されてます。
\displaystyle P(E_{af}∩E_{pre})=P(E_{af},E_{pre})=P(E_{af}|E_{pre})P(E_{pre})
これを直観的に見るために「独立」と考えてみると↓
P(E_{af},E_{pre})=P(E_{af})P(E_{pre})
要はこれを「独立じゃないかも」と拡張した感じが↑の定義です。
てなわけで、これで「独立じゃない」場合も表せるようになりました。
そういうわけですから、↓とも言えるわけです。
P(E_{af},E_{pre})=P(E_{af}|E_{pre})P(E_{pre})
P(E_{pre},E_{af})=P(E_{pre}|E_{af})P(E_{af})
これは「独立」を考えると直観的にすぐ分かると思います。
意訳するなら、どちらも「同時に起きる確率」ですから。
以上の定義から、ある事実に気付かされます。
集合論の記号である「 ∩ 」は交換法則が成立しますから、
P(E_{af},E_{pre})=P(E_{pre},E_{af})
となることは明らかです。
というわけで、これから『ベイズの定理』が導かれます。
P(E_{af}|E_{pre})P(E_{pre})=P(E_{pre}|E_{af})P(E_{af})
\displaystyle ∴P(E_{pre}|E_{af})=\frac{P(E_{af}|E_{pre})P(E_{pre})}{P(E_{af})}
はい、これがベイズの定理になります。
定義からすぐに導かれる、単純な式です。
ほんで?って感じですが、いや、これ何気に変なんですよ?
当たり前に見えるようで、全く直観的じゃありません。
どう変なのかというと、この等式の解釈を考えてみれば分かります。
『ベイズの定理』をそのまま言い表すと、
「事前の出来事が起きた上での事後の確率」を使って、
「事後の出来事が起きる上での事前の確率」を求めることができる。
こう言ってるわけです。
よく見る表現としては「因果関係の逆転」が起きてるわけですね。
原因が結果に影響を及ぼすのは当然として、
結果もまた原因に影響を及ぼすって言ってるわけです。
直観的ではないというのは、こういうことですね。
まあ、これも解釈次第で直観的にできます。
要は『原因』と『結果』に区別するから混乱するんです。
なら、どちらも「結果」と考えれば、変な話にはなりません。
要は『前提』として、そもそも「互いに影響を及ぼす事実」があって、
「先に起きた結果」が「後に起きる結果」に影響を及ぼすように、
「後に起きた結果」もまた「先に起きる結果」に影響を与える。
要するに、これはそういう感じのお話です。
そしてこの考えを基礎にして『ベイズ統計学』は成り立っています。
つまり「修正」というのはそういう話なわけですね。
『後に出てきた結果』から『前に起きた結果』を修正できる、と。
こんな感じで補正に補正を重ねて「真の値」を探っていけるわけです。
特に決まった母数(パラメーター)を考えなくても。
感覚的な話をするなら、
例えば『予定に今の行動が左右される』みたいな。
でも『予定も行動に左右されるから、予定通りにはいかないよね』と。
これがベイズ統計学の大雑把な雰囲気になります。