|| 標本から得られた母数っぽい値
要は『サンプルの特徴を表す値を返す関数』のことです。
標本の平均(関数)とか
スポンサーリンク
目次
要約統計量「一部の特徴を表すやつ」
標本平均「サンプル(一部)の平均」
標本平均の分散「サンプル(標本)の平均の分散」
検定統計量「検定で使われる予想のこと」
順序統計量「順序に関するやつ(中央値とか最大値とか)」
十分統計量「母数を含んじゃってるやつ」
全体から得られる「母数」とは『母集団(全体)の』と
『サンプル(一部)の』という点で明確に区別されてます。
なんで区別する必要があるのかというと
『正解』と『誤差がある可能性のあるもの』は同じか?
って感じで見てみると、直観的かなと
これは用途によって名前が細分化されてます。
細分化されるくらい、ちょっといろいろあり過ぎるので。
まあ、そのどれもが基本的には「統計量」なので
単に具体化されてると考えておけばいい感じです。
要約統計量 Descriptive Statistics Value
|| 表したい性質の代表的なやつ
つまりは『基本的な統計量』のことです。
別名としてそのまま「代表値」とか呼ばれたりします。
『平均』やら『分散』やらはこれです。
他にも「正規分布(山みたいな形の分布)」からの
曲がり具合を示す『歪度』なるものやら
尖り具合を示す『尖度』やらがあります。
この辺りを詳しくやるなら「モーメント母関数」の知識が必要です。
これもすごく長くめんどくさくなるんで別記事で個別にやります。
標本平均 Sample Mean
これは「標本確率変数の平均」です。
ただの平均とどう違うねんって話ですし、
「標本確率変数」ってなんですのん?と思うんで、
さっそく見ていきましょう。
標本確率変数
簡単に言うと『標本』のふわっとしたものです。
取り出したけど「具体的な値が入ってない」みたいな。
いや、なんかよく分かんないんで、どんな感じか見てみましょう。
まず「母集団」から『標本』を取り出します。
具体的には「母集団 P 」から「 X_1 」を。
これだけだと「 X_1 を 1 個だけ取り出した」という具合です。
普通であれば、この「 X_1 」には具体的なデータが入ってます。
動物なら「鳥」とか「猿」とか。
んで「標本確率変数」では、この値に何もいれません。
単に『 P の部分集合 X_1 』を取り出すと。
まあ、こんな感じです。
要は「いろんな取り方が考えられる」みたいな。
いわゆる『一般性』の確保のための考え方です。
実際「母集団」が分かるまで『サンプル』の中身は分かりませんし、
『標本(サンプル)』が分かるまで、「標本の中身」は決まりません。
だから、それを「変数(確率変数) X 」と表してるわけですね。
以上が「標本確率変数」になります。
では、話は戻って『標本平均』について
『標本平均』は↑の平均です。つまり↓
「 n 個の標本の平均 \overline{X} 」は、
\displaystyle \overline{X}:=\frac{X_1+X_2+X_3+…+X_n}{n}
そしてこれらは『変数』になります。
データの範囲内でなら、どんな値でもとれます。
より具体的に言えば「標本平均」は『統計量』です。
つまり『統計量から』↓のように『母数』が導けることになります。
E[X_i]=μ
『統計』は結局「母数」が欲しいので、この性質が肝心です。
見ての通り『変数』にしてるのは、この為なわけですね。
変数は『全体から一つ決まり得る』という「もの」なので、
「全体から」得られる『母数』を考える時に必要な、
「無限個考える」みたいな、非現実的な操作が行えます。
だから『定義』として↓みたいにできるわけです。
E[X]=μ
これは「データ(標本) X の全体」の期待値を意味します。
つまり『母数』ですね。
そして↑であるなら「標本平均の期待値」も得られるわけで
E[aX]=aE[X],\,\,\,\,\,E[X_1+X_2]=E[X_1]+E[X_2]
は定義から明らかですから
\displaystyle E[\overline{X}]=E\left[\frac{X_1+X_2+X_3+…+X_n}{n}\right]
\displaystyle \frac{1}{n}E\left[X_1+X_2+X_3+…+X_n\right]\,\,\,\,\,\left(∵\,E[aX]=aE[X]\right)
\displaystyle =\frac{1}{n}\left(E[X_1]+E[X_2]+...+E[X_n]\right)\,\,\,\,\,\left(∵\,E[X_1+X_2]=E[X_1]+E[X_2]\right)
\displaystyle =\frac{1}{n}\left(\overbrace{μ+μ+μ+…+μ}^{n}\right)=\frac{1}{n}nμ=μ
念のため確認を。
↓は『 aX の平均』と『 X の平均』を比較してます。
\displaystyle E[aX]=\int_{0}^{\infty}axf(x)dx=a\int_{0}^{\infty}xf(x)dx=aE[X]
↓は単に「積分の代数的性質」で分割しただけです。
\displaystyle =\int_{0}^{\infty}x_1f(x)dx+\int_{0}^{\infty}x_2f(x)dx=E[X_1]+E[X_2]
こんな感じにめちゃくちゃしつこくやって、結果がこれ?
当たり前じゃん、となるかもしれませんが、
いや、わりとそうでもないんです。
次に紹介する『標本平均の分散』を見れば、
これの変な性質が分かるかと。
標本平均の分散
これも『標本確率変数』の期待値です。
↑みたいな計算をして求めます。
それでいて、これは『母平均と一致する』ことを示しません。
ちゃんとばらつきがあるっていう結果を示します。
つまるところ、ちゃんと「分散」値が出てくるわけです。
標本平均の期待値は母平均と一致してるんですけどね。
基本的に『確率変数』は「仮定」で『独立(無相関)』とされます。
ふわっと訳すなら、要は「データ同士の関係が無い」ってことです。
「あるデータが出ても他のデータは影響を受けない」みたいな。
どういうことかというと、例えばサイコロで例えるなら、
「 1 の目が出ました」という結果が、
「次に出る目に影響を与えない」ってことです。
まあ、考えてみれば当然のような話ですよね。
まったく無作為に、なにも考えず、完全なランダムであれば、
「前に出た目」と「次に出る目」は関係がありません。
通常、「統計」ではこのように「仮定」されます。
正当性は↑みたいな感じで、後は単に扱いやすいからですね。
(条件付確率にすると複雑になります)
というわけで「標本平均の分散」ですが、
この「仮定」の上での話になります。
要は『標本確率変数は独立』です。
すると『標本平均の分散』は↓になります。
\displaystyle V[\overline{X}]=V\left[\frac{X_1+X_2+X_3+…+X_n}{n}\right]
\displaystyle =\frac{1}{n^2}V\left[X_1+X_2+X_3+…+X_n\right]\,\,\,\,\,\left(∵\,V[aX]=a^2V[X]\right)
\displaystyle =\frac{1}{n^2}\left(V[X_1]+V[X_2]+…+V[X_n]\right)\,\,\,\,\,\left(∵\,V[X_1+X_2]=V[X_1]+V[X_2]\right)
\displaystyle =\frac{1}{n^2}\left(\overbrace{σ^2+σ^2+σ^2+…+σ^2}^{n}\right)=\frac{1}{n^2}nσ^2=\frac{σ^2}{n}
「独立」なので『共分散』を考えなくてもいいです。
ですから次の式が使えました。(ちょっと複雑)
V[X_1+X_2]=E[(X_1+X_2-(μ_1+μ_2))^2]
ここから少し面倒な計算になります。
(X_1+X_2-(μ_1+μ_2))^2
=(X_1+X_2)^2-2(X_1+X_2)(μ_1+μ_2)+(μ_1+μ_2)^2
\displaystyle =X_1{}^2+2X_1X_2+X_2{}^2-2(X_1μ_1+X_1μ_2+X_2μ_1+X_2μ_2)+μ_1{}^2+2μ_1μ_2+μ_2{}^2
=X_1{}^2-2X_1μ_1+μ_1{}^2+X_2{}^2-2X_2μ_2+μ_2{}^2
+2X_1X_2+2μ_1μ_2-2(X_1μ_2+X_2μ_1)
=(X_1-μ_1)^2+(X_2-μ_2)^2+(X_2-μ_2)^2
+2(X_1X_2+μ_1μ_2-X_1μ_2-X_2μ_1)
=(X_1-μ_1)^2+(X_2-μ_2)^2
+2(X_1(X_2-μ_2)-μ_1(X_2-μ_2))
∴\,E[(X_1+X_2-(μ_1+μ_2))^2]
=E[(X_1-μ_1)^2]+E[(X_2-μ_2)^2]
+2E[(X_1(X_2-μ_2)-μ_1(X_2-μ_2))]
「無相関」なので共分散は 0 です。
つまり↓ですから、
「無相関」という仮定から↓になります。
V[X_1+X_2]=E[(X_1-μ_1)^2+(X_2-μ_2)^2]
=E[(X_1-μ_1)^2]+E[(X_2-μ_2)^2]=V[X_1]+V[X_2]
そしてこれも使ってます。
これは要するに「平均の調整」です。
\displaystyle V[aX]=E[(aX-μ)^2]=E\left[a^2\left(X-\frac{μ}{a}\right)^2\right]
=a^2E[(X-μ´)^2]=a^2V[X]
aX の平均が『 μ 』で、
X の平均が『 μ´ 』ってことです。
はい、というわけで以上です。
標本平均の期待値は母数と一致しましたが、
『標本平均の分散は存在する』わけです。
つまりは『標本平均』と『母平均』は基本的に一致しません。
これで「標本平均の性質」が少しわかったかと思います。
『統計量』は、基本的に「母数」とは違うものなわけですね。
ただし期待値を求めると、一致するわけです。
検定統計量 Test Statistic
|| 仮説検定についてのもの
要は『採用するかどうか(確率で)決めるやつ』のことです。
これは『仮説検定』について理解してないと直観的に掴みにくいです。
しかしこのカテゴリはほんといろいろあるので、長くなりすぎます。
なので詳細は別の記事で
順序統計量 Order Statistic
|| 順序に関係する統計量
要は『どの辺かの順番にある、特徴を表す値』のこと
これは具体例から見た方が分かりやすいでしょう。
まあ大体は『順序関係 ≤ 』から
順に並べると両端になる『最大値』『最小値』とか
順番に並べた時に真ん中にあるデータである『中央値』とか
十分統計量 Sufficient Statistics
|| 母数を一部として取り込んじゃったやつ
つまりは『統計量が母数を含んじゃった』感じの統計量のことです。
これで「推定しかできない母数」でも上から抑えることができます。
とうぜん、めっちゃ重要です。
ただ『定義』に「条件付確率」が含まれます。
ですから単体で理解できるのは感覚だけでしょうか。
以下、その形式について。
「母数(正解) θ 」「標本(一部のデータ) X 」とすると
『十分統計量 Suf(x) 』についての形式は↓みたいな感じです。
Pr(x\,|\,Suf(x),θ)=Pr(x\,|\,Suf(x))
きっちり『前提 Suf(x) 』が『前提 θ 』をカバーしてます。
この時『 Suf(x) 』が「 θ に対して十分」となるわけです。
なぜかというと『前提 Suf(x),θ 』が『 Suf(x) だけ』になるので。
要は『前提 θ 』が『前提 Suf(x) 』に含まれてるわけです。
ですから「十分」なわけですね。
ざっと言うと↑みたいな感じです。
お察しの通りこれも長くなるので、詳しくは別の記事で
より詳しくやると長くなるので、代表的なものだけ紹介しました。
これ以上は専門的になり過ぎるので、別の記事で解説します。