統計量 Statistics


|| 標本から得られた母数っぽい値

要は『サンプルの特徴を表す値を返す関数』のことです。

標本の平均(関数)とか

スポンサーリンク




目次


要約統計量「一部の特徴を表すやつ」

   標本平均「サンプル(一部)の平均」

   標本平均の分散「サンプル(標本)の平均の分散」


検定統計量「検定で使われる予想のこと」

順序統計量「順序に関するやつ(中央値とか最大値とか)」


十分統計量「母数を含んじゃってるやつ」






全体から得られる「母数」とは『母集団(全体)の』と

『サンプル(一部)の』という点で明確に区別されてます。



なんで区別する必要があるのかというと

『正解』と『誤差がある可能性のあるもの』は同じか?

って感じで見てみると、直観的かなと






これは用途によって名前が細分化されてます。

細分化されるくらい、ちょっといろいろあり過ぎるので。



まあ、そのどれもが基本的には「統計量」なので

単に具体化されてると考えておけばいい感じです。







要約統計量 Descriptive Statistics Value


|| 表したい性質の代表的なやつ

つまりは『基本的な統計量』のことです。



別名としてそのまま「代表値」とか呼ばれたりします。




『平均』やら『分散』やらはこれです。 


他にも「正規分布(山みたいな形の分布)」からの

曲がり具合を示す『歪度』なるものやら

尖り具合を示す『尖度』やらがあります。




この辺りを詳しくやるなら「モーメント母関数」の知識が必要です。

これもすごく長くめんどくさくなるんで別記事で個別にやります。







標本平均 Sample Mean


これは「標本確率変数の平均」です。



ただの平均とどう違うねんって話ですし、

「標本確率変数」ってなんですのん?と思うんで、

さっそく見ていきましょう。







標本確率変数


簡単に言うと『標本』のふわっとしたものです。

取り出したけど「具体的な値が入ってない」みたいな。




いや、なんかよく分かんないんで、どんな感じか見てみましょう。



まず「母集団」から『標本』を取り出します。

具体的には「母集団 P 」から「 X_1 」を。

これだけだと「 X_11 個だけ取り出した」という具合です。



普通であれば、この「 X_1 」には具体的なデータが入ってます。

動物なら「鳥」とか「猿」とか。



んで「標本確率変数」では、この値に何もいれません。

単に『 P の部分集合 X_1 』を取り出すと。

まあ、こんな感じです。



要は「いろんな取り方が考えられる」みたいな。

いわゆる『一般性』の確保のための考え方です。



実際「母集団」が分かるまで『サンプル』の中身は分かりませんし、

『標本(サンプル)』が分かるまで、「標本の中身」は決まりません。




だから、それを「変数(確率変数) X 」と表してるわけですね。

以上が「標本確率変数」になります。







では、話は戻って『標本平均』について




『標本平均』は↑の平均です。つまり↓

n 個の標本の平均 \overline{X} 」は、


\displaystyle \overline{X}:=\frac{X_1+X_2+X_3+…+X_n}{n}



そしてこれらは『変数』になります。

データの範囲内でなら、どんな値でもとれます。



より具体的に言えば「標本平均」は『統計量』です。

つまり『統計量から』↓のように『母数』が導けることになります。



E[X_i]=μ



『統計』は結局「母数」が欲しいので、この性質が肝心です。

見ての通り『変数』にしてるのは、この為なわけですね。




変数は『全体から一つ決まり得る』という「もの」なので、

「全体から」得られる『母数』を考える時に必要な、

「無限個考える」みたいな、非現実的な操作が行えます。




だから『定義』として↓みたいにできるわけです。


E[X]=μ


これは「データ(標本) X の全体」の期待値を意味します。

つまり『母数』ですね。






そして↑であるなら「標本平均の期待値」も得られるわけで

E[aX]=aE[X],\,\,\,\,\,E[X_1+X_2]=E[X_1]+E[X_2]

は定義から明らかですから



\displaystyle E[\overline{X}]=E\left[\frac{X_1+X_2+X_3+…+X_n}{n}\right]

\displaystyle \frac{1}{n}E\left[X_1+X_2+X_3+…+X_n\right]\,\,\,\,\,\left(∵\,E[aX]=aE[X]\right)

\displaystyle =\frac{1}{n}\left(E[X_1]+E[X_2]+...+E[X_n]\right)\,\,\,\,\,\left(∵\,E[X_1+X_2]=E[X_1]+E[X_2]\right)

\displaystyle =\frac{1}{n}\left(\overbrace{μ+μ+μ+…+μ}^{n}\right)=\frac{1}{n}nμ=μ




念のため確認を。

↓は『 aX の平均』と『 X の平均』を比較してます。


\displaystyle E[aX]=\int_{0}^{\infty}axf(x)dx=a\int_{0}^{\infty}xf(x)dx=aE[X]




↓は単に「積分の代数的性質」で分割しただけです。


\displaystyle E[X_1+X_2]=\int_{0}^{\infty}(x_1+x_2)f(x)dx=\int_{0}^{\infty}\left(x_1f(x)+x_2f(x)\right)dx

\displaystyle =\int_{0}^{\infty}x_1f(x)dx+\int_{0}^{\infty}x_2f(x)dx=E[X_1]+E[X_2]




こんな感じにめちゃくちゃしつこくやって、結果がこれ?

当たり前じゃん、となるかもしれませんが、

いや、わりとそうでもないんです。



次に紹介する『標本平均の分散』を見れば、

これの変な性質が分かるかと。






標本平均の分散


これも『標本確率変数』の期待値です。

↑みたいな計算をして求めます。



それでいて、これは『母平均と一致する』ことを示しません。

ちゃんとばらつきがあるっていう結果を示します。



つまるところ、ちゃんと「分散」値が出てくるわけです。

標本平均の期待値は母平均と一致してるんですけどね。






基本的に『確率変数』は「仮定」で『独立(無相関)』とされます。

ふわっと訳すなら、要は「データ同士の関係が無い」ってことです。

「あるデータが出ても他のデータは影響を受けない」みたいな。




どういうことかというと、例えばサイコロで例えるなら、

1 の目が出ました」という結果が、

「次に出る目に影響を与えない」ってことです。



まあ、考えてみれば当然のような話ですよね。

まったく無作為に、なにも考えず、完全なランダムであれば、

「前に出た目」と「次に出る目」は関係がありません。






通常、「統計」ではこのように「仮定」されます。

正当性は↑みたいな感じで、後は単に扱いやすいからですね。

(条件付確率にすると複雑になります)




というわけで「標本平均の分散」ですが、

この「仮定」の上での話になります。

要は『標本確率変数は独立』です。




すると『標本平均の分散』は↓になります。


\displaystyle V[\overline{X}]=V\left[\frac{X_1+X_2+X_3+…+X_n}{n}\right]

\displaystyle =\frac{1}{n^2}V\left[X_1+X_2+X_3+…+X_n\right]\,\,\,\,\,\left(∵\,V[aX]=a^2V[X]\right)

\displaystyle =\frac{1}{n^2}\left(V[X_1]+V[X_2]+…+V[X_n]\right)\,\,\,\,\,\left(∵\,V[X_1+X_2]=V[X_1]+V[X_2]\right)

\displaystyle =\frac{1}{n^2}\left(\overbrace{σ^2+σ^2+σ^2+…+σ^2}^{n}\right)=\frac{1}{n^2}nσ^2=\frac{σ^2}{n}




「独立」なので『共分散』を考えなくてもいいです。

ですから次の式が使えました。(ちょっと複雑)



V[X_1+X_2]=E[(X_1+X_2-(μ_1+μ_2))^2]


ここから少し面倒な計算になります。


(X_1+X_2-(μ_1+μ_2))^2

=(X_1+X_2)^2-2(X_1+X_2)(μ_1+μ_2)+(μ_1+μ_2)^2

\displaystyle =X_1{}^2+2X_1X_2+X_2{}^2-2(X_1μ_1+X_1μ_2+X_2μ_1+X_2μ_2)+μ_1{}^2+2μ_1μ_2+μ_2{}^2


=X_1{}^2-2X_1μ_1+μ_1{}^2+X_2{}^2-2X_2μ_2+μ_2{}^2

+2X_1X_2+2μ_1μ_2-2(X_1μ_2+X_2μ_1)


=(X_1-μ_1)^2+(X_2-μ_2)^2+(X_2-μ_2)^2

+2(X_1X_2+μ_1μ_2-X_1μ_2-X_2μ_1)


=(X_1-μ_1)^2+(X_2-μ_2)^2

+2(X_1(X_2-μ_2)-μ_1(X_2-μ_2))



∴\,E[(X_1+X_2-(μ_1+μ_2))^2]

=E[(X_1-μ_1)^2]+E[(X_2-μ_2)^2]

+2E[(X_1(X_2-μ_2)-μ_1(X_2-μ_2))]



「無相関」なので共分散は 0 です。

つまり↓ですから、


E[(X_1(X_2-μ_2)-μ_1(X_2-μ_2))]=0



「無相関」という仮定から↓になります。


V[X_1+X_2]=E[(X_1-μ_1)^2+(X_2-μ_2)^2]

=E[(X_1-μ_1)^2]+E[(X_2-μ_2)^2]=V[X_1]+V[X_2]




そしてこれも使ってます。

これは要するに「平均の調整」です。


\displaystyle V[aX]=E[(aX-μ)^2]=E\left[a^2\left(X-\frac{μ}{a}\right)^2\right]

=a^2E[(X-μ´)^2]=a^2V[X]



aX の平均が『 μ 』で、

X の平均が『 μ´ 』ってことです。






はい、というわけで以上です。

標本平均の期待値は母数と一致しましたが、

『標本平均の分散は存在する』わけです。



つまりは『標本平均』と『母平均』は基本的に一致しません。

これで「標本平均の性質」が少しわかったかと思います。



『統計量』は、基本的に「母数」とは違うものなわけですね。

ただし期待値を求めると、一致するわけです。







検定統計量 Test Statistic


|| 仮説検定についてのもの

要は『採用するかどうか(確率で)決めるやつ』のことです。




これは『仮説検定』について理解してないと直観的に掴みにくいです。

しかしこのカテゴリはほんといろいろあるので、長くなりすぎます。

なので詳細は別の記事で







順序統計量 Order Statistic


|| 順序に関係する統計量

要は『どの辺かの順番にある、特徴を表す値』のこと




これは具体例から見た方が分かりやすいでしょう。

まあ大体は『順序関係 』から



順に並べると両端になる『最大値』『最小値』とか

順番に並べた時に真ん中にあるデータである『中央値』とか







十分統計量 Sufficient Statistics


|| 母数を一部として取り込んじゃったやつ

つまりは『統計量が母数を含んじゃった』感じの統計量のことです。



これで「推定しかできない母数」でも上から抑えることができます。

とうぜん、めっちゃ重要です。




ただ『定義』に「条件付確率」が含まれます。

ですから単体で理解できるのは感覚だけでしょうか。

以下、その形式について。




「母数(正解) θ 」「標本(一部のデータ) X 」とすると

『十分統計量 Suf(x) 』についての形式は↓みたいな感じです。



Pr(x\,|\,Suf(x),θ)=Pr(x\,|\,Suf(x))



きっちり『前提 Suf(x) 』が『前提 θ 』をカバーしてます。

この時『 Suf(x) 』が「 θ に対して十分」となるわけです。




なぜかというと『前提 Suf(x),θ 』が『 Suf(x) だけ』になるので。

要は『前提 θ 』が『前提 Suf(x) 』に含まれてるわけです。

ですから「十分」なわけですね。




ざっと言うと↑みたいな感じです。

お察しの通りこれも長くなるので、詳しくは別の記事で






より詳しくやると長くなるので、代表的なものだけ紹介しました。

これ以上は専門的になり過ぎるので、別の記事で解説します。