頻度論的統計学 Frequency statistics


|| 皆がイメージする統計学

「知りたい値は決まってる」って感じの理屈

スポンサーリンク

 

「頻度」というのは

要はそういう感じの話で

 

\begin{array}{llllll} \displaystyle μ &&\to&& \mathrm{Data} \end{array}

 

いわゆる「大数の法則」と呼ばれる

『データが増えれば真の値に近づく』

みたいな感覚が基礎になってます。

 

 

 


目次

 

記述統計学「データが全部揃ってる時の要約」

推計統計学「母数を予想する皆がよく使うやつ」

 

 

 

 

 


 

『母数(知りたいやつ)は決まっている』から

「サンプリングしたデータ」は

『高い確率で母数に依る』

 

\begin{array}{llllll} \displaystyle \mathrm{Coin} &&\to&& \displaystyle\frac{1}{2} &\mathrm{reverse} \end{array}

 

こういう感じが頻度論的って言われてて

 

 

形式的には

『母数(パラメーター)を定数』と考えて

『データ(高い頻度で出るだろう)を確率変数』とし

 

\begin{array}{llllll} \displaystyle f(X) &=& μ \\ \\ \\ E(X) &=& μ \\ \\ V(X) &=& σ^2 \end{array}

 

こんな感じで表現したりします。

 

 

 

『ベイズ統計学』はこの逆

「得たデータ」が確定していて

「パラメーター」を推測する感じになります。

 

 

 


 


記述統計学 Descriptive Statistics

 

|| データのまとめ

「データの要約」のこと

 

\begin{array}{llllll} \displaystyle \mathrm{Object}&\to&\mathrm{Character} \\ \\ クラスの学力 &\to& クラスの平均点 \end{array}

 

平均なんかを使った全体の比較や

他にもグラフにして見易くしたりだとか

 

 

とにかく「データを分かりやすくする」こと

そういうのが主目的になってる統計のことを

「記述統計学」と言います。

 

 

 

「標本・サンプル」なんかの概念は

まだここでは登場しません。

 

 

ここでの目的はあくまで「データの要約」です。

既に在るデータを分かりやすく纏めるだけ。

なので「データが揃っている」ことが前提になります。

 

 

データが無い状態ではなにもできません。

無いなら要約もくそもないですし。

 

 

 

 

 

予測をする感じの統計

 

データが全て揃ってないと使えない

これは道具の使い勝手としては

なんか微妙ですよね。

 

 

まず用途が限られますし

データが多いと手間もかかる

 

 

全てのデータが揃えられる環境はそもそも稀

データ数が多過ぎると計算に時間が掛かる

 

 

確実な特徴を抜き出す必要が無かったり

ざっくり短時間でやりたかったり

 

 

とまあそういった事実やら要望があって

どうせならそれを実現したい。

 

 

 

とまあそんな要請に応えた結果

別の分野が新しく生まれて

 

 

それが「推計統計学」ってやつになります。

「点推定」「区間推定」「仮説検定」とか

そういうのはこれです。