Module 0-2 - Section 2: 確率と確率分布¶
セクション情報¶
| 項目 | 内容 |
|---|---|
| モジュール | Module 0-2: 心理統計法 I |
| 前提セクション | Section 1(記述統計) |
| 想定学習時間 | 3〜4時間 |
導入¶
Section 1では、データの特徴を要約・記述するための記述統計を学んだ。そこで登場した正規分布やz得点は、データの「相対的位置」を把握するための道具であった。本セクションでは、これらの概念を確率という理論的枠組みの中に位置づけ直す。
心理学研究の目的は、限られた標本データから母集団全体について何らかの結論を導くことにある。この営みを支えるのが推測統計であり、推測統計は確率論を基盤として成立する。したがって、確率の基本法則を理解し、確率分布の性質を把握することは、統計的推論の論理を理解するための不可欠な前提となる。
本セクションでは、まず確率の3つの定義を整理し、確率の基本法則(加法法則・乗法法則)を学ぶ。次に、確率変数と確率分布の概念を導入し、正規分布を確率論の観点から再解釈する。最後に、標本分布・標準誤差・中心極限定理という推測統計の核心的概念を扱い、Section 3以降の推測統計の基礎への橋渡しを行う。
確率の基本概念¶
確率の3つの定義¶
Key Concept: 確率(probability) ある事象が生じる可能性の程度を0から1の数値で表したもの。0は「絶対に起こらない」、1は「確実に起こる」ことを意味する。定義の仕方には古典的確率・頻度的確率・主観的確率の3種がある。
確率は日常的にも「確率が高い」「可能性が低い」などと使われる概念であるが、学術的にはその定義に複数の立場がある。心理統計を学ぶ上では、以下の3つの定義を区別して理解しておく必要がある。
1. 古典的確率(classical probability)
ピエール=シモン・ラプラス(Pierre-Simon Laplace)が1814年に定式化した定義であり、「同様に確からしい」(equally likely)事象を前提とする。すべての根元事象(elementary event)が等しい確率で生じると仮定した上で、ある事象Aの確率を次のように定義する。
P(A) = 事象Aに含まれる根元事象の数 / すべての根元事象の総数
例えば、公正なサイコロを1回振って偶数が出る確率は P(偶数) = 3/6 = 0.5 である。この定義は、対称性が明らかな場合(サイコロ、コイン、トランプなど)には直感的で有用であるが、「同様に確からしい」という前提自体が循環論法に陥りうるという理論的問題がある。
2. 頻度的確率(frequentist probability)
リヒャルト・フォン・ミーゼス(Richard von Mises)らが体系化した定義であり、同一条件下での試行を無限に繰り返したときの相対頻度の極限値として確率を定義する。
P(A) = lim (n→∞) nₐ / n
ここで、nは試行回数、nₐは事象Aが生じた回数である。例えば、コインを10,000回投げて表が4,987回出た場合、表の相対頻度は0.4987であり、試行回数を増やすほどこの値は0.5に収束する(大数の法則)。
頻度的確率は、心理学で最も標準的に用いられている頻度主義統計学(frequentist statistics)の基盤をなす。p値や信頼区間の解釈はこの定義に依拠しており、「長期的に同じ手続きを繰り返した場合の結果の頻度」として確率を理解する。
3. 主観的確率(subjective probability)
ブルーノ・デ・フィネッティ(Bruno de Finetti)やレオナード・サベジ(Leonard Savage)が展開した立場であり、確率を合理的な主体がある命題に対して割り当てる確信度(degree of belief)として定義する。
この定義では、一回限りの事象(例えば「明日の実験が成功する確率」)にも確率を割り当てることができる。ベイズ統計学(Bayesian statistics)の基盤をなす考え方であり、事前確率を観測データによって更新するベイズの定理が中核的役割を果たす。心理学でも近年ベイズ統計の利用が増加しており、主観的確率の概念の重要性が高まっている。
| 確率の定義 | 基本的な考え方 | 長所 | 短所 | 統計学的立場 |
|---|---|---|---|---|
| 古典的確率 | 同様に確からしい事象の比率 | 直感的、計算が容易 | 対称性が不明な場合に適用不可 | — |
| 頻度的確率 | 相対頻度の極限値 | 客観的、実証的 | 一回限りの事象に適用困難 | 頻度主義統計 |
| 主観的確率 | 合理的主体の確信度 | 一回限りの事象に適用可能 | 主観性が入りうる | ベイズ統計 |
確率の基本法則¶
確率の計算には、いくつかの基本法則がある。以下では、心理統計で頻繁に使用される加法法則と乗法法則を中心に整理する。
基本用語¶
確率を正確に扱うためには、以下の基本用語を把握しておく必要がある。
- 試行(trial): 結果が不確定な操作。例: サイコロを振る、参加者にテストを実施する
- 標本空間(sample space): 試行で起こりうるすべての結果の集合。記号 S で表す。例: サイコロの標本空間は S = {1, 2, 3, 4, 5, 6}
- 事象(event): 標本空間の部分集合。例:「偶数が出る」= {2, 4, 6}
- 排反事象(mutually exclusive events): 同時に生じることがない2つの事象。例:「1が出る」と「6が出る」
- 余事象(complement): 事象Aが起こらない事象。記号 Aᶜ で表す。P(Aᶜ) = 1 − P(A)
加法法則¶
Key Concept: 加法法則(addition rule) 2つの事象A, Bの少なくとも一方が生じる確率を求める法則。P(A∪B) = P(A) + P(B) − P(A∩B)。A, Bが排反事象の場合、P(A∪B) = P(A) + P(B) に簡略化される。
一般の加法法則:
P(A∪B) = P(A) + P(B) − P(A∩B)
ここで、A∪Bは「AまたはBの少なくとも一方が生じる」事象(和事象)、A∩Bは「AかつBが同時に生じる」事象(積事象)である。P(A∩B) を引くのは、単純にP(A) + P(B) とすると重複部分を二重に数えてしまうためである。
排反事象の加法法則:
事象A, Bが排反(A∩B = ∅)の場合、P(A∩B) = 0 であるから:
P(A∪B) = P(A) + P(B)
具体例: 心理学実験で参加者を3群に無作為配分する場合を考える。統制群(C)に配分される確率が0.33、実験群1(E1)に配分される確率が0.33、実験群2(E2)に配分される確率が0.34とする。ある参加者がいずれかの実験群に配分される確率は、CとE1は排反、CとE2も排反、E1とE2も排反であるから:
P(E1∪E2) = P(E1) + P(E2) = 0.33 + 0.34 = 0.67
乗法法則¶
Key Concept: 乗法法則(multiplication rule) 2つの事象A, Bが同時に生じる確率を求める法則。一般にP(A∩B) = P(A) × P(B|A)。A, Bが独立な場合、P(A∩B) = P(A) × P(B)に簡略化される。
乗法法則は、条件付き確率(conditional probability)の概念と密接に結びついている。
条件付き確率:
事象Aが生じたという条件の下で事象Bが生じる確率を、条件付き確率と呼び、次のように定義する。
P(B|A) = P(A∩B) / P(A) (ただし P(A) > 0)
一般の乗法法則:
上の定義を変形すると:
P(A∩B) = P(A) × P(B|A)
独立事象の乗法法則:
2つの事象A, Bが独立(independent)であるとは、一方の事象の発生が他方の事象の確率に影響しないことを意味する。数学的には P(B|A) = P(B) が成り立つとき、A, Bは独立であるという。この場合:
P(A∩B) = P(A) × P(B)
具体例: 心理学研究で参加者のスクリーニングを行う場面を考える。ある臨床研究で、うつ病の有病率が約6%(P(D) = 0.06)、ある質問紙の感度(うつ病の人が陽性と判定される確率)が0.80(P(+|D) = 0.80)であるとする。うつ病であり、かつ質問紙で陽性と判定される確率は:
P(D∩+) = P(D) × P(+|D) = 0.06 × 0.80 = 0.048
すなわち、無作為に1人を選んだとき、その人がうつ病であり質問紙でも陽性となる確率は約4.8%である。
排反と独立の区別¶
排反(mutually exclusive)と独立(independent)は混同されやすいが、概念的に全く異なる。
| 概念 | 定義 | 関係 |
|---|---|---|
| 排反 | 事象A, Bが同時に生じない(A∩B = ∅) | P(A∩B) = 0 |
| 独立 | 一方の発生が他方の確率に影響しない | P(A∩B) = P(A)×P(B) |
排反事象は同時に起こらない(P(A∩B) = 0)のに対し、独立事象は同時に起こりうるがその確率が各事象の確率の積に等しい。排反事象が独立であることは、P(A) > 0 かつ P(B) > 0 の場合にはありえない(排反ならP(A∩B)=0 だが、独立ならP(A∩B) = P(A)×P(B) > 0 となり矛盾する)。
確率変数と確率分布¶
確率変数¶
Key Concept: 確率変数(random variable) 試行の結果に対して数値を対応させる関数。離散型確率変数は有限個または可算無限個の値をとり、連続型確率変数は区間上の任意の値をとりうる。
確率変数とは、試行の結果を数値に対応させる関数である。例えば、サイコロを1回振るという試行では、出た目の数を確率変数 X とすると、X は 1, 2, 3, 4, 5, 6 のいずれかの値をとる。心理学実験で参加者の反応時間を測定する場合、反応時間を確率変数 T とすると、T は正の実数値をとりうる。
確率変数は離散型(discrete)と連続型(continuous)に大別される。
- 離散型確率変数: とりうる値が有限個または可算無限個。例: テストの正答数、症状の出現回数
- 連続型確率変数: ある区間上の任意の値をとりうる。例: 反応時間、IQ得点、身長
確率分布¶
Key Concept: 確率分布(probability distribution) 確率変数がとりうる各値に対応する確率を示す関数または規則。離散型では確率質量関数、連続型では確率密度関数で記述される。すべての確率の合計(または密度関数の積分)は1となる。
確率分布は、確率変数がとりうる各値にどのような確率が対応するかを記述したものである。
離散型確率分布では、確率変数Xがとりうる各値 xᵢ に確率 P(X = xᵢ) が割り当てられる。これを確率質量関数(probability mass function; PMF)と呼ぶ。すべての確率の総和は1である。
例: 公正なサイコロの確率分布
| X | 1 | 2 | 3 | 4 | 5 | 6 |
|---|---|---|---|---|---|---|
| P(X) | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 |
連続型確率分布では、確率密度関数(probability density function; PDF)f(x)によって確率が記述される。連続型では「X がちょうど特定の値 a をとる確率」はゼロであり(P(X = a) = 0)、確率は区間として定義される。すなわち、Xが区間 [a, b] に入る確率は、f(x) の a から b までの定積分(曲線の下の面積)として求められる。
P(a ≤ X ≤ b) = ∫[a, b] f(x) dx
Section 1で学んだ正規分布はまさに連続型確率分布の代表例であり、その確率密度関数が釣鐘型の曲線を描く。
確率分布のパラメータ: 期待値と分散¶
確率分布の特徴を要約する指標として、期待値(expected value)と分散がある。これらは記述統計の平均値・分散に対応する確率論的概念である。
- 期待値: E(X) = μ。確率変数Xの「平均的な値」。離散型では E(X) = Σ xᵢ P(X = xᵢ)、連続型では E(X) = ∫ x f(x) dx
- 分散: Var(X) = σ²。確率変数Xの散らばりの程度。Var(X) = E[(X − μ)²]
記述統計で扱った標本平均 x̄ や標本分散 s² は、それぞれ母集団の期待値 μ と分散 σ² の推定値(estimator)であるという関係にある。
正規分布の確率論的理解¶
正規分布と確率¶
Section 1では、正規分布の形状と68-95-99.7ルールを学んだ。ここでは、正規分布を確率分布として捉え直す。
正規分布 N(μ, σ²) の確率密度関数の下の面積が確率を表すという点が核心である。具体的には、確率変数 X が正規分布 N(μ, σ²) に従うとき、X がある区間 [a, b] に入る確率は、確率密度関数 f(x) の a から b までの積分(曲線の下の面積)として得られる。
68-95-99.7ルールは、この面積計算の結果として理解できる。μ ± 1σ の範囲の面積が全体の約68%を占めるということは、X が μ − σ から μ + σ の間に入る確率が約0.68であることを意味する。
z得点による確率計算¶
Section 1で導入したz得点は、確率論的には任意の正規分布を標準正規分布 N(0, 1) に変換する操作である。この変換により、標準正規分布表(z表)を参照して任意の正規分布における確率を計算できる。
z得点から確率を求める手順:
- 対象の正規分布のパラメータ(μ, σ)を確認する
- z = (x − μ) / σ で標準化する
- 標準正規分布表で z に対応する確率(面積)を読み取る
具体例: ある認知テストの得点が N(50, 10²) に従うとする。得点が65点以上である確率を求めたい。
- z = (65 − 50) / 10 = 1.5
- 標準正規分布表より、z = 1.5 の上側確率(z ≥ 1.5 の面積)は約0.0668
- よって、得点が65点以上である確率は約6.7%
別の例: 同じテストで得点が35点から60点の間に入る確率を求める。
- z₁ = (35 − 50) / 10 = −1.5 → 下側面積: 約0.0668
- z₂ = (60 − 50) / 10 = 1.0 → 下側面積: 約0.8413
- P(35 ≤ X ≤ 60) = 0.8413 − 0.0668 = 0.7745
すなわち、得点が35点から60点の間に入る確率は約77.5%である。
心理学研究における確率と正規分布の応用¶
正規分布に基づく確率計算は、心理学研究の多くの場面で活用される。例えば、信号検出理論(signal detection theory)では、「刺激あり条件」と「刺激なし条件」のそれぞれにおける内的反応が正規分布に従うと仮定し、両分布の重なりと判断基準の位置関係から感度と反応バイアスを定量化する。このモデルでは、正規分布の面積が「ヒット率」(信号があるときに正しく検出する確率)や「虚報率」(信号がないのに検出してしまう確率)に直結する。
標本分布と標準誤差¶
母集団と標本の関係¶
推測統計の核心的な問いは、「限られた標本から母集団についてどこまで正確なことが言えるか」である。この問いに答えるための鍵となるのが標本分布の概念である。
まず、用語を整理する。
- 母集団(population): 研究の対象となる全体の集合。例: 日本の成人全体
- 標本(sample): 母集団から抽出された部分集合。例: 無作為抽出された200名
- 母数(parameter): 母集団の特性を表す値。例: 母平均 μ、母標準偏差 σ
- 統計量(statistic): 標本データから計算される値。例: 標本平均 x̄、標本標準偏差 s
統計量は母数の推定値であるが、標本ごとに異なる値をとる。同じ母集団から標本サイズ n の標本を繰り返し抽出すれば、毎回異なる標本平均が得られる。この変動をどう捉えるかが、推測統計の出発点である。
標本分布¶
Key Concept: 標本分布(sampling distribution) ある統計量(例: 標本平均)が、同一の母集団から同一サイズの標本を無限に繰り返し抽出した場合にとりうる値の確率分布。統計量そのものの変動特性を記述し、推測統計の理論的基盤となる。
標本分布は、一つの標本の分布(度数分布)とは全く異なる概念である。一つの標本の分布がデータ値の散らばりを示すのに対し、標本分布は統計量の散らばりを示す。
graph TD
P["母集団 N(μ, σ²)"] --> S1["標本1 (n名)"]
P --> S2["標本2 (n名)"]
P --> S3["標本3 (n名)"]
P --> SK["... 無限に繰り返し"]
S1 --> M1["x̄₁"]
S2 --> M2["x̄₂"]
S3 --> M3["x̄₃"]
SK --> MK["..."]
M1 --> SD["標本平均の分布 = 標本分布"]
M2 --> SD
M3 --> SD
MK --> SD
思考実験による理解: 母平均 μ = 100、母標準偏差 σ = 15 の母集団(例: IQ)から、標本サイズ n = 25 の標本を抽出するとする。
- 1回目の抽出: x̄₁ = 102.3
- 2回目の抽出: x̄₂ = 97.8
- 3回目の抽出: x̄₃ = 101.5
- ...
この操作を無限に繰り返して得られるすべての標本平均の分布が、標本平均の標本分布である。
標準誤差¶
Key Concept: 標準誤差(standard error) 標本分布の標準偏差。統計量(通常は標本平均)が標本抽出ごとにどの程度変動するかを示す。標本平均の標準誤差は SE = σ / √n で定義される。
標準誤差(standard error; SE)は、標本分布の標準偏差である。最も頻繁に使われるのは標本平均の標準誤差(standard error of the mean; SEM)であり、次のように定義される。
SE = σ / √n
ここで、σ は母集団の標準偏差、n は標本サイズである。実際には σ は未知であることが多いため、標本標準偏差 s で代用する。
SE ≈ s / √n
標準偏差と標準誤差の区別:
| 指標 | 記号 | 意味 | 何のばらつきか |
|---|---|---|---|
| 標準偏差 | σ(または s) | 個々のデータ値の散らばり | データ値のばらつき |
| 標準誤差 | SE | 統計量(標本平均)の散らばり | 推定値のばらつき |
この区別は極めて重要である。標準偏差は「個々のデータがどの程度ばらつくか」を示すのに対し、標準誤差は「標本平均という推定値がどの程度正確か(推定の精度)」を示す。
具体例: 母標準偏差 σ = 15 の母集団から標本を抽出する場合:
- n = 9: SE = 15 / √9 = 15 / 3 = 5.0
- n = 25: SE = 15 / √25 = 15 / 5 = 3.0
- n = 100: SE = 15 / √100 = 15 / 10 = 1.5
- n = 400: SE = 15 / √400 = 15 / 20 = 0.75
標本サイズ n を大きくするほど標準誤差は小さくなり、標本平均は母平均により近い値をとりやすくなる。ただし、SE は √n に反比例するため、精度を2倍にするには標本サイズを4倍にする必要がある。この「収穫逓減」の性質は、研究のサンプルサイズ設計において重要な考慮事項となる。
中心極限定理¶
Key Concept: 中心極限定理(central limit theorem; CLT) 母集団の分布がどのような形状であっても、十分に大きな標本サイズで標本平均を繰り返し求めると、その標本分布は正規分布に近づく。標本分布の平均は母平均 μ に等しく、標準偏差(標準誤差)は σ/√n となる。
定理の内容¶
中心極限定理は、推測統計の理論的基盤をなす最も重要な定理の一つである。その内容を正確に述べると:
母平均 μ、母分散 σ² の母集団から、サイズ n の標本を無作為に抽出するとき、n が十分に大きければ、標本平均 X̄ の標本分布は近似的に正規分布 N(μ, σ²/n) に従う。これは母集団の分布の形状にかかわらず成り立つ。
この定理の重要な点は3つある:
- 母集団分布の形状を問わない: 母集団が正規分布でなくても(歪んでいても、一様分布でも、離散分布でも)成り立つ
- 標本分布の平均は母平均に等しい: E(X̄) = μ
- 標本分布の標準偏差(標準誤差)は σ/√n: SD(X̄) = σ/√n
直感的理解¶
中心極限定理がなぜ成り立つかを直感的に理解するために、サイコロの例を考える。
サイコロ1個の場合: 1〜6の各目が等確率1/6で出る一様分布であり、正規分布とは全く異なる。
サイコロ2個の和: 2〜12の値をとるが、中央の値(7付近)が出やすくなり、分布は三角形状になる。
サイコロ5個の平均: 分布はかなり釣鐘型に近づく。
サイコロ30個の平均: 分布はほぼ正規分布と区別できない形状になる。
このように、個々の値がどのような分布であっても、それらの平均を計算すると「極端な値が打ち消し合い、中央付近に集中する」傾向が生じる。これが中心極限定理の直感的な意味である。
graph LR
A["n = 1: 元の分布"] --> B["n = 5: やや釣鐘型"]
B --> C["n = 30: ほぼ正規分布"]
C --> D["n → ∞: 正規分布に収束"]
必要な標本サイズ¶
「十分に大きな n」がどの程度かは、母集団分布の形状によって異なる。
- 母集団が正規分布の場合: n = 1 でも標本平均は正規分布に従う(正規分布の再生性)
- 母集団が対称な分布の場合: n ≥ 5〜10 程度で良好な近似が得られることが多い
- 母集団が強く歪んだ分布の場合: n ≥ 30 以上が目安とされる
- 極端に歪んだ分布(指数分布など)の場合: さらに大きな n が必要なこともある
心理学の教科書では慣例的に「n ≥ 30であれば中心極限定理の適用が安全」とされることが多いが、これはあくまで目安であり、母集団分布の歪みの程度による。
推測統計における意義¶
中心極限定理は、推測統計の論理を支える要石である。その意義は以下の点に集約される。
1. 正規分布に基づく検定・推定の正当化
母集団の分布が未知であっても、標本サイズが十分に大きければ、標本平均の標本分布が正規分布に従うと見なせる。これにより、z検定やt検定などの正規分布に基づく手法を適用する理論的根拠が得られる。
2. 標本平均の精度の定量化
標本平均の標本分布が N(μ, σ²/n) に従うことから、標本平均が母平均からどの程度ずれうるかを確率的に評価できる。例えば、標本平均が母平均 μ の ±1.96 × SE の範囲内に収まる確率は約95%である。これは信頼区間の構成原理に直結する(→ Module 0-2, Section 3「推測統計の基礎」参照)。
3. 標本サイズの効果の理解
SE = σ/√n という関係から、標本サイズを増やすことの効果を定量的に把握できる。これは研究計画における検定力分析(power analysis)の基盤となる。
まとめ¶
- 確率には古典的確率・頻度的確率・主観的確率の3つの定義があり、心理学で標準的な頻度主義統計学は頻度的確率に基づく
- 加法法則と乗法法則は確率計算の基本法則であり、排反事象と独立事象の概念的区別が重要である
- 確率変数はとりうる値によって離散型と連続型に分類され、確率分布はその変動パターンを記述する。正規分布は連続型確率分布の代表例である
- 正規分布の曲線下の面積は確率を意味し、z得点と標準正規分布表を用いて任意の区間の確率を計算できる
- 標本分布は統計量(標本平均など)の確率分布であり、標準誤差はその標準偏差である。標準偏差が「データのばらつき」を示すのに対し、標準誤差は「推定の精度」を示す
- 中心極限定理により、母集団の分布形状にかかわらず、十分な標本サイズがあれば標本平均の標本分布は正規分布に近づく。これが推測統計の理論的正当性の根拠となる
- 次のセクション(Section 3: 推測統計の基礎)では、これらの概念を前提として、仮説検定と信頼区間の論理を学ぶ
用語集(Glossary)¶
| 用語 | 英語表記 | 定義 |
|---|---|---|
| 確率 | probability | ある事象が生じる可能性の程度を0から1で表した値 |
| 古典的確率 | classical probability | 同様に確からしい事象の比率として定義される確率 |
| 頻度的確率 | frequentist probability | 相対頻度の極限値として定義される確率 |
| 主観的確率 | subjective probability | 合理的主体の確信度として定義される確率 |
| 標本空間 | sample space | 試行で起こりうるすべての結果の集合 |
| 事象 | event | 標本空間の部分集合 |
| 排反事象 | mutually exclusive events | 同時に生じることがない2つの事象 |
| 独立事象 | independent events | 一方の発生が他方の確率に影響しない2つの事象 |
| 条件付き確率 | conditional probability | ある事象が生じた条件の下での別の事象の確率 |
| 加法法則 | addition rule | 和事象の確率を求める法則 |
| 乗法法則 | multiplication rule | 積事象の確率を求める法則 |
| 確率変数 | random variable | 試行の結果に数値を対応させる関数 |
| 確率分布 | probability distribution | 確率変数がとりうる各値と確率の対応関係 |
| 確率密度関数 | probability density function | 連続型確率分布における確率の密度を表す関数 |
| 期待値 | expected value | 確率変数の平均的な値。E(X) = μ |
| 標本分布 | sampling distribution | 統計量が繰り返し標本抽出で示す確率分布 |
| 標準誤差 | standard error | 標本分布の標準偏差。SE = σ/√n |
| 中心極限定理 | central limit theorem | 標本サイズが十分大きければ標本平均の分布が正規分布に近づくという定理 |
確認問題¶
Q1: 確率の3つの定義(古典的確率・頻度的確率・主観的確率)をそれぞれ説明し、心理学研究との関連を述べよ。
A1: (1) 古典的確率は「同様に確からしい」事象を前提とし、対象事象の数を全事象の数で割った比率として定義される。実験で参加者を等確率で条件に割り当てる際の確率計算などに対応する。(2) 頻度的確率は同一条件下での試行を無限に繰り返したときの相対頻度の極限値として定義される。心理学で標準的に用いられる頻度主義統計学(p値、信頼区間など)の基盤をなし、「この手続きを長期的に繰り返した場合の誤り率」として確率を解釈する。(3) 主観的確率は合理的主体がある命題に対して割り当てる確信度として定義される。ベイズ統計学の基盤であり、事前知識をデータで更新するベイズ推論の枠組みとして心理学でも利用が拡大している。
Q2: ある心理学テストの得点がN(70, 12²)に従うとき、得点が82点以上である確率と、得点が58点から82点の間に入る確率をそれぞれ求めよ。
A2: 82点のz得点: z = (82 − 70) / 12 = 1.0。標準正規分布表より、z ≥ 1.0の上側確率は約0.1587。よって82点以上の確率は約15.9%。58点のz得点: z = (58 − 70) / 12 = −1.0。下側面積は約0.1587。P(58 ≤ X ≤ 82) = P(z ≤ 1.0) − P(z ≤ −1.0) = 0.8413 − 0.1587 = 0.6826。よって58点から82点の間に入る確率は約68.3%(68-95-99.7ルールにおける μ ± 1σ の範囲に対応する)。
Q3: 標準偏差と標準誤差の違いを説明し、それぞれが「何のばらつき」を表すかを明確にせよ。
A3: 標準偏差(SD)は個々のデータ値の平均値からの散らばりの程度を示す指標である。母集団のデータ一つ一つがどの程度ばらついているかを表す。一方、標準誤差(SE)は統計量(通常は標本平均)の標本分布の標準偏差であり、標本平均が標本抽出ごとにどの程度変動するか、すなわち推定の精度を示す。SE = σ/√n の関係があるため、標準誤差は常に標準偏差より小さく(n > 1のとき)、標本サイズを増やすほど小さくなる。標準偏差は「データの変動性」を、標準誤差は「推定の不確かさ」を表すという点で本質的に異なる。
Q4: 中心極限定理の内容を述べ、この定理が心理学研究で重要である理由を2つ挙げよ。
A4: 中心極限定理とは、母集団の分布がどのような形状であっても、十分に大きな標本サイズで標本平均を繰り返し求めると、その標本分布は平均 μ、標準偏差 σ/√n の正規分布に近似的に従うという定理である。重要である理由: (1) 母集団の分布が正規分布でなくても、標本サイズが十分であれば正規分布に基づく統計的検定(z検定、t検定など)を適用する理論的根拠を与える。心理学の測定値が厳密に正規分布に従うとは限らないため、この性質は実践上極めて重要である。(2) 標本平均の標本分布が N(μ, σ²/n) に従うことから、標本平均が母平均からどの程度逸脱しうるかを確率的に定量化でき、信頼区間の構成や仮説検定の論理的基盤となる。
Q5: 母標準偏差 σ = 20 の母集団から標本サイズ n = 100 の標本を抽出したときの標準誤差を求めよ。また、標準誤差を現在の半分にするには標本サイズをいくつにすればよいか。
A5: SE = σ/√n = 20/√100 = 20/10 = 2.0。標準誤差を半分の1.0にするには、SE = σ/√n' = 1.0 より √n' = 20/1.0 = 20、n' = 400。すなわち、標本サイズを100から400へ4倍にする必要がある。これはSEが√nに反比例するという性質から導かれ、精度を2倍にするには標本サイズを4倍にしなければならないことを示している。