前川眞一 古典的テスト理論 951020,21,971121,020517,070519,22,23,29,30,31,080906 1 古典的テスト理論 1.1 モデル 個人のテスト得点を真値 (true score) と誤差得点に分け、誤差に関して以下のことを仮定する。 Xi = Ti + Ei (1) 0 (2) 誤差のバイアス無し。 var (E ) = σ 誤差分散は個人に依存しない。 この仮定は、テスト得点の条件付き分布に以下のことを仮定すること同値である。 E(Ei ) = 2 E i E( Xi | Ti ) = Ti and 2 var( Xi | Ti ) = σE (3) (4) この σ のことを測定の標準誤差 (standard error of measurement) と呼ぶ。 E X =T +E T X を与えた時の X の期待値 E の分布 の分布 = 条件付きの X の分布 T の分布 図 1: Classical Test Theory 次に、ある集団における真値の分布として E(Ti ) = var (Ti ) = cov (Ei , Ti ) = µ (5) σT2 (6) 0 (7) (真値と誤差は無相関) 1 を仮定する。すると、その集団におけるテスト得点の(周辺)分布は E(Xi ) = µ var (Xi ) (8) 2 σX = = σT2 + 2 σE (9) となるが、これは、X , i = 1, 2, . . . , N が iid (所謂ランダムサンプル)でその平均は µ、分散は σ であ ることを示している。従って、以下では個人を表す添え字 i を省略して (X,T ,E) を用いる。すなわち、 2 X i X = E(E) = E(X|T ) = E(X) = var (X) = T +E 0 T (10) and and 2 var (E) = σE var (X|T ) = and cov (T, E) = 0 2 σE (11) (12) E(T ) = µ (13) var (T ) + var (E) 2 σX or = σT2 + 2 σE (ANOVA decomposition) (14) である。 なお、古典的テスト理論における真値や誤差得点は、潜在変数として定義されており、決して直接的に 観測されることはない。観測されるのはテスト得点 X のみであることに注意されたい。 1.2 テストの信頼性係数 テスト X の信頼性係数 (reliability coefficient) ρ (X) は ρ (X) = と定義される。またこれは、 (14) 式 を用いると ρ (X) = 1− var (T ) σ2 = 2T var (X) σX (15) var (E) σ2 = 1 − 2E var (X) σX (16) (17) と表現される。いずれにしても信頼性係数は 0≤ ρ (X) ≤1 (18) を満たす。また、古典的テストのモデルから cov (X, T ) = cov (T + E, T ) = cov (T, T ) + cov (E, T ) = var (T ) + 0 = σT2 (19) したがって、 corr (X, T ) = であるため、 ρ (X) とも書ける。 cov (X, T ) σT2 σ2 = 2 2 = 2T var (X) var (T ) σX σT σX = var (T ) σ2 = 2T = (corr (X, T ))2 var (X) σX 2 (20) (21) すなわち、信頼性係数とは、テスト得点の分散のうちに真値の分散が占める割合であり、また、テスト 得点とその真値との相関係数の 2 乗である。この相関係数の事を信頼性指標 (reliability index) と呼ぶこ とがある。 古典的テスト理論で用いられる公式の多くは、上記の信頼性係数が既知の場合として導かれている。た とえば、信頼性係数が解っている場合には、 var (T ) = ρ (X)var (X) and var (E) = (1 − ρ (X)) var (X) (22) であるから、データを基にして、真値の分散と誤差の分散を推定することが出来る。以下の記述では信頼 性係数が既知であることを仮定する。 1.3 複数のテストと真値の間の相関 個のテストを添字付き変数 X , X , . . . , X で表し、それぞれに上記のモデルが当てはまっていると する。(本節以降、添字はテストを表すものであり、個人を表すものではないことに注意。)すなわち、 m 1 2 Xj m = Tj + Ej E(Ej ) = 0 E(Xj ) = E(Tj ) = µj (25) = var (Tj ) + var (Ej ) var (Tj ) var (Ej ) = = 1− var (Xj ) var (Xj ) (26) var (Xj ) ρ (Xj ) また、 cov (Ej , Ek ) = 0, j = k, and and (23) var (Ej ) = 2 σEj (24) (27) cov (Tj , Ek ) = 0, j, k = 1, 2, , . . . , m (28) であるとする。 この場合、j = k に関して、 cov (Xj , Xk ) = cov (Tj + Ej , Tk + Ek ) (29) = cov (Tj , Tk ) + cov (Tj , Ek ) + cov (Ej , Tk ) + cov (Ej , Ek ) (30) = cov (Tj , Tk ) (31) である。なお、j = k の場合を含めると cov (Xj , Xk ) = と書ける。同様に var (Xj ) = var (Tj ) + var (Ej ) if j = k cov (Tj , Tk ) if j = k cov (Xj , Tk ) = cov (Tj , Xk ) = cov (Tj , Tk ) (32) (33) である。 また、これらの関係を利用すると corr (Xj , Tk ) = = cov (Xj , Tk ) var (Xj )var (Tk ) cov (Xj , Xk ) var (Xj )ρ (Xk )var (Xk ) 3 (34) (35) = corr (Tj , Tk ) = = = corr (Xj , Xk ) ≥ corr (Xj , Xk ) ρ (Xk ) cov (Tk , Tj ) var (Tj )var (Tk ) std (Xj )std (Xk )corr (Xj , Xk ) ρ (Xj )std (Xj ) ρ (Xk )std (Xk ) corr (Xj , Xk ) ≥ corr (Xj , Xk ) ρ (Xj )ρ (Xk ) (36) (37) (38) (39) となるが、これらを稀薄化の修正公式 (correction formula for attenuation) と呼ぶ。要するに、観測され るテスト得点は誤差を含むので、見かけの相関が低くなるが、テストの信頼性が分かっていれば、上記の 修正公式を用いることにより、真値の間の相関を求めることが出来る、ということである。また、この修 正に関しては、誤差が取り除かれるにしたがって高くなっていく corr (Xj , Xk ) ≤ ということである。また、 より corr (Xj , Tk ) ≤ corr (Tj , Tk ) corr (Tj , Xk ) corr (Xj , Xk ) = corr (Tj , Tk ) ρ (Xj )ρ (Xk ) corr (Xj , Xk ) ≤ ρ (Xj ) ρ (Xk ) ≤ ρ (Xj ) (40) (41) (42) となるが、このことは、あるテスト j とそれ以外のテストとの相関係数は、自分自身の信頼性の平方根を 超えないことを示している。すなわち、信頼性が低いテストは、どのようなテストとも相関が低い。 1.4 合計得点とその信頼性 各テストの得点を合計をした合成得点を考えると、合成得点はやはり真値と誤差に分かれ、 X = = m j=1 m Xj Tj + j=1 = (43) m Ej (44) j=1 T +E (45) その平均と分散は以下のように様々な形で書くことが出来る。 E(X) = var (T ) = = m µj j=1 m m and var (Tj ) + m (46) cov (Tj , Tk ) j=1 k=1 m j=1 = E(E) = 0 j (47) cov (Tj , Tk ) = k var (Xj )ρ (Xj ) + j=1 j 4 (48) = k cov (Xj , Xk ) (49) var (E) = = var (X) = = m j=1 m var (Ej ) (50) var (Xj )(1 − ρ (Xj )) (51) j=1 m m cov (Xj , Xk ) j=1 k=1 m var (Xj ) + j=1 = m j var (Xj ) + j=1 なお、 (31) 式 を用いた。 いずれにしても j var (X) = k = (52) cov (Xj , Xk ) (53) cov (Tj , Tk ) (54) = k var (T ) + var (E) (55) となる。また、合成得点の信頼性係数は ρ (X) = = = var (T ) var (X) m j=1 var (Tj ) + j = k cov (T j , Tk ) var (X) m j=1 var (Xj )ρ (Xj ) + j = k cov (Xj , Xk ) var (X) = 1− = 1− var (E) var (X) m j=1 var (Xj )(1 − ρ (Xj )) var (X) (56) (57) (58) (59) (60) と書くことが出来るが、2 番目の (60) 式 の形は、合成得点の信頼性係数が、個々のテストの分散および 共分散と信頼性係数とで書き表されたかたちとなっている。そして、これから、各テストの信頼性係数と 分散が一定の場合、合成得点の信頼性を高めるためには (60) 式 の分母に現れる var (X) を大きくすれば 良く、そのためには、 (52) 式 が示すように、各テスト間の共分散、すなわち相関を高めればよいことが 解る。すなわち、内的整合性が高いテストの合成得点(合計点)の信頼性係数は高くなる。 また、合成得点と各テストの共分散は cov (X, Xj ) m = cov ( k=1 Xk , Xj ) m = cov (Xk , Xj ) (61) (62) k=1 (63) であるから、 (52) 式 より、 var (X) = = m m j=1 k=1 m m j=1 k=1 5 cov (Xj , Xk ) (64) cov (Xk , Xj ) (65) = m cov (X, Xj ) (66) j=1 である。故に、各テスト得点とその合計点の相関が高い場合にも合成得点の信頼性係数が高くなる。 1.5 m テストモデルの分類と合計点の信頼性係数 個のテストが存在するとし、真値と誤差、ならびに誤差同士は無相関であるとする。 平行テスト いま、これらの m 個のテストの真値が全て等しく、誤差分散も全て等しい 1.5.1 Tj = T ∗ 2 var (Ej ) = σE , j = 1, 2, . . . , m and (67) と仮定できる場合、それらの m 個のテストを平行テスト(強平行テスト parallel test)と呼ぶ。この場合、 共通の真値 T の分散を σ とすると、各テストの平均と分散は以下のようになり 2 T∗ ∗ E(Xj ) = E(T∗ + Ej ) = E(T∗ ) = µ var (Xj ) = (68) var (T∗ + Ei ) = var (T∗ ) + var (Ei ) = σT2 ∗ + 2 σE , (69) 全て等しくなる。(なお、この結果を σ と呼ぶ。)したがって、信頼性係数も等しくなり、 2 X∗ cov (Xj , Xk ) = corr (Xj , Xk ) = cov (Tj , Tk ) = cov (T∗ , T∗ ) = var (T∗ ) = σT2 ∗ cov (Xj , Xk ) σ2 = 2T ∗ = ρ∗ σX∗ var (Xj )var (Xk ) (70) (71) として与えられる。すなわち、平行なテスト間の相関係数は、それらのテストの信頼性係数を表している。 また、この場合の単純合計点 X の信頼性係数は ρ (X) = mρ∗ 1 + (m − 1)ρ∗ (72) となる。(Spearman-Brown の公式)何故なら、平行テストの合計得点は X m = i=1 であり、したがって、 var (T ) = var (X) = = Xi = m (T∗ + Ei ) = mT∗ + i=1 m Ei = T + E (73) i=1 var (mT∗ ) = m2 σT2 ∗ m var (mT∗ + m i=1 Ei ) = var (mT∗ ) + var ( i=1 Ei ) m 2 var (mT∗ ) + var (Ei ) = m2 σT2 ∗ + mσE (74) (75) (76) i=1 となるが、これを信頼性係数の定義式に代入し、分子分母を σ で除すと 2 X∗ ρ (X) = = = var (T ) m2 σT2 ∗ = 2 var (X) m2 σT2 ∗ + mσE 2 m2 σT2 / σX∗ m 2 ρ∗ = 2 2 2 m2 ρ∗ + m(1 − ρ∗ ) m2 σT2 ∗ / σX∗ + mσE / σX∗ ∗ ∗ mρ mρ = mρ∗ + (1 − ρ∗ ) 1 + (m − 1)ρ∗ 6 (77) (78) (79) となるからである。 の公式は、それを項目単位で用いた場合に、テストの長さ、すなわち、テストに含ま れる項目数が、そのテストの信頼性に与える影響を表す公式として利用される。 Spearman-Brown 等価テスト 次に、誤差分散が等しいという仮定を落とし、真値が等しいこと 1.5.2 τ Tj = T∗ , j = 1, 2, . . . , m (80) のみを仮定したモデルを τ 等価テスト (tau-equivalent test)、また、真値が定数だけずれているということ Tj = bj + T∗ , j = 1, 2, . . . , m (81) のみを仮定したモデルを本質的 τ 等価テスト (essentially tau-equivalent test) と呼ぶ。この両者は弱平行 テストとも呼ばれることがある。本質的 τ 等価テストなテストの場合、 E(Xj ) var (Xj ) cov (Xj , Xk ) corr (Xj , Xk ) となる。( (21) 式 を利用。) また、単純合計点に関しては X = = E(bj + T∗ + Ej ) = E(bj + T∗ ) = bj + µ = var (bj + T∗ + Ej ) = = σT2 ∗ , var (T ) var (Xi ) var (X) j = k + var (Ej ) m Xi = m (T∗ + Ei ) = mT∗ + i=1 m (82) (83) σT2 ∗ σT2 ∗ σT2 ∗ = var (X1 ) var (X2 ) var (X1 ) var (X2 ) = ρ (X1 ) ρ (X2 ) = corr (X1 , T1 )corr (X2 , T2 ) = i=1 より σT2 ∗ Ei = T + E (84) (85) (86) (87) i=1 = var (mT∗ ) = m2 σT2 ∗ (88) σT2 ∗ = var (T∗ ) + var (Ei ) = + var (Ei ) m m = var (mT∗ + i=1 Ei ) = var (mT∗ ) + var ( i=1 Ei ) m = m2 σT2 ∗ + var (Ei ) (89) (90) (91) i=1 であるが、 (89) 式 の両辺の和を取ることにより したがって m var (Xi ) = mσT2 ∗ + i=1 m i=1 m var (Ei ) (92) var (Xi ) − mσT2 ∗ (93) i=1 var (Ei ) = m i=1 7 であるため、これを (91) 式 に代入すると m2 σT2 ∗ var (X) = + m var (Ei ) = m2 σT2 ∗ + i=1 σT2 ∗ = var (Xi ) − mσT2 ∗ (94) i=1 = m(m − 1)σT2 ∗ + を得る。また、この表現から、真値の分散が m m var (Xi ) (95) i=1 m var (X) − i=1 var (Xi ) m(m − 1) (96) という形で観測される得点の分散として表されるため、信頼性係数は ρ (X) = = = var (T ) m2 σT2 ∗ = var (X) var (X) m m var (X) − i=1 var (Xi ) m−1 var (X) m m i=1 var (Xi ) 1− = α(X) m−1 var (X) (97) (98) (99) と書くことが出来る。この形の信頼性係数の計算方法は、Cronbach の α 係数と呼ばれており、α(X) と 記される。当然であるが、テストが平行である場合、Cronbach の α 係数は Spearman-Brown の公式に一 致する。 また、各テストが 0-1 で採点される項目得点の場合、項目 j の通過率 p を用いて j var (Xj ) = pj (1 − pj ) と書けるため α 係数は (100) m α(X) = m−1 m i=1 pj (1 − pj ) 1− var (X) (101) m (102) と書けるが、この表現を KR20 (Kuder-Richardson の公式 20) と呼ぶ。 最後に、テストが本質的 τ 等価でない場合、 すなわち、 (84) 式 が満たされない場合、α 係数は正しい 信頼性係数 (60) 式 より小さいことが知られている。なぜなら、 (96) 式 に示される (84) 式 を仮定して 推定される真値の分散の分子は、 (52) 式 や (31) 式 より var (X) − var (Xi ) = i=1 cov (Xi , Xj ) = i=j cov (Ti , Tj ) i=j であるため、 (96) 式 は以下のように m(m − 1) 個の共分散の平均として を推定している σT2 ∗ = と解釈できる。したがって、 m2 σT2 ∗ 1 cov (Ti , Tj ) m(m − 1) (103) i=j m 1 m =m (var (X) − var (Xi )) = cov (Ti , Tj ) m(m − 1) m−1 i=1 であるが、付録に示す 2 (144) 式 を用いることにより m var (T ) = var ( i=1 Ti ) ≥ m cov (Ti , Tj ) = m2 σT2 ∗ m−1 i=j 8 (104) i=j (105) である。したがって、α 係数の定義式のうち なわち、 (84) 式 が満たされない場合には ρ (X) = (97) 式 の部分は、テストが本質的 τ 等価でない場合、 す var (T ) m2 σT2 ∗ ≥ = α(X) var (X) var (X) (106) となる。このことを称して、α 係数は真の信頼性係数の下限となっていると言う。 同族テスト 最後に、単に、各テストの真値間の相関が 1 の場合、すなわち、 1.5.3 Tj = bj + λj T∗ , j = 1, 2, . . . , m (107) の場合を同族テスト( congeneric test)と呼ぶ。この場合は、 Xj = bj + λj T∗ + Ej (108) となり、いわゆる一次元の因子分析モデルに一致する。観測値の平均や分散は E(Xj ) = bj + λ j µ cov (Xj , Xk ) λj λk σT2 ∗ = var (Xj ) = λ2j σT2 ∗ + var (Ej ) and (109) (110) であるが、不定性を避けるため µ = 0, σT2 ∗ = 1 and (111) と置くことが多い。 また、単純合計点に関しては X = m (bj + λj T∗ + Ej ) j=1 = m j=1 = bj + T +E m j=1 (112) λj T∗ + m Ej (113) j=1 (114) であるから var (T ) = 2 m λj (115) j=1 var (X) = 2 m m λj + var (Ej ) j=1 (116) j=1 (117) となり、その信頼性係数は、 ρ (X) = となる。 m j=1 λj 2 var (X) 9 (118) 1.6 差得点の信頼性 一人の人がふたつのテスト X と X を受けている時、その差を 1 2 XD = X2 − X1 = T2 + E2 − (T1 − E1 ) = T2 − T1 + E2 − E1 = TD + ED (119) ただし TD = T2 − T1 and ED = E2 − E1 (120) とする。このとき、以下のことが言える。ただし、ふたつのテストの信頼性係数を ρ (X ), ρ (X ) とする。 1 var (XD ) = = var (TD ) = = 2 varX1 + var (X2 ) − 2cov (X1 , X2 ) var (X1 ) + var (X2 ) − 2 var (X1 )var (X2 )corr (X1 , X2 ) (121) (122) var (T1 ) + var (T2 ) − 2cov (T1 , T2 ) = var (T1 ) + var (T2 ) − 2cov (X1 , X2 ) (123) var (X1 )ρ (X1 ) + var (X2 )ρ (X2 ) − 2 var (X1 )var (X2 )corr (X1 , X2 ) (124) したがって差得点の信頼性係数は ρ (XD ) = var (X1 )ρ (X1 ) + var (X2 )ρ (X2 ) − 2 var (X1 )var (X2 )corr (X1 , X2 ) var (TD ) = var (XD ) var (X1 ) + var (X2 ) − 2 var (X1 )var (X2 )corr (X1 , X2 ) (125) となる。 ここで、ふたつのテストの分散が等しいと仮定すると、上式は、 corr (X1 , X2 ) ≤ の関係から、 ρ (XD ) 1 2 (ρ (X1 ) = 1 (ρ (X1 ) + ρ (X2 )) ≤ 1 2 (126) + ρ (X2 )) − corr (X1 , X2 ) 1 ≤ (ρ (X1 ) + ρ (X2 )) 1 − corr (X1 , X2 ) 2 (127) となる。すなわち、差得点の信頼性係数は、元のテストの信頼性係数の平均を超えることはなく、ふたつ のテストの相関が高いほど、その値は低くなる。 1.7 信頼性係数の求め方 再テストもしくは平行テスト法 テスト X の信頼性係数を求めるための方法として、受験者に X に平行なテスト Y を受験させたデー タを利用する方法がある。当然であるが、X 自身は X に平行である。この場合、 (71) 式 より、平行な テスト得点間の相関係数を計算すればそれが信頼性係数となる。 1.7.1 折半法 テスト X が 2n 個の項目で構成されている場合、それをふたつに分けてテスト X と X を作る。 もしもふたつのテスト X , X が平行に作られているならば、その間の相関係数は、半分の長さのテス トの信頼性係数となる。 1.7.2 1 1 2 2 corr (X1 , X2 ) = ρ (X1 ) = ρ (X2 ) = ρ∗ 10 (128) したがって、元のテストは X れば得られる。すなわち 1 + X2 であるから、Spearman-Braun の公式 ρ (X) = 2ρ∗ 2corr (X1 , X2 ) = 1 + ρ∗ 1 + corr (X1 , X2 ) (72) 式 に於いて m = 2 とす (129) である。 なお、ふたつのテストが完全に平行ではなく、τ 等価(弱平行)である場合には、以下の Rulon-FlanaganGuttmann の公式を用いる。 ρ (X) = = = ≤ var (X1 − X2 ) var (X1 + X2 ) cov (X1 , X2 ) 4 var (X1 + X2 ) var (X1 ) + var (X2 ) 2(1 − ) var (X1 + X2 ) 2corr (X1 , X2 ) 1 + corr (X1 , X2 ) 1− (130) (131) (132) (133) 係数の利用(内部一貫性) テスト X が m 個の項目から作られている場合、それぞれの項目を 0-1 の値を取るテストと考える。も しもそれらの m 個のテストが τ 等価(弱平行)であれば、α 係数を計算することにより合計得点、すな わちテスト X の信頼性係数を求めることが出来が、この場合、 (101) 式 に示す KR-20 の形で計算する 事も可能である。 なお、もしも m 個の項目が弱平行と見なせない場合は、 α 係数は真の信頼性の下限となっている。 また、 m 個の項目が同族テストを構成していると考えられる場合には、項目得点の 1 因子の因子分析 を行った後に (118) 式 を用いればよい。 1.7.3 α 一般化可能性理論(分散成分の推定) 統計的にテスト得点の分散成分の推定を行うことにより信頼性係数を推定することが出来る。(省略) 1.7.4 11 付録:不等式 1.8 その1 var (Ti − Tj ) = var (Ti ) + var (Tj ) − 2cov (Ti , Tj ) ≥ 0 (134) var (Ti ) + var (Tj ) ≥ 2cov (Ti , Tj ) (135) より 両辺の i = j に関する和をとると m m (var (Ti ) + var (Tj )) ≥ i=1 j=1,j=i 左辺は m m m m (var (Ti ) + var (Tj )) = i=1 j=1,j=i m m var (Ti ) + i=1 j=1,j=i m = 2(m − 1) (m − 1) m var (Ti ) ≥ または m var (Ti ) ≥ または その2 (140) 式 の両辺に var (Ti ) (137) (138) m m cov (Ti , Tj ) (139) m m 1 cov (Ti , Tj ) m − 1 i=1 (140) m m m 1 1 var (Ti ) ≥ cov (Ti , Tj ) m i=1 m(m − 1) i=1 (141) j=1,j=i m i=1 m j=1,j=i m m cov (Ti , Tj ) cov (Ti , Tj ) ≥ i=1 j=1,j=i となるが、左辺は var ( m i=1 Ti ) var ( または var を加えると m m m m 1 cov (Ti , Tj ) + cov (Ti , Tj()142) m − 1 i=1 i=1 j=1,j=i = を得る。 var (Tj ) i=1 j=1,j=i j=1,j=i i=1 i=1 m m i=1 j=1,j=i i=1 var (Ti ) + (136) i=1 したがって m 2cov (Ti , Tj ) i=1 j=1,j=i であるため m i=1 Ti ) ≥ 1 m m m m−1 i=1 Ti m m j=1,j=i cov (Ti , Tj ) (143) i=1 j=1,j=i m m m cov (Ti , Tj ) m − 1 i=1 (144) j=1,j=i ≥ m m 1 cov (Ti , Tj ) m(m − 1) i=1 j=1,j=i 12 (145) 2 付録:期待値、分散等 2.1 密度関数を用いた定義 等を確率変数とし、その密度関数を密度関数 f (x), f (x, y) 等、ただし f (x)dx = 1, f (x, y)dxdy = 1 X Y X と表す。確率変数が多変量(ベクトル)の場合は同時密度関数を以下のように書く。 f (x) = f (x , x , . . . , x )、ただし X, Y, X1 , X2 1 X f (x)dx = ··· X1 X2 また、各確率変数の周辺密度関数を fj (xj ) = X1 X2 ··· X j−1 X j+1 で定義する。当然であるが、 ··· Xm Xm Xj である。 • 期待値 f (xj )dxj = 1 が m 変量の確率変数ベクトルの場合は ただし、 E(Xj ) = 分散 var (X) = • 共分散 cov (X, Y ) = ただし、 Y X X (147) (148) f (x1 , x2 , . . . , xm )dxm dxm−1 · · · dxj+1 dxj−1 · · · dx1 (149) E(X) = • m f (x1 , x2 , . . . , xm )dxm dxm−1 · · · dx1 = 1 E(X) = X 2 (146) Xj X (150) xf (x)dx (151) (152) E(X1 ) E(X2 ) .. . E(Xm ) xj fj (xj )dxj 2 (x − E(X))2 f (x)dx = E X 2 − E(X) (153) (154) (x − E(X))(y − E(Y ))f (x, y)dxdy = E(XY ) − E(X)E(Y ) (155) cov (X, X) = とする。 13 var (X) (156) • 相関係数 corr (X, Y ) • m = 変量の確率変数の分散共分散行列 D(X) = cov (X, Y ) var (X) var (Y ) (157) {cov (Xi , Xj )} i = 1, 2, . . . , m, j = 1, 2, . . . , m (158) 対角要素には var (X ) が入る。同様に corr (X , X ) を並べた行列を相関行列と呼び、その対角要 素は全て 1 となる。 j 2.2 i j 標本統計量の総和記号を用いた定義 x , i = 1, 2, . . . , N を N 人分のテスト X の得点とし、それを縦に並べた N × 1 のベクトルを x と記す。 また、テストが複数ある場合テスト X , j = 1, 2, . . . , m の個人 i の得点を x と記し、それを N × m の 行列の形に並べたものを X と記す。また、X の第 j 列、すなわち、N 人分のテスト j の得点を縦に並 べたものを x と記す。 • 期待値 i j ij (j) E(x) = 多変量数の場合は E(X) ただし、 • • var x(j) = (160) (161) N N 2 2 1 1 2 xij − E x(j) = xij − E x(j) N N cov x(j) , x(k) i=1 = = ただし、 = E x(1) E x(2) .. . E x(m) (159) N 1 E x(j) = xij N i=1 分散 共分散 N 1 xi N i=1 (162) i=1 N 1 xij − E x(j) xik − E x(k) N i=1 N 1 xij xik − E x(j) E x(k) N i=1 cov (x, x) = とする。 14 var (x) (163) (164) (165) • 相関係数 corr (x, y) = • m 変量の確率変数の分散共分散行列 D(X) cov (x, y) var (x) var (y) (166) = {cov x(j) , x(k) } j = 1, 2, . . . , m, k = 1, 2, . . . , m var x(j) (167) 分散共分散行列は対称で対角要素には が入り非対角部分には共分散が入る。 同様に corr x , x を並べた行列を相関行列と呼び、その対角要素は全て 1 となる。m 個の変 数を含む変数群 X と n 個の変数を含む変数群 Y の共分散からなる m × n の行列を Cov (X, Y ) と 書く。 (j) (k) 期待値、分散等の演算子の性質 2.3 および y を確率変数、A, c および d を定数とし、以下の演算子を定める。定義は、密度関数を用い るものでも総和記号を用いるものでもどちらでも良い。 E(x) = 平均ベクトル and D(x) = 分散共分散行列 and Cov (x, y) = 共分散行列 (168) そのとき、 x E(c) = c, D(c) = 0, Cov (c, d) = 0, Cov (x, c) = 0 (169) E(x + y) = E(x) + E(y) (170) E(Ax + c) = A E(x) + E(c) = A E(x) + c (171) D(x + y) = D(x) + 2Cov (x, y) + D(y) (172) D(Ax + c) = D(Ax) + 2Cov (Ax, c) + D(c) (173) = A D(x) A (174) 2 D(x) = E(xx ) − E(x) (175) Cov (Ax + c, By + d) = Cov (Ax, By) + Cov (Ax, d) + Cov (c, By) + Cov (c, d) = A Cov (x, y) B (176) (177) Cov (x, y) = E(xy ) − E(x)E(y) = Cov (y, x) (178) Cov (x, x) = D(x) (179) Corr (x, y) = −1 (diag (D(x))) 2 Cov −1 (x, y) (diag (D(y))) 2 (180) である。ただし、各変数がスカラーの場合は D(X) = var (X), と読み替える。 いくつかの確率変数の和 を m Cov (X, Y ) = cov (x, y), m j=1 Xj の平均と分散は、 corr (X, Y ) = A = {1, 1, . . . , 1} cov (X, Y ) var (X)var (Y ) (181) (182) 個の 1 を横に並べたものとすれば、 m Xj = Ax j=1 15 (183) であるため E var したがって、 E var m m j=1 m j=1 m Xj j=1 Xj Xj j=1 Xj = = D(Ax) = AD(x)A = [E(x)]j (184) m m [D(x)]ij (185) i=1 j=1 E(Xj ) j=1 m m = m j=1 m = E(Ax) = AE(x) = (186) cov (Xj , Xk ) = j=1 k=1 m var (Xj ) + j=1 cov (Xj , Xk ) (187) j=k (188) となる。重み付き和は A = {w1 , w2 , . . . , wm } (189) とすればよい。 2.4 条件付き期待値と分散 E( X | Y ) = X x f (x | y) dx (190) E(X) = (x − E( X | Y ))2 f (x | y) dx X E(E( X | Y )) (192) D(X) = E(D(X | Y )) + D(E( X | Y )) (193) var (X | Y ) = 16 (191)
© Copyright 2024 Paperzz