読者です 読者をやめる 読者になる 読者になる

McNemar's test

以前は単なる対応データの割合が一致するかどうかの検定ぐらいの認識だったので、ちゃんと勉強してみようと思いました。
でも McNemar の原典 [3] を読むとさっぱり分からなかったので Kbauth 1985 [2] なども読みました。

McNemar's test は、
\[
H_0:\, \pi_{12}=\pi_{21}
\] の検定としてではなく、
\[
H_0:\, p=q\, (1-p=1-q)
\] marginal homogeneity (周辺同等性) に対する検定として導かれていました。

変数B変数A合計
YesNo
Yes$\pi_{11}$$\pi_{12}$$p$
No$\pi_{21}$$\pi_{22}$$1-p$
合計$q$$1-q$ $1$

marginal homogeneity は、対応する 周辺確率 が同等である、ということ。
これをきちんと認識できていなかった、結構な勉強不足だったと思う。

通常は marginal homogeneity のような推測をする場合、多項分布モデル
\[
X_{11}, X_{12}, X_{21} \sim \mathrm{Tn}(\pi_{11}, \pi_{12}, \pi_{21}; n)
\] を仮定する。

変数B変数A合計
YesNo
Yes$X_{11}$$X_{12}$
No$X_{21}$$X_{22}$
合計$n$

ここで、
\[
d=p-q=(\pi_{11}+\pi_{12})-(\pi_{11}+\pi_{12})=\pi_{12}-\pi_{21}
\] とパラメータを変換して、$H_0: d=0$ vs. $H_1: d\not=0]$ の仮説検定を考えよう。

$c$をある実定数とすれば、対数尤度関数は
\[
\begin{eqnarray}
\log L(\boldsymbol{\theta})&=&
x_{11}\log(\pi_{11}) + x_{12}\log(\pi_{21}+d) + x_{21}\log(\pi_{21})+\\&&
(n - x_{11} - x_{12} - x_{21})\log(1 - \pi_{11} - 2\pi_{21} - d)+c,
\end{eqnarray}
\] \[
\boldsymbol{\theta}=(\pi_{11}, \pi_{21}, d)^{\mathrm{t}},
\] であり、スコア関数は
\[
\mathbf{S}(\boldsymbol{\theta})=
\left(\frac{\partial\log L}{\partial \pi_{11}}, \frac{\partial\log L}{\partial \pi_{21}}, \frac{\partial\log L}{\partial d}\right)^{\mathrm{t}},
\] \[
\begin{eqnarray}
\frac{\partial\log L}{\partial \pi_{11}}&=&\frac{x_{11}}{\pi_{11}}-\frac{n-x_{11}-x_{12}-x_{21}}{1-\pi_{11}-2\pi_{21}-d}\\ \frac{\partial\log L}{\partial \pi_{21}}&=&\frac{x_{12}}{\pi_{21}+d}+\frac{x_{21}}{\pi_{x21}}-\frac{2(n-x_{11}-x_{12}-x_{21})}{1-\pi_{11}-2\pi_{21}-d}\\ \frac{\partial\log L}{\partial d}&=&\frac{x_{12}}{\pi_{21}+d}-\frac{n-x_{11}-x_{12}-x_{21}}{1-\pi_{11}-2\pi_{21}-d}\end{eqnarray}
\] であり、Fisher 情報行列は
\[
\mathbf{I}(\boldsymbol{\theta})=
\begin{pmatrix}\frac{n}{\pi_{11}}+\frac{n}{1-\pi_{11}-2\pi_{21}-d} & \frac{2n}{1-\pi_{11}-2\pi_{21}-d} & \frac{n}{1-\pi_{11}-2\pi_{21}-d}\\ \frac{2n}{1-\pi_{11}-2\pi_{21}-d} & \frac{n}{\pi_{21}+d}+\frac{n}{\pi_{21}}+\frac{4n}{1-\pi_{11}-2\pi_{21}-d} & \frac{n}{\pi_{21}+d}+\frac{2n}{1-\pi_{11}-2\pi_{21}-d}\\ \frac{n}{1-\pi_{11}-2\pi_{21}-d} & \frac{n}{\pi_{21}+d}+\frac{2n}{1-\pi_{11}-2\pi_{21}-d} & \frac{n}{\pi_{21}+d}+\frac{n}{1-\pi_{11}-2\pi_{21}-d}
\end{pmatrix}
\] である。

途中を省くが、この場合のスコア検定統計量 $\mathbf{S}_0(\boldsymbol{\theta})^{\mathrm{t}}\mathbf{I}_0(\boldsymbol{\theta})^{-1}\mathbf{S}(\boldsymbol{\theta})$ と Wald 検定統計量 $(\hat{d}-d_0)^2/\{\widehat{\mathrm{Var}}(\hat{d}-d_0)\}$ は一致して、
\[
\chi^2=\frac{(X_{12}+X_{21})^2}{X_{12}+X_{21}} \sim \chi^2(1),
\] となる。
これは、$\hat{d}$ と $\mathrm{Var}(\hat{d}\mid H_0)$ から求めた McNemar's test の検定統計量と同等になる。

ちなみに、Wald 検定で用いた漸近分散は
\[
\widehat{\mathrm{Var}}(\hat{d}-d_0)=
\frac{1}{\{\mathbf{I}(\hat{\boldsymbol{\theta}})\}_d}=
\frac{X_{12}+X_{21}}{n^2},
\] である。

symmetry と marginal homogeneity

McNemar's test は $2 \times 2$ 表の場合を対象にしている。
これをもっと一般化して $r \times r$ 表に拡張するなら、marginal homogeneity ではなく symmetry (対称性)
\[
H_0: \pi_{ij}=\pi_{ij}
\] を考えなければならないはずだ。
$2 \times 2$ 表の場合は、$\pi_{12}=\pi_{21}$ と $p=q$ は同等なので、marginal homogeneity と symmetry のどちらに対する検定といっても差し支えはない。

では、marginal homogeneity と symmetry はどう違うんだろう。
とりあえず、対称ではないが周辺同等な表を作って考えてみた。






pre \ post0~33点34~66点67~100点合計
0~33点1100001001
34~66点0110001001
67~100点1000011001
合計1001100110013003

pre テストの得点と、post テストの得点を比べたデータとして考えてみよう。
対称ではないが周辺同等な表をみると

  1. pre で 0–33点 → ほとんどが post で 34–66点
  2. pre で 34–66点 → ほとんどが post で 67–100点
  3. pre で 67–100点 → ほとんどが post で 0–33点

のようになっている事が分かる。
実際のデータでは 3. はあんまり起こらないと思うが、pre-post の間での介入効果みたいなものを調べたいときに、周辺同等性の仮説を考えると、このタイプの差は検出できない事になる。

文献

[1] Agresti A. Categorical data analysis. 2nd edition. John Wiley & Sons Inc. 2007.

[2] Kbauth J. A comparison or tests for marginal homogeneity in square contingency tables. Biometrical Journal 1985; 27(1): 1–15.

[3] McNemar Q. Note on the sampling error of the difference between correlated proportions or percentages. Psychometrika 1947; 12: 153–157.

記録

2008/07/06 ぐらいと 2008/11/07 ぐらいに書いた記事を手直ししたものです。