とあるお兄さんの雑記

基本的に技術系の内容を書きますが、何を書くかは私の気分です。

統計学基礎vol9~ベイズの定理~

ベイズの定理

 P(B)を事象 Aが起きる前の事象 Bが起きる確率(事前確率)、
 P(B|A)を事象 Aが起きた後で、事象 Bが起きる確率(事後確率)とする。この時、

 \displaystyle P(B|A) = \frac{P(B) P(A|B)}{P(A)}

という式で表されるとき、これをベイズの定理という。

ベイズの定理を一言で

結果から原因を推定すること。

結果から原因?

結果から原因を推定するとはどういうことでしょうか?

ここで、いったん条件付き確率について考えてみましょう。

条件付き確率とは、事象 Bが起こるという条件の下で、事象 Aが起こる場合、

 \displaystyle P(A|B) = \frac{P(A \cap B)}{P(B)}

と書けました。

ここで、事象Bは事象 Aが起こる前のことを表しています。ということは、 P(B)は事象 Aが起こる前の確率ということで、ベイズの定理で言うところの事前確率(その結果となった原因のようなもの)と言えそうです。

一方、事象 P(A)は事象 Bが起こった後の結果を示した確率を表しています。つまり、事象 Aの結果です。

ということは、ある前提条件や原因をもとに、結果を推定すると考えると、分数で表せば結果を意味する事象 Aが分子、前提条件や原因を意味する事象 Bが分母になりそうというのはなんとなくイメージが湧くのではないでしょうか?

一方で、ベイズの定理の主張は結果から原因を推定するです。つまり、結果となる事象 Aが分母に、前提条件や原因を意味する事象 Bが分子にくると考えられます。

...ほんとに推定できるのでしょうか?

条件付き確率の式をいじる

条件付き確率の式からベイズの定理の式を導けないか考えてみましょう(要は、結果を意味する事象 Aが分母、前提条件や原因を意味する事象 Bが分子にあるような式を導く)。


条件付き確率の式は、

 \displaystyle P(A|B) = \frac{P(A \cap B)}{P(B)}

とかけましたね。この条件付き確率ですが、乗法定理

 P(A \cap B) = P(B) P(A|B)  = P(A) P(B|A)

を使うと、

 \displaystyle P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac{P(A) P(B|A)}{P(B)}

と書けますね。式を見れば分かりますが左辺が結果(事後確率)、右辺が原因(事前確率)です。さて、この式を少しいじって、 P(B|A) = の形にしてみます。

 \displaystyle P(B|A) = \frac{P(B) P(A|B)}{P(A)}

このいじった式ですが、よくよく見ると式をいじる前のものに似ています。ですが、原因となる事象Bは分子にきています。加えて、結果となる事象 Aは分母に来ています。

つまり、結果から原因となる確率を計算しています。

というわけで、結果から原因を推定する式が導けましたね。

事象が増えた場合(一般的なベイズの定理の式)

ここまでの説明で、ベイズの定理が分かった人も分からなかった人も、ひとまずベイズの定理は結果から原因を突き止めることが出来るということが分かってもらえればそれで十分かと思います。


ここでは、以下のように事象が増えた場合について考えてみます。 f:id:kurasher:20200528193103p:plain

事象 Aが起こるという条件の下で、 k種類の事象 B(B_1, B_2, \dots, B_k)(ただし、各事象 Bは互いに排反)が起こるとする。この時、事象 Aが起こるという条件の下で、事象 B_iが起こる条件付き確率は、

 \displaystyle P(B_i|A) = \frac{P(A \cap B_i)}{P(A)} = \frac{P(B_i) P(A|B_i)}{P(A)}

となります。分子は乗法定理を使っています。

また、 P(A)は上の図をもとに考えると、

 \displaystyle P(A) = P(A \cap B_1) + P(A \cap B_2) + \dots + P(A \cap B_k) = \sum_{i=1}^{k} P(A \cap B_i)

で表せます。加えて乗法定理を使えば、

 \displaystyle P(A) =\sum_{i=1}^{k} P(A \cap B_i)

 \displaystyle = \sum_{i=1}^{k} P(B_i) P(A|B_i)

と表せます。よって、

 \displaystyle P(B_i|A) = \frac{P(B_i) P(A|B_i)}{P(A)} = \frac{P(B_i) P(A|B_i)}{P(A \cap B_1) + P(A \cap B_2) + \dots + P(A \cap B_k)}

 \displaystyle = \frac{P(B_i) P(A|B_i)}{ \sum_{i=1}^{k} P(B_i) P(A|B_i) }

と表すことが出来ます。

これが、ベイズの定理の式です。

コラム:医学系なお話

ちょっと医学系の専門用語が出ます。専門家からすれば専門用語でもなんでもないかもしれませんが。

興味ない方は飛ばしてもらって大丈夫です。

(2021年10月24日追記)

以下の説明、ほぼほぼ間違えていたので修正しました。


罹患している罹患していない合計
検査陽性aba+b
検査陰性cdc+d
合計a+cb+da+b+c+d


感度(真陽性率)

実際にその病気に罹患している人の中で、検査で陽性になった人の割合のこと。
 \displaystyle \frac{a}{a+c}

特異度(真陰性率)

その病気に罹患していない人の中で、検査で陰性になった人の割合のこと。
 \displaystyle \frac{d}{b+d}

陽性的中率(PPV)

検査で陽性になった人の中で実際にその病気に罹患している人の割合のこと。
 \displaystyle \frac{a}{a+b}

陰性的中率(NPV)

検査で陰性になった人の中でその病気には罹患していない人の割合のこと。
 \displaystyle \frac{d}{c+d}

偽陽性

その病気に罹患していない人の中で、検査で陽性になった人の割合のこと。
 \displaystyle \frac{b}{b+d}

偽陰性

実際にその病気に罹患している人の中で、検査で陰性になった人の割合のこと。
 \displaystyle \frac{c}{a+c}

陽性尤度比

検査結果が陽性の人に着目したときに、罹患者が非罹患者に対してどの程度陽性になりやすいかを表す量のこと。感度を偽陽性率で割ることで算出できる。
 \displaystyle \frac{\frac{a}{a+c}}{\frac{b}{b+d}} = \frac{感度}{1-特異度} = \frac{感度}{偽陽性率}

陰性尤度比

検査結果が陰性の人に着目したときに、罹患者が非罹患者に対してどの程度陰性になりやすいかを表す量のこと。偽陰性率を特異度で割ることで算出できる。
 \displaystyle \frac{\frac{c}{a+c}}{\frac{d}{b+d}} = \frac{1-感度}{特異度} = \frac{偽陰性率}{特異度}



まとめ

今回はベイズの定理についてのお話でした。まとめると、ベイズの定理とは結果から原因を推定するということです。これが分かっていれば後は何とかなるんじゃないでしょうか?たぶん。