らんだむな記憶

blogというものを体験してみようか!的なー

独立性は条件付き独立性を導くか?

ベイズ更新を考える - らんだむな記憶以来、任意の事象$A$に対して、
\begin{equation}
P(B,C) = P(B)P(C) \overset{?}{\Longrightarrow} P(B,C|A) = P(B|A)P(C|A)
\end{equation}

が気になっていた。
確率空間$\Omega$を2つのサイコロX,Yの目全体のなす集合とし、BをサイコロXの目が1の事象, CをサイコロYの目が1の事象とするとき、事象$A = B \cup C$、つまり少なくともサイコロX或はYの目が1という事象とすると条件付き独立性は成立しない。
$A \cap B = (B \cup C) \cap B = B$などに注意して、
\begin{equation}
P(B,C|A) = P(A,B,C)/P(A) = P(B \cap C)/P(B \cup C) = \frac{1/36}{11/36} = 1/11
\end{equation}

一方、
\begin{equation}
P(B|A) = P(A,B)/P(A) = P(B)/P(A) = \frac{1/6}{11/36} = 6/11
\end{equation}

なので、
\begin{equation}
P(B|A)P(C|A) = (6/11)^2 = 36/121 \neq 1/11
\end{equation}

となる。しかし、$A$が$\varnothing,\ B,\ C,\ B \cap C,\ \Omega$のいずれかの時には成立する感じで、なんらかの条件の場合には成立するのかな?という気もしないでもない。
しかし、Conditional independence - Wikipedia, the free encyclopediaのneither norを見ると、やはり一般には厳しそうなのかな。

\begin{equation}
P(B,C|A) = P(B|A)P(C|A) \overset{?}{\Longrightarrow} P(B,C|A^c) = P(B|A^c)P(C|A^c)
\end{equation}

も気になるが。この辺、簡単な十分条件で条件付き独立性が保証されないとベイズ更新の理屈が適用しにくいと思うのだが、実際どうなっているのかな??