20210927

前言

神經科學與資訊理論 - Part 1

https://neuroinfo-cclolab.blogspot.com/2020/11/part-1.html?fbclid=IwAR1bf5ddPx42r4YR1UzROc1D4zsSRxlXpRzbDzTLo_IjShGdUCKgf7FfINI

前文中提及了不確定性與資訊熵的概念,但仍侷限在只有一個變數的情況,這篇文章將從一個變數增加至兩個變數,介紹聯合熵、條件熵,最後引入相互資訊和不確定性的關係。

聯合熵 (Joint Entropy)

若是系統含有多於一個以上的變數,使用聯合熵:

$$ H(X,Y) = - \sum_{x \in X,y \in Y} P(x,y)\ \log_{2}\!P(x,y) $$

當X、Y兩變數是獨立的時候(如前例,丟擲硬幣和抽撲克牌並不會互相影響),$P(x,y)=P(x)P(y)$,此時的聯合熵為兩變數各自的資訊熵之和。

$$ \begin{aligned} H_{independent}(X,Y) &= - \sum_{x \in X,y \in Y} P(x,y)\ \log_{2}\!P(x,y) \\ &= - \sum_{x \in X,y \in Y} P(x)P(y)\ \log_{2}[P(x)P(y)] \\ &= - \sum_{x \in X,y \in Y} P(x)P(y)\ [\log_{2}\!P(x) + \log_{2}\!P(y)] \\ &= - \sum_{x \in X,y \in Y} P(x)P(y)\ \log_{2}\!P(x) - \sum_{x \in X,y \in Y} P(x)P(y)\ \log_{2}\!P(y) \\ &\qquad (\because \sum_{x \in X} P(x) = 1) \\ &= - \sum_{x \in X} P(x)\ \log_{2}\!P(x) - \sum_{y \in Y} P(y)\ \log_{2}\!P(y) \\ &= H(X) + H(Y) \end{aligned} $$

條件熵 (Conditional Entropy)

條件熵計算的是,當已經知道一個變數的狀態時,整個系統的平均不確定性為何。

$$ H(X \mid Y) = - \sum_{x \in X,y \in Y} P(x,y)\ \log_{2}\!P(x \mid y) $$