Created: 2026-03-06 07:53:04
Updated: 2026-03-06 07:53:04
L4: Joint Entropy,Conditional Entropy, Mutual info & KL Divergence
条件熵
H(Y∣X=xi):当已知X=xi时,Y的熵值
对上式对X=xi的概率加权相加,得到的就是条件熵H(Y∣X)=∑jp(xj)H(Y∣X=xj)=∑i,jp(xj)p(yi∣x=xj)logp(yi∣x=xj)=∑ijp(yi,xj)logp(yi∣xj)平均而言,知道X之后Y的信息量是多少
相对熵的意义:
H(p∣∣q)=i∑pilogqipi
对于一个概率分布pi,我们不能真正知道它,只能用qi来近似代替。当用这个概率分布代替时,每个编码的长度差是logpi1−logqi1,每个编码出现的真实概率分布是pi,加权得到相对熵,也就是平均传输一个码字相对于理论极限值需要多传递的信息。
共同信息是Joint Distribution 和 Marginal Distribution 乘积的KL Divergence
Leave a Comment