信息熵

熵熵的计算公式为:$$H(x)=-\sump(x)log^{p(x)}$$这个公司我们并不陌生,在决策树切割的时候会记住熵增益,逻辑回归的损失函数交叉熵函数等,那我们今天就来认识不用的熵有何种物理意义。若不确定性越大,则信息量越大,熵越大若不确定性越小,则信息量越小,熵越小条件熵假设随机变量(X,Y
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×