Binary Cross-Entropy
分类: 深度学习基础
Binary Cross-Entropy
定义
用于二分类任务的损失函数,衡量预测概率分布与真实标签之间的距离
数学形式
LBCE=−N1i=1∑N[yilog(y^i)+(1−yi)log(1−y^i)]
核心要点
yi∈{0,1} 为真实标签,y^i∈(0,1) 为预测概率
常与 Sigmoid 输出配合使用
当预测越接近真实标签时,损失越小
是 multi-label 分类的标准损失(每个类别独立二分类)
代表工作
TIDE: 用 BCE 训练 router MLP 的收敛判断
相关概念
Sigmoid
Softmax
信息熵