likes
comments
collection
share

机器学习基础-监督学习-目标函数之交叉熵损失(Cross-Entropy Loss)

作者站长头像
站长
· 阅读数 35

交叉熵损失(Cross-Entropy Loss)是一种常用的目标函数,主要用于二分类或多分类问题中衡量预测结果与真实标签之间的差异。它是基于信息论的概念,通过比较两个概率分布的差异来计算损失。

在二分类问题中,假设有两个类别,真实标签可以表示为 y∈{0,1}y \in \{0,1\}y{0,1},而模型的预测概率为 y∈[0,1]y \in [0,1]y[0,1]。交叉熵损失通过计算真实标签的对数概率与预测概率的乘积来衡量预测结果与真实标签之间的差异。

公式如下所示:

CrossEntropy=−1N∑i=1N(yilog⁡(y^i)+(1−yi)log⁡(1−y^i))CrossEntropy = -\frac{1}{N}\sum_{i=1}^{N}(y_i\log(\hat y_i) + (1-y_i)\log(1-\hat y_i))CrossEntropy=N1i=1N(yilog(y^i)+(1yi)log(1y^i))

其中,N 表示样本数量,yi 表示第 i 个样本的真实标签(0 或 1),y^i\hat y_iy^i 表示第 i 个样本的预测概率。

在多分类问题中,交叉熵损失可以推广为多个类别的情况。假设有 K 个类别,真实标签可以表示为 y∈{0,1...,,k−1}y \in \{0,1...,,k-1\}y{0,1...,,k1},而模型的预测概率为 y^∈[0,1]k\hat y \in [0,1]^ky^[0,1]k。交叉熵损失的公式如下:

CrossEntropy=−1N∑i=1N∑k=0K−1yiklog⁡(y^ik)CrossEntropy = -\frac{1}{N}\sum_{i=1}^{N}\sum_{k=0}^{K-1}y_{ik}\log(\hat y_{ik})CrossEntropy=N1i=1Nk=0K1yiklog(y^ik)

其中,N 表示样本数量,yiky_{ik}yik 表示第 i 个样本属于第 k 个类别的真实标签,y^ik\hat y_{ik}y^ik 表示第 i 个样本属于第 k 个类别的预测概率。

以下是 Python 代码示例,用于计算交叉熵损失:

import numpy as np

def cross_entropy_loss(y_true, y_pred):
    N = len(y_true)
    epsilon = 1e-15  # 用于防止取对数时出现无穷大值
    ce_loss = -np.sum(y_true * np.log(y_pred + epsilon)) / N
    return ce_loss

在示例代码中,y_true 是真实标签的数组,y_pred 是预测概率的数组。使用 NumPy 库计算了交叉熵损失,其中添加了一个很小的值 epsilon 以避免在计算对数时出现无穷大的情况。

需要注意的是,在实际应用中,为了数值稳定性和避免过拟合,通常会对交叉熵损失函数添加正则化项或其他改进措施。此外,还可以使用优化算法(例如梯度下降)来最小化交叉熵损失,以获得更好的模型预测结果。

转载自:https://juejin.cn/post/7249627749946507323
评论
请登录