损失函数

  1. 0-1损失函数
  2. 绝对值损失
  3. log对数损失函数
  4. 交叉熵
  5. 平方损失
  6. 指数损失函数
  7. Hinge损失函数
  8. 感知损失(perceptron loss)函数

0-1损失函数

非凸函数不适用

绝对值损失

$$
L(Y,f(x))=|Y-f(x)|
$$

log对数损失函数

$$
L(Y,P(Y|X))=-log^{P(y|x)}
$$

特点:

(1) log对数损失函数能非常好的表征概率分布,在很多场景尤其是多分类,如果需要知道结果属于每个类别的置信度,那它非常适合。

(2)健壮性不强,相比于hinge loss对噪声更敏感。

(3)逻辑回归的损失函数就是log对数损失函数。

交叉熵

适用于分类
$$
P(x)=-\sum_{x=1}^{n} p^x(1-p)^{1-x} \
logP(x)=-\sum_{x=1}^{n}[xlog^p+(1-x)log^{1-p}]
$$

平方损失

应用于回归问题
$$
L(Y,f(x))=\sum_{i=1}^{n}(Y-f(x))^2
$$

指数损失函数

$$
exp[-yf(x)]
$$

特点:

(1)对离群点、噪声非常敏感。经常用在AdaBoost算法中。

Hinge损失函数

$$
L(Y,f(x))=max(0,1-yf(x))
$$

特点:

(1)hinge损失函数表示如果被分类正确,损失为0,否则损失就为 [公式]SVM就是使用这个损失函数。

(2)一般的 [公式] 是预测值,在-1到1之间, [公式] 是目标值(-1或1)。其含义是, [公式] 的值在-1和+1之间就可以了,并不鼓励 [公式] ,即并不鼓励分类器过度自信,让某个正确分类的样本距离分割线超过1并不会有任何奖励,从而使分类器可以更专注于整体的误差。

(3) 健壮性相对较高,对异常点、噪声不敏感,但它没太好的概率解释。

感知损失(perceptron loss)函数

$$
L(Y,f(x))=max(0,-f(x))
$$

$$

$$


转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 zoubinbf@163.com

×

喜欢就点赞,疼爱就打赏