ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

李沐深度学习 3 月 28 日课程笔记

2022-02-14 23:32:46  阅读:200  来源: 互联网

标签:输出 概率 sum 28 笔记 类别 Softmax 李沐


3 月 28 日 课程笔记

讲课大纲

分类问题的例子

回归是单连续数值的输出,而分类通常有多个输出,输出 \(O_i\) 是第 \(i\) 类的置信度。

从回归过渡到多分类

对类别进行一位有效编码 \(y = [y_1, y_2, ..., y_n]^T\)​(这种编码方式叫做 one-hot encoding,相比于直接编码成类别的序号,去除了类别之间的自然顺序)。

这样可以用线性的全连接层建模,然后用均方损失进行训练:

\[o = Wx + b \]

初看起来可以通过直接判断没有规范化的输出 \(o\) 的大小来选取输出结果的,但这样存在一些问题:我们不能将输出直接视为概率,它们不满足概率公理(和为 1,且都是正数)。我们需要让输出满足概率公理,也希望能有一个适合于评估概率的目标函数来鼓励模型估计概率。

我们可以使用 Softmax 函数和交叉熵损失。

Softmax 函数能够将一个向量归一化到单位向量上面。将 \(y=softmax(o)\) 定义为:

\[y_i = \exp{o_i} / \sum_k{\exp{o_k}} \]

交叉熵损失用来衡量两个概率的区别(这个公式本身是由最大似然估计导出的,详见书上):

\[H(p, q) = \sum_i{-p_i \log{q_i}} \]

Softmax 回归的从零开始实现和利用框架实现

略,主要见 Jupyter Notebook 中的代码。

标签:输出,概率,sum,28,笔记,类别,Softmax,李沐
来源: https://www.cnblogs.com/autotranslator/p/15894656.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有