ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

吃瓜教程|Datawhale-10月(4)

2021-10-28 01:03:02  阅读:189  来源: 互联网

标签:10 函数 boldsymbol Datawhale 感知机 超平面 吃瓜 theta 神经元


吃瓜教程|Datawhale-10月(4)

神经网络

神经元模型

M-P 神经元模型(一个用来模拟生物行为的数学模型)

在此模型中,神经元接收到来自 n 个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过激活函数(模拟“抑制”或“激活”)处理以产生神经元的输入。

image-20211025211936129

理想的激活函数是阶跃函数,它将输入值映射为0或1。然而阶跃函数不连续,不光滑,所以实际上用 Sigmoid 函数作为激活函数。

把许多个这样的神经元按一定的层次结构连接起来,就得到了神经网络。

我们将神经网络视为是由下式相互嵌套而得的模型:

\[y=f\left(\sum_{i=1}^{n} w_{i} x_{i}-\theta\right)=f\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b\right) \]

单个 M-P 神经元:感知机( sgn (阶跃函数)作激活函数)、对数几率回归( sigmoid 作激活函数)

多个 M-P 神经元:神经网络

感知机和多层网络

感知机由两层神经元组成,输入层接受外界输入信号后传递给输出层,输出层是M-P神经元,也称为“阈值逻辑单元”。

image-20211025221453837

对于 \(y_{j}=f(\sum_{i}w_{i}x_{i}-\theta_{j})=f(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}-\theta)\) ,假如 f 是阶跃函数,则有

  • 与( \(x_{1}\and x_{2}\) ):令 \(w_{1}=w_{2}=1,\theta =2\) ,则 \(y=f(1\cdot x_{1}+1\cdot x_{2}-2)\) ,仅在 \(x_{1}=x_{2}=1\) 时,y = 1。
  • 或( \(x_{1}\or x_{2}\) ):令 \(w_{1}=w_{2}=1,\theta =0.5\) ,则 \(y=f(1\cdot x_{1}+1\cdot x_{2}-0.5)\) ,当 \(x_{1}=1或x_{2}=1\) 时,y = 1。
  • 非( \(\neg x_{1}\) ):令 \(w_{1}=-0.6,w_{2}=0,\theta =-0.5\) ,则 \(y=f(-0.6\cdot x_{1}+0\cdot x_{2}+0.5)\) ,当 \(x_{1}=1时,y=0;x_{1}=0\) 时,y = 1。

更一般地,给定训练数据集,权重 \(w_{i}(i=1,2,...,n)\) 以及阈值 \(\theta\) 可通过学习得到。阈值 \(\theta\) 可视为一个固定输入为-1.0的“哑结点”所对应的连接权重 \(w_{n+1}\) ,这样,权重和阈值的学习就可以统一为权重的学习。

对于训练样本 \((x,y)\) ,若当前感知机的输出为 \(\hat{y}\) ,则感知机这样调整权重:

\[\begin{aligned} w_{i} & \leftarrow w_{i}+\Delta w_{i} \\ \Delta w_{i} &=\eta(y-\hat{y}) x_{i} \end{aligned} \]

其中 \(\eta \in (0,1)\) 称为学习率。

从几何角度来说,给定一个线性可分的数据集 \(T\) ,感知机的学习目标是求得能对数据集 \(T\) 中的正负样本完全正确划分的超平面,其中 \(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}-\theta\) 即为超平面方程。
\(n\) 维空间的超平面 \(\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b=0\right. , 其中 \left.\boldsymbol{w}, \boldsymbol{x} \in \mathbb{R}^{n}\right)\) :

  • 超平面方程不唯一

  • 法向量 \(\boldsymbol{w}\) 垂直于超平面

  • 法向量 \(\boldsymbol{w}\) 和位移项 \(b(或者-\theta)\) 确定一个唯一超平面

  • 法向量 \(\boldsymbol{w}\) 指向的那一半空间为正空间, 另一半为负空间

感知机只有输出层神经元进行激活函数处理,即只有一层功能神经元,其学习能力非常有限,只能解决线性可分问题。

若要解决非线性可分问题(比如异或),需要用到多层功能神经元。

下图的是更常见的神经网络,上下层神经元全互联,神经元之间不存在同层连接,也没有跨层连接,通常被称为多层前馈神经网络。

image-20211025225055318

输入层仅接收外界输入,不进行函数处理,隐层和输入层包含功能性神经元,对信号进行加工。因此图5.6(a)是两层神经网络,为了避免歧义可称为单隐层神经网络。神经网络的学习过程就是调整神经元之间的连接权重以及每个功能神经元的阈值。

image-20211025233744416

感知机学习策略

随机初始化 \(\boldsymbol{w}, b\) ,将全体训练样本代入模型找出误分类样本,假设此时误分类样本集合为 \(M \subseteq T\) ,对任意一个误分类样本 \((\boldsymbol{x}, y) \in M\) 来说,当 \(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}- \theta \geqslant 0\) 时,模型输出值为 \(\hat{y}=1\) ,样本真实标记为 y = 0 ,反之,当 \(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}-\theta<0\) 时,模型输出值为 \(\hat{y}=0\) ,样本真实标记为 y = 1 。综合两种情形可知,以下公式恒成立:

\[(\hat{y}-y)\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}-\theta\right) \geq 0 \]

所以,给定数据集 \(T\) ,其损失函数可以定义为:

\[L(\boldsymbol{w}, \theta)=\sum_{\boldsymbol{x} \in M}(\hat{y}-y)\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}-\theta\right) \]

显然,此损失函数是非负的。如果没有误分类点,损失函数值是 0 。而且,误分类点越少,误分类点离超平面越近,损失函数值就越小。

误差逆传播算法

也称 BP 算法
未完待续

标签:10,函数,boldsymbol,Datawhale,感知机,超平面,吃瓜,theta,神经元
来源: https://www.cnblogs.com/ryukirin/p/15473679.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有