ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

MLP

2022-01-23 18:01:35  阅读:258  来源: 互联网

标签:函数 神经网络 MLP 激活 输入 神经元


1、神经网络:神经网络的变种目前有很多,如误差反向传播(Back Propagation,BP)神经网路、概率神经网络、卷积神经网络(Convolutional Neural Network ,CNN-适用于图像识别)、时间递归神经网络(Long short-term Memory Network ,LSTM-适用于语音识别)等。但最简单且原汁原味的神经网络则是多层感知器(Multi-Layer Perception ,MLP),只有理解经典的原版,才能更好的去理解功能更加强大的现代变种。

  1. MLP
  2. BP
  3. CNN
  4. LSTM
  5. ......

MLP(MLP神经网络不同层之间是全连接的):

神经网络的结构

  • 输入层(input)、隐藏层(hidden layers)、输出层(output)
  • 全连接(上一层的任何一个神经元与下一层的所有神经元都有连接)
  • 神经网络主要有三个基本要素:权重、偏置和激活函数
  • 权重:神经元之间的连接强度由权重表示,权重的大小表示可能性的大小

  •  

    偏置:偏置的设置是为了正确分类样本,是模型中一个重要的参数,即保证通过输入算出的输出值不能随便激活。

  •  

    激活函数:起非线性映射的作用,其可将神经元的输出幅度限制在一定范围内,一般限制在(-1~1)或(0~1)之间。最常用的激活函数是Sigmoid函数,其可将(-∞,+∞)的数映射到(0~1)的范围内。

  • 激活函数:tanh、relu、elu、linear、prelu、leaky_relu、softplus
  • tanh是Sigmoid函数的变形,tanh的均值是0,在实际应用中有比Sigmoid更好的效果;ReLU是近来比较流行的激活函数,当输入信号小于0时,输出为0;当输入信号大于0时,输出等于输入;
  • 下层单个神经元的值与上层所有输入之间的关系可通过如下方式表示,其它以此类推。
  • 前向传播推导过程
  •  

神经网络的训练和学习

 

标签:函数,神经网络,MLP,激活,输入,神经元
来源: https://www.cnblogs.com/Monster1728/p/15834742.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有