标签:GELU gelu torch 0.5 https 激活 math 函数
论文链接:https://arxiv.org/pdf/1606.08415.pdf
(百度云链接: https://pan.baidu.com/s/1KA6IIhUcVQoS5bErGDYB5w 密码: vqu7)
在深度学习中,我们加入Relu、tanh等函数是为了实现模型的非线性,让模型可以逼近非线性模型。
但我们也想要模型具有很好的泛化能力,那么我们需要对模型进行随机正则,最常见的去拟合化就是dropout。GELU函数就是一个综合体,它实现了非线性加上泛化。
GELU表达式:
标签:GELU,gelu,torch,0.5,https,激活,math,函数 来源: https://blog.csdn.net/weixin_43429393/article/details/115840393
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。