ICode9

精准搜索请尝试: 精确搜索
  • A Recipe for Training Neural Networks-Andrej Karpathy2022-07-11 21:10:06

    https://karpathy.github.io/2019/04/25/recipe/ 训练神经网络2个坑 训练神经网络2个leaky abstraction 据说开始训练神经网络很容易。许多库和框架都觉得使用30行代码来解决数据问题很了不起,这给人一种即插即用的(错误的)印象。常见的做法是:在我们的脑子里,标准的软件就应该是

  • 卷积神经网络识别物体个数(1)2022-07-10 16:01:41

    完成人工智能实战课的要求,基于卷积神经网络构建一个自动识别盘子个数的模型 首先要对数据进行采集 1、图片的爬取 利用爬虫爬取互联网(百度图库)上有关盘子的照片 判断是否存在文件夹如果不存在则创建为文件夹 对爬取的照片进行统一命名然后存储到指定文件夹下 2、数据处理 对

  • 【Deep Learning】神经网络与深度学习2022-07-05 16:33:29

    本文为吴恩达 Deep Learning 笔记 深度学习概述 什么是神经网络: Neural Network 神经网络 Neuron 神经元 Rectified Linear Unit (ReLU) 线性整流函数 房价预测案例 用神经网络进行监督学习: Supervised Learning / Unsupervised Learning 监督学习 / 无监督学习 Structured

  • 机器学习与深度学习2022-07-05 15:04:18

    深度学习在本质上属于可统计不可推理的统计机器学习范畴。很多时候呈现出来的就是一个黑箱(Black Box)系统,其性能很好,却不知道为何而好,缺乏解释性。深度学习中的“end-to-end(端到端):输入的是原始数据(始端),然后输出的直接就是最终目标(末端),中间过程不可知。 深度学习的学习对象同样是数

  • 神经网络的反向传播公式表达(吴恩达)2022-07-04 22:36:57

      首先要明确的是反向传播的目的 神经网络训练的最终目的,是得到可观的模型参数(如ω,b等)训练参数的方式,就是通过反向传播,使用梯度下降法(一般情况下)改变模型参数。 其原理则是通过最优化损失函数(loss function),即使其导数向0靠近,公式表达为dL/dω,而损失函数L是一个复合函数,则其求导过

  • 神经网络的前向传播公式表达(吴恩达)2022-07-04 21:31:17

    符号表示 ω为神经元线性函数的参数 b为神经元线性函数的参数 z为神经元的线性函数输出 g为激活函数 a为z输入下g的输出 前向传播 据此,对于第L层神经元,可以表示为如图公式组  

  • 卷积神经网络在深度学习中新发展的5篇论文推荐2022-07-04 12:04:49

    1、Deformable CNN and Imbalance-Aware Feature Learning for Singing Technique Classification Yuya Yamamoto, Juhan Nam, Hiroko Terasawa https://arxiv.org/pdf/2206.12230 歌唱技术是利用音色、音高和声音的其他成分的时间波动来进行富有表现力的声乐表演。它们的分类是

  • 机器学习 图神经网络 名词解释2022-07-03 12:32:10

    卷积神经网络CNN-Convolutional  Neural Networks   卷积层:识别特定线条,卷积核与图像特定部分卷积,识别出横线、竖线、斜线。          卷积核在图像矩阵上进行运算,每次移动的距离称为步长。得到的新矩阵反应了图像的部分特征(横线、竖线)       称为特征图feature

  • 2022.6.27 暑假第一周博客2022-07-02 08:00:13

    2022.6.27      今天是打卡第一天,由于小学期的课程还没有结束,所以今天一整天基本上都在研究小学期内容,今天主要在写A2的程序,即完成一个学生成绩管理系统,涉及到了链表的相关知识,由于对该部分的知识3不熟悉,通过查阅和询问学长得到了一些启示,进行了部分的编写,了解到了,每个链表的节

  • 人工智能与机器学习复习笔记2022-06-30 14:01:43

    一、人工智能概况 20世纪40年代 1943年,Warren McCulloch 和 Wallter Pitts提出了神经网络层次结构模型,确立 了神经网络的计算模型理论,从而为机器学习的发展奠定了基础。 1950年,“人工智能之父”图灵提出了著名的“图灵测试”,使人工智能成为了科学 领域的一个重要研究课题。

  • 机器学习:神经网络(下)2022-06-26 08:33:15

    下面介绍一些常见的神经网络 1、其他常见神经网络 1.1RBF网络   RBF网络是一种单隐层前馈神经网络,它使用径向基函数作为隐层神经元激活函数,而输出层则是对隐层神经元输出的线性组合。径向基函数,是某种沿径向对称的标量函数,通常定义为样本到数据中心之间欧氏距离的单调函数。具有

  • ML第12周学习小结2022-06-26 08:31:16

    本周收获 总结一下本周学习内容: 1、《深入浅出Pandas》的第11章:Pandas文本处理 11.1 数据类型 11.2 字符的操作 11.3 文本高级处理

  • 机器学习:神经网络(上)2022-06-26 08:00:08

    1、 基本概念 在机器学习中,神经网络一般指的是“神经网络学习”,是机器学习与神经网络两个学科的交叉部分。所谓神经网络,目前用得最广泛的一个定义是“神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所做出的交互反应”。神

  • 卷积神经网络2022-06-21 13:02:58

    1,交叉相关,卷积 假设我们现在要做猫狗分类,如果还是用单纯的MLP(全连接)做的话,由于图片有很多的像素点,那么我们的输入就会有很多,对应就要有更多的参数。想要训练这个模型将不可实现,因为需要有大量的GPU、分布式优化训练的经验和超乎常人的耐心。但是其实不用,图像中本就拥有丰富的结构,

  • 论文阅读:针对深度学习的对抗攻击综述-2021年8月2022-06-21 11:02:07

    1、《针对深度学习的对抗攻击综述》-密码学报-2021年8月 ①通过对原始样本加入微小扰动所生成的对抗样本能够有效欺骗深度学习模型,并将生成对抗样本的方式称为对抗攻击。 ②对抗攻击能够使深度学习以高置信度的方式给出错误的输出,实现针对深度学习检测服务的逃逸攻击。 ③深度学习

  • 使用神经网络模型创建一个龙与地下城怪物生成器2022-06-16 12:01:56

    龙与地下城(DND)于1974年发行第一版,现在所有RPG游戏都有它的影子,可以说它影响了全世界的RPG,对于RPG来说,最主要的一个特点就是有着不同类型的怪物,而我们可以通过《dungeon master guide》中提供的Challenge Rating(CR)公式来创建我们自己的怪物,因为我们也是地牢大师的一员,对吧。 《龙

  • 科普 | 深度学习训练和推理有何不同?2022-06-15 15:33:25

    要理解什么是深度神经网络的“训练(training)”,我们可以把它类比成在学校中学习。神经网络和大多数人一样——为了完成一项工作,需要接受教育。 具体来说,经过训练(training)的神经网络可以将其所学应用于数字世界的任务——例如:识别图像、口语词、血液疾病,或者向某人推荐她/他接下来可

  • JSOI2019 神经网络2022-06-13 20:31:38

    Description 火星人在出生后,神经网络可以看作是一个由若干无向树 \(\{T_1(V_1, E_1), T_2(V_2, E_2),\ldots T_m(V_m, E_m)\}\) 构成的森林。随着火星人年龄的增长,神经连接的数量也不断增长。初始时,神经网络中生长的连接 \(E^\ast = \varnothing\)。神经网络根据如下规则生长: 如

  • [JSOI2019] 神经网络2022-06-13 16:01:22

    一、题目 点此看题 二、解法 有一个神奇的题意转化:我们把每一棵树划分成若干条链,因为不同的树任意两点之间都有边,所以我们把这些链任意连接就形成哈密顿回路,要求是相邻的链必须来自不同的树。 首先我们考察把树划分成 \(i\) 条链的方案数 \(f_i\),可以直接树背包,在确定一条链并且这

  • 莫凡 pytorch2022-06-11 18:02:26

    1 什么是神经网络(机器学习) 输入层、隐藏层、输出层 首先由大量得带有标签的图片进行训练,当预测出错误的结果时,由正确结果和错误结果之间的误差进行反馈,不断进行调整,以获得更好的结果 通过激活函数对不同神经元的重要性进行调整,使得网络得到想要的结果 2 神经网络:梯度下

  • 【ResNet】残差神经网络2022-06-09 16:02:53

    ResNet网络 论文:Deep Residual Learning for Image Recognition 网络中的亮点: 1 超深的网络结构(突破了1000层) 上图为简单堆叠卷积层和池化层的深层网络在训练和测试集上的表现,可以看到56层的神经网络的效果并没有20层的效果好,造成这种结果的原因可能是: 1.梯度消失或梯度爆炸 假

  • 神经网络与深度学习(邱锡鹏)编程练习5 CNN2022-06-07 13:00:37

    卷积神经网络(CNN) 问题描述: 利用卷积神经网络,实现对MNIST 数据集的分类问题。 数据集: MNIST数据集包括60000张训练图片和10000张测试图片。图片样本的数量已经足够训练一个很复杂的模型(例如 CNN的深层神经网络)。它经常被用来作为一个新 的模式识别模型的测试用例。而且它也是一

  • 深度学习入门(鱼书)学习笔记:第7章 卷积神经网络2022-06-03 00:32:03

    目录导航 第7章 卷积神经网络 7.1 整体结构 卷积神经网络(Convolutional Neural Network, CNN),新增了卷积(Convolutional)层和池化(Pooling)层。 7.2 卷积层 7.2.1 全连接层存在的问题 全连接层(Affine层)会忽视数据的形状。比如将三维图像数据拉平为一维数据。而卷积层可以保持数据形状

  • 深度学习入门(鱼书)学习笔记:第3章 神经网络2022-06-01 21:33:59

    目录导航 第3章 神经网络 3.1 从感知机到神经网络 3.2 激活函数 3.3 多维数组运算 3.4 3层神经网络的实现 3.5 输出层设计 3.6 手写数字识别 运行ch03/mnist_show.py的结果 点击查看运行输出 "D:\Program Files\Python\Python37\python.exe" D:/Code/CodePython/02_dl_from_scrat

  • 深度学习与CV教程(6) | 神经网络训练技巧 (上)2022-06-01 00:33:38

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/37 本文地址:http://www.showmeai.tech/article-detail/265 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 本系列为 斯坦福CS231n 《深度学习与计算机视觉(Deep Learning for C

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有