ICode9

精准搜索请尝试: 精确搜索
  • 神经网络——浅浅的做个笔记2022-09-10 20:31:59

    有四个激活函数 import matplotlib.pyplot as plt import numpy as np x = np.linspace(-10,10) y_sigmoid = 1/(1+np.exp(-x)) y_tanh = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x)) fig = plt.figure() #plot sigmoid ax = fig.add_subplot(221) ax.plot(x,y_sigmoid) a

  • 机器学习---神经网络(Neural Network)2022-07-12 00:09:12

    1. 神经网络的基本概念 神经网络的分层:神经网络由输入层、隐藏层、输出层组成。 神经元之间的连接:层与层之间有神经元连接、而层内之间没有神经元连接。连接的神经元都有对应的权重。 输入层:负责接收输入的数据。 输出层:从这层获取神经网络输出数据。 隐藏层:输入层与输出层之间的

  • 神经网络与深度学习(邱锡鹏)编程练习4 FNN 正向传播 numpy2022-06-05 12:00:23

    NN模型:   ref:【人工智能导论:模型与算法】MOOC 8.3 误差后向传播(BP) 例题 【第三版】 - HBU_DAVID - 博客园 (cnblogs.com)   实验目标: 理解正向传播过程,熟悉numpy编程。 初始值: w1, w2, w3, w4, w5, w6, w7, w8 = 0.2, -0.4, 0.5, 0.6, 0.1, -0.5, -0.3, 0.8 x1, x2 = 0.5, 0

  • 数据分析:神经网络2022-05-19 20:33:46

    理解神经网络的本质 一、前言 最近深度学习是一个比较热门的词,各行各业都声称自己使用了深度学习技术。现在“深度学习”这个词,就像印在球鞋上的“Fashion”、“Sport”。那深度学习到底是什么呢? 深度学习是机器学习的一个分支,当我们使用了“深度神经网络”算法进行机器学习时,我们

  • NLP学习笔记-逻辑回归2022-05-10 13:00:52

      逻辑回归(Logistic Regression)仍然属于线性分类,是一种分类算法,用于解决二分类问题,估计某种事物的可能性,比如判定一封邮件是否为垃圾邮件;判定用户点击某广告的可能性;判定病人患某种疾病的可能性。由于是线性模型,预测时计算简单、预测速度非常快,当数据规模巨大时,相比SVM神经网络

  • 【吴恩达深度学习】L1W1 学习笔记2022-05-07 21:36:27

    1.2 什么是神经网络 卷积神经网络(CNN)——图像 循环神经网络(RNN),全称是长短期记忆网络(LSTM)——自然语言处理(NLP) ReLU 函数 线性整流函数(Linear rectification function),又称修正线性单元,是一种人工神经网络中常用的激活函数(activation function),通常指代以斜坡函数及其变种为代表的

  • 李宏毅机器学习2022年学习笔记(一)2022-04-30 20:01:30

    Introduction 1. 概念        机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。        它的输入可以是一段声音信号/图片/物体之间的位置关系,数据类型例如:Vector、Matrix、Sequence等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结

  • TF04——描述卷积计算层2022-03-20 14:34:44

    TF04——描述卷积计算层 tf.keras.layers.Conv2D( filters=卷积核个数, kernel_size=卷积核尺寸,#正方形写核长整数,或(核高h,核宽w) strides=滑动步长,#横纵向相同写步长整数,或(纵向步长h,横向步长w),默认1 padding="same"or"valid",#使用全零填充是"same",不使用是"v

  • Pytorch nn.BCEWithLogitsLoss() 的简单理解与用法2022-03-06 10:32:21

    这个东西,本质上和nn.BCELoss()没有区别,只是在BCELoss上加了个logits函数(也就是sigmoid函数),例子如下: import torch import torch.nn as nn label = torch.Tensor([1, 1, 0]) pred = torch.Tensor([3, 2, 1]) pred_sig = torch.sigmoid(pred) loss = nn.BCELoss() print(loss(pr

  • 人工智能面试总结-激活函数2022-03-02 13:00:26

    目录 说说激活函数作用? 说说激活函数为什么需要非线性函数? 说说你知道的激活函数以及各自特点、适用场景? 说说ReLU6? 说说ELU指数线性单元特点? 说说Sigmoid的缺点,以及如何解决? 说说ReLU在零点可导吗,如何进行反向传播? Sigmoid求导推导一下? Softmax求导推导一下? 说说Softmax

  • 菜菜的深度学习笔记 | 基于Python的理论与实现(二)2022-02-22 22:58:53

    系列索引:菜菜的深度学习笔记 | 基于Python的理论与实现 文章目录 一、激活函数(1)阶跃函数的实现(2)sigmoid函数的实现(3)阶跃函数和sigmoid函数对比(4)非线性函数(5)ReLU函数 二、多维数组的运算(1)矩阵的乘积(2)神经网络的内积 一、激活函数 阶跃函数:以阈值为界,一旦超过阈值就切

  • 刘二大人《Pytorch深度学习与实践》08加载数据集课后作业——titanic生存预测2022-02-09 18:03:42

    具体代码如下,文件路径需要换成自己的 import numpy as np import torch from torch.utils.data import Dataset import pandas as pd from torch.utils.data import DataLoader # 数据准备 # 1、定义自己的数据集类 class My_dataset(Dataset): # 定义自己的数据集类,其继承于

  • 了解深度学习(一)2022-01-30 22:02:37

    一、logistic回归          已知输入x,参数w和b,预测出y帽的值,以此来表示预测事件的概率。其中sigmoid函数为激活函数。 损失函数是在单个训练样本中定义的用以衡量算法的运行情况,用来表示预测值y帽与y实际值有多接近的函数,而成本函数是衡量算法在全体训练样本上的表现,一

  • Pytorch入门2022-01-30 15:58:33

    目录 环境配置 查看cuda是否安装完成 sigmod与relu函数 环境配置 查看cuda是否安装完成 查看在该目录下是否存在该文件。 在cmd命令行输入nvcc- V可以查看你的cuda版本。 查看Pytorch版本以及GPU是否可用   import torch print(torch.__version__) print('gpu:',torch.cu

  • Sigmoid函数以及逻辑回归的由来2022-01-30 13:29:59

           线性回归时统计学经典算法,它能够拟合出一条直线来描述变量之间的线性关系。但在实际中,变量之 间的关系通常都不是一条直线,而是呈现出某种曲线关系。在统计学的历史中,为了让统计学模型能够更好地拟合曲线,统计学家们在线性回归的方程两边引入了联系函数(link function),对

  • MMDetection源码解析:Focal loss2022-01-29 16:00:29

    Focal loss在文件.\mmdet\models\losses\focal_loss.py实现,代码如下: import torch import torch.nn as nn import torch.nn.functional as F from mmcv.ops import sigmoid_focal_loss as _sigmoid_focal_loss from ..builder import LOSSES from .utils import weight_reduce_

  • 《深度学习入门:基于Python的理论与实现》读书笔记:第3章 神经网络2022-01-26 16:04:20

    目录 第3章 神经网络 3.1 从感知机到神经网络 3.1.1 神经网络的例子 3.1.2 复习感知机 3.1.3 激活函数登场 3.2 激活函数 3.2.1 sigmoid函数 3.2.2 阶跃函数的实现 3.2.4 sigmoid函数的实现 3.2.5 sigmoid函数和阶跃函数的比较 3.2.6 非线性函数 3.2.7 ReLU函数  3.3 多维数组

  • 第四讲 Pytorch理解激活函数2022-01-23 10:02:13

    第四讲 Pytorch理解激活函数 一 本节课程介绍 1.1 知识点 1、神经网络激活函数的基本介绍; 2、pytorch实现Relu激活函数; 3、pytorch实现Tanh激活函数; 4、pytorch实现Sigmoid激活函数; 二 课程内容 2.1 激活函数基本介绍 神经网络是通过算法模拟生物的神经传递实现的算法。在生

  • 代码阅读的小技巧2022-01-22 16:01:02

    查看模型每一层的输出情况 以基础的LeNet为例 import torch from torch import nn class Reshape(torch.nn.Module): def forward(self, x): return x.view(-1, 1, 28, 28) net = torch.nn.Sequential( Reshape(), nn.Conv2d(1, 6, kernel_size=5, padding

  • 吴恩达 深度学习 2021版 作业2022-01-18 17:34:32

    练习 神经网络与深度学习神经网络基础Numpy基础1-使用numpy构建基本函数 神经网络与深度学习 神经网络基础 Numpy基础 学习目标: 使用numpy,包括函数调用及向量矩阵运算广播向量化代码 1-使用numpy构建基本函数 1.1- sigmoid function和np.exp() 在使用np.exp()之前,你将使

  • [杂记]激活函数SiLU和Swish的区别2022-01-14 15:58:00

    从代码和公式来看,Swish包含了SiLU,换句话说SiLU是Swish的一种特例。 S i L U ( x

  • 计算机视觉面试宝典--深度学习机器学习基础篇(三)2022-01-12 09:31:00

    计算机视觉面试宝典–深度学习机器学习基础篇(三) 本篇主要包含数据类问题、正则化、激活函数与梯度以及回归等相关面试经验。 数据类问题 1.样本不平衡的处理方法 ①欠采样 - 随机删除观测数量足够多的类,使得两个类别间的相对比例是显著的。虽然这种方法使用起来非常简单,但很

  • sigmoid/ReLu2022-01-09 11:03:07

  • -人工神经元\激活函数2021-12-31 02:34:00

    #--------------------------------|--------------------------------------------------------------------------#-为什么要激活函数: -线性变换无法扩展特征空间,得到的特征空间有限,线性的层只能学习到输入(输入空间)的线性变换(仿射变换)。 -非线性的激活函数能将输入空间映射

  • Numpy基础2021-12-29 13:02:29

    Numpy基础 s =1/(1+math.exp(-x)) #不能用作向量 import numpy as np # numpy可以用作向量 # example of np.exp x = np.array([1, 2, 3]) print(np.exp(x)) # result is (exp(1), exp(2), exp(3)) 实现一个sigmod import numpy as np # this means you can access numpy funct

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有