ICode9

精准搜索请尝试: 精确搜索
  • 67自注意力和位置编码2022-08-17 23:02:21

    点击查看代码 import math import torch from torch import nn from d2l import torch as d2l # 自注意力 num_hiddens, num_heads = 100, 5 attention = d2l.MultiHeadAttention(num_hiddens, num_hiddens, num_hiddens, num_hiddens, num

  • 【动手学深度学习pytorch】学习笔记 9.3. 深度循环神经网络2022-06-12 11:35:28

    9.3. 深度循环神经网络 — 动手学深度学习 2.0.0-beta0 documentation (d2l.ai)   rnn.LSTM(num_hiddens, num_layers)  通过num_layers的值来设定隐藏层数 解释了前面的问题:【动手学深度学习pytorch】学习笔记 8.6. 循环神经网络的简洁实现 - HBU_DAVID - 博客园 (cnblogs.com

  • 打开jupyter notebook的pytorch环境2022-05-08 15:34:43

    1、激活conda下配置的d2l环境 的环境 2、在此环境下打开jupyter notebook的代码文件    然后在这个目录下输入 jupyter notebook,跳转到网页        然后换d2l的环境  

  • Anaconda的安装及配置2022-05-05 18:04:32

    安装 我们需要配置一个环境来运行 Python、Jupyter Notebook、相关库以及运行本书所需的代码,以快速入门并获得动手学习经验。 安装 Miniconda 最简单的方法就是安装依赖Python 3.x的Miniconda。 如果已安装conda,则可以跳过以下步骤。访问Miniconda网站,根据Python3.x版本确定适合你

  • 安装 D2l 报错 全网最新解决方式2022-04-14 02:02:57

    报错\moments       copying pandas\tests\window\moments\test_moments_rolling_apply.py -> build\lib.win-amd64-cpython-310\pandas\tests\window\moments       copying pandas\tests\window\moments\test_moments_rolling_functions.py -> build\lib

  • 深度学习笔记020 LeNet2022-02-07 23:31:08

    LeNet卷积神经网络 所谓卷积Net,就是将空间信息不停地压缩,压缩,在压缩,最后将特征变得很小很小,通道数变得越来越多,最后甚至特征会变成1,通道数会变成上千,最后做全连接输出,这便是卷积神经网络的内核。 feature map:输出 LeNet:    输入是一个32x32的图,第一层卷积,大概是用的3x3的核,所

  • 权重衰退实验(李沐动手学)2022-02-04 17:30:20

    import torch from torch import nn from d2l import torch as d2l import matplotlib.pyplot as plt n_train, n_test, num_inputs, batch_size = 20, 100, 200, 5 true_w, true_b = torch.ones((num_inputs, 1)) * 0.01, 0.05 train_data = d2l.synthetic_data(true_w, tru

  • softmax简洁实现2022-02-02 15:30:54

    softmax简洁实现 代码部分小结 代码部分 import tensorflow as tf from d2l import tensorflow as d2l batch_size = 256 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)` net = tf.keras.models.Sequential() net.add(tf.keras.layers.Flatten(i

  • AlexNet pytorch代码实现2022-02-01 19:00:18

    import torch from torch import nn from d2l import torch as d2l net=nn.Sequential( nn.Conv2d(1,96,kernel_size=11,stride=4,padding=1),nn.ReLU(), nn.MaxPool2d(kernel_size=3,stride=2), nn.Conv2d(96,128*2,kernel_size=5,padding=2),nn.ReLU(),

  • Windows+pytorch【配置与试运行】2022-02-01 10:59:29

    1. 查看电脑是否配置有nvidia的GPU 【运行】-->输入命令“dxdiag”查看显示驱动即可 2. 进入nvidia的官网查找与显卡匹配的驱动以及CUDA并安装官方 GeForce 驱动程序 | NVIDIA下载最新版官方 Geforce 驱动程序,提升 PC 游戏体验和应用程序速度。https://www.nvidia.cn/geforce/dr

  • d2l 安装,提示 "error:Microsoft Visual C++ 14.0 or greater is required.Get it with "Microsoft C2022-01-27 11:31:11

    问题描述: 学习李沐的”动手学深度学习V2“,安装d2l的时候提示 error:Microsoft Visual C++ 14.0 or greater is required.Get it with "Microsoft C++ Build Tools"   下面给出几种解决方案 解决方案1: 1.1 启动 Visual Studio Installer     1.2 选择相关的插件     1.3

  • 【深度学习pytorch】多层感知机2022-01-24 10:33:03

    使用Fashion-mnist数据集,一个隐藏层:                                  多层感知机从零实现 import torch from torch import nn from d2l import torch as d2l batch_size = 256 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size) input_nu

  • 多层感知机fashion mnist2022-01-07 23:05:18

    import torch from matplotlib import pyplot as plt from torch import nn from d2l import torch as d2l net=nn.Sequential(nn.Flatten(),nn.Linear(784,256),nn.ReLU(), nn.Linear(256,10)) def init_weights(m): if type(m)==nn.Linear:

  • 《动手学深度学习》linux下环境安装(Ubuntu20.04)2021-12-21 14:02:05

    链接:官方文档 安装 Miniconda 最简单的方法就是安装依赖Python 3.x的Miniconda。 如果已安装conda,则可以跳过以下步骤。 如果你使用Linux,假设你的Python版本是3.8(我们的测试版本),你将下载名称包含字符串“Linux”的bash脚本,并执行以下操作: # 文件名可能会更改 sh Miniconda3-p

  • 实用机器学习2021-11-29 20:02:29

    1.1 课程介绍【斯坦福21秋季:实用机器学习中文版】 https://c.d2l.ai/stanford-cs329p/syllabus.html#data-i https://c.d2l.ai/stanford-cs329p/_static/pdfs/cs329p_slides_1_2.pdf https://c.d2l.ai/stanford-cs329p/_static/pdfs/cs329p_slides_1_3.pdf Manufacturing 制造业,传

  • 《动手学深度学习PyTorch》中的d2l找不到怎么办?2021-10-04 11:03:18

    在安装深度学习框架之前,请先检查你的计算机上是否有可用的 GPU(在笔记本电脑上为显示器提供输出的GPU不算)。如果要在 GPU 机器上安装,请继续在 GPU 支持 获取有关安装GPU支持版本的说明。 或者,你可以按照如下方法安装CPU版本。这将足够帮助你完成前几章,但你需要在运行更大模型之

  • 安装动手学深度学习需要的环境2021-10-03 12:33:49

    安装d2l需要的环境 Anaconda 去anaconda的官网下载即可。 在Win的话可以很方便的使用其可视化界面:anaconda-navigator Anaconda | Individual Edition 下载pytorch 最好是一步到位的直接装GPU版本。 地址在这里:Start Locally | PyTorch 在此之前,先根据自己的GPU和驱动版本安装CUD

  • 动手学深度学习安装环节2021-09-28 23:03:28

    以下均在linux中执行,建议学习的同学都选择ununtu18.0以上版本OS。 1.minicanda的安装: wget https://repo.anaconda.com/miniconda/Miniconda3-py38_4.10.3-Linux-x86_64.sh 下载下来的是sh文件;       2.bash命令运行sh文件,进入安装命令行: bash Miniconda3-py38_4.10.3-Linu

  • 关于李沐动手学深度学习(d2l)pytorch环境本地2021-09-22 19:34:43

    本地安装d2l  由于之前试了很多次d2l课本的安装方法失败了,这里提供一种我可以成功安装d2l包的方法。 pytorch安装 首先安装cuda、cudann、pytroch(gpu版本)。可以参考这篇文章。 神经网络学习小记录48——windows下的torch=1.2.0环境配置_Bubbliiiing的学习小课堂-CSDN博客_神经

  • 动手学深度学习 | 安装 | 012021-09-16 22:05:56

    ssh rowrycho@ip_address # ssh连接服务器 sudo apt update # 更新一下 sudo apt install build-essential # 安装基础C/Cpp编译环境 wget miniconda安装包链接 bash xxx.sh # 安装miniconda的环境 # 创建一个虚拟环境 conda create -n -y d2l-zh python=3.8 pip conda activat

  • ML&DL_3——多层感知机2021-09-12 22:02:35

    1 感知机 1.1 感知机模型 给 定 输 入 x , 权 重

  • 3.多层感知机的简洁实现-代码详解2021-09-03 22:00:25

    这里写自定义目录标题 代码2. 结果3. 模块备注3.1 nn.Flatten()3.2 nn.Linear()3.3 nn.ReLU()3.4 nn.init.normal_() 代码 import torch # 导入 torch 模块 from torch import nn # 导入nn模块,很重要 from d2l import torch as d2l # 为了后续画图,报错请运行此代码(!p

  • vscode+remote ssh搭建《dive into deep learning》所需环境2021-09-03 20:34:39

    vscode+remote ssh搭建《dive into deep learning》所需环境 1.vscode+remote ssh安装 2.remote ssh连接服务器 3.服务器环境搭建 #大致思路:首先服务器中的容器与其内部的jupyter notebook先形成端口映射,之后容器与本地之间的端口进行映射,使得本地的浏览器可以对服务器上的.ipynb

  • 权重衰退2021-08-15 03:31:07

    导致过拟合,影响模型泛化的因素: 可调整参数的数量,当可调整参数的数量(自由度)很大时,模型往往容易过拟合。 参数采用的值,当权重的取值范围较大时,模型可能更容易过拟合。 训练样本的数量。即使模型很简单避免了上面条件1的可能性,但是在训练样本极少的情况下也很容易造成过拟合现象。而

  • 【李沐】动手学深度学习-pytorch 2021版 softmax回归的简洁实现2021-07-30 21:33:17

    一、 导入 1 import torch 2 from torch import nn 3 from d2l import torch as d2l 4 5 batch_size = 256 6 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)   二、初始化参数 # PyTorch不会隐式地调整输入的形状。因此, # 我们在线性层前定义了展平层(fla

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有