链接:官方文档 安装 Miniconda 最简单的方法就是安装依赖Python 3.x的Miniconda。 如果已安装conda,则可以跳过以下步骤。 如果你使用Linux,假设你的Python版本是3.8(我们的测试版本),你将下载名称包含字符串“Linux”的bash脚本,并执行以下操作: # 文件名可能会更改 sh Miniconda3-p
数据重构 心得:通过对task3的学习,我学会了如何对表格进行按行合并和按列合并生成一个新的表格,主要有concat 方法(行列均可),join(行),merge(行)和append(列),然后就是对数据进行分组计算,用的的主要方法是groupby,与数据库是类似的,之后就可以按照分组类型进行各种计算了。 2.4数据的合并 1.
2.4 数据的合并 2.4.1 将data文件夹里面的所有数据都载入,与之前的原始数据相比,观察他们的之间的关系 text_left_up = pd.read_csv("data/train-left-up.csv") text_left_down = pd.read_csv("data/train-left-down.csv") text_right_up = pd.read_csv("data/train-right-up.csv"
课程现分为三个单元,大致可以分为:数据基础操作,数据清洗与重构,建模和评估。 1 第一章:数据载入及初步观察 第一部分:我们获得一个要分析的数据,我要学会如何加载数据,查看数据,然后学习Pandas的一些基础操作,最后开始尝试探索性的数据分析。 1 第一章:数据加载 1.1载入数据 import numpy
public static void main(String[] args) { int x = 100; int y = 200; System.out.println("x+y=" + x + y); System.out.println(x + y + "=x+y"); } java中的“+”区别于c语言中的,不同写法有不同效果
机器学习:监督学习、非监督学习、强化学习 监督学习:回归、分类 监督学习: 目标是生成一个模型,能够将任何输入特征映射到标签,即预测。举一个具体的例子。 假设我们需要预测患者是否会心脏病发作,那么观察结果“心脏病发作”或“心脏病没有发作”将是我们的标签。 输入特征可能是生
#学自深度学习5.1章 在二维互相关运算中,卷积窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输入数组上滑动。当卷积窗口滑动到某一位置时,窗口中的输入子数组与核数组按元素相乘并求和,得到输出数组中相应位置的元素。图5.1中的输出数组高和宽分别为2,其中的4
学一门新技术,牢固掌握,不动手是不行的,走马观花式的学,只是皮毛,过一段时间全部忘记,虚假的努力,把时间浪费了,也没学到东西。学技术得实际动手,踩坑避难,虽然慢,但是能够真正掌握。古人的话还是非常有道理的,今后学技术还是要扎实来,不怕慢,就怕不进步,荒废。接下来要学习的技术罗列下: red
Java流学习,读取文件并按要求输出 阶段一:按由大到小的顺序输出每个字母出现的次数和概率 阶段二:由大到小输出前N个单词出现的次数和概率 阶段三:输出单词出现的次数和概率不包括“a" "the" "of" import java.io.BufferedReader; import java.io.FileReader; import java.io.IOExcep
import torch X=torch.arange(12,dtype=torch.float32).reshape((3,4)) Y=torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]]) print(X,Y,torch.cat((X,Y),dim=0),torch.cat((X,Y),dim=1),sep='\n') print(torch.arange(6),torch.arange(6).reshape(2,3),sep='
1.方法如下:package test; import java.util.*;public class Test { public static void main(String [] args) { long a=996; long b=4215; long c=47889; for(int i=0;i<1000;i++) { System.out.println(random(a,b,c,i)); } }
目录自注意力代码QA 自注意力 在介绍transformer之前,先讲一个比价重要的东西=》 self-attention。self-attention其实没有什么特殊的地方,主要就是key,value,query到底要怎么选择,自注意力机制有自己的一套选法。 CNN,RNN,self-attention都可以用来处理序列。 CNN要实现序列处理,其实
在安装深度学习框架之前,请先检查你的计算机上是否有可用的 GPU(在笔记本电脑上为显示器提供输出的GPU不算)。如果要在 GPU 机器上安装,请继续在 GPU 支持 获取有关安装GPU支持版本的说明。 或者,你可以按照如下方法安装CPU版本。这将足够帮助你完成前几章,但你需要在运行更大模型之
目录从零实现简洁实现QA 就是一个小批量的数据,如果你有4张卡,那么这个批量的数据就可以分成4份。比如有100个样本,那么每张卡拿到25个样本,然后去计算梯度,最后再把梯度加起来做更新,这个就是多GPU的训练。 从零实现 理论而言,并行计算得到的结果应该是一样的。 两次结果不一样是因为存
安装d2l需要的环境 Anaconda 去anaconda的官网下载即可。 在Win的话可以很方便的使用其可视化界面:anaconda-navigator Anaconda | Individual Edition 下载pytorch 最好是一步到位的直接装GPU版本。 地址在这里:Start Locally | PyTorch 在此之前,先根据自己的GPU和驱动版本安装CUD
以下均在linux中执行,建议学习的同学都选择ununtu18.0以上版本OS。 1.minicanda的安装: wget https://repo.anaconda.com/miniconda/Miniconda3-py38_4.10.3-Linux-x86_64.sh 下载下来的是sh文件; 2.bash命令运行sh文件,进入安装命令行: bash Miniconda3-py38_4.10.3-Linu
目录池化层代码实现QA 池化层 卷积层对于位置是非常敏感的! 这里用检测垂直边缘作为例子,有的时候卷积对位置太敏感也不是好事,比如拍照的时候手抖之类的,边缘就不会那么整齐,所以有时候我们是需要一定程度的平移不变形的。 池化操作也是使用滑动窗口来取值。 上面实际上是没有padd
建模和评估的基本流程: 读入数据集 特征工程 分割训练集和测试集
目录丢弃法代码实现QA 丢弃法 dropout可能会比之前讲的权重衰退效果更好,应用于防止模型过拟合。 像上图,不管加入多少个点,都要让图片是可以看清的。 使用有噪音的数据,就等价于一个叫做T正则。(正则就是是的权重的值不要太大,避免模型过拟合) 在数据中加入噪音,等价于一个正则。跟之前
目录模型选择过拟合和欠拟合QA 模型选择 我们其实关心的是泛化误差,并不太关心训练误差。 训练误差:模拟考试成绩。 泛化误差:真实考试成绩。 所以我们会来计算我们训练误差和泛化误差呢?一般会有两种数据集,一个叫做验证集,一个叫做测试集。 一个常犯的错误:验证集和训练集混在一起。
目录Softmax回归损失函数图片分类数据集Softmax回归从零开始实现Softmax回归简洁实现QA Softmax回归 首先简单理解softmax:就是将一个回归值转换成一个概率(也就是把一个实数,定在[0,1.]中) Softmax回归名字叫做回归,但其实是一个分类问题。(基本是个老师都会重复讲这句话) 分类和
ssh rowrycho@ip_address # ssh连接服务器 sudo apt update # 更新一下 sudo apt install build-essential # 安装基础C/Cpp编译环境 wget miniconda安装包链接 bash xxx.sh # 安装miniconda的环境 # 创建一个虚拟环境 conda create -n -y d2l-zh python=3.8 pip conda activat
文章目录 多层感知机从线性到非线性激活函数ReLU函数sigmoid函数tanh函数 模型选择、欠拟合和过拟合训练误差和泛化误差统计学习理论模型复杂性 模型选择验证集 K
文章目录 线性回归线性模型损失函数解析解小批量随机梯度下降 softmax回归网络结构softmax运算损失函数对数似然softmax及其导数信息论基础熵交叉熵 总结 线性回归 回归(regression)是指一类为一个或多个自变量与因变量之间关系建模的方法。在自然科学和社会科学领域,回归
TCPIP 和开放系统互连(OSI)模型 本节先简单介绍互联网的发展史,然后讲解 TCPIP 和开放系统互连(OSI)模型,最后会介绍一下用户态协议栈的整体框架。 计算机互联网发展史 最开始的时候计算机是单独运算的,一般有一个大型主机放在那里,然后可以多个终端连接一个主机进行操作。那时候美国