ICode9

精准搜索请尝试: 精确搜索
  • 可解释机器学习(李宏毅)学习笔记2022-09-09 22:03:35

    可解释机器学习(李宏毅) 学习笔记 本文为李宏毅老师机器学习课程中的可解释章节学习总结。 可解释的需求 可解释性目的在于理解模型内部的决策逻辑。 如果我们不去分析模型的决策逻辑,那么我们无法理解模型学到了什么。甚至部分情况下模型并没有学到我们想要的决策逻辑。此处课程举

  • 李宏毅机器学习-回归2022-07-14 01:00:10

    task2 回归 找到一个Function,通过这个Function预测出一个数值,如根据股票走势预测明天的股票情况,根据宝可梦的属性预测它的CP值 2.1 线性模型: input x: featrue w: weight b: bias 2.2 损失函数(Loss Function) 损失函数的作用是衡量参数的好坏 线性模型中损失函数用真实的output

  • (转载)李宏毅自然语言处理——GPT3简介2022-07-02 23:06:19

    李宏毅自然语言处理——GPT3简介 本文原地址:https://blog.csdn.net/yjw123456/article/details/119705148 引言 今天来介绍下牛逼的GPT-31,它是一个拥有1750亿参数的巨大的自回归(autoregressive)语言模型。 GPT-3简介 之前最大的语言模型是Turing NLG,它由170亿参数,

  • (转载)李宏毅自然语言处理——GPT3简介2022-07-02 23:06:14

    李宏毅自然语言处理——GPT3简介 本文原地址:https://blog.csdn.net/yjw123456/article/details/119705148 引言 今天来介绍下牛逼的GPT-31,它是一个拥有1750亿参数的巨大的自回归(autoregressive)语言模型。 GPT-3简介 之前最大的语言模型是Turing NLG,它由170亿参数,

  • 李宏毅机器学习p3机器学习基本概念 笔记2022-06-15 00:01:17

    机器学习基本概念 任务 Regression:通过输出的是一个数值 Classification:从给出的选项中做出一个选择 Structured Learning:产生一种结构(图像、文档) 如何找到范式呢 1.Function with unknown parameters 例: Model y=b+wx1 based on domain knowledge(基于我们日常的认知) b an

  • 李宏毅机器学习2022年学习笔记合集(更新到第五篇 -- transformer)2022-05-14 00:04:53

    李宏毅机器学习2022年学习笔记(一)-- Introduction    点击查看   李宏毅机器学习2022年学习笔记(二)-- Tips for Training    点击查看   李宏毅机器学习2022年学习笔记(三)-- CNN 点击查看   李宏毅机器学习2022年学习笔记(四)-- 注意力机制    点击查看   李宏毅机器学习202

  • (更新中)李宏毅机器学习2022年学习笔记(二)2022-05-01 10:35:47

    一、 General Guide——如何达到更好的效果 1. Training data 出现的问题 训练完一次模型后,根据训练集的损失以及测试集的损失来确定网络需要进行模型改进还是优化函数改进。 整体调整方向如下图所示:    如果你觉得模型预测的结果不满意的话,第一件事情你要做的事情是,检查你的t

  • 李宏毅机器学习2022年学习笔记(一)2022-04-30 20:01:30

    Introduction 1. 概念        机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。        它的输入可以是一段声音信号/图片/物体之间的位置关系,数据类型例如:Vector、Matrix、Sequence等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结

  • 李宏毅机器学习课程-UnsupervisedLearning02242022-02-24 21:05:11

    B站 李宏毅2021春机器学习课程 P32 P33  目录 1、Word Embedding 2、Spatial Transformer Layer 1、Word Embedding       2、Spatial Transformer Layer          Interpolation:  

  • 【深度学习】BERT -- 李宏毅PPT笔记2022-02-10 11:00:09

    以下内容源自李宏毅机器学习课程                                

  • datawhale李宏毅机器学习——task07总结2022-01-23 17:00:21

    在任务01中,对机器学习的定义、结构和功能有了大致了解。 机器学习是为了让机器能够像人一样拥有智慧而设计的一种算法,这种算法最大的特点在于从一堆数据中根据设定的神经网络学习数据中隐含的知识。机器学习的执行步骤,首先,明确要解决的问题类型,是回归还是分类;然后,根据问题类

  • 李宏毅机器学习笔记——元学习Meta Learning2022-01-23 15:59:26

    元学习Meta Learning:学习如何去学习。learn to learn. 机器学习步骤总结 第一步: 第二步: 第三步: 元学习是什么 输入训练资料,通过方法,进行训练。学习这个方法。 利用以往的知识经验来指导新任务的学习,具有学会学习的能力。 hand_crafted是人设定的意思。 元学习步骤 第一步

  • 李宏毅机器学习笔记——生成式对抗网路(Generative Adversarial Network, GAN)2022-01-22 16:34:28

    概念 生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。 输出是一个分布。 z

  • 李宏毅-人工智能2017笔记1. Introduction of Machine Learning2022-01-16 22:03:04

    1. Introduction of Machine Learning 背景提要: 人工智慧是目标,机器学习是实现该目标的手段,而深度学习是机器学习中的方法之一。 hand-crafted rules(人类设定规则)已经不可取了,现在进行的是machine learning     机器学习三步骤:   step 1:定出一个function set; step 2:

  • 李宏毅《机器学习》| 深度学习Deep Learning简介2022-01-16 17:02:50

    目录 一、历史 二、步骤 Step1:神经网络(Neural network) 完全连接前馈神经网络(Fully Connected Feedforward Network) 矩阵计算(Matrix Operation) Step2:模型评估 损失示例 总体损失 Step3:选择最优函数 三、思考 隐藏层是否越多越好? 普遍性定理 一、历史 1958: Perceptron (li

  • 【人工智能导论:模型与算法】机器学习基础2021-12-28 02:04:14

                  ref:李宏毅 邱锡鹏  

  • 年终推荐:李宏毅《机器学习》40讲真香2021-12-26 09:05:17

    提起李宏毅老师,熟悉机器学习的读者朋友一定不会陌生。最典型的就是开局一言不合就“宝可梦”。李宏毅老师幽默风趣的教学风格也吸引力很多机器学习爱好者。 李宏毅老师,是宝岛台湾大学电机工程系教授,他分别于2010年和2012年获得硕士和博士学位,主要研究机器学习尤其是深度学习

  • 「李宏毅机器学习」机器学习介绍2021-12-24 09:33:17

    李宏毅机器学习系列文章目录 人工智能是人类长远以来的一个目标,而机器学习是实现这个目标的其中一种方法,深度学习则是机器学习的一种方法。 生物学知识告诉我们,生物的行为取决于两件事,一个是后天学习的结果,另外一个就是先天的本能。 在没有机器学习之前,人们是通过赋予机器先天

  • 【李宏毅2021机器学习深度学习】7-3和7-4 自监督式学习(Self-supervised Learning)2021-12-23 20:59:43

    文章目录 3_BERT的奇闻轶事Why does BERT work?To Learn MoreMulti-lingual BERT(多语言BERT)BERT有跨语言的功能?前提是资料量要够多才能train起来..,过了两天loss掉下去了BERT还有很多不被理解的,说明可以探究的空间很大 4_GPT的野望20分钟就可以微调作业7了,但GPT实在太过巨大

  • 李宏毅《机器学习》飞桨特训营(十)——循环神经网络(含作业:语句分类)2021-12-22 22:02:30

    李宏毅《机器学习》飞桨特训营(十) 一. 循环神经网络二. 词向量(Word Embedding)三. 作业:语句分类 一. 循环神经网络 视频(上)视频(下)PPT 内容总结1内容总结2 二. 词向量(Word Embedding) 在自然语言处理任务中,词向量(Word Embedding)是表示自然语言里单词的一种方法,即把每

  • 李宏毅深度学习——深度学习介绍2021-12-12 23:33:38

    Deep Learning近些年来吸引到了很多的关注,并且横跨多领域、横跨多种产品,有非常非常多的应用 深度学习的历史、步骤  1958年,一开始perception的提出引起了轰动, 有人说可以利用perception来分辨坦克和卡车,但结果是拍摄坦克卡车的日子不同,一天是雨天一天是晴天,perception只

  • 李宏毅2021春季机器学习课程笔记6:Self-attention2021-12-12 13:58:38

    文章目录 1. Sophisticated Input1.1 Input1.2 Output 2. Self-attention2.1 Process2.2 Matrix transpose2.3 Multi-head Self-attention2.4 Positional Encoding 3. Others3.1 Using3.2 Self-attention v.s. CNN3.2 Self-attention v.s. RNN3.2 Self-attention for Graph

  • 李宏毅机器学习课程笔记-042021-12-09 11:34:57

    1.Introduction     Colaboratory 是一个免费的 Jupyter 笔记本环境,不需要进行任何设置就可以使用,并且完全在云端运行。 借助 Colaboratory,可以编写和执行代码、保存和共享分析结果,以及利用强大的计算资源,所有这些都可通过浏览器免费使用。 直接输入代码会被认为是python,!开启

  • 李宏毅机器学习组队学习打卡活动day05---网络设计的技巧2021-12-06 14:02:59

    写在前面 报名了一个组队学习,这次学习网络设计的技巧,对应的是李宏毅老师深度学习视频的P5-p9。 参考视频:https://www.bilibili.com/video/av59538266 参考笔记:https://github.com/datawhalechina/leeml-notes 局部最小值和鞍点 在梯度下降的时候,优化有些时候会失败,即出现了梯度

  • 李宏毅2020深度学习022021-12-04 23:33:59

    Brief Introduction of Deep Learning Neural Network 确定参数: 一个神经元中所有的w和b记为参数θ 确定神经元的连接方式: Fully Connect Feedforward Network 用矩阵形式表示: goodness of function 使用梯度下降求解使loss最小的θ,loss为交叉熵 Backpropagation反向

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有