提起李宏毅老师,熟悉机器学习的读者朋友一定不会陌生。最典型的就是开局一言不合就“宝可梦”。李宏毅老师幽默风趣的教学风格也吸引力很多机器学习爱好者。 李宏毅老师,是宝岛台湾大学电机工程系教授,他分别于2010年和2012年获得硕士和博士学位,主要研究机器学习尤其是深度学习
李宏毅机器学习系列文章目录 人工智能是人类长远以来的一个目标,而机器学习是实现这个目标的其中一种方法,深度学习则是机器学习的一种方法。 生物学知识告诉我们,生物的行为取决于两件事,一个是后天学习的结果,另外一个就是先天的本能。 在没有机器学习之前,人们是通过赋予机器先天
文章目录 3_BERT的奇闻轶事Why does BERT work?To Learn MoreMulti-lingual BERT(多语言BERT)BERT有跨语言的功能?前提是资料量要够多才能train起来..,过了两天loss掉下去了BERT还有很多不被理解的,说明可以探究的空间很大 4_GPT的野望20分钟就可以微调作业7了,但GPT实在太过巨大
发表时间:2019 文章要点:这篇文章就和标题一样,做了很多个model based RL的benchmark。提供了11种 MBRL和4种MFRL算法以及18个环境。文章把MBRL算法分成三类: Dyna-style Algorithms Policy Search with Backpropagation through Time Shooting Algorithms 然后给出了实验结果 总
学习Deep Reinforcement Learning笔记 也不能算是初识了,大二SRP的时候看过一点,还在博客记录了一下,但是现在对DRL的了解和完全不知道其实没差多少。 所以现在系统一点看一些文章,对DRL构建一个大致的了解框架。 Background Machine Learning RL是ML的一种。 ML可以分类为三种:sup
从一篇文章开始的学习:Representation learning of RNA velocity reveals robust cell transitions 知乎上的通俗解释: 如果你想要用一种方式来说明一个人脸,你会怎么做呢? 你可能会用一段话来表示:“这个人是国字脸,眼睛很小,鼻子……”; 也可能会用一串数字表示:脸的长度、脸的宽
声明:平时看些文章做些笔记分享出来,文章中难免存在错误的地方,还望大家海涵。搜集一些资料,方便查阅学习:http://yqli.tech/page/speech.html。语音合成领域论文列表请访问http://yqli.tech/page/tts_paper.html,语音识别领域论文统计请访问http://yqli.tech/page/asr_paper.html。如
Inverting Gradients 前言一、论文解析Abstract1 Introduction2 Related Work3 Theoretical Analysis: Recovering Images from their Gradients3.1 Proposition(命题) 4 A Numerical Reconstruction Method5 Single Image Reconstruction from a Single GradientTrained vs.
What is Deep Learning? | IBM 摘要: Deep learning is a subset of machine learning, which is essentially a neural network with three or more layers. Deep learning eliminates [消除] some of data pre-processing that is typically involved with machine learning. Fo
可视化好助手 Tensorboard Tensorboard 可视化好帮手1 Tensorboard 可视化好帮手2 作者:Mamba_BingshengTian
在Matlab 上使用 Reinforcement learning 环境搭建 在Matlab中安装Deep Learning Toolbox后安装Reinforcement Learning Toolbox 什么是强化学习 强化学习的最终目标是在未知的环境中训练一个agent,这个agent接受来自环境的observation与reward并对环境输出action,其中的reward用来
联邦学习也称为协同学习,它可以在产生数据的设备上进行大规模的训练,并且这些敏感数据保留在数据的所有者那里,本地收集、本地训练。在本地训练后,中央的训练协调器通过获取分布模型的更新获得每个节点的训练贡献,但是不访问实际的敏感数据。 联邦学习本身并不能保证隐私(稍后我们将讨论
在 强化学习实战 | 表格型Q-Learning玩井字棋(一)中,我们构建了以Game() 和 Agent() 类为基础的框架,本篇我们要让agent不断对弈,维护Q表格,提升棋力。那么我们先来盘算一下这几个问题: Q1:作为陪练的一方,策略上有什么要求吗? A1:有,出棋所导致的状态要完全覆盖所有可能状态。满足此条件下,陪
论文: AutoDebias: Learning to Debias for Recommendation,2021 主要思想:加一个正则项, meta learning 方式学习超参数。 亮点,给出理论分析。 https://github.com/DongHande/AutoDebias
A Role-Selected Sharing Network for Joint Machine-Human Chatting Handoff and Service Satisfaction Analysis (Liu2021) Abstract: Chatbot is increasingly thriving in different domains, however, because of unexpected discourse complexity and training data spa
今年保研时针对面试常见的英文问题做了一些准备,这里记录一下 你的优点是什么? I am a hard working, dedicated person and have a great interest in my major. As you can see, I took part in many major-related competition and have rich project experience in my undergr
花了2天学习 meta learning代码,记录一下。 MAML学习一个好的初始化权重,从而在新任务上实现fast adaptation,即在小规模的训练样本上迅速收敛并完成fine-tune。 因此基于MAML的模型首先基于多个任务样本学习好的初始化权重。 第二阶段, 针对特定场景做 fine-tune,部分参数如embeddin
week1 week1 Table of Contents 1. week 1 1.1. intro 1.1.1. what is ML? 1.1.2. supervised learning 1.1.3. unsupervised learning 1.1.4. test 1 1.2. Linear Regression with One Variable 1.2.1. model representation 1.2.2. cost function–J(θ) 1.2.
创建Persom.srv 新建srv文件夹 在srv文件夹中创建Persom.srv,编辑文件 string name uint8 age uint8 sex uint8 unknown = 0 uint8 male = 1 uint8 female = 2 --- string result 修改package,xml add_service_files( FILES Person.srv ) generate_messages(
Intro There is no intersection between classes in training data and test data. So, to recognize the unseen classes, we should try to find out the description of the classes (semantic information). Methods 两种分类 基于嵌入的方法 基于嵌入的方法的主要目标是使用
Supervise learning self supervise learning label 不需要特别雇佣人类去标记,他可以自动产生 "Self-supervised Learning "这个词,当初Yann LeCun说过,其实并不是一个老词。根据2019年4月在Facebook上的一个帖子,他说,我现在说的这个方法,他叫Self-supervised Learning。为什么不
申明:ROS学习参考了古月居老师的Blibli视频,强烈推荐大家看视频学习,本博客仅记录自己的学习经历和心得,欢迎大家一起讨论! 1 ROS服务模型 本节,利用Service模型。通过请求和应答的方式传递用户信息,服务名称为(/show_person),数据类型为learning_service::Person,均为用户自定义 如何
前一篇是ICML 2021的,后一篇是NIPS 2021的。 Personalized Federated Learning using Hypernetworks 这篇文章很有意思的地方在于,直接使用一个hypernetwork根据用户的特征向量生成个性化的模型参数,即: \[\theta_i=h(\varphi, v_i) \]还没有精读,但是他的思想很粗暴,不像hierarchy mode
我们作这样一个假设:假设现有一个比较浅的网络(Shallow Net)已达到了饱和的准确率,这时在它后面再加上几个恒等映射层(Identity mapping,也即 y=x,输出等于输入),这样就增加了网络的深度,并且起码误差不会增加,也即更深的网络不应该带来训练集上误差的上升。而这里提到的使用恒等映射直
网上看到一篇关于这个论文的博客,居然还要花钱订阅,这就不能忍了,中国人不能欺负中国人。所以自己写博客,论文其实很好懂 论文地址 Learning Student Networks in the Wild (thecvf.com) 代码地址 GitHub - huawei-noah/Efficient-Computing: Efficient-Computing 整体流程 主要