ICode9

精准搜索请尝试: 精确搜索
  • 【机器学习:KNN算法/K近邻算法】2022-07-15 22:04:21

    K 近邻算法 算法情况解读 KNN算法的基本思想是物以类聚,人以群分,它是一种贪心算法,可以用于做分类/回归任务。KNN算法认为,距离相近的实例(instance)总是具有类似的性质x,这意味着它们会有相似的标签y。 KNN 基于训练集划分好实例的存储范围,KNN分类的时候就直接判断新的instance所属于

  • 【论文笔记】Towards Certifying l-infinity robustness using neural networks with l-infinity-dist neurons2022-07-15 07:31:21

    原文地址 slides GitHub 代码 本文发表于 2021 ICML,提出了一个新颖的神经网络计算方式:对于网络中的每个神经元,不采用传统的线性转换+非线性激活函数的方式,而是计算输入与参数之间的 \(\ell_{\infty}\)-distance,作者将其称为 \(\ell_{\infty}\)-dist net,网络中的神经元称为 \(\ell_

  • Pytorch分布式训练2022-07-14 23:01:42

    用单机单卡训练模型的时代已经过去,单机多卡已经成为主流配置。如何最大化发挥多卡的作用呢?本文介绍Pytorch中的DistributedDataParallel方法。 1. DataParallel 其实Pytorch早就有数据并行的工具DataParallel,它是通过单进程多线程的方式实现数据并行的。 简单来说,DataParallel有

  • QLUACM暑假训练32022-07-12 22:03:10

    QLUACM暑假训练3(主站进不去进这个)密码:20220711   ABC题解:dcy DEF题解:zxd G题题解 H题题解 I题题解 J题题解 K题题解 L题题解

  • 2022-07-08 第四小组 孙翰章 学习笔记2022-07-12 19:36:09

      7月6日,我们来到这里,向着共同的目标前进。   7月7日,是来到吉软JAVA暑期特训营学习的第二天,全体学员参加了机构组织的拓展训练。   这是我第三次参加拓展训练,起初有一些抵触,因为前两次的拓展训练有部分的项目相同,第三次总会有些乏味。但是今天早上起床后,看到晴朗的天气,心情

  • 03 什么是预训练(Transformer 前奏)2022-07-12 16:37:21

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 预训练有什么用 机器学习:偏数

  • 2022-07-08 第九小组 王晓 学习笔记2022-07-11 23:05:47

                                                                                                        7.8第一天:拓展训练    来到这里的第二天,我们六十多个几乎完全陌生的人聚在一起,开始了为期一天的拓展训练 。首先在

  • A Recipe for Training Neural Networks-Andrej Karpathy2022-07-11 21:10:06

    https://karpathy.github.io/2019/04/25/recipe/ 训练神经网络2个坑 训练神经网络2个leaky abstraction 据说开始训练神经网络很容易。许多库和框架都觉得使用30行代码来解决数据问题很了不起,这给人一种即插即用的(错误的)印象。常见的做法是:在我们的脑子里,标准的软件就应该是

  • 2022-07-08 第四小组 咸峰赫 拓展训练笔记2022-07-11 20:36:01

    拓展训练心得 在第二次体验吉软的拓展训练后,我觉得有一次让我得到了能够超越自己的机会,也让我抓到了这次的机会,上次没勇气去做队长,这次攒了两年的勇气竞选了队长。让我感觉得到了自己好久没有感觉到的一种感觉,十分开心。在第一个项目击球的时候十分可惜的查了几个球输给了蓝队,可是

  • QLUACM暑假训练22022-07-09 22:35:47

    QLUACM暑假训练2 A、B、C题题解 D~F题题解:hdw G、H题题解:qhy I题题解:lhk J题题解:lhk K题题解:jc L题题解:jc  

  • risk funtion 以及 loss function2022-07-09 12:38:37

    https://zhuanlan.zhihu.com/p/330126934?ivk_sa=1024320u 这个时候还有一个概念叫风险函数(risk function)。风险函数是损失函数的期望,这是由于我们输入输出的(X,Y)遵循一个联合分布,但是这个联合分布是未知的,所以无法计算。但是我们是有历史数据的,就是我们的训练集,f(x) 关于训练

  • 7月2日训练总结2022-07-08 18:33:28

    900——1000 5道 A. Anti Light's Cell Guessing 题意大概是在一个行列确定的坐标系里,最少用几个点可以唯一确定一个点 思路就是判断行列的最小值是否为1,是1的话,最多一个点就可以确定,否则两个点即可。 注意:1*1的方格需要的点是0,故需要特判 解决代码: void solve() { int n, m; ci

  • QLUACM暑假训练 12022-07-07 22:04:08

    QLUACM暑假训练1 A题题解:zyh B题题解:zyh C题题解:yhz D题题解:yhz E题题解:wjx F题题解:wjx G、H题题解:lyf

  • 基于InsightFace的高精度人脸识别,可直接对标虹软2022-07-06 12:34:34

    一、InsightFace简介 InsightFace 是一个 2D/3D 人脸分析项目。InsightFace 的代码是在 MIT 许可下发布的。 对于 acadmic 和商业用途没有限制。 包含注释的训练数据(以及使用这些数据训练的模型)仅可用于非商业研究目的。 在此存储库中,我们提供用于深度识别的训练数据,网络设置和

  • 面试小问题-12022-07-05 20:07:09

    1. CRF : 条件随机场,一种用来标记和切分序列化数据的统计模型,主要用作语音识别和文本识别,前提是有一个已经标记了的观察序列。 2. 造成过拟合的原因有两个:第一是:训练数据不足,第二个是:训练过度导致模型非常的复杂,泛化能力差。 3. 降低过拟合的方法:正则化方法,减少参数量,增大训练数据

  • (转载)李宏毅自然语言处理——GPT3简介2022-07-02 23:06:19

    李宏毅自然语言处理——GPT3简介 本文原地址:https://blog.csdn.net/yjw123456/article/details/119705148 引言 今天来介绍下牛逼的GPT-31,它是一个拥有1750亿参数的巨大的自回归(autoregressive)语言模型。 GPT-3简介 之前最大的语言模型是Turing NLG,它由170亿参数,

  • (转载)李宏毅自然语言处理——GPT3简介2022-07-02 23:06:14

    李宏毅自然语言处理——GPT3简介 本文原地址:https://blog.csdn.net/yjw123456/article/details/119705148 引言 今天来介绍下牛逼的GPT-31,它是一个拥有1750亿参数的巨大的自回归(autoregressive)语言模型。 GPT-3简介 之前最大的语言模型是Turing NLG,它由170亿参数,

  • 2022 暑假训练/生活实录2022-07-01 15:04:24

    开始用 NOI Linux 训练。 6.29:VP Codeforces Round #803 (Div. 2),performance 2700+,状态不错。打 div1 也能这么高 performance 吗? 6.30:VP Codeforces Round #801 (Div. 2) and EPIC Institute of Technology Round,performance 2400+,前两题没想清楚+没看清楚数据范围导致出现失误

  • 人工智能与机器学习复习笔记2022-06-30 14:01:43

    一、人工智能概况 20世纪40年代 1943年,Warren McCulloch 和 Wallter Pitts提出了神经网络层次结构模型,确立 了神经网络的计算模型理论,从而为机器学习的发展奠定了基础。 1950年,“人工智能之父”图灵提出了著名的“图灵测试”,使人工智能成为了科学 领域的一个重要研究课题。

  • 目标检测-印章定位-yolov52022-06-30 09:32:07

    目标:实现图片中的印章检测定位 方法:yolov5  关于YOLO的使用可参见此文章https://zhuanlan.zhihu.com/p/497678933,本人参照此文学习的 写此文章为了记录使用中的注意事项 1、YOLO的环境搭建参加方法中的链接(建议使用GPU) 2、YOLO的代码参见方法中的代码链接 3、图片标注:   3.1、

  • 退役前训练记录2022-06-30 02:00:11

    2022暑期训练 其实不用写2022,也没有明年了 6月下旬 6.21日-6.27日,期末复习期间,做了6场ABC,AK两场div3,随便做了点div2,掉了很多分。。 6.28日,中午起床,下午写了几道kaungbin专题然后睡着了 晚上继续写了写,打了场cfdiv2,最近几个月最拉的一场,感觉很奇怪,然后交互题写错了个符号痛掉60分。

  • 保存模型参数,优化器参数2022-06-30 01:32:32

    Pytorch训练结束后保存模型参数,接着再加载这个模型参数,继续训练但是训练效果变差很多? - Cai Yichao的回答 - 知乎 https://www.zhihu.com/question/482169025/answer/2081124014 官方文档: https://pytorch.org/tutorials/beginner/basics/saveloadrun_tutorial.html

  • 小样本利器2.文本对抗+半监督 FGSM & VAT & FGM代码实现2022-06-28 21:31:09

    小样本利器2.文本对抗+半监督 FGSM & VAT & FGM代码实现 上一章我们聊了聊通过一致性正则的半监督方案,使用大量的未标注样本来提升小样本模型的泛化能力。这一章我们结合FGSM,FGM,VAT看下如何使用对抗训练,以及对抗训练结合半监督来提升模型的鲁棒性。本章我们会混着CV和NLP一起来说,V

  • 【论文笔记】(防御蒸馏)Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks2022-06-26 21:35:17

    有关蒸馏 (Distillation)的论文: (2006)Model Compression (2014)Do Deep Nets Really Need to be Deep?--- 论文笔记 (2015)Distilling the Knowledge in a Neural Network--- 论文笔记 摘要 本文提出了防御蒸馏(defensive distillation),主要思想为:使用从DNN中提取的知识来降低

  • 机器学习:神经网络(下)2022-06-26 08:33:15

    下面介绍一些常见的神经网络 1、其他常见神经网络 1.1RBF网络   RBF网络是一种单隐层前馈神经网络,它使用径向基函数作为隐层神经元激活函数,而输出层则是对隐层神经元输出的线性组合。径向基函数,是某种沿径向对称的标量函数,通常定义为样本到数据中心之间欧氏距离的单调函数。具有

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有