ICode9

精准搜索请尝试: 精确搜索
  • 【论文总结】A Survey of Zero-Shot Learning: Settings, Methods, and Applications2022-02-17 01:00:08

    论文地址:https://dl.acm.org/doi/abs/10.1145/3293318 一、Learning Settings 参数 Class-Inductive Instance-Inductive (CIII) Setting:训练时只使用已标记的可见类的数据集 Dtr 和可见类所对应的语义特征 Ts 集合。 Class-Transductive Instance-Inductive (CTII) Setting:

  • 李沐深度学习 4 月 10 日课程笔记2022-02-15 01:31:45

    4 月 10 日课程笔记 讲课大纲 感知机(历史模型) 感知机的模型为: \[o = \sigma(\langle w,x \rangle + b) \] \(w\) 权重 \(x\) 输入 \(b\) 偏移 \(\sigma\) 符号函数(对正数输入,输出 1,否则输出 -1) \(o\) 输出 训练感知机的算法(用 python 伪代码表示): w, b = 0, 0 while True: for x,

  • cs231n 课程学习 一2022-02-10 11:02:09

    cs231n 课程学习 一 cs231n 课程资源:Stanford University CS231n: Convolutional Neural Networks for Visual Recognition 我的 github 作业:FinCreWorld/cs231n: The assigments of cs231n (github.com) 第一章 图像分类——以KNN为例 一 简介 什么是图像分类:给定程序一

  • 数据挖掘学习笔记5-支持向量机SVM2022-02-08 23:59:50

    支持向量机主要原理是在分类器可以将两类样本分开的基础上,通过最大化两类样本之间的间隔来选取分类器。距离算法如下 对于线性有重叠的样本,可采用软间隔,即放宽y(wx+b)≥1的条件,增加一个宽限值,使一些重叠样本也能被分类器分开。 对于线性不可分问题,SVM会先将样本输入映射到一个

  • 人工智能——基本模型之支持向量机(SVM)思维导图2022-02-01 11:32:27

    目录 1 机器学习 2 SVM 2.1 线性可分分类器   2.1.1 间隔 2.1.2 基本思想  2.1.3 目标函数 2.2 性质  2.3 线性不可分分类器 2.3.1 核函数 2.3.2 软间隔分类器 1 机器学习 2 SVM 2.1 线性可分分类器   2.1.1 间隔 2.1.2 基本思想  2.1.3 目标函数

  • OpenCV56:级联分类器|Cascade Classifier2022-01-24 23:03:00

    目标 在本教程中, 将学习 Haar级联对象检测的工作原理将使用基于Haar Feature的Cascade分类器了解人脸检测和眼睛检测的基础知识将使用cv::CascadeClassifier类来检测视频流中的对象。具体地将使用以下函数: cv::CascadeClassifier::load来加载.xml分类器文件,它可以是Haar或

  • [半监督学习] Democratic Co-Learning2022-01-23 21:34:07

    提出了民主协同学习(Democratic Co-Learning), 一种新的单视图半监督技术, 可用于没有两个独立和冗余特征集的应用, 并且适用于少量标记数据. 在民主协同学习中, 使用一组不同的学习算法在标记数据集上分别训练一组分类器. 使用加权投票组合输出概念, 以预测未标记示例的标

  • 【Python数据分析】数据挖掘建模——分类与预测算法评价(含ROC曲线、F1等指标的解释)2022-01-23 17:04:23

    模型预测效果评价,通常可以用以下指标来衡量 目录 1.绝对误差和相对误差 2.平均绝对误差、均方误差、均方根误差与平均绝对百分误差 3.Kappa统计 4.混淆矩阵 5.准确度(Accuracy)、精确率(Precision)和召回率(Recall) 6.ROC曲线与AUC 7.Python分类预测模型的特点 1.绝对误差和相对误差

  • 机器学习:4.机器学习 --- 朴素贝叶斯分类器2022-01-22 15:34:03

    第1关:条件概率 1、P(AB)表示的是事件A与事件B同时发生的概率,P(A|B)表示的是事件B已经发生的条件下,事件A发生的概率。 A、对 B、错 A 2、从1,2,…,15中小明和小红两人各任取一个数字,现已知小明取到的数字是5的倍数,请问小明取到的数大于小红取到的数的概率是多少? A、7/14 B、8

  • 【MATLAB】机器学习:KNN分类器实验2022-01-21 17:34:08

    实验内容 1.选取合适的数据集,进行训练集和测试集的划分。 2.使用KNN分类器进行分类,分析参数的影响。 实验代码 clear;clc; % ******************************问题一******************************** % *******************************************************************

  • day8 AI面试刷题2022-01-20 20:34:36

    day8 AI面试刷题 1. 随机森林和GBDT的区别?2. 在训练每颗子树时,该如何决定最优的随机特征个数?3. 随机森林算法跟深度学习算法相比有哪些优势?4. 如果让你在GDBT算法和随机森林算法中选择一个来解决实际问题,你通常会做哪些考量?5. 简述AdaBoost 算法的工作原理 1. 随

  • 计算机机器视觉原理之分类器22022-01-19 20:59:13

    计算机视觉 一.对于损失函数二.正则项与超参数三.优化算法参数优化梯度下降算法梯度计算:随机梯度下降算法小批量梯度下降算法四.数据集划分K折交叉验证五.数据预处理 一.对于损失函数 损失函数: 单样本的多累支撑向量机损失: 线性分类器: 1.多类支撑向量机损失L;的最大/

  • 集成学习算法,Bagging&Stacking&Boosting2022-01-17 14:06:28

    1、什么是集成学习算法? 2、集成学习主要有哪几种框架,并简述它们的工作过程? 3、Boosting算法有哪两类,它们之间的区别是什么? 4、什么是偏差和方差? 5、为什么说Bagging可以减少弱分类器的方差,而Boosting可以减少弱分类器的偏差? 1、什么是集成学习算法? 通过训练多个弱分类器,并通过

  • 【SVM分类】基于模拟退火算法优化支持向量机实现数据分类附Matlab代码2022-01-16 22:59:49

    1 简介 将模拟退火算法应用于粮虫图像识别中支持向量机分类器参数C和g的优化,并与网格搜索法优化结果进行了对比,结果表明参数优化速度提高了3.91倍,分类器的识别率提高了5.56%.应用SAA-SVM分类器对粮仓中危害严重的9类粮虫进行了自动分类,识别率达到95.56%,证实了基于SAA-SVM的

  • RNN-人名分类器算法2022-01-16 19:02:57

    RNN人名分类器算法 1.优化处理 1.使用teacherforcing算法优化。 2.超参数调节,学习率调节,numepoch=80000,1000000。 3.rnn,lstm,gru算法对比 2.rnn,lstm,gru算法对比可视化 numepoch=80000 numepoch=1000000 3.代码段 from io import open import glob import os import string im

  • A Study of the Robustness of KNN ClassifiersTrained Using Soft Labels--论文阅读笔记2022-01-14 18:59:56

    摘要 监督学习模型最常使用清晰标签进行分类器训练。当存在重叠类时,清晰的标签无法捕获数据特征。在这项工作中,我们尝试比较使用软标签和硬标签来训练 K 最近邻分类器的学习。我们提出了一种基于数据的模糊聚类和聚类原型的模糊重新标记来生成软标签的新技术。在五个数据集上

  • (详细教程)opencv+pycharm+笔记本摄像头 做一个人脸识别2022-01-14 15:32:25

    目录 一、安装opencv-python 二、准备分类器 三、代码讲解 四、运行结果 附录: 总结 一、安装opencv-python 这里推荐使用pycharm直接安装opencv-python 打开文件——设置——python解释器——点击+号  搜索opencv-python,点击安装包,等待片刻即可安装好  检查是否安装好,新

  • 线性分类器2022-01-09 22:35:34

    1.种类 感知器 Logistic回归 Softmax回归 交叉熵和对数似然 支持向量机 Softmax回归是多分类,其他都是二分类 2.线性回归模型 \(f(x;w,b)=w^Tx +b ,y\in R\) 3.线性分类模型 \(g(f(x;w))=\begin{cases} 1 & if\ f(x;w)>0\\ 0& if\ f(x;w)<0\\ \end{cases}\) 4.二分类问题Binary Cla

  • 2021-2022 PRML 期末回忆2022-01-08 17:58:10

    10选择。10*2分 有一个贝叶斯球判断条件独立性的。5个结点的有向图。有一个减少偏差方法的,不会做(A. 减少特征 B. 增加特征 C. 增加训练集)有一个考神经网络复兴原因的(BP的提出)还有一个选择不是半监督学习三大假设之一的还有个选择哪个是监督学习的?A. PCA B. LDA C. 忘了 8大题

  • 【人工智能】非线性分类器(QDU)2022-01-06 20:31:15

    转载请务必经过我的同意 非线性分类器 支持向量机(SVM,support vector machine)boosting算法 支持向量机 简介 支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。由

  • 技术/广告 文章分类器(二)2022-01-03 14:59:15

    文章目录 前言一、优化手段1、增加训练数据2、更改分类模型3、分词时加入用户词典4、去除停用词及特殊符号 二、TFIDF + AdaBoost全部代码 三、Fasttext全部代码 总结 前言 本文基于上一篇博客技术/广告 文章分类器(一),作出了一些优化,将准确率由84.5%提升至94.4% 一、优

  • Adaboost算法的sklearn实践2022-01-02 22:00:31

    集成学习 一、理论部分 1. 集成学习 bagging 通过降低方差的方式减少预测误差 boosting 最终的预测效果是通过不断减少偏差的形式 Adaptive Boosting Gradient Boosting 变体 Xgboost LightGBM Catboost 2.Boosting思想 弱学习 把准确率不高但在50%以上(比如60%)的算法称

  • 数据挖掘领域十大经典算法之—AdaBoost算法(超详细附代码)2022-01-02 12:37:59

    相关文章: 数据挖掘领域十大经典算法之—C4.5算法(超详细附代码)数据挖掘领域十大经典算法之—K-Means算法(超详细附代码)数据挖掘领域十大经典算法之—SVM算法(超详细附代码)数据挖掘领域十大经典算法之—Apriori算法数据挖掘领域十大经典算法之—EM算法数据挖掘领域十大经典算法之—Pag

  • [论文分享] Self-Promoted Prototype Refinement for Few-Shot Class-Incremental Learning2021-12-29 15:58:47

    这篇论文是CVPR’ 2021的一篇Few-Shot增量学习(FSCIL)文章 No.contentPAPER{CVPR’ 2021} Self-Promoted Prototype Refinement for Few-Shot Class-Incremental LearningURLhttps://openaccess.thecvf.com/content/CVPR2021/papers/Zhu_Self-Promoted_Prototype_Refinement_

  • AI-机器学习-自学笔记(十一)提升算法2021-12-29 12:58:48

    提升算法是一种用来提高弱分类算法准确度的方法,这种方法先构造一个预测函数系列,然后以一定的方式将它们组合成一个预测函数。 提升算法也是一种提高任意给定学习算法准确度的方法,它是一种集成算法,主要通过对样本集的操作获得样本子集, 然后用弱分类算法在样本子集上训练生成一系

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有