ICode9

精准搜索请尝试: 精确搜索
  • TVMC python:一种TVM的高级API2022-07-17 19:13:29

    Step 0: Imports from tvm.driver import tvmc Step 1: Load a model 下载模型: wget https://github.com/onnx/models/raw/b9a54e89508f101a1611cd64f4ef56b9cb62c7cf/vision/classification/resnet/model/resnet50-v2-7.onnx mv resnet50-v2-7.onnx my_model.onnx 模型导入T

  • XGBoost算法原理2022-06-14 20:03:02

    XGBoost算法   文章转载自microstrong的深入理解XGBoost 1. XGBoost简介 XGBoost的全称是eXtreme Gradient Boosting,它是经过优化的分布式梯度提升库,旨在高效、灵活且可移植。XGBoost是大规模并行boosting tree的工具,它是目前最快最好的开源 boosting tree工具包,比常见的工具包

  • 一次XGBoost性能优化-超线程影响运算速度2022-05-29 16:01:21

    一、问题背景 一个朋友在使用 XGBoost 框架进行机器学习编码,他们的一个demo, 在笔记本的虚拟机(4核)运行的时候,只要8s, 但是在一个64核128G 的物理机上面的虚拟机去跑的时候,发现时间需要更长。 笔记本执行: 二、问题定位和解决 首先看到负载是比较高的,内存占用比较少。因为是

  • Gradient Boosting Machine2022-05-27 23:04:10

    GBM(Gradient Boosting Machine)算法是Boosting(提升)算法的一种。主要思想是,串行地生成多个弱学习器,每个弱学习器的目标是拟合先前累加模型的损失函数的负梯度, 使加上该弱学习器后的累积模型损失往负梯度的方向减少。 且它用不同的权重将基学习器进行线性组合,使表现优秀的学习器得

  • XGBoost -  算法理论以及实例2022-04-02 18:01:22

    XGBoost是一种基于Boost算法的机器学习方法,全称EXtreme Gradient Boosting。 XGBoost在GBDT的基础上,引入了: CART回归树 正则项 泰勒公式二阶导数 Blocks数据结构(用于加速运算) 从而实现了比GBDT更好的实现效果。 一. 理论 关于XGBoost的理论在官网上介绍地很清楚,可以参考: https:/

  • 机器学习实战 | XGBoost建模应用详解2022-03-21 23:34:42

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/41 本文地址:http://www.showmeai.tech/article-detail/204 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 引言 XGBoost是eXtreme Gradient Boosting的缩写称呼,它是一个非常强大的

  • XGBOOST算法之一特征分析2022-03-20 16:30:26

    仅仅记录一下简单的特征分析法: 数据集仍是:Pima印第安人糖尿病数据集 主要是:数据分布、散点图、相关性矩阵分析等 代码如下: from operator import index from numpy import loadtxt from numpy import sort from matplotlib import pyplot import numpy as np import pandas a

  • XGBoost2022-02-24 12:05:10

                   

  • XGBoost算法2022-02-14 16:48:49

    文章转载自microstrong的深入理解XGBoost 1. XGBoost简介 XGBoost的全称是eXtreme Gradient Boosting,它是经过优化的分布式梯度提升库,旨在高效、灵活且可移植。XGBoost是大规模并行boosting tree的工具,它是目前最快最好的开源 boosting tree工具包,比常见的工具包快10倍以上。在数

  • 基于大数据的模型预测用户是否会进行交易 文档+答辩PPT+Python源码及数据2022-02-11 09:02:31

    摘要 关键词: PCA 降维 特征相关性分析 欠采样、过采样全连接神经网络 XGBoost LightGBM 在本课程设计中,我们采用了特征关联分析进行特征提取,通过数据过采样、欠采样方法解决了样本分布比例不平衡的问题,通过对比全连接神经网络、XGBoost、LightGBM 等机器学习模型挑选出了效果

  • 论文解读:《XGB4mcPred:基于极值梯度增强算法和DNA序列信息的多物种DNA n4 -甲基胞嘧啶位点识别》2022-02-10 23:35:27

    期刊名:《Algorithms》 JCR分区:Q2 代码地址:https://github.com/lyn-007/XGB4mcPred 文章地址:https://www.mdpi.com/1999-4893/14/10/283 论文发布日期:2021年9月29日 一、摘要 背景:DNA n4 -甲基胞嘧啶(4mC)在生物学功能中发挥着重要作用,是一种特殊的表观遗传机制。 方法:首先,我们

  • xgboost的参数设定2022-02-06 14:07:05

    先列出Xgboost中可指定的参数,参数的详细说明如下 总共有3类参数:通用参数/general parameters, 集成(增强)参数/booster parameters 和 任务参数/task parameters 通用参数/General Parameters booster [default=gbtree] gbtree 和 gblinear silent [default=0] 0表示输出

  • 【机器学习】xgboost入门与实战2022-02-05 11:02:01

    一、参考资料 深入理解XGBoost - 知乎xgboost入门与实战(原理篇)_hczheng的专栏-CSDN博客_xgboost XGBoost Documentation — xgboost 1.5.2 documentation 

  • xgboost学习笔记2022-02-02 22:30:31

    基础知识 一、决策树 1. 决策树的定义  分类决策树模型是一种描述对实例进行分类的树形结构,决策树由结点(node)和有向边(directed edge)组成。结点有两种类型:内部结点(internal node)和叶结点(leaf node)。内部结点表示一个特征或属性,叶结点表示一个类。 2.决策树是怎么工作的  

  • xgboost的predict接口输出问题以及相关参数的探究(evals、evals_result、verbose_eval、pred_leaf、pred_contribs)、利用gbdt进行特征组合2022-01-30 11:01:04

    一、一直对xgboost的输出有些疑惑,这里记录一下 1.xgboost的predict接口输出问题(参数pred_leaf、pred_contribs) 2.训练过程中输出相关参数的探究(evals、evals_result、verbose_eval) 3.多分类内部原理探究(不涉及源码) 4.利用gbdt进行特征组合问题(gbdt+lr) 二、导入验证数据,验证问

  • 『迷你教程』掌握Xgboost损失函数构建你的完美模型2022-01-27 12:34:49

    文章目录 XGBoost 和损失函数分类的 XGBoost 损失函数回归的 XGBoost 损失函数 XGBoost 是梯度提升集成算法的强大且流行的实现,配置 XGBoost 模型的一个重要方面是选择在模型训练期间最小化的损失函数。 该损失函数必须匹配预测建模问题类型,以同样的方式,我们必须选择根据

  • Xgboost回归四种调参方法及Python简单实现2022-01-25 09:04:14

    前言 Xgboost对特征工程和数据处理比较友好,相比之下调参成为用好Xgboost重要的一环,本文分别从参数、调参方法、Python实现的维度进行梳理,作为调参思路的记录。 本文将关注以下几个问题: 1.Xgboost哪些参数需要调参? 2.通用的调参方法有哪些 ?  如何实现? Xgboost哪些参数需要

  • 集成学习相关面试知识点2022-01-15 10:33:18

    集成学习 该内容由个人整理和归纳,如有不同见解,还望指教~ 集成学习方法有哪些?bagging和boosting的区别?(京东) Boosting: AdaBoost, 提升树, GBDT, XGBoost, LightGBM Bagging: 随机森林 区别: 样本采样方式不同:Bagging 是按照一定标准进行有放回采样,每次的采样是独立的,而 Boosti

  • 集成学习3:XGBoost&LightGBM2022-01-04 05:02:01

    目录一、XGBoost1.1 XGBoost原理及构建1.2 精确贪心分裂算法1.3 基于直方图的近似算法:1.4 XGBoost代码讲解1.4.1 XGBoost的参数1.4.2 XGBoost的调参说明:1.5 XGBoost案例二、LightGBM算法2.1 LightGBM算法的改进2.2 LightGBM参数2.3 LightGBM与网格搜索结合调参 一、XGBoost XGBoo

  • 推荐算法 之 XGBoost2021-12-31 22:01:30

            XGBoost与gbdt比较大的不同就是目标函数的定义,但这俩在策略上是类似的,都是聚焦残差,GBDT旨在通过不断加入新的树最快速度降低残差,而XGBoost则可以人为定义损失函数(可以是最小平方差、logistic loss function、hinge loss function或者人为定义的loss function),只需

  • 机器学习:从决策树到xgboost2021-12-30 20:31:49

    本文参考了知乎很多大佬的文章,自己用自己的语言整理的一下,相信通过这篇文章,你会对树模型有深刻的认识 本文持续更新 前置知识: 泰勒公式 带皮亚诺余项的泰勒公式 若f(x)在 x 0

  • 机器学习常见面试题2021-12-29 11:06:06

    模型有过拟合的现象,过拟合怎么办? 降低模型复杂度 增加更多的训练数据:使用更大的数据集训练模型 数据增强 正则化:L1、L2、添加BN层 添加Dropout策略 Early Stopping 重新清洗数据:把明显异常的数据剔除 使用集成学习方法:把多个模型集成在一起,降低单个模型的过拟合风

  • XGBoost—AdaBoost算法2021-12-28 21:30:34

    1.XGBoost参考博客: (89条消息) XGBoost超详细推导,终于有人讲明白了!_abcdefg90876的博客-CSDN博客 (89条消息) xgboost公式推导_guoxinian的专栏-CSDN博客_xgboost公式 (89条消息) XGBoost——机器学习(理论+图解+安装方法+python代码)_机器学习初学者必看,关注我,一起了解机器学

  • conda mac安装xgboost2021-12-25 18:32:36

    1. 安装conda: Index of /anaconda/archive/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror 1.1 选择的是 Anaconda3-2021.11-MacOSX-x86_64.pkg ,下载完 双击安装 2. 进入 conda 环境 2.1 终端输入:source ~/.bash_profile ,切换到base环境使用conda命令2.2 退出c

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有