ICode9

精准搜索请尝试: 精确搜索
  • CTR学习笔记&代码实现2-深度ctr模型 MLP->Wide&Deep2020-04-08 09:55:04

    背景 这一篇我们从基础的深度ctr模型谈起。我很喜欢Wide&Deep的框架感觉之后很多改进都可以纳入这个框架中。Wide负责样本中出现的频繁项挖掘,Deep负责样本中未出现的特征泛化。而后续的改进要么用不同的IFC让Deep更有效的提取特征交互信息,要么是让Wide更好的记忆样本信息 Embeddin

  • 第一节 特征工程和文本提取2020-03-25 13:58:16

    机器学习数据:csv文件可用数据集: UCI:收录了360个数据集,覆盖科学、生活、经济等领域,数据量几十万 Kaggle:大数据竞赛平台,80万科学家,数据真实,数据量巨大 scikit-learn:数据量小,方便学习数据结构:特征值(+目标值)特征工程:将原始数据转换为更好地代表预测模型的潜在问题的特征的过

  • 机器学习之字典特征提取2020-03-20 17:01:14

      使用第三方库sklearn.feature_extraction: 1 #字典特征提取 2 from sklearn.feature_extraction import DictVectorizer 3 #字典特征提取 4 def dict_demo(): 5 data = [{'city':'北京','temperature':100}, {"city":'上海',"te

  • 【李宏毅深度强化学习笔记】7、Sparse Reward2020-01-29 14:44:05

    【李宏毅深度强化学习笔记】1、深度强化学习算法 策略梯度方法(Policy Gradient) https://blog.csdn.net/ACL_lihan/article/details/104020259 【李宏毅深度强化学习笔记】2、深度强化学习 Proximal Policy Optimization (PPO) 算法 https://blog.csdn.net/ACL_lihan/article/de

  • 压缩感知与稀疏模型——Convex Methods for Sparse Signal Recovery2019-12-09 23:51:02

    第三节课的内容。这节课上课到半截困了睡着了,看着大家都很积极请教认真听讲,感觉很惭愧。周末不能熬太晚。这个博客就记录一下醒着时候听到的内容。 Motivation目前的时代需要处理的数据量维度可能很高,比如1024*960分辨率的图片转化成向量维度就是100万左右。对于当代搜索引擎需要

  • 词数统计及其重要程度统计2019-09-21 09:44:21

    词数统计 import jieba from sklearn.feature_extraction.text import CountVectorizer #统计词数,英文 ''' # 构建文章【英文】 content = ['This is the first document.', 'This is the second second document.', 'And the third one.', &#

  • 磁盘告警之---神奇的魔法(Sparse file)2019-09-19 18:00:37

      一、问题来源 半夜钉钉接到告警,某台机器的磁盘使用率少于20%,于是迷糊中爬起来,咔咔咔 find / -size +1G,咔咔咔,把几个只有4-5G的日志文件echo空值了一下,然后吓蒙了,刚刚使用的还有160G,怎么把两个日志文件一清空,就只使用了25G了,是不是刚刚没清醒把数据文件删了,但是仔细仔细的看了看

  • 使用tensorflow api生成one-hot标签数据2019-06-05 22:44:03

    转自:http://www.terrylmay.com/2017/06/generate-one-hot-data/使用tensorflow api生成one-hot标签数据 在刚开始学习tensorflow的时候, 会有一个最简单的手写字符识别的程序供新手开始学习, 在tensorflow.example.tutorial.mnist中已经定义好了mnist的训练数据以及测试数据. 并且

  • Image Super-Resolution via Sparse Representation--Notes(Updating)2019-06-04 18:02:56

    Introduction to Sparse Representation稀疏表示介绍 作为信号处理中的新兴领域,稀疏表示往往和压缩感知的概念共同出现。压缩感知是为了突破Shannon采样定理中的Nyquist率被提出的一类方法,它旨在通过找到信号中的关键成分从而提升采样效率,并最终降低为了恢复信号所需的最低采样频率

  • 机器学习之scikit-learn特征工程2019-05-21 14:49:55

    一.特征工程是什么 特征工程是将原始数据转换为更好的代表预测模型的潜在问题的特征的过程,从而提高了对未知数据的预测准确性。 二.字典特征抽取 作用:对字典数据进行特征化处理 API: sklearn.feature_extraction.DictVectorizer 相关语法: dic = DictVectorizer() ###进行

  • 【论文笔记】Sparse filtering2019-05-17 13:54:21

    论文来源:NIPS2011 相比于其它的无监督学习算法,Sparse filtering并不是去学习数据的分布,它是去分析特征的分布,良好的特征分布满足一定的特性,有了这个思想,只需要优化简单的目标函数,下面介绍。Sparse filtering可以有效地学习高维输入的特征,当进行分层训练时,Sparse filtering可以运用

  • 稀疏表示2019-05-08 20:56:43

    参考资料: 1、《矩阵分析与应用》张贤达 2、博客:《在matlab和opencv中分别实现稀疏表示》 https://www.cnblogs.com/denny402/p/5016530.html 一、稀疏向量与稀疏表示 1、信号的稀疏表示:使用少量基本信号的线性组合表示一目标信号。 2、稀疏向量(sparse vector)或者稀疏矩阵(sparse

  • [Swift]LeetCode311. 稀疏矩阵相乘 $ Sparse Matrix Multiplication2019-04-14 17:40:28

    Given two sparse matrices A and B, return the result of AB. You may assume that A's column number is equal to B's row number. Example: A = [ [ 1, 0, 0], [-1, 0, 3]]B = [ [ 7, 0, 0 ], [ 0, 0, 0 ], [ 0, 0, 1 ]] | 1 0 0 | | 7 0 0 | |

  • Matrix Factorization, Algorithms, Applications, and Avaliable packages2019-04-09 21:50:45

    来源:http://www.cvchina.info/2011/09/05/matrix-factorization-jungle/美帝的有心人士收集了市面上的矩阵分解的差点儿全部算法和应用。因为源地址在某神奇物质之外。特转载过来,源地址Matrix Decompositions has a long history and generally centers around a set of known

  • PyTorch 1.0 中文文档:torch.sparse2019-02-10 11:43:53

    译者:hijkzzz 警告 这个API目前还处于试验阶段,可能在不久的将来会发生变化。 Torch支持COO(rdinate )格式的稀疏张量,这可以有效地存储和处理大多数元素为零的张量。 稀疏张量表示为一对稠密张量:一个值张量和一个二维指标张量。一个稀疏张量可以通过提供这两个张量,以及稀疏张量的

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有