模型名称 | 基本原理 | 例子 | 优缺点 |
---|---|---|---|
协同过滤 | 根据用户的行为历史生成用户--物品共现矩阵,以共线矩阵中的每一行作为用户向量,每一列作为商品向量。利用用户相似性和物品相似性进行推荐 Ex: 基于用户的观看历史,找到和目标用户看过同样视频的用户,然后找到这些相似用户喜欢看的其他视频,推荐给目标用户 共现矩阵
| 基于用户的协同过滤(UserCF) 如果用户兴趣相似,则他们对物品的喜好也相似 通过构建用户和商品的共现矩阵,以共线矩阵中的每一行作为用户向量,计算两两用户的相似性,通过相似用户对于某产品的兴趣,来衡量目标用户对该产品的兴趣
| 优点:
缺点:
热门商品容易和大量商品相似,导致一直推荐热门商品 |
基于商品的协同过滤(ItemCF) | |||
矩阵分解 | 将协同过滤算法中的共线矩阵分解为用户矩阵和物品矩阵,用户矩阵中的每一行为用户向量,物品矩阵中的每一列为物品向量,利用用户隐向量和物品隐向量的内积得到 用户u 对于 物品i 的预估评分, 根据评分进行排序并推荐
|
| 优点:
泛化能力较强的原因:
|
逻辑回归 | 将推荐问题转化为类似CTR预估的二分类问题,将用户,物品,上下文等不同特征转换为特征向量,输入LR得到CTR,再按照预估CTR进行排序并推荐
| 特征:
训练样本:
label:
预测目标:
| 优点
缺点
辛普森悖论:在对样本集合进行分组研究时,在分组比较中占优势的一方,在汇总实验中反而是劣势的一方 |
FM | 在逻辑回归的基础上,在模型中加入二阶特征交叉部分,尝试所有的两两交叉的特征组合。为每一维特征训练得到相应特征隐向量,通过隐向量间的内积运算得到交叉特征的权重 | 优点:
缺点:
| |
FFM | 在FM模型的基础上,加入‘特征域’的概念,使得每个特征在和不同域的交叉特征时采用不同的隐向量 | 优点:
缺点:
| |
GBDT+LR | 利用GBDT“自动化”构建特征工程、将原始特征向量转换为离散型特征向量,利用LR预估CTR (GBDT和LR是独立的两步) | 特征工程 | 优点
|
LS-PLM | 首先对样本进行“分片”,在每个“分片”内部构建LR,将每个样本的各“分片”概率和LR的得分进行加权平均,得到最终预估值
先对样本进行人群划分,再逐个进行建模 | 让CTR模型对不同的用户群体,不同的使用场景更有针对性,就把样本进行分类,比如想要预估女生对于女装广告的CTR,那么就把样本先分出“女性”子类 | 优点:
缺点:
|
标签:特征,推荐,矩阵,用户,商品,算法,物品,传统,向量 来源: https://blog.csdn.net/weixin_48412526/article/details/117290680
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。