ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

R语言用主成分分析(PCA)PCR回归进行预测汽车购买信息可视化

2022-05-23 21:01:32  阅读:236  来源: 互联网

标签:用主 变量 PCR 回归 PC PCA 我们 预测


原文链接:http://tecdat.cn/?p=26672

原文出处:拓端数据部落公众号

在这个项目中,我讨论了如何使用主成分分析 (PCA) 进行简单的预测。

出于说明目的,我们将对一个数据集进行分析,该数据集包含有关在 3 个不同价格组内进行的汽车购买信息以及影响其购买决定的一组特征。

首先,我们将导入数据集并探索其结构。

  1.    
  2.    
  3.   head(caref)


众所周知,PCA 使用欧几里得距离来推导分量,因此输入变量需要是数字的。正如我们所看到的,除了“组”变量之外,所有数据都是数字格式,因此我们不必执行任何转换。

为了查看数字变量在 3 个价格组中的表现,我分别为每个数字变量生成箱线图。

  1.   ggplot(cr_e.m, aes(x = varle, y = vle, fill = Gup)) +
  2.   geom_boxplot()

通过观察上图,我们可以了解到每个价格组的消费者对所考虑的特征有不同的看法(即,给出不同的评分)。(“安全”特征的变化较小,在所有 3 个价格组中具有更高的排名/重要性)

现在为了更好地可视化这 3 个价格组集群如何在 3D 空间中出现,我使用 3 个特征变量构建了一个 3D 图,显示给定评级之间的显着差异。

  1.    
  2.   same3dpot <- with(carpef, scttro3d(Enirnmnt,Innoaon,Prtge

在上图中,我们可以看到来自每个价格组的数据点(集群)之间的明显差异。

在继续应用 PCA 之前,现在我将检查输入变量之间是否存在任何相关性。

  1.    
  2.   corrplot(oras)

可以看出,“创新”、“安全”和“声望”特征之间似乎有明显的相关性。

通常在构建模型时,我们会删除一些(不必要的)相关预测变量而不包括模型,但鉴于我们正在执行 PCA,我们不会这样做,因为应用 PCA 的想法是生成新的主成分(它们不会相互关联)并用降低的维度替换当前的预测变量集。

  1.    
  2.   pcmol <- prcomp(ca_eeued, scale. = TRUE, center = TRUE)
  3.    

通过观察 PCA 的输出,我们可以看到前两个 PC 解释了数据中 89% 的可变性。

通过包括 3 个 PC,该模型将解释 97% 的可变性,但由于 2 个 PC 可以解释大约 90% 的数据,因此我将只使用 2 个 PC。

此外,通过观察下面的碎石图和每个PC的重要性,我们也可以理解,只用两个PC是可以的。

  1.   sumacamel = summary(adel)
  2.    
  3.   plot(pc_el,type = "l")

由于我们只坚持前两个主成分,现在我检查每个预测变量对每个主成分的影响量。

下面我根据它们对每个PC 的影响按降序排列了这些特性。

  1.   #对于PC 1
  2.   longScrsPC_1 <- pcael$roto[,1]
  3.   faccore_PC_1 <- abs(odingcre_PC_1)
  4.   fa_scre_PC_1raked <- nmes(rt(fac_cos1,decreasing = T))
  5.    

pamod$roatn[fa_coC__and,1]

现在我们最终在这两个 PC 上绘制原始数据,并检查我们是否可以分别识别每个价格组的数据点。

  1.    
  2.   #PC_n2 <- qplot(x=PC1, y=PC2

我们可以看到数据点是根据它们所在的每个价格进行聚类的!

使用上述特征,现在我们将尝试根据他/她对所考虑的特征给出的评级来预测一个人会购买哪种类型的汽车!

让我们假设一个客户对每个特征给出了以下评级:

安全:9 环境:8 创新:5 声望:4

现在让我们尝试预测该客户将属于哪个价格组:

  1.   new_ser <- c(9,8,5,4)
  2.    
  3.   new_cus_group <- predict(pcmdl, newdata = car_pef_ecew_c[nrow(),]
  4.    
  5.   lt_3 <- pot_2 + ge_point(aes(x=newcus_

通过观察这个新观察值在 PC1 和 PC2 上的位置,我们可以得出结论,新客户更有可能购买价格组 B 的汽车!如果我需要做出一些不同的预测,我个人会使用这种方法,因为它非常快速且易于理解和解释。这种方法可以扩大规模以构建 PC 回归模型,尤其是当预测变量相关且需要正则化时。


最受欢迎的见解

1.R语言多元Logistic逻辑回归 应用案例

2.面板平滑转移回归(PSTR)分析案例实现

3.matlab中的偏最小二乘回归(PLSR)和主成分回归(PCR)

4.R语言泊松Poisson回归模型分析案例

5.R语言回归中的Hosmer-Lemeshow拟合优度检验

6.r语言中对LASSO回归,Ridge岭回归和Elastic Net模型实现

7.在R语言中实现Logistic逻辑回归

8.python用线性回归预测股票价格

9.R语言如何在生存分析与Cox回归中计算IDI,NRI指标

标签:用主,变量,PCR,回归,PC,PCA,我们,预测
来源: https://www.cnblogs.com/tecdat/p/16303064.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有