ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

python用pystan贝叶斯IRT模型拟合Rasch模型分析学生考试问题数据

2022-06-13 20:05:34  阅读:172  来源: 互联网

标签:pystan python 模型 回答 学生 问题 参数 贝叶斯


原文链接:http://tecdat.cn/?p=26769

原文出处:拓端数据部落公众号

由于某大学学生人数过多,助教不足,因此有必要对期中考试给每个学生的题目数量施加五道题的限制。所有必须使用的问题必须来自大约 400 个预先批准的问题的测试库。 50% 的问题可以在期中使用。这项数据驱动研究的目标是找到应该从考试生成算法中排除的问题,以提供班级中最有意义的学生排名。

数据分析

动机

数据由 409,520 个观察值、12839 名学生和 391 个问题组成。这意味着最多可以从测试库中排除 195 个问题。在我开始任何数据分析之前,必须为分析准备数据。首先,我检查是否有任何学生没有正确回答或所有学生都正确回答的问题。如果所有学生都答错了一道题,说明题目太简单了。反之,如果所有学生都答对了一道题,则说明这道题太难了。无论哪种情况,这些问题都不会对中期结果造成任何差异。因此,我可以立即删除这些问题。

  1.   #检查是否有问题太容易
  2.   gros = databy(['question_id']).mean()
  3.   proect = groions[['correct']].sores(by='correct')
  4.   prot.head()

  1.   #检查是否有问题太难
  2.   prrect.tail()

从第一个表格中,我们看到没有任何问题一个学生也没回答正确。但是,通过查看第二张表,我们看到每个人都正确回答了一个问题,因此我们从数据集中删除了该问题。

daa = da.loc[dta['qu_id'] != 12665]

在考虑使用机器学习或统计方法时,我最初的想法是找到回答中差异最大的问题,并将回答中相关性高的问题分组(即,正确回答问题 A 的学生也倾向于正确回答 B 题)。我意识到这种方法行不通,因为具有高方差的问题并不一定意味着它是创建有意义的学生等级的好问题(例如,它可能是每个人都猜测的难题)。此外,我还必须考虑每个学生的能力差异。这让我想到了潜在变量建模,其中潜在变量将是每个学生的能力和每个问题的难度,这就是我如何找到 IRT 模型的。

其中 θj是学生的能力,βi是问题的难度,αi是问题区分弱学生和强学生的程度。

并非每个学生都会回答数据集中的每个问题。这使得标准回归方法变得困难,但贝叶斯方法在这种情况下仍然可以很好地工作。我使用 pystan 在数据上拟合 2 参数 Rasch 模型,然后对 αi 参数进行后验。之后,我保留 196 个具有最大平均后验 α 值的问题。这些问题最能区分理解材料的学生和不理解材料的学生。不幸的是,我无法验证我对原始数据的分析,因为我不知道真实的参数值。但是,如果我使用已知参数模拟数据并使用这种贝叶斯 rasch 模型方法恢复这些参数,那么我可以自信地在真实给定数据上使用模型得出推论。

模拟研究

对于模拟,测试库中将有 400 个问题,只有 500 名学生。学生回答的问题数量是一个随机正态变量,平均值为 100,标准差为 10。这是为了模拟在实际数据集中,每个学生回答的问题数量不同。判别参数 αj 取自均值为 0.5 且形状为 1 的对数正态分布,难度参数 βj 取自均值为 0 且标准差为 5 的正态分布,学生能力参数 θj 取自标准正态分布。结果变量(学生是否正确回答问题)是随机伯努利变量,成功概率为每个学生-问题对的 αi(θj-βi) 的逆对数。

  1.   nutions = 400
  2.   nuents = 500
  3.    
  4.   #为400个试题生成区分度和难度参数
  5.   aphas = scipy.stvs(s=1, loc=0.5, size=num_questions)
  6.   beas = scim.rvs(scale=5, size=num_questions)
  7.    
  8.   #为500名学生生成能力参数
  9.   theas = scinorm().rvs(ntudents)
  10.    
  11.   #挑选学生回答的问题;每个学生随机回答30个左右的问题
  12.   ag = 100 #回答的平均问题
  13.   sd = 10
  14.   qet = np.rint(scrm.rvs(loc=a, sce=sd, size=umdns)).asye(int)
  15.   nu_bs = np.sum(quton_c_tdent)
  16.    
  17.   stdnm = np.reat(npange(1,np.sze(qsdt)+1), quets_ac_sdnt)
  18.   qeoncumn = np.empty(numbs)
  19.   rrecumn = np.empty(nm_os)
  20.    
  21.   prenix = 0 #追踪我们正在更新的索引
  22.   for i in rage(n_ses):
  23.   nq = quunt[i] #学生i的问题数
  24.   quere = pre(nins, nq, relce=Flse) #随机选择每个学生回答的问题
  25.   s_lm[pn:pr_dex + nq] = qeed
  26.   p = siypcs[] * (hta[i] - ets[qioed]))
  27.   coom[pre_ie:rnx + nq] = cisnlrs(p)
  28.   pesn_idx = ren_idx + nq
  29.    
  30.   qsnmn = (qti_lmn + 1).ayp(int) #pystan的索引从1开始
  31.   coc_umn = cotcon.atype(int)

在我们模拟数据并正确格式化以便 pystan 可以处理它之后,我们将数据传递到我们将用于真实数据的模型中。

  1.    
  2.   int<lower=1> I; // # 问题
  3.   int<lower=1> J; // # 人数
  4.   int<lower=1> N; // # 观察值
  5.   int<lower=1, upper=I> i[N]; // n的问题
  6.    
  7.   ctor<lower=0>[I] alp; // 项目i的鉴别力
  8.   beta; // 项目i的难度
  9.    
  10.    
  11.   apa ~ lognormal(0.5,1);
  12.   bea ~ normal(0,10);
  13.   tea ~ normal(0,1);
  14.   y ~ brnollilogit(alha[ii] .* (tea[jj] - bta[ii]))。

从后验分布采样后,我检查参数的后验均值。如果模型在恢复参数方面做得很好,则参数的后验均值与实际参数值的散点图应以恒等线为中心。

  1.   sm = pystan(model_code=lrte) #pystan model
  2.    
  1.    
  2.    
  3.   #index 9是实际后验参数值出现在数据帧中的地方
  4.   #我们希望得到后验抽样的平均值
  5.   meaahas = preaha.man()[9:].asaix()
  6.   plt.figure()
  7.   plt.scatter(alha, meanphas)
  8.    
  9.    
  10.   #为beta绘制图表
  11.   lntrt = bamn()
  12.    
  13.    
  14.   plt.figure()
  15.   plt.scar(beas, men_eas)
  16.    
  17.    
  18.   #为thetas绘制图表
  19.   linSart = hets.n()
  20.   liend= thtas.max()

上面的 3 个散点图表明,虽然贝叶斯 2 参数 IRT 模型方法成功地恢复了学生的能力 θ,但它未能恢复 β 和 α 参数。对于 β 参数,当 β 介于 -5 和 5 之间时,预测 βs 的后验均值大致等于真实值。对于较大的 β 值,后验图似乎被放大了。我们最关心的参数集 α 参数的散点图似乎大致沿着恒等线下降,除了一个异常平坦的点,其中 αs 的后验均值略大于 3,而与真实值无关。虽然这种方法没有像我们希望的那样准确地推断出歧视参数,但它做得还不错。鉴于模型拟合选项的数量有限和时间限制,我们继续采用这种方法。由于实际数据集中每个问题的数据点更多,因此模型推理应该会有所改进。

模型拟合

接下来,我将贝叶斯模型应用于实际给定的数据集。首先,我检查每个学生看到了多少问题,以及每个问题有多少学生回答了问题。此外,如果一个问题没有被多次回答(< 50),那么很难推断出该问题的难度。在这些情况下,删除与这些学生和问题相关的观察可能是有意义的。

  1.   qutount = dta.grby(['quesid']).sie() #得到回答每个问题的学生的数量
  2.    
  3.    
  4.   quess_50 = quescount[quesnt < 50] #获得少于50名学生的问题的ID

在我淘汰回答少于 20 个问题的学生之前,我会检查那些回答较少问题的学生是否比那些回答较多问题的学生弱。我可以通过比较 2 个不同人群正确回答的问题比例分布来粗略检查这一点。从下面的直方图中,直方图的形状似乎相同,因此我们可以继续过滤掉回答少于 20 个问题的学生。

  1.   useont = ata.goupy(['usr_id']).size()
  2.   usr20 = use_cout[erut_cot >= 20] #获得回答20个问题或以上的学生的id

  1.   #过滤掉没有足够观察力的问题和用户
  2.   ata = da.oc[data'urid'].is(uer_r_20.ie)]
  3.   ata =datoc[~dat['qtion_i'].i(qesonles_5)]

过滤掉一些问题和学生后,我们剩下 378 个问题和 9785 个学生,总共 357,352 个观察值。接下来,我将问题的 ID 和学生的 ID 分别映射到集合,因为 pystan 需要这些标识符是从1开始的连续正整数。然后我们可以将数据传递到pystan中的模型中。

  1.   # 将问题的ID映射到1,2,...。
  2.   uni = np.uqu(daa['qustonid'])
  3.   newid1 = p.arng(1,en(niqq)+)
  4.   qdit dict((unq_q, ne_id)
  5.   dta['_id = daa.pply(lmbdaro: qict[ow.qesion_i], xs=1)
  6.    
  7.   # 将学生ID映射到1,2,...
  8.   uiqu = n.uiqe(dat['use_d'])
  9.   ne_2 = np.ange1,len(uq_)+1)
  10.   dit = dit(zp(unq_, nw_i2))
  11.   aa['uid'] = daa.pp(lama ow: uit[row.ser_], xis=)

我们现在可以将数据传递到 pystan 以检索 αj 的后验图。

  1.   # 将数据格式化后传入pystan
  2.    
  3.   # 将模型与真实数据进行拟合
  4.   ralfi = s.salng(ata=rtdata, ite=100chais=4, sampe_fil='Rel_Draws, njs4,
  5.   ctol='adpt_dela' 0.75 'max_tredeph' 15})
  1.   #得到196个具有最高歧视参数的问
  2.   alandi = (al_st)rsrt()[:196] + 1
  3.    
  4.   #反向映射以获得问题的原始ID
  5.   imp = v: kfor k,v in qict.tems(ices)
  1.   #找到问题库和问题清单之间的区别
  2.   qutino_rop= [q fo q in queston_bak ifq not in qeonep
  3.   pin(quesiono_dro)

上面显示了基于贝叶斯 2 参数 IRT 模型方法要丢弃的 195 个问题的 ID。由于这些问题在区分理解材料和不理解材料的学生方面做得最差,删除这些问题将使用测试生成算法提供最有意义的排名。

限制和未来的工作

虽然贝叶斯 2 参数 IRT 模型方法能够有效地推断学生的能力,但它几乎不能推断出问题的难度或区分值。此外,IRT 模型假设问题是可交换的,而实际上它们是连续相关的(例如,学生在回答更多问题时可能会感到疲劳)。违反这一假设可能会影响分析结果的有效性。


最受欢迎的见解

1.matlab使用贝叶斯优化的深度学习

2.matlab贝叶斯隐马尔可夫hmm模型实现

3.R语言Gibbs抽样的贝叶斯简单线性回归仿真

4.R语言中的block Gibbs吉布斯采样贝叶斯多元线性回归

5.R语言中的Stan概率编程MCMC采样的贝叶斯模型

6.R语言贝叶斯Poisson泊松-正态分布模型分析职业足球比赛进球数

7.R语言使用贝叶斯 层次模型进行空间数据分析

8.R语言随机搜索变量选择SSVS估计贝叶斯向量自回归(BVAR)模型

9.matlab贝叶斯隐马尔可夫hmm模型实现

标签:pystan,python,模型,回答,学生,问题,参数,贝叶斯
来源: https://www.cnblogs.com/tecdat/p/16372115.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有