(四)保证综合加权能力精度的优化选题策略
假如测验关注加权综合能力(positeAbility)的测量精度,即
λ为非负的加权系数向量,∑pk=1λk=1。
为了获得更为精确的能力线性组合的综合能力估计值,学者们提出可采用ality)(Silvey,1980;Mulder&vanderLinden,2009),即
Mulder和vanderLinden(2009)研究表明,若测验关注所有能力维度的精度,则A优化法和D优化法最佳(前者略优于后者);若测验关注部分能力维度精度,则建议采用As优化法或Ds优化法;若测验关注线性加权综合能力估计精度,则宜采用C优化法。
二、基于Kullback-Leibler信息量的选题策略
(一)MIRT中Kullback-Leibler信息量
(二)KI选题策略
但在CAT过程中被试真实能力θ0是未知,因此为了在CAT过程中可以使用KL信息量矩阵,g(1996)提出了KL指标(KLindex,KI);后来Veldkamp和vanderLinden(2002)在此基础上进一步提出了能力维度多元版KI,计算公式如下:
Δ为常数,k为当前施测项目数,R一般取值为3,qp为第p维能力的节点数,θm0=(θm101,θm202,…,θmp0p)为积分节点。KI为KL信息量矩阵的期望,也被称为全局信息量(GlobeInformation)。
(三)后验加权的KL选题策略
在KI指标基础上,Veldkamp和vanderLinden(2002)提出了后验概率加权的KI法,也称贝叶斯KL信息量,即kB。
研究证明,该方法与贝叶斯D优化方法具有相似的测量精度,但kB方法更适用于具有内容约束的测验(Mulder&vanderLinden,2010)。
(四)能力后验分布的KL距离选题策略
其中
与kB方法相比,kP在处理上与贝叶斯思想更一致,而且能力估计更稳健。
三、基于互信息的选题策略
互信息表示随机变量X,Y的联合分布f(X,Y)与边际分布乘积f(X)f(Y)的KL距离,互信息越大表示Y所提供的关于X的信息量越大。Mulder和vanderLinden(2010)提出应用于MCAT的MUI选题策略,令X=g(θ|Uj-1),Y=P(x=t|Uj-1),即选择使被试当前(测验进行到j-1题后)后验分布与待选题上预测作答分布间互信息最大的项目:
由于f(θ,x=t|Uj-1)=f(x=t|θ)f(θ|Uj-1),则该公式可简化为:
MUI等价于最大化测验进行到j题后被试能力后验分布与当前能力后验分布间期望KL距离的KLB方法(Mulder&vanderLinden,2010;Wang&g,2011),因为KL具有不对称性,所以KLB与kP并不相等。
四、基于连续香农熵的选题策略
香农熵(Sharopy)度量了一个随机变量分布的内在不确定性程度(Shannon,1948)。当这个随机变量服从连续分布时,香农熵变为连续熵,也叫微分熵。Wang和g(2011)指出测验进行到(j-1)题后被试能力后验分布的连续熵为
由于被试在第j个项目上的作答是未知的,对第j个项目的作答求期望:
CEM方法将选择Rj中使期望后验连续熵最小的项目。