# 预测准确度
# 单点预测
当只预测一个单一值时,可以使用以下指标衡量模型的预测准确度:
-
均方误差(MSE, Mean Squared Error)
mse=n1i=1∑n(yi−E(yi∣θ))2
MSE 衡量预测值与真实值之间的平方差的均值,目标是最小化 MSE。
-
加权均方误差(WMSE, Weighted Mean Squared Error)
wmse=n1i=1∑∞var(yi∣θ)(yi−E(yi∣θ))2
WMSE 在计算平方差时考虑了预测值的方差,为方差较小的预测赋予更高的权重。
# 概率预测
当模型预测一个值的概率分布时,通常使用对数预测密度(LPD)来衡量预测准确度。
-
对数预测密度(LPD, Log-Predictive Density)
lpd=log p(y∣θ)
LPD 衡量在给定参数 θ 下观测数据 y 的概率密度。在以均值 θ 为参数的正态分布模型中,LPD 与 MSE 等价。
-
与 KL 散度的关系
KL 散度(KL Divergence) 衡量一个概率分布 P 与另一个概率分布 Q 之间的差异:
DKL(P∥Q)=∫−∞∞p(x)logq(x)p(x)dx=Ep(logp(x))−Ep(logq(x))≥0
KL 散度是非负的,当且仅当两个分布完全相同时,KL 散度为 0。
因此,为了使模型分布 q(x) 尽可能接近真实分布 p(x),我们需要最大化 Ep(logq(x)),这等价于最大化 LPD。
KL 散度非负性证明
DKL(P∥Q)≥∫−∞∞p(x)(1−p(x)q(x))dx=0
# 样本外预测准确度
样本外预测准确度衡量模型在新数据上的表现。
-
单点预测对数似然(Log-Likelihood of a Single Point Prediction)
logppost(y~i)=logEpost(p(y~i∣θ))=log∫p(y~i∣θ)ppost(θ)dθ
该公式计算的是在新数据点 y~i 上,基于后验分布 ppost(θ) 的预测对数似然。
-
单点预期对数预测密度期望(ELPD, Expected Log-Predictive Density)
elpd=Ef(logppost(y~i))=∫(logppost(y~i))f(y~i)dy~
ELPD 是对新数据点 y~i 的预测对数似然,在真实数据分布 f 下的期望。
-
新数据集的逐点预期对数预测密度期望(ELPPD, Expected Log-Pointwise Predictive Density)
elppd=i=1∑nEf(logppost(yˉi))
ELPPD 是整个新数据集的 ELPD 之和。由于真实数据分布 f 是未知的,ELPPD 无法直接估计。
近似 1: 使用样本内数据来近似预测数据,这是后续许多指标的基础。
-
ELPD 的大样本近似
在大样本量下,后验分布 ppost(θ) 可以近似为单点,如最大似然估计(MLE)θ^ 或后验均值。
elpd≈ elpdθ^=Eflogp(y~i∣θ^(y))
近似 3: 使用单点来近似后验分布。
# 样本内预测准确度
样本内预测准确度衡量模型在训练数据上的表现。
-
逐点预期对数预测密度期望(LPPD, Log-Pointwise Predictive Density)
lppd=logi=1∏nppost(yi)=i=1∑nlog∫p(yi∣θ)ppost(θ)dθ
LPPD 是在后验分布下,训练数据集 y 的对数似然。
-
模拟的逐点预期对数预测密度期望(Computed LPPD)
computed lppd=i=1∑nlog(S1s=1∑Sp(yi∣θs))
在实际计算中,LPPD 通常通过对后验分布进行 MCMC 模拟得到。
近似 2: 使用模拟分布近似实际分布。
# 对数似然大小关系
用 LPPD 近似 ELPPD 会导致过拟合,即高估模型在新数据上的表现。
Ey~i(logEθ∣y(p(y~i∣θ)))≤Ey~i(log p(y~i∣θ0))≈n1i=1∑nlog p(yi∣θ0)≤n1i=1∑nlogEθ∣y(p(yi∣θ))
其中,不等式左边代表 ELPD,右边代表 LPPD。LPPD 总是大于或等于 ELPD,差值即为过拟合的程度。
# 模型比较指标
# AIC
赤池信息准则(AIC, Akaike Information Criterion) 是一种基于最大似然估计的统计量。
-
推导
在上述对数似然大小关系中,当进行 近似 1(用样本内数据近似预测数据) 和 近似 3(用单点近似后验分布) 后,LPPD 与 ELPPD 之间的差值近似为模型参数的个数 k。
elppd≈lppd−k
这个差值 k 被称为过拟合修正项。
-
定义
AIC=−2logp(y∣θ^MLE)+2k
AIC 衡量的是模型拟合优度和模型复杂度的平衡。AIC 的值越小,模型越好。
# DIC
偏差信息准则(DIC, Deviance Information Criterion) 是 AIC 在贝叶斯框架下的扩展。
-
推导
DIC 将 AIC 中的最大似然估计 θ^MLE 替换为后验均值 θ^Bayes,并将过拟合修正项 k 替换为有效参数个数 pDIC。
elpdDIC=logp(y∣θ^Bayes)−pDIC
其中,有效参数个数 pDIC 计算如下:
p<!−−swig0−−>=2(logp(y∣θ^Bayes)−Epost(logp(y∣θ)))
pDIC 衡量了模型复杂性,其值是模型在后验均值下的对数似然与后验分布下对数似然期望之间的差异。
-
定义
DIC=−2logp(y∣θ^Bayes)+2pDIC
-
仿真近似
在实际应用中,后验分布的期望通常通过 MCMC 仿真进行近似:
computed pDIC=2(logp(y∣θ^Bayes)−S1s=1∑Slogp(y∣θs))
# WAIC
广义信息准则(WAIC, Widely Applicable Information Criterion) 是另一种在贝叶斯框架下衡量模型预测准确度的指标。与 DIC 不同,WAIC 不依赖于任何单点估计,而是直接使用整个后验分布。
-
推导
WAIC 的核心思想是使用 LPPD 作为拟合优度,并用过拟合修正项 pWAIC 进行修正。
pWAIC1=2i=1∑n(log(Epostp(yi∣θ))−Epost(logp(yi∣θ)))
pWAIC1 衡量了模型复杂性,是逐点计算的后验均值的对数似然与对数似然的后验均值之差的总和。
-
定义
WAIC=−2⋅elppdWAIC
WAIC 的值越小,模型越好。
-
仿真近似
pWAIC 同样可以通过 MCMC 仿真进行近似:
computed pWAIC=2i=1∑n(log(S1s=1∑Sp(yi∣θs))−S1s=1∑Slogp(yi∣θs))
# LOO-CV
留一交叉验证(LOO-CV, Leave-One-Out Cross-Validation) 是一种更直接评估样本外预测准确度的方法,特别适用于样本量不大的情况。
-
未修正值
lppdloo−cv=i=1∑nlogppost(−i)(yi)≈i=1∑nlog(S1s=1∑Sp(yi∣θis))
该公式计算的是在去除第 i 个数据点后,模型对该数据点的预测对数似然之和。
-
偏差
由于 LOO-CV 的计算成本较高,通常会采用近似方法,但这种近似会引入偏差。
bias=lppd−lppd−i
-
定义
−2lppdcloo−cv
cloo-cv 是经过修正的 LOO-CV 值。
# 贝叶斯因子
贝叶斯因子是贝叶斯框架下用于模型比较的另一种重要工具。
-
贝叶斯因子(Bayes Factor, BF)
BF 衡量了数据如何改变对假设 H1 相对于 H2 的赔率。
p(H1∣y)p(H2∣y)=p(H1)p(H2)×Bayes factor(H2;H1)
其中,BF 的定义为:
Bayes factor(H2;H1)=p(y∣H1)p(y∣H2)=∫p(θ1∣H1)p(y∣θ1,H1)dθ1∫p(θ2∣H2)p(y∣θ2,H2)dθ2
BF 仅在每个模型下的边际密度是适定的(需要一个适定的先验)时才有意义。
BF 在离散模型下通常效果很好,但在连续模型下对先验选择非常敏感。
-
贝叶斯框架下的假设检验
在贝叶斯框架下,通常希望 H1 是更好的模型,检验的目标是拒绝或无法拒绝 H2,这与频率学派的设定相反。
-
BIC 与 BF 的关系
BIC(Bayesian Information Criterion) 可以看作是 BF 的大样本近似。
BIC=−2logp(y∣θ^)+klogn
BIC 与 AIC 相比,对模型复杂度的惩罚项更大,因此更倾向于选择参数较少的简单模型。
AIC 适用于选择用于预测的模型,而 BIC 适用于选择用于解释的模型。