对学习算法除了通过实验估计其泛化性能,人们往往还希望了解它“为什么”具有这样的性能
2018-08-16 阅读全文>>交叉验证t检验和McNemar检验都是在一个数据集上比较两个算法的性能
2018-08-16 阅读全文>>对两个学习器A和B,若我们使用尼折交叉验证法得到的测试错误率分别为e
2018-08-16 阅读全文>>假设检验中的“假设”是对学习器泛化错误率分布的某种判断或猜想
2018-08-16 阅读全文>>统计假设检验(hypothesis test)为我们进行学习器性能比较提供了重要依据,基于假设检验结果我们可推断出,若在测试集上观察到学习器A比B好,则A的泛化性能是否在统计意义上优于B,以及这个结论的把握有多大
2018-08-16 阅读全文>>将ROC曲线上的每个点转化为代价平面上的一条线段,然后取所有线段的下界
2018-08-16 阅读全文>>回顾前面介绍的一些性能度量可看出,它们大都隐式地假设了均等代价
2018-08-16 阅读全文>>在现实任务中常会遇到这样的情况:不同类型的错误所造成的后果不同.例如在医疗诊断中,错误地把患者诊断为健康人与错误地把健康人诊断为患者,看起来都是犯了“一次错误”
2018-08-16 阅读全文>>现实任务中通常是利用有限个测试样例来绘制ROC图,此时仅能获得有限个(真正例率,假正例率)坐标对,无法产生图2 4(a)中的光滑ROC曲线,只能基于有限个测试样例篆绘制出如图2 4(b)所示的近似ROC曲线
2018-08-16 阅读全文>>错误率和精度虽常用,但并不能满足所有任务需求.以西瓜问题为例,假定瓜农拉来一车西瓜,我们用训练好的模型对这些西瓜进行判别,显然,错误率衡量了有多少比例的瓜被判别错误.
2018-08-16 阅读全文>>调参得好不好往往对最终模型性能有关键性影响.给定包含m个样本的数据集D,在模型评估与选择过程中由于需要留出一部分数据进行评估测试,事实上我们只使用了一部分数据训练模型.
2018-08-16 阅读全文>>大多数学习算法都有些参数(parameter)需要设定,参数配置不同,学得模型的性能往往有显著差别.因此,在进行模型评估与选择时,除了要对适用学习算法进行选择,还需对算法参数进行设定,这就是通常所说的“参数调节”或简称“调参”(parameter tuning)
2018-08-16 阅读全文>>“自助法”(bootstrapping)是一个比较好的解决方案
2018-08-16 阅读全文>>留一法的估计结果也未必永远比其他评估方法准确
2018-08-16 阅读全文>>“交叉验证法”(cross validation)先将数据集D划分为尼、个大小相似的互斥子集,即D= Di u D2 u U Dk,DinDj=g(t≠j) 每个子集Di都尽可能保持数据分布的一致性,即从D中通过分层采样得到
2018-08-16 阅读全文>>24377条 上一页 1.. 1187 1188 1189 1190 1191 ..1626 下一页