一种改进的带参数AdaBoost算法
作者:邱仁博; 娄震 南京理工大学计算机科学与工程学院; 南京210094
摘要:基于间隔理论的AdaBoost改进算法大多通过直接优化基于间隔的损失函数,以提高算法的泛化能力。通过改进AdaBoost算法的权值调整策略,增加间隔增量从正到负变化的样本权重,进而抑制训练样本间隔的负向移动,优化损失函数。通过100轮5倍交叉验证结果表明,与PAB,IPAB等算法相比,该算法的分类准确性和稳定性都有一定的提高。
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社