VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > Python基础教程 >
  • 集成学习之AdaBoost算法(4)

Gm(x)fm(x)=fm1(x)+αmGm(x)

 

所以此轮优化目标就为:

 

mini=1NL(yi,fm1(x)+αmGm(x))

 

求解上式即可得到第m个基分类器Gm(x)及其权重αm

这样,前向分步算法就通过不断迭代求得了从m=1m=M的所有基分类器及其权重,问题得到了解决。

上面主要介绍了前向分步算法逐一学习基学习器,这一过程也即AdaBoost算法逐一学习基学习器的过程。下面将证明前向分步算法的损失函数是指数损失函数(exponential loss function)时,AdaBoost学习的具体步骤。

首先指数损失函数即L(y,f(x))=exp(yf(x)),指数损失函数是分类任务原本0/1损失函数的一致(consistent)替代损失函数,由于指数损失函数有更好的数学性质,例如处处可微,所以我们用它替代0/1损失作为优化目标。

AdaBoost是采用指数损失,由此可以得到损失函数:

 

Loss=i=1Nexp(yifm(xi))=i=1N(yi(fm1(xi)+αmGm(x)))

 

因为yifm1(x)与优化变量αG无关,所以令


相关教程
关于我们--广告服务--免责声明--本站帮助-友情链接--版权声明--联系我们       黑ICP备07002182号