VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > temp > 简明python教程 >
  • 集成学习之Xgboost(14)

i)+12hift2(xi)]+Ω(ft)

 

这时,目标函数只依赖于每个数据点在误差函数上的一阶导数g和二阶导数h(这里体现xgboost和gbdt的不同了,目标函数保留了泰勒展开的二次项)。

回归前面树的复杂度介绍,我们知道:ft(x)=wq(x),wRT,q:Rd>{1,2,...,T},同时将目标函数全部转换成在第t棵树叶子节点的形式。对这里的ft(xi)的理解:当一个样本进来的时候,不管是回归问题还是分类问题,最终都会掉到叶子结点上,而每颗树的每个叶子节点都会对应有一个得分(想象一下回归问题,每个叶子节点对应的是落入该叶子结点的所有训练样本的均值),所以ft(xi)可以理解为一个样本在t轮最终的得分函数。

即每个决策树的第j个叶子节点的取值最终会是同一个值wj。另外代入正则项。

损失函数可以继续化简: