当前位置:首页 » 翻译 
  • 匿名
关注:1 2013-05-23 12:21

求翻译:   The Boosting gradient algorithm of the regression tree applied the gradient descent technology to the regression tree. The value of the basic learning device of each iteration (regression tree) on the x was regarded as a negative gradient in a loss function space on the x. The coefficient before the basic learning d是什么意思?

待解决 悬赏分:1 - 离问题结束还有
   The Boosting gradient algorithm of the regression tree applied the gradient descent technology to the regression tree. The value of the basic learning device of each iteration (regression tree) on the x was regarded as a negative gradient in a loss function space on the x. The coefficient before the basic learning d
问题补充:

  • 匿名
2013-05-23 12:21:38
回归树的推进梯度算法采用梯度下降技术的回归树。
  • 匿名
2013-05-23 12:23:18
退化树的促进的梯度算法运用梯度下降技术于退化树。基本的学习的设备的价值每叠代(退化树)在x被认为在损失函数空间的一个消极梯度在x。系数,在基本的学习的设备将被认为步长接近在误差函数空间前的最小值。
  • 匿名
2013-05-23 12:24:58
退化树的促进的梯度算法申请了梯度下降技术于退化树。 每棵叠代退化树基本的学习的设备的价值 () 在x在损失函数空间被认为一个消极梯度在x。 系数,在基本的学习的设备在误差函数空间之前将被认为步长接近最小值。 这技术被申请于一些损失函数,例如方形的损失,绝对损失、Huber损失和逻辑斯谛的损失,并且很多实验性数据证明它的有效率。 如果包装材料想法可能被安定入退化树的促进的梯度算法,不是所有的冒充残余为训练使用了在每个冒充残余过程,但一部分的他们任意地被选择了。 这能被认可作为促进的梯度算法。
  • 匿名
2013-05-23 12:26:38
回归树的提高梯度算法应用于回归树的梯度下降技术。基本学习装置的每个迭代 (回归树) 上 x 的值被认为是在 x 上的损失函数空间中的负梯度。基本的学习设备之前系数将被视为步长近似误差函数空间中的最小值。这种技术被应用于一些损失函数,如平方损失、 绝对损失,Huber 损失和物流的损失,以及大量的实验数据来证明其有效性。如果套袋的想法可以安顿的回归树的提高梯度算法,并不是所有伪残差被用于训练的每个伪残差的过程,但其中一部分,随机。这可以被认为是提高梯度算法。
  • 匿名
2013-05-23 12:28:18
正在翻译,请等待...
 
 
网站首页

湖北省互联网违法和不良信息举报平台 | 网上有害信息举报专区 | 电信诈骗举报专区 | 涉历史虚无主义有害信息举报专区 | 涉企侵权举报专区

 
关 闭