发表评论取消回复
相关阅读
相关 GBDT算法 (串行)
原文链接:[https://blog.csdn.net/qq\_40229367/article/details/88654293][https_blog.csdn.net_q
相关 GBDT梯度提升之二分类算法个人理解
在学习GBDT回归算法时,对于优化目标,残差计算都比较符合直觉,好理解。对于使用GBDT解决二分类问题,直观上不是很好理解,主要有以下两点疑问: 1. 对于分类问题怎么计算
相关 GBDT梯度提升之回归算法个人理解
前面的文章中介绍了梯度提升方法,将梯度提升方法中的基学习器替换成CART回归树模型,梯度提升方法就变成了梯度提升回归树GBDT方法。 --------------------
相关 GBDT梯度提升之多分类算法个人理解
在之前的文章用已经介绍过了GBDT处理二分类问题的原理,也分析回答了包括如何将分类问题转换为回归问题来计算残差,GBDT残差拟合的是概率值还是学习的线性回归参数模型。详细关于G
相关 k近邻算法理论(一)
时间 :2014.07.05 地点:基地 \----------------------------------------------------------------
相关 理解GBDT算法(三)——基于梯度的版本
上一篇中我们讲到了GBDT算法的第一个版本,是基于残差的学习思路。今天来说第二个版本,可以说这个版本的比较复杂,涉及到一些推导和矩阵论知识。但是,我们今天可以看到,两个版本之间
相关 理解GBDT算法(二)——基于残差的版本
GBDT算法有两种描述思路,一个是基于残差的版本,一个是基于梯度gradient的版本。这篇我们先说说基于残差的版本。 前面一篇博文已经说了该版本的大致原理,请参考。 [
相关 理解GBDT算法(一)——理论
理解GBDT算法(一)——理论 关于决策树decision tree的组合模型有两种:random forest 和 GBDT (gradient boosting dec
相关 GBDT算法简介
在网上看到一篇GBDT介绍非常好的文章,GBDT大概是非常好用又非常好用的[算法][Link 1]之一了吧(哈哈 两个好的意思不一样) GBD
还没有评论,来说两句吧...