XGBoost 正在参加 2020 年度 OSC 中国开源项目评选,请投票支持!
XGBoost 在 2020 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
投票让它出道
已投票
授权协议 Apache
开发语言 C/C++ Scala 查看源码 »
操作系统 跨平台
软件类型 开源软件
开发厂商
地区 不详
提 交 者 局长
适用人群 未知
收录时间 2017-06-02

软件简介

XGBoost是"极端梯度提升"(eXtreme Gradient Boosting)的简称。XGBoost 源于梯度提升框架,但是更加高效,秘诀就在于算法能并行计算、近似建树、对稀疏数据的有效处理以及内存使用优化,这使得 XGBoost 至少比现有梯度提升实现有至少 10 倍的速度提升。

XGBoost 支持在多台机器上进行分布式训练,包括 AWS,GCE,Azure 和 Yarn 集群。可以与 Flink,Spark 和其他云数据流系统集成。

XGBoost 可以处理回归、分类和排序等多种任务。由于它在预测性能上的强大且训练速度快,XGBoost 已屡屡斩获 Kaggle 各大竞赛的冠军宝座。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (3)

加载中
打分: 力荐
好给力
2017/06/20 13:47
回复
举报
打分: 推荐
非常不错的东西
2017/06/19 11:48
回复
举报
没有看懂
2017/06/07 14:46
回复
举报
更多评论
暂无内容
发表了博客
2019/09/08 20:58

xgboost:

https://www.zybuluo.com/Dounm/note/1031900 GBDT算法详解   http://mlnote.com/2016/10/05/a-guide-to-xgboost-A-Scalable-Tree-Boosting-System/ XGboost: A Scalable Tree Boosting System论文及源码导读 2016/10/29XGboost核心源码阅读 2016/10/05XGboost: A Scalable Tree Boosting System论文及源码导读 2016/1...

0
0
发表了博客
2018/06/28 22:10

xgboost使用

xgboost的实现方式为多颗CART树,其实xgboost就是类似于随机森林,但是与随机森林不同,他不是多个子树决策的结果,CART树最后会算出一个得分,是一个值,最后算出分类的时候,是多个值结合在一起用一个式子算出分类的。 这里只记录xgboost的使用方式: from sklearn.model_selection import train_test_split from skl...

0
1
发表了博客
2019/11/22 17:44

决策树(下)-Xgboost

参考资料(要是对于本文的理解不够透彻,必须将以下博客认知阅读,方可更加了解Xgboost): 1.对xgboost的理解(参考资料1和4是我认为对Xgboost理解总结最透彻的两篇文章,其根据作者paper总结!) 2.手动还原XGBoost实例过程(提供了一个实例,方便读者更加了解算法过程) 3.手写xgboost(利用python手写实现xgb) 4.XGBoost超详...

0
0
发表了博客
2019/06/02 14:39

Xgboost建模

xgboost参数 选择较高的学习速率(learning rate)。一般情况下,学习速率的值为0.1。但是,对于不同的问题,理想的学习速率有时候会在0.05到0.3之间波动。选择对应于此学习速率的理想决策树数量。XGBoost有一个很有用的函数“cv”,这个函数可以在每一次迭代中使用交叉验证,并返回理想的决策树数量。 对于给定的学习速率...

0
0
发表于AI & 大数据专区
2018/08/19 11:06

xgboost-kaggle

https://www.kaggle.com/dansbecker/xgboost This tutorial is part of the Learn Machine Learning series. In this step, you will learn how to build and optimize models with the powerful xgboost library......

0
0
发表了博客
2018/01/12 09:40

XGBoost原理

XGBoost是Extreme Gradient Boosting的简称,Gradient Boosting是论文"Greedy Function Approximation: A Gradient Boosting Machine"中介绍的梯度提升算法。Boosting Tree树数据挖掘和机器学习中常用算法之一,其对输入要求不敏感,效果好,在工业界用的较多。 Traing loss + Regularization XGBoost用于监督学习问题(...

0
0
发表了博客
2018/07/13 23:02

xgboost原理

###xgboost和gdbt 在科学研究中,有种优化方法叫组合,将很多人的方法组合在一起做成一个集成的方法,集百家之长,效果一般就会比单个的好,这个方法就是集成学习。集成学习将弱学习算法通过组合提升为强学习算法。这要求每个弱学习方法要具有一定的准确性,并且之间具有差异性,即集成学习,关键在于各个弱分类器“好而...

0
0
发表了博客
2019/09/27 00:27

xgboost的使用

1.首先导入包 import xgboost as xgb 2.使用以下的函数实现交叉验证训练xgboost。 bst_cvl = xgb.cv(xgb_params, dtrain, num_boost_round=50,            nfold=3, seed=0, feval=xg_eval_mae, maximize=False, early_stopping_rounds=10) 3.cv参数说明:函数cv的第一个参数是对xgboost训练器的参数的设置,具...

0
0
发表了博客
2019/03/25 16:19

XGBoost的优点

1. Gradient boosting(GB) Gradient boosting的思想是迭代生多个(M个)弱的模型,然后将每个弱模型的预测结果相加,后面的模型Fm+1(x)基于前面学习模型的Fm(x)的效果生成的,关系如下: 实际中往往是基于loss Function 在函数空间的的负梯度学习,对于回归问题残差和负梯度也是相同的。中的f,不要理解为传统意义上的函...

0
0
发表了博客
2019/02/01 23:28

XGBoost小记

1.原理 //TODO 2.Python Package Scikit-Learn API 2.1输入 数据的特征分为两类,一类是连续型,比如:体重,一种是分类型,比如性别。 在scikit-learn中的Glossary of Common Terms and API Elements有这么一段话: Categorical Feature A categorical or nominal feature is one that has a finite set of discrete va...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
3 评论
32 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部