XGBoost 正在参加 2020 年度 OSC 中国开源项目评选,请投票支持!
XGBoost 在 2020 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
投票让它出道
已投票
XGBoost 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」 !
XGBoost 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」「最积极运营项目」 !
XGBoost 获得 2020 年度 OSC 中国开源项目评选「最积极运营项目」 !
授权协议 Apache-2.0
开发语言 C/C++ Scala 查看源码 »
操作系统 跨平台
软件类型 开源软件
开源组织
地区 不详
投 递 者 局长
适用人群 未知
收录时间 2017-06-02

软件简介

XGBoost是"极端梯度提升"(eXtreme Gradient Boosting)的简称。XGBoost 源于梯度提升框架,但是更加高效,秘诀就在于算法能并行计算、近似建树、对稀疏数据的有效处理以及内存使用优化,这使得 XGBoost 至少比现有梯度提升实现有至少 10 倍的速度提升。

XGBoost 支持在多台机器上进行分布式训练,包括 AWS,GCE,Azure 和 Yarn 集群。可以与 Flink,Spark 和其他云数据流系统集成。

XGBoost 可以处理回归、分类和排序等多种任务。由于它在预测性能上的强大且训练速度快,XGBoost 已屡屡斩获 Kaggle 各大竞赛的冠军宝座。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (3)

加载中
打分: 力荐
好给力
2017/06/20 13:47
回复
举报
打分: 推荐
非常不错的东西
2017/06/19 11:48
回复
举报
没有看懂
2017/06/07 14:46
回复
举报
更多评论
暂无内容
2018/08/19 11:06

xgboost-kaggle

https://www.kaggle.com/dansbecker/xgboost This tutorial is part of the Learn Machine Learning series. In this step, you will learn how to build and optimize models with the powerful xgboost library. What is XGBoost XGBoost is the leading model for working with standard tabular data (the type of data you store in Pandas DataFrames, as opposed to more exotic types of data like images and videos)....

0
0
发表了博客
2018/06/28 22:10

xgboost使用

xgboost的实现方式为多颗CART树,其实xgboost就是类似于随机森林,但是与随机森林不同,他不是多个子树决策的结果,CART树最后会算出一个得分,是一个值,最后算出分类的时候,是多个值结合在一起用一个式子算出分类的。 这里只记录xgboost的使用方式: from sklearn.model_selection import train_test_split from sklearn import metrics from sklearn.datasets import make_hastie_10_2 from xgboost.sklearn import XGBC...

0
1
发表了博客
2018/01/12 09:40

XGBoost原理

XGBoost是Extreme Gradient Boosting的简称,Gradient Boosting是论文"Greedy Function Approximation: A Gradient Boosting Machine"中介绍的梯度提升算法。Boosting Tree树数据挖掘和机器学习中常用算法之一,其对输入要求不敏感,效果好,在工业界用的较多。 Traing loss + Regularization XGBoost用于监督学习问题(分类和回归)。监督学习的常用目标函数是: 通常目标函数包含两部分:训练误差和正则化 $$obj(θ)=L(θ)+Ω(...

0
0
发表了博客
2019/11/22 17:44

决策树(下)-Xgboost

参考资料(要是对于本文的理解不够透彻,必须将以下博客认知阅读,方可更加了解Xgboost): 1.对xgboost的理解(参考资料1和4是我认为对Xgboost理解总结最透彻的两篇文章,其根据作者paper总结!) 2.手动还原XGBoost实例过程(提供了一个实例,方便读者更加了解算法过程) 3.手写xgboost(利用python手写实现xgb) 4.XGBoost超详细推导(参考资料1和4是我认为对Xgboost理解总结最透彻的两篇文章) 目录 一、什么是XGBoost? 二、XGBoost改...

0
0
发表了博客
2018/07/13 23:02

xgboost原理

###xgboost和gdbt 在科学研究中,有种优化方法叫组合,将很多人的方法组合在一起做成一个集成的方法,集百家之长,效果一般就会比单个的好,这个方法就是集成学习。集成学习将弱学习算法通过组合提升为强学习算法。这要求每个弱学习方法要具有一定的准确性,并且之间具有差异性,即集成学习,关键在于各个弱分类器“好而不同” 在众多的单模型中,决策树由于训练复杂度低,预测的过程比较迅速,模型解释性强,所以常常作为弱学习...

0
0
发表了博客
2019/09/27 00:27

xgboost的使用

1.首先导入包 import xgboost as xgb 2.使用以下的函数实现交叉验证训练xgboost。 bst_cvl = xgb.cv(xgb_params, dtrain, num_boost_round=50,            nfold=3, seed=0, feval=xg_eval_mae, maximize=False, early_stopping_rounds=10) 3.cv参数说明:函数cv的第一个参数是对xgboost训练器的参数的设置,具体见以下 xgb_params = { 'seed': 0, 'eta': 0.1, 'colsample_bytree': 0.5, 'silent...

0
0
发表了博客
2019/03/25 16:19

XGBoost的优点

1. Gradient boosting(GB) Gradient boosting的思想是迭代生多个(M个)弱的模型,然后将每个弱模型的预测结果相加,后面的模型Fm+1(x)基于前面学习模型的Fm(x)的效果生成的,关系如下: 实际中往往是基于loss Function 在函数空间的的负梯度学习,对于回归问题残差和负梯度也是相同的。中的f,不要理解为传统意义上的函数,而是一个函数向量,向量中元素的个数与训练样本的个数相同,因此基于Loss Function函数空间的负梯度的学...

0
0
发表了博客
2018/03/08 15:22

xgboost 实践

xgboost 安装:xgboost:Scalable and Flexible Gradient Boosting github: eXtreme Gradient Boosting 中文教程:可伸缩且灵活的梯度提升 xgboost 用C++编写,提供了Python, R, Java, Scala, C++ and more. Runs on single machine, Hadoop, Spark, Flink and DataFlow 等接口 在python中的一套使用流程: python 平台下实现 xgboost 算法及输出的解释 参数意义:(先整理一下,实践中再完善) 官网的参数解释: XGBoost Para...

0
1
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
3 评论
32 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部