dmlc/xgboost
GitHub: dmlc/xgboost
一个高效可扩展的梯度提升机器学习框架,支持分布式计算和多语言调用。
Stars: 28075 | Forks: 8846
#
eXtreme Gradient Boosting
[](https://github.com/dmlc/xgboost/actions)
[](https://xgboost.readthedocs.org)
[](./LICENSE)
[](https://cran.r-project.org/web/packages/xgboost)
[](https://pypi.python.org/pypi/xgboost/)
[](https://anaconda.org/conda-forge/py-xgboost)
[](https://optuna.org)
[](https://twitter.com/XGBoostProject)
[](https://api.securityscorecards.dev/projects/github.com/dmlc/xgboost)
[](https://colab.research.google.com/github/comet-ml/comet-examples/blob/master/integrations/model-training/xgboost/notebooks/how_to_use_comet_with_xgboost_tutorial.ipynb)
[社区](https://xgboost.ai/community) |
[文档](https://xgboost.readthedocs.org) |
[资源](demo/README.md) |
[贡献者](CONTRIBUTORS.md) |
[发布说明](https://xgboost.readthedocs.io/en/latest/changes/index.html)
XGBoost 是一个优化的分布式梯度提升库,旨在实现高度***高效***、***灵活***和***可移植***。
它在 [Gradient Boosting](https://en.wikipedia.org/wiki/Gradient_boosting) 框架下实现了机器学习算法。
XGBoost 提供了一种并行树提升(也称为 GBDT, GBM),能够以快速且准确的方式解决许多数据科学问题。
相同的代码可以在主要的分布式环境(Kubernetes, Hadoop, SGE, Dask, Spark, PySpark)上运行,并且可以解决超过数十亿样本的问题。
## 许可证
© 贡献者,2021。根据 [Apache-2](https://github.com/dmlc/xgboost/blob/master/LICENSE) 许可证授权。
## 参考文献
- Tianqi Chen and Carlos Guestrin. [XGBoost: A Scalable Tree Boosting System](https://arxiv.org/abs/1603.02754). In 22nd SIGKDD Conference on Knowledge Discovery and Data Mining, 2016
- XGBoost 源于华盛顿大学的一个研究项目。
### 支持者
[[成为支持者](https://opencollective.com/xgboost#backer)]

eXtreme Gradient Boosting
[](https://github.com/dmlc/xgboost/actions)
[](https://xgboost.readthedocs.org)
[](./LICENSE)
[](https://cran.r-project.org/web/packages/xgboost)
[](https://pypi.python.org/pypi/xgboost/)
[](https://anaconda.org/conda-forge/py-xgboost)
[](https://optuna.org)
[](https://twitter.com/XGBoostProject)
[](https://api.securityscorecards.dev/projects/github.com/dmlc/xgboost)
[](https://colab.research.google.com/github/comet-ml/comet-examples/blob/master/integrations/model-training/xgboost/notebooks/how_to_use_comet_with_xgboost_tutorial.ipynb)
[社区](https://xgboost.ai/community) |
[文档](https://xgboost.readthedocs.org) |
[资源](demo/README.md) |
[贡献者](CONTRIBUTORS.md) |
[发布说明](https://xgboost.readthedocs.io/en/latest/changes/index.html)
XGBoost 是一个优化的分布式梯度提升库,旨在实现高度***高效***、***灵活***和***可移植***。
它在 [Gradient Boosting](https://en.wikipedia.org/wiki/Gradient_boosting) 框架下实现了机器学习算法。
XGBoost 提供了一种并行树提升(也称为 GBDT, GBM),能够以快速且准确的方式解决许多数据科学问题。
相同的代码可以在主要的分布式环境(Kubernetes, Hadoop, SGE, Dask, Spark, PySpark)上运行,并且可以解决超过数十亿样本的问题。
## 许可证
© 贡献者,2021。根据 [Apache-2](https://github.com/dmlc/xgboost/blob/master/LICENSE) 许可证授权。
## 参考文献
- Tianqi Chen and Carlos Guestrin. [XGBoost: A Scalable Tree Boosting System](https://arxiv.org/abs/1603.02754). In 22nd SIGKDD Conference on Knowledge Discovery and Data Mining, 2016
- XGBoost 源于华盛顿大学的一个研究项目。
### 支持者
[[成为支持者](https://opencollective.com/xgboost#backer)]
标签:Apex, C++, Dask, DataFlow, Flink, GBDT, GBRT, Hadoop, JS文件枚举, Kaggle, Python, R语言, Scala, Spark, Vectored Exception Handling, XGBoost, 决策树, 分布式计算, 分类算法, 回归分析, 大数据, 子域名突变, 开源库, 异常处理, 搜索引擎爬虫, 数据擦除, 数据科学, 无后门, 机器学习, 梯度提升, 特征工程, 监督学习, 目录扫描, 资源验证, 逆向工具, 集成学习, 预测模型, 高性能计算