xgboost(六) -- 自定义损失函数

之前的章节中我们知道,xgboot是可以根据不同场景自定义损失函数的,如果我有一个损失函数,那么我究竟如何通过自定义的方式给到xgb呢,以及我最终的一阶导数和二阶导数到底是相对谁而言的呢?自定义损失函数这里我通过一个完整的例子来看看如果我有一个损失函数,怎么使用到我的xgboost模型的。我们来看

xgboost(五) -- 与其他模型融合

之前我们讲了很多xgboost的特性用法等等,接下来我们需要回答的一个问题是xgboost能够与其他模型融合吗?怎么融合?xgboost和DNN模型融合当我们使用xgboost的时候经常会发现,很多场景下我们只用xgboost模型的效果就能够达到一个最佳的效果,使用深度神经网络反而没有xgboost的效果好,这个经常让我们十分头疼,我想做点更nb的东西逻辑就这么难吗?其实个人认为xgboost效果

xgboost(四) --线性模型

XGBoost不仅实现了以CART为基础的树模型,还实现了一个以ElasticNet和并行坐标下降为基础的线性模型,此时XGBoost相当于一个同时带有L1正则和L2正则的逻辑回归(分类问题)或者线性回归(回归问题)。通过对前面章节的学习,我们对XGBoost的树模型有了一个比较深入的理解。本节将介绍XGBoost线性模型的实现原理。ElasticNet回归在统计学模型中,回归分析是评估变量间关系

xgboost(三) -- 排序模型

RankNet是一种pairwise的排序方法,它将排序问题转换为比较$<d_{i},d_{j}>$对的排序概率问题,即比较$d_{i}$排在$d_{j}$前面的概率。RankNet提出了一种概率损失函数来学习排序模型,并通过排序模型对文档进行排序。这里的排序模型可以是任意对参数可微的模型,如增强树、神经网络等。

xgboost(零)--使用基础

xgboost是非常常用的机器学习框架,本章我们仅仅从应用角度来讲,xgboost到底能干什么,通过其他文章我们再了解它是怎么做的,这个也比较符合我们的认知过程,能干什么和怎么干。二分类问题84,051

xgboost(二)之Gradient Boosting

由前述内容可知,XGBoost是由多棵决策树(即CART回归树)构成的,那么多棵决策树是如何协作的呢?此时便用到了Boosting技术。Boosting的基本思想是将多个弱学习器通过一定的方法整合为一个强学习器。在分类问题中,虽然每个弱分类器对全局的预测准确率不高,但可能对数据某一方面的预测准确率非常高,将很多局部预测准确率非常高的弱分类器进行组合,即可达到全局预测准确率高的强分类器的效果。Ada

xgboost(一)之cart树

最近因为工作原因,需要重新回顾xgboost,原来我个人也仅仅限制于使用,没有过多总结,借着这次机会,正好回顾一下这款神器。提到xgboost就必须要提一下cart树,这个是xgboost的基本组成单元。cart树之前微博中提到决策树,可能包括ID3和cs4.5这些算法,其实cart树和这些算法没有什么本质的区别,都是找到一些分割点,然后构建决策树,这里我们主要介绍一下cart的细节,其实这个也是
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×