xgboost(四) --线性模型

XGBoost不仅实现了以CART为基础的树模型,还实现了一个以ElasticNet和并行坐标下降为基础的线性模型,此时XGBoost相当于一个同时带有L1正则和L2正则的逻辑回归(分类问题)或者线性回归(回归问题)。通过对前面章节的学习,我们对XGBoost的树模型有了一个比较深入的理解。本节将介绍XGBoost线性模型的实现原理。ElasticNet回归在统计学模型中,回归分析是评估变量间关系

xgboost(三) -- 排序模型

RankNet是一种pairwise的排序方法,它将排序问题转换为比较$<d_{i},d_{j}>$对的排序概率问题,即比较$d_{i}$排在$d_{j}$前面的概率。RankNet提出了一种概率损失函数来学习排序模型,并通过排序模型对文档进行排序。这里的排序模型可以是任意对参数可微的模型,如增强树、神经网络等。

运筹规划(三)-线性规划

排班和人员规划模型运营规划模型是用于决策生产工作的安排以有效的使用可用资源。在拍板模型中,工作量给定的前提下,我们需要规划完成这些工作的资源投入。特别的,我们必须决定不同类型的员工数量,以保证完成所有的工作量。同样的,线性规划模型解决这类问题的有效工具。俄亥俄国家银行的排班规划俄亥俄国家银行(ONB)的支票处理中心遇到了人员的工作分配问题。银行收到的支票已经印有账号和其他经过加密的识别信息。支票处

xgboost(零)--使用基础

xgboost是非常常用的机器学习框架,本章我们仅仅从应用角度来讲,xgboost到底能干什么,通过其他文章我们再了解它是怎么做的,这个也比较符合我们的认知过程,能干什么和怎么干。二分类问题84,051

运筹规划(二)-线性规划

如果一个优化模型的决策变量是连续,具有单一线性目标函数,而且所有约束都是关于决策变量的线性等式或是不等式,那么该优化模型称为线性规划。资源分配模型资源分配问题是一类简单、应用广泛的线性规划。其核心是在资源有限的情况下,如何将资源分配给彼此竞争的需求,从而实现资源的优化配置。这些资源可以是所有的有限资源。时间分配问题本学期,小明选修了运筹学、工程经济学、统计学和材料学4门功课。他一共有30个小时的复

xgboost(二)之Gradient Boosting

由前述内容可知,XGBoost是由多棵决策树(即CART回归树)构成的,那么多棵决策树是如何协作的呢?此时便用到了Boosting技术。Boosting的基本思想是将多个弱学习器通过一定的方法整合为一个强学习器。在分类问题中,虽然每个弱分类器对全局的预测准确率不高,但可能对数据某一方面的预测准确率非常高,将很多局部预测准确率非常高的弱分类器进行组合,即可达到全局预测准确率高的强分类器的效果。Ada

xgboost(一)之cart树

最近因为工作原因,需要重新回顾xgboost,原来我个人也仅仅限制于使用,没有过多总结,借着这次机会,正好回顾一下这款神器。提到xgboost就必须要提一下cart树,这个是xgboost的基本组成单元。cart树之前微博中提到决策树,可能包括ID3和cs4.5这些算法,其实cart树和这些算法没有什么本质的区别,都是找到一些分割点,然后构建决策树,这里我们主要介绍一下cart的细节,其实这个也是

自然语言处理之表示学习

什么是表示学习呢?说白了就是特征,机器学习算法的性能严重依赖特征。如果存在一种可以从数据中的到和判别特征的方法们就会减少机器学习对特征工程的依赖,这就是表示学习。离散表示这里虽然咱们单独拿出来讨论,但是其实特征的离散表示十分简单,就是独热编码,但是独热编码的缺点也是十分明显的。在向量空间中,所有的对

强化学习(十)--学习与规划

我们之前的讲解分为两部分,一个是直接从经验数据中学习值函数,一个是基于策略函数方法,直接从经验数据学习策略。而这节中主要介绍如何从经验数据直接学习模型,通过这个产生一系列模拟数据,在基于这些数据学习最优值函数或者最优策略。学习和规划是强化学习的两大类方法。学习针对的是环境模型未知的情况下,智能体通过

强化学习(九)--策略梯度

之前咱们的介绍解决的是当值状态接近于无限或者连续的时候采用DQN方法,下面我们来想另一个场景,如果我们的动作空间无限大或者连续呢,是不是基于值函数的迭代就不是那么适用啦,这就是本章要介绍的随机梯度策略。这个时候我考虑将策略参数化,利用线性函数或者非线性函数表示策略,就是$π_{\theta}(s)$

强化学习(八)-- 深度强化学习

之前我们的章节中介绍的是值函数可以表示为奇函数和参数线性组合的方式逼近,但是这类函数的拟合能力是有限的,对于值函数为非线性的情况下拟合能力就不足了。本章要讲解的就是在非线性环境下如何做到值函数逼近。当时我们拟合非线性的值函数,肯定是考虑深度学习的方法,这也就是为什么会有深度强化学习一说啦。DQNDQ

强化学习(七) -- 值函数逼近

现在我们可以回顾一下原来的知识,我们之前讲了那么多的算法,但是我们是不是都有一个假设,就是我们的状态空间都是有限的。然后我们使用内存存储每个状态的值函数,不断的进行更新这个值函数。如果是一个无限空间的场景我们将如何处理呢?这个时候已经没有足够的内存啦,我们往往需要使用近似的函数$V(s,\theta
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×