xgboost(八) -- 置信度

今天想和大家讲解

xgboost(七) -- 分阶段学习

今天来讨论一个问题,就是xgboost是否能支持类似多任务学习的事情呢?之前听到这个问题还是挺惊奇的,这竟然也可以,今天查阅了部分相关的资料,发现竟然真的可以,我们知道深度学习中的多任务学习是通过一个共享层,建立各个任务之间的关系,通过构建多个任务的帕累托最优解,从而解决多任务的问题,而xgb选择了使用树一条路走到黑,接下来咱们来看看xgb是如何实现多任务学习的。

无监督学习之聚类算法

今天这章主要介绍一些聚类算法。

机器学习之归一化

BN(Batch Normalization)BN是深度学习中缓解过拟合的一个非常常见的手段,不仅能有效的解决梯度爆炸的问题,而且加入了BN的网络往往是更加稳定的还具有一定的正则化的作用。梯度饱和问题日常工作中我们经常使用的sigmod激活函数或者tanh激活函数存在饱和的区域,其原因是激活函数输入值过大或者过小,导致的激活函数的梯度接近于0,使得网络收敛过慢。传统的方法是使用Relu激活函数。B

机器学习之Dropout

本文主要介绍两类常以网络层形式添加模型结构中,一类是Dropout,一类是归一化。DropoutDropout是当发生过拟合以后,第一个考虑使用的网络结果。在训练、

机器学习之MSE的梯度下降

本文主要讲解使用梯度下降算法迭代熟悉的MSE损失函数。J(θ)=E[(y−θTx)2]=σy2−2θTp+θTϕθJ(\theta)=E[(y-\theta^{T}x)^{2}] \\=\sigma_{y}^{2}-2\theta^{T}p + \theta^{T} \phi \thetaJ(θ)=E[(y−θTx)2]=σy2​−2θTp+θTϕθMSE可以看上面这个博文了解上面这个公式。其中ϕ

机器学习之MSE

本文想介绍一下MSE这个优化函数,通过MSE这个损失函数来看机器学习中一些底层的理论。标准方程J(θ)=E[(y−y^)2](1.1)J(\theta)=E[(y-\hat{y})^{2}] \tag{1.1}J(θ)=E[(y−y^​)2](1.1)公式1.1是均方误差的一个简单的表示,很明显我们就是要求的一个参数能够使得J(θ)J(\theta)J(θ)最小。最小化的代价函数J(θ)J(\th

样本不均之损失函数

首先我们还是要从交叉熵的损失函数说起,如公式1.1L=−ylog(p)−(1−y)log(1−p)(1.1)L=-y log(p)-(1-y)log(1-p) \tag{1.1}L=−ylog(p)−(1−y)log(1−p)(1.1)p为预测概率,y是真实标签。\begin{equation}L(CE)=\left\{\begin{array}{ll}-log(p) \\-log(1-0) \\

样本不均之标签平滑

背景标签平滑产生的背景是当我们的标注数据不能保证100%的准确性的时候,导致训练过程中过度的信赖标注,对训练效果产生比较大的影响。这个时候我们一般选用标签平滑的方式缓解这种问题。

可解释性机器学习(一)--内部解释模型

咱们继续讲解可解释性机器学习,咱们开始一起来看看一些算法啦。先从简单的算法开始。
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×