多任务学习(三)--多任务模型

本章节继续结合一些常见的业务问题介绍一些多任务模型。

因果推断--uplift模型(二)

接下来这一章,咱们就来介绍一些基于深度学习的方法,当然这类方法理想情况下还是基于实验数据(RCT)进行训练。反事实回归网络(CFR)CFR其实是开启了使用深度学习的方式进行因果推断类任务的一个先河,我们知道,不同于观察模型, 因果类的模型更关注与干预的影响,而非预测值的准确性,想要从理论上得到这个干预的效果,就一定要拉齐环境,或者随机数据进行对比,所以这个网络的设计上就需要满足两方面的要求。具有拉

自然语言处理之预训练模型(二)

之前咱们介绍的都是单一模型的预训练方法,这里介绍一个特殊一点的思路,且不说应用程度怎么样,先看看这个模型的设计思路。ELECTRAELECTRA是使用对抗网路的思路进行预训练的方式。其中生成器,一个小的MLM,就是在[MASK]的位置预测原来的词。判别器判断的是输入句子中的每个词是否被替换,需要注意的是这里没有下一句的预测任务。接下来我们来看每个模块。生成器对于生成器来说,其目的是将带有掩码的输入

自然语言处理之Transformer精讲(二)

本节咱们换个角度来讲Transformer模型,在上一个文章中,主要以计算的过程介绍模型的运行过程,本章中直接对着模型来进行进一步的讲解。通过上文的介绍,知道Transformer模型架构主要分为了编码器和解码器,那么对于模型架构来讲,咱们还是以这两部分分开讲解。编码器在编码器部分主要有两部分组成,一个是多头注意力层,一个是前馈神经网络,并采用残差机制和层归一化的方式链接。如上图的左侧部分。下图是

定价补贴(零)--新的开始

本章讲开启一个新的系列,并不是真的进入了一个新的行业,只是不满足原地踏步的自己。 开始系列中,仍然会以介绍一些简单框架和入门知识为主,后续再进一步的介绍相关的算法。需要说明的是定价策略是一门综合科学,包含了经济学、数学、博弈等多方面的知识。交易模式说到定价就不得说一下交易模式,其实从日常的生活中就能感受到,交易模式是越来越丰富的,在不同的交易模式下,对于定价的考量也是不太一样的。先来看看都有啥交易

自然语言处理之Transformer精讲(一)

本节要详细介绍一些Transformer这个常用的神经网络组件,会举一些十分详细的例子,目的是将这个网络结构讲清楚。TransformerTransformer结构是主要是编码器和解码器组成,Transformer逐渐其实是并且了经典的LSTM循环的机构,使用了一种自注意力的机制。这些我们举一个机器翻译的例子,来讲解整个过程。编码器编码器的主要作用是从输入的语句中尽可能多的提取特征,其结构如图2-

机器学习之归一化

BN(Batch Normalization)BN是深度学习中缓解过拟合的一个非常常见的手段,不仅能有效的解决梯度爆炸的问题,而且加入了BN的网络往往是更加稳定的还具有一定的正则化的作用。梯度饱和问题日常工作中我们经常使用的sigmod激活函数或者tanh激活函数存在饱和的区域,其原因是激活函数输入值过大或者过小,导致的激活函数的梯度接近于0,使得网络收敛过慢。传统的方法是使用Relu激活函数。B

机器学习之Dropout

本文主要介绍两类常以网络层形式添加模型结构中,一类是Dropout,一类是归一化。DropoutDropout是当发生过拟合以后,第一个考虑使用的网络结果。在训练、

图像算法--骨架网络(三)

iGPT最近ChatGPT突然间火了起来,其实图像领域也有类似的模型,叫做iGPT。不仅在图像识别还有在图像补全上都起到很好地作用。

图像算法--骨架网络(二)

本节继续来介绍新的网络结构SENet网络SENet的提出动机十分简单。传统的方法将网络的特征图的值直接传递到下一层,而SENet的核心是建模通道之间的依赖关系,通过网络的全局损失函数自适应的重新校正通道之间的特征的相应的强度。SENet是由一系列的SE块组成,一个SE块包括压缩和激发两个步骤,其中压缩是通过特征图上执行全局平均池化得到当前特征图的全局压缩特征向量,特征图通过两层全连接得到特征图中每
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×