自然语言处理之Transformer精讲(一)

本节要详细介绍一些Transformer这个常用的神经网络组件,会举一些十分详细的例子,目的是将这个网络结构讲清楚。TransformerTransformer结构是主要是编码器和解码器组成,Transformer逐渐其实是并且了经典的LSTM循环的机构,使用了一种自注意力的机制。这些我们举一个机器翻译的例子,来讲解整个过程。编码器编码器的主要作用是从输入的语句中尽可能多的提取特征,其结构如图2-

歪解“道法术器势魂谋”

道法术器势魂谋一直在脑子里,但是一直也没有个时间想想这其中的道理,闲来无事想到哪里写在哪里吧。道道德经中的"道"代表了一种理想状态或目标,它强调追求和谐、平衡、自然的境界。它是一种普遍性的原则,超越个体和具体规则,是人们可以追求的终极目标。

运筹规划(七)-求解器

这篇文章主要介绍当我们面对一个运筹问题的时候,如何求解一个问题。先来介绍一个基于python的集成框架pyomo,通过pyomo下面可以调用一系列的求解器,最终实现求解的过程。先给一个demofrom pyomo.environ import *# 创建一个模型model = ConcreteModel()# 定义变量model.x = Var(within=Reals)model.y = Var

无监督学习之聚类算法

今天这章主要介绍一些聚类算法。

机器学习之归一化

BN(Batch Normalization)BN是深度学习中缓解过拟合的一个非常常见的手段,不仅能有效的解决梯度爆炸的问题,而且加入了BN的网络往往是更加稳定的还具有一定的正则化的作用。梯度饱和问题日常工作中我们经常使用的sigmod激活函数或者tanh激活函数存在饱和的区域,其原因是激活函数输入值过大或者过小,导致的激活函数的梯度接近于0,使得网络收敛过慢。传统的方法是使用Relu激活函数。B

机器学习之Dropout

本文主要介绍两类常以网络层形式添加模型结构中,一类是Dropout,一类是归一化。DropoutDropout是当发生过拟合以后,第一个考虑使用的网络结果。在训练、

图像算法--骨架网络(三)

iGPT最近ChatGPT突然间火了起来,其实图像领域也有类似的模型,叫做iGPT。不仅在图像识别还有在图像补全上都起到很好地作用。

图像算法--骨架网络(二)

本节继续来介绍新的网络结构SENet网络SENet的提出动机十分简单。传统的方法将网络的特征图的值直接传递到下一层,而SENet的核心是建模通道之间的依赖关系,通过网络的全局损失函数自适应的重新校正通道之间的特征的相应的强度。SENet是由一系列的SE块组成,一个SE块包括压缩和激发两个步骤,其中压缩是通过特征图上执行全局平均池化得到当前特征图的全局压缩特征向量,特征图通过两层全连接得到特征图中每

图像算法--骨架网络(一)

今天来讲一种更深的CNN网络,VGG神经网络。更深的网络:VGG神经网络VGG在卷积核方向最大的改进是将卷积核全部更换成了3×3,1×13 \times 3,1 \times 13×3,1×1的卷积核,而性能最好的VGG-16和VGG-19是由仅仅3×33 \times 33×3的卷积核构成,这样做的原因主要有以下几个方面根据感受野的计算方式rfsize=(out−1)×stride×ksizer

机器学习之MSE的梯度下降

本文主要讲解使用梯度下降算法迭代熟悉的MSE损失函数。J(θ)=E[(y−θTx)2]=σy2−2θTp+θTϕθJ(\theta)=E[(y-\theta^{T}x)^{2}] \\=\sigma_{y}^{2}-2\theta^{T}p + \theta^{T} \phi \thetaJ(θ)=E[(y−θTx)2]=σy2​−2θTp+θTϕθMSE可以看上面这个博文了解上面这个公式。其中ϕ

机器学习之MSE

本文想介绍一下MSE这个优化函数,通过MSE这个损失函数来看机器学习中一些底层的理论。标准方程J(θ)=E[(y−y^)2](1.1)J(\theta)=E[(y-\hat{y})^{2}] \tag{1.1}J(θ)=E[(y−y^​)2](1.1)公式1.1是均方误差的一个简单的表示,很明显我们就是要求的一个参数能够使得J(θ)J(\theta)J(θ)最小。最小化的代价函数J(θ)J(\th
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×