图像算法--骨架网络(一)

今天来讲一种更深的CNN网络,VGG神经网络。更深的网络:VGG神经网络VGG在卷积核方向最大的改进是将卷积核全部更换成了3×3,1×13 \times 3,1 \times 13×3,1×1的卷积核,而性能最好的VGG-16和VGG-19是由仅仅3×33 \times 33×3的卷积核构成,这样做的原因主要有以下几个方面根据感受野的计算方式rfsize=(out−1)×stride×ksizer

机器学习之MSE的梯度下降

本文主要讲解使用梯度下降算法迭代熟悉的MSE损失函数。J(θ)=E[(y−θTx)2]=σy2−2θTp+θTϕθJ(\theta)=E[(y-\theta^{T}x)^{2}] \\=\sigma_{y}^{2}-2\theta^{T}p + \theta^{T} \phi \thetaJ(θ)=E[(y−θTx)2]=σy2​−2θTp+θTϕθMSE可以看上面这个博文了解上面这个公式。其中ϕ

机器学习之MSE

本文想介绍一下MSE这个优化函数,通过MSE这个损失函数来看机器学习中一些底层的理论。标准方程J(θ)=E[(y−y^)2](1.1)J(\theta)=E[(y-\hat{y})^{2}] \tag{1.1}J(θ)=E[(y−y^​)2](1.1)公式1.1是均方误差的一个简单的表示,很明显我们就是要求的一个参数能够使得J(θ)J(\theta)J(θ)最小。最小化的代价函数J(θ)J(\th

自然语言处理之循环神经网络

今天咱们通过自然语言处理的视角重新看循环神经网络这一模型。模型结构

图像算法-图像的预处理

图像算法能够能够取得比较好的效果十分依赖预处理做的好坏,这里介绍几种图像预处理的算法、二值化二值化是指将像素点的灰度值设置为0或者255的过程,使图像呈现明显的黑白效果。一方面可以减少数据的维度,另一方面可以通过排除原图中噪声带来的干扰,凸显轮廓信息,这种方法在OCR(文字识别)的任务中尤为重要。全局阈值法该方法是对输入的图形中所有的像素点统一进行固定阈值的。然后重构整个图像。图下图的形式。上图是

图神经网络(五)--注意力机制

注意力机制主要是解决当处理大量信息的时候,注意力机制会选择一些关键的信息进行处理,忽略与目标无关的噪声数据,从而提高神经网络的效果。注意力机制注意力机制基本包括三个要素, 请求,键,值,如图1-1就是一个软性的注意力机制。(K,V)是输入的键值对向量数据,包含n项信息,每一项信息的建用kik_{i}ki​表示,值用xix_{i}xi​表示,Q表示与任务相关的查询向量。Value是在给定值的情况,通

可解释性机器学习(一)--内部解释模型

咱们继续讲解可解释性机器学习,咱们开始一起来看看一些算法啦。先从简单的算法开始。

可解释性机器学习(零)

这个系列介绍一下模型的可解释性,这一部分经常被算法同学忽略掉,其实也经常有同学不被其他的业务线理解,感觉算法同学是不是在撞大运。是否真的能对自己学习出来的模型负责。为什么要有模型解释性这个时候你是否会问,我模型效果好就行呗,为啥还要搞这个可解释性,有那个功夫我多做几个模型是不是就好了。其实这个是一个好的问题,算法同学对业务的产出只能是模型吗,模型数量代表工作量吗?这个也是我之前错误认知的理念。 目

优化中的梯度

对于梯度相信大家都不陌生,咱们经常把它翻译成导数。那么咱们就先来看看在梯度下降中导数是怎么起到作用的。导数一阶导数十分好理解,一阶导数是表示原函数的一个斜率信息,而二阶导数是告诉我们一阶导数随着输入是如何变化的,可以认为二阶导数是对曲率的衡量。如果这样的函数具有零二阶导数,那就没有曲 率,也就是一条完全平坦的线,仅用梯度就可以预测它的值。也就是是当学习率是$\alpha$的时候,每次沿着梯度负方向

图像算法--卷积

卷积CNN已经成为图片分类比较成熟的算法,但是,很少人了解其中的数学原理,这里就先从卷积讲起,后面也会主要到卷积神经网络。希望大家能够很好的理解这个内容,为了以后学习卷积神经网络做准备。卷积的定义连续下的定义$$(f*g)(n)=\intf(t)g(n-t)$$离散下的定义$$(f*g)(n)=\s
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×