因果推断(十九)--反事实

学习了很长时间的因果知识,人们经常想通过因果关系的发现,尽可能的解答反事实的问题,那么什么是反事实呢? 白话的表达是, 当你做了动作A以后,如果不做会有什么样的后果就是一种因果表达。例如“如果选择复读,是否能考上清华的问题?”反事实因果模型我们先来介绍因果模型的一种形式化的定义。因果模型是一个三元组的模型,M=<U,V,F>M=<U,V,F>M=<U,V,F>.

自然语言处理之循环神经网络

今天咱们通过自然语言处理的视角重新看循环神经网络这一模型。模型结构

样本不均之损失函数

首先我们还是要从交叉熵的损失函数说起,如公式1.1L=−ylog(p)−(1−y)log(1−p)(1.1)L=-y log(p)-(1-y)log(1-p) \tag{1.1}L=−ylog(p)−(1−y)log(1−p)(1.1)p为预测概率,y是真实标签。\begin{equation}L(CE)=\left\{\begin{array}{ll}-log(p) \\-log(1-0) \\

样本不均之标签平滑

背景标签平滑产生的背景是当我们的标注数据不能保证100%的准确性的时候,导致训练过程中过度的信赖标注,对训练效果产生比较大的影响。这个时候我们一般选用标签平滑的方式缓解这种问题。

图像算法-图像的预处理

图像算法能够能够取得比较好的效果十分依赖预处理做的好坏,这里介绍几种图像预处理的算法、二值化二值化是指将像素点的灰度值设置为0或者255的过程,使图像呈现明显的黑白效果。一方面可以减少数据的维度,另一方面可以通过排除原图中噪声带来的干扰,凸显轮廓信息,这种方法在OCR(文字识别)的任务中尤为重要。全局阈值法该方法是对输入的图形中所有的像素点统一进行固定阈值的。然后重构整个图像。图下图的形式。上图是

图神经网络(五)--注意力机制

注意力机制主要是解决当处理大量信息的时候,注意力机制会选择一些关键的信息进行处理,忽略与目标无关的噪声数据,从而提高神经网络的效果。注意力机制注意力机制基本包括三个要素, 请求,键,值,如图1-1就是一个软性的注意力机制。(K,V)是输入的键值对向量数据,包含n项信息,每一项信息的建用kik_{i}ki​表示,值用xix_{i}xi​表示,Q表示与任务相关的查询向量。Value是在给定值的情况,通

可解释性机器学习(一)--内部解释模型

咱们继续讲解可解释性机器学习,咱们开始一起来看看一些算法啦。先从简单的算法开始。

可解释性机器学习(零)

这个系列介绍一下模型的可解释性,这一部分经常被算法同学忽略掉,其实也经常有同学不被其他的业务线理解,感觉算法同学是不是在撞大运。是否真的能对自己学习出来的模型负责。为什么要有模型解释性这个时候你是否会问,我模型效果好就行呗,为啥还要搞这个可解释性,有那个功夫我多做几个模型是不是就好了。其实这个是一个好的问题,算法同学对业务的产出只能是模型吗,模型数量代表工作量吗?这个也是我之前错误认知的理念。 目

感悟之做事

看了第一性原理一段时间了,其实工作中遇到了一些问题,其实并不是对错问题, 就是感觉看待事物的角度上会有一些显著的变化。从上往下看问题 or 从下往上看问题从下往上看问题从下往上看问题, 看到都是”问题“, 都是”缺点“。就像我们自己一样,让你找到身上的缺点,你能挑出来一大堆,这个时候你要把所有的精力全部投入进去改正缺点吗?你会发现过的巨累,但是不一定是越来越好的!映射工作中,这几年被炒的比较热的”

SSE推送数据抓取

提到数据抓取,对于老司机来讲一定觉得十分简单,请给我10行代码的空间,稳稳妥妥的把数据抓到本地(没错,这是犯法的),今天咱们看的是SSE推送接口型的数据抓取,你会发现这部分接口你直接使用requests.get这类方法不失败也不报错,因为过程中不会有终止状态,自然也只能傻等200的信号。SSE先来介绍SSE是个什么东西。SSE ( Server-sent Events )是 WebSocket 的

感悟之问题

你是否有面对问题时候手足无措,这个系列的文章能帮助你找到部分答案。问题第一个咱们要解决的思考的是什么问题,这个至关重要。问题=现状−目标 问题=现状-目标问题=现状−目标这个表达式能够完美的诠释你遇到的问题,当你没有目标的时候就无所谓问题。实际上,没有一个问题是毫无价值的,每个问题的背后都对应着你的目标,你的需求,你改善现状的愿望,这些都代表着你对更好生活的憧憬,都是你的机会。情绪 or 问题当

图神经网络(一)--图神经网络的基础

图神经网络的发展经历了几个阶段,也体现了研究工作者在研究工作上精益求精的态度,接下来咱们一起看看这个发展历程。基于谱分解的方法基于谱分解的方式是2014年提出的,Spectral Network在傅里叶中定义了卷积的运算。该运算可以被定义为信号x(每个节点对应该向量中的一个标量)和一个卷积核gθ=diag(θ)g_{\theta}=diag(\theta)gθ​=diag(θ)的乘积gθ⋆x=Ug
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×