可解释性机器学习(零)

这个系列介绍一下模型的可解释性,这一部分经常被算法同学忽略掉,其实也经常有同学不被其他的业务线理解,感觉算法同学是不是在撞大运。是否真的能对自己学习出来的模型负责。为什么要有模型解释性这个时候你是否会问,我模型效果好就行呗,为啥还要搞这个可解释性,有那个功夫我多做几个模型是不是就好了。其实这个是一个好的问题,算法同学对业务的产出只能是模型吗,模型数量代表工作量吗?这个也是我之前错误认知的理念。 目

感悟之做事

看了第一性原理一段时间了,其实工作中遇到了一些问题,其实并不是对错问题, 就是感觉看待事物的角度上会有一些显著的变化。从上往下看问题 or 从下往上看问题从下往上看问题从下往上看问题, 看到都是”问题“, 都是”缺点“。就像我们自己一样,让你找到身上的缺点,你能挑出来一大堆,这个时候你要把所有的精力全部投入进去改正缺点吗?你会发现过的巨累,但是不一定是越来越好的!映射工作中,这几年被炒的比较热的”

SSE推送数据抓取

提到数据抓取,对于老司机来讲一定觉得十分简单,请给我10行代码的空间,稳稳妥妥的把数据抓到本地(没错,这是犯法的),今天咱们看的是SSE推送接口型的数据抓取,你会发现这部分接口你直接使用requests.get这类方法不失败也不报错,因为过程中不会有终止状态,自然也只能傻等200的信号。SSE先来介绍SSE是个什么东西。SSE ( Server-sent Events )是 WebSocket 的

感悟之问题

你是否有面对问题时候手足无措,这个系列的文章能帮助你找到部分答案。问题第一个咱们要解决的思考的是什么问题,这个至关重要。问题=现状−目标 问题=现状-目标问题=现状−目标这个表达式能够完美的诠释你遇到的问题,当你没有目标的时候就无所谓问题。实际上,没有一个问题是毫无价值的,每个问题的背后都对应着你的目标,你的需求,你改善现状的愿望,这些都代表着你对更好生活的憧憬,都是你的机会。情绪 or 问题当

图神经网络(一)--图神经网络的基础

图神经网络的发展经历了几个阶段,也体现了研究工作者在研究工作上精益求精的态度,接下来咱们一起看看这个发展历程。基于谱分解的方法基于谱分解的方式是2014年提出的,Spectral Network在傅里叶中定义了卷积的运算。该运算可以被定义为信号x(每个节点对应该向量中的一个标量)和一个卷积核gθ=diag(θ)g_{\theta}=diag(\theta)gθ​=diag(θ)的乘积gθ⋆x=Ug

第二曲线创新

前面的章节中讲解了第一性原理,第二曲线是在假设第一性原理既定且正确的情况下,进行第二曲线创新。创新不等于发明创造这经常是生活中面临的一个误区,有些同学在工作中往往没有成就感,主要原因是感觉自己做的工作都是既定的,所有的知识也是既定的,感觉自己成为了知识的搬运工啦。包括有些时候大家在讲解自己的工作的时候,多少都透漏这不自信,因为总是借鉴了这个借鉴啦那么,搞的自己一无是处。以上就是我们经常遇到的误区,

第一性原理

最近看到一本比较好的书籍,算是打破了天窗,这里分享给大家。 首先我们来看人类认识世界的两种方式。归纳法归纳法相信每个人都不会模型,这就是人们成长中必经的阶段,通过实践推导结论,把连续的经验推广到一切时空。然而并不是所有的事情都具有连续性,从而会陷入了归纳的谬论里。这里举一个小例子, 你在中国见到天鹅是白色的,然后你到了欧洲发现天鹅也是白色的,这个时候你心底就会认为,天鹅都是白色的。但是实际生活中是

因果推断(十六)--直接效应和间接效应

咱们先通过一个例子来引出今天的话题。大家一直怀疑避孕药会在女性的身体形成血栓,同时还能降低怀孕率。怀孕又对血栓的形成具有负面的作用(怀孕导致血栓的形成。)所以如果我们想要探索避孕药和血栓形成的关系仅仅通过控制中间变量怀孕是不足够看清楚关系的。必须要对那些使用避孕药之前就怀孕的,以及通过非药物手段进行避孕的女性进行研究。详细的说是通过条件化中间变量(怀孕),即使避孕药和血栓形成没有直接效应,也可能产

因果推断(十四)--d分离和准则

本文介绍一下因果图中最经典的概念,d分离和前门准则和后门准则。d分离d分离在概率图中用来判断变量独立的一个很有效的方法,下面来看看D分离的定义。当路径p被结点集Z,d-分离(或被blocked掉)时,当且仅当以下条件成立: 1. 若p包含形式如下的链i->m->j 或i<-m->j,则结点m在集合Z中。2. 若p中包含collider(碰撞点)i->m<-j,则

推荐搜索之兴趣学习汇总

DISN有用户历史行为虽然好,但是也需要节制。把用户的行为序列先分片(session) 能过滤掉一些噪声序列。DSIN 针对 DIN 和 DIEN 没有考虑用户历史行为中的 Session 信息,因为每个 Session 中的行为是相近的,而在不同 Session 之间的差别很大,它在 Session 层面上对用户的行为序列进行建模;MIMNMIMN算是本系列中,用户长期行为序列建模的开端,既然是

推荐搜索之LR+GBDT

FFM 模型采用引入特征域的方式增强了模型的特征交叉能力,但无论如何, FFM 只能做二阶的特征交叉,如果继续提高特征交叉的维度,会不可避免地产生 组合爆炸和计算复杂度过高的问题。那么就引入今天要说的新的模型趋势LR+GBDTLR+GBDT模型的结构如图1所示。用 GBDT 构建特征工程,利用 LR 预估 CTR 这两步是独立 训练的,所以不存在如何将 LR 的梯度回传到 GBDT 这类复杂的问题

贝叶斯网络(四)--完整数据集下的参数学习

本节主要讲完整数据集下的参数学习, 在贝叶斯网络中参数就是计算路径概率的时候,每条连边的概率。对于这个概率主要有两种做法,这一种是 频率学派, 一种贝叶斯学派。频率学派这种方法是最容易理解和做的,直接调过证明过程,看一个小例子。看如图1的概率关系。MFRm0m_{0}m0​badOm0m_{0}m0​badOm0m_{0}m0​badOm0m_{0}m0​badOm0m_{0}m0​badNm0m
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×