线性代数

有时我们需要衡量一个矢量的大小。在机器学习中,我们经常使用称为 (norm)的函数来衡量矢量大小。形式上范数的定义如下。$$||x||_{p}=(\sum |x_{i}|^{p})^{\frac{1}{p}}$$

机器学习之L1正则化

本文咱们来看下L1正则化的深入分析。L1正则化的表达形式如下$$||w||_{1}=\sum_{i} |w_{i}|$$通过上面的计算方式能够看出L1正则化的计算方式是将所有权重的绝对值求和。接下来还是从线性回归中看L1正则化的影响。$$\bar{J}(w;X;y)=\alpha ||w||_{1} + J(w; X;y)$$对应的梯度为$$\triangledown_{w} \bar{J}(w;

机器学习之L2正则化

之前有一篇博客已经讲解了正则化的一些知识,本文就深入一层看看每一种正则化到底对目标函数做了什么,让大家能够更加深入的了解正则化。现在介绍L2正则化的深入分析。L2参数正则化首先来看下带有正则化的损失函数。$$\bar{J(w;X;y)}=\frac{\alpha}{2}w^{t}w+J(w;X;y) \tag{1.1}$$对应的梯度为$$\triangledown \bar{J(w;X;y)}=\

机器学习之损失函数&评估函数

对数损失对数损失是对预测概率的似然估计,标准形式如下$$logloss=-log\ P(Y|X)$$对数损失最小化的本质是利用样本的已知分布,求解导致这种分布的最佳模型参数,使得这种分布出现的概率最大。它的二分类形式为$$logloss=-\frac{1}{N} \sum_{i=1}^{N} (y*log^{p_{i}}+(1-y)*log^{p_{i}})$$logloss衡量的是预测概率分布和

推荐搜索之Bandit算法

多臂赌博机问题 ( Multi-armed bandit problem, K-armed bandit problem, MAB )。相比大家都是知道的,就是有多个把手每次坂动一个把手的时候会有不同的收益,也可能没有收益,那么怎么做才能知道收益最大的方法呢?这就是一个典型的如何分配Explore和Exploit的次数的问题,就是著名的探索-利用困境(Explore-Exploit dilemma

推荐搜索之矩阵分解(MF)

搜索推荐中经常遇到的问题就是如何发现用户对某个商品的喜欢程度,也就是偏好,那么这个和矩阵分解又有什么关系呢?本文将尽量详细的解释这一点。我们首先来看上面这个图片,左边的矩阵表示的一些用户对于一些影视作品的打分,俗称打分矩阵。右边两个矩阵分别表示将电影分成了剧情和动画,也就是中间的隐变量。右边的两个矩阵是被分解的两个矩阵,怎么来使用这样的矩阵分解的结果呢?如果想给李四推荐一个电影,应该怎么使用上面的

异常检测算法之孤立森林(isolation forest)

异常检测是一个比较经典的方向,这类算法目的是识别出系统的异常数据点,其细分还有一些子方向,变点监测用于识别序列中的突变点,异常序列监测,这类算法经常在轨迹中使用比较广泛,如何快速发现轨迹中的飘逸轨迹点序列。本文介绍的一个比较经典用于找到数据中的孤立点的算法,你可以直接用来识别训练数据中的孤立点和噪声点,也可以使用这个算法作为前置算法帮助过滤数据。废话不多说,现在就马上介绍一些这个算法。下面咱们单独

推荐搜索之计算广告

本章咱们来说说计算广告这一领域,其实从本质上讲呢,计算广告并不属于推荐搜索的领域,是可以单独拉出来当一个领域来研究,但是本身计算广告是更多的是通过推荐、搜索、点击等记录挖掘出来,索性咱们先放到一起了解一下。计算广告是做什么的呢? 提到广告其实就在一个合适的时间、合适的地点给合适的人推荐某些产品。如果用户下单,平台将获得一定的报酬,之前百度通过广告点击赚取了大量的收益,目前也是财报中最大的一部分收益

自然语言处理之标签提取

标签提取在评论挖掘中经常被使用到,如何快速的挖掘众多评论中一些关键词,包括积极地或者消极的。本文将要介绍标签提取一些常用方法,从而丰富我们的技术场景。在介绍新的方法之前,这类问题最朴素的想法应该是通过TF-ID算法对评论进行词频等特征的统计,获取那些重要度高的词语。接下来咱们来介绍两个解决这类问题的方法。TextRankTextRank是通过pagerank衍生出来的一类无监督算法,对于pager

机器学习之特征选择

特征选择也是机器学习一个比较大的话题,一个好的特征选择,可以简化模型,改善性能减少计算开销,改善通用性减低过拟合分享,接下来就来介绍一些特征选择的方法。过滤方法

深度强化学习(二)-- Dueling DQN深度强化学习

Dueling DQNDueling DQN(竞争强化网络)的思路是将原始的Q值,拆成两个部分,一部分是动作无关的值函数V,另一个是在这个状态下各个动作的优势函数a。下图让我们看下一个Dueling DQN和传统DQN网络的区别,这个也是唯一的区别。主要的区别是在末尾出的特征拆解,上路用于预测V,表示静态状态空间的本身具有的价值,一部分用于预测a,表示选择动作以后获得的额外价值。然后汇聚到一起预测

迁移学习(一)--迁移学习概述

本节讲解基于样本的迁移学习,这个时候你可能会有疑问,基于样本如何迁移呢?难到是直接把源数据直接做学习吗? 当然这种方法已经被证明效果方差较大,很难真正使用。其实基于样本的迁移学习主要要解决两个问题。如何筛选源域中的目标数据具有”相似分布”的有标签数据如何利用这个“相似”的数据进行学习通过上节的学习我们知道一个域分为两部分$D=\{X, P^{x}\}$, 其中X是特征空间,$P^{x}$表示边缘分
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×