机器学习之集成学习

集成学习在数据疯狂增长的今天,单个学习器似乎不能满足我们对于数据挖掘的要求,这个时候我们需要讲多个学习器集成使用,从而提高整个学习器的泛华能力。目前的集成学习方法大致可分为两大类?即个体学习器问存在强依赖关系、必须串行生成的序列化方法?以及个体学习器间不存在强依赖关系、可同时生成的并行化方法;前者的

样本不均之样本采样

采样什么是类不平衡问题类不平衡(class-imbalance)是指在训练分类器中所使用的训练集的类别分布不均。比如说一个二分类问题,1000个训练样本,比较理想的情况是正类、负类样本的数量相差不多;而如果正类样本有995个、负类样本仅5个,就意味着存在类不平衡。在后文中,把样本数量过少的类别称为“少数类”。但实际上,数据集上的类不平衡到底有没有达到需要特殊处理的程度,还要看不处理时训练出来的模型

机器学习之贝叶斯算法

贝叶斯分类器贝叶斯分类器的特点属性可以离散可以连续数学基础扎实,分类效率稳定对缺失值和噪声不敏感属性如果不相关(独立),效果很好,如果相关效果不低于决策树。原理设样本$\vec{x}=x_1,x_2...x_n$, 标记$y \in Y=\{ c_1, c_2,...,c_k\}$,P(X, Y)是X,Y的组合概率分布。训练集合$T=\{(\vec{x_1},y_1),(\vec{x_2,y_2)

postgres基本应用

postgres 数据库为已有的字段添加默认值ALTER TABLE table_name ALTER COLUMN column_name SET DEFAULT default_value;删除默认值ALTER TABLE table_name ALTER COLUMN column_name DROP DEFAULT;给postgre添加自增字段方法一:CREATE TABLE custom

数据可视化

数据可视化也是数据挖掘的一部分工作,常见于挖掘前的分析和挖掘后的装X,哈哈,开玩笑,总之数据可视化是数据挖掘中的十分重要的一部分。接下来的几个分享就是针对数据可视化的内容来讲的,希望大家能够很好的使用现有的工具构建出更好、更美的模型。常见的可视化图形条形图和饼图这应该是最古老的可视化方法啦,而且饼图适用于一个整体中不同部分的比较。条形图能够比较不同组的差异来来展示模式。当数值型数据被很好的划分为不

图神经网络(七)--GAE神经网络

如果想了解GAE其实从VAE了解比较好,下面我就先来讲讲VAE自编码器。VAEVAE(VariationalAuto-encoder)图自编码器,是一种和GAN类似的神经网络。那么VAE有什么作用?它主要的解决问题的场景是,你给我一个向量,我给你一张图片,例如我想生成一个猫的图片,你的输入可以是描述

神经网络之BP算法

多层感知机​首先我们来介绍多层感知机,其实根据字面的意思我们已经能够了解大半,就是将一个简单的感知机进行连接,其中层数可以任意挑选,中的维度都可以任意挑选。它的样式是这样的。结构比较简单,输入层进来以后就和隐藏层进行权重转换,直到输出层。它的激活函数不是我们在我们的系统上搜索[感知机]的文章中提到的

神经网络之最优化方法

最优化方法优化方法是深度学习中一个比较重要的话题,其实他的知识来自于最优化理论,如果想详细关注这个话题建议读一下最优化理论这本书,注意本书仅供参考,请误商业使用。本文将介绍常用的最优化方法,梯度下降法,牛顿法,拟牛顿法和共轭梯度法。梯度下降法梯度下降法是我们接触最多的方法,在目标函数是凸函数的时候我们能得到全局最优解。对于一个函数$f(x)$,它的梯度$f'(x)$是$f(x)$的梯度,对于足够小

神经网络之循环神经网络

LSTM神经网络RNN的结构开始为了我们能够对比出两种网络的异同,我们还是给出一个泛化的简图。可以清楚看到整个网络虽然叠加多个神经元,但是每个神经元的处理逻辑单一,很容易将信息丢失。LSTM这个时候我们来进入LSTM的认识。LSTM同样是这样的结构,但是重复的模块拥有一个不同的结构。不同于单一神经网络层,这里是有四个,以一种非常特殊的方式进行交互。上面的图并不陌生,很多博客都能见得到,十分权威的一

神经网络之深度神经网络

神经网络神经网络是比较初级的一个深度学习模型,但是它的变形有很多种,因为其不可解释的特性,也给这种模型蒙上一层面纱,本章就讲解这个神经网络。下图就是一个简单的神经网络的结构,从整体上看分为输入层、隐藏层、输出层。损失函数首先要确定损失函数是凸函数还是非凸函数,如果是凸函数,那么将会不依赖选取的初始值

图像算法--卷积神经网络

卷积神经网络CNN已经成为图片分类比较成熟的算法,在上一节中我们介绍了卷积,可以在本站点搜索卷积,就能看到卷积的相关介绍,这下可以趁热打铁进入CNN的学习。卷积核上一个文章中我们了解到卷积,下面咱们就来理解一下卷积核了。卷积核的表达式$$f=wx+b$$很简单吧,这就是一个线性关系的表达。咱们来看个

神经网络之激活函数

激活函数我们在感知机和BP算法中都提到了激活函数这一个概念,在神经网络一文中也提到这一个概念,我们通过隐藏层来的转换是对原始数据进行线性的转换,例如拉伸和缩小旋转,只有通过非线性的激活函数才能将原始和数据进行扭曲等的操作,既然激活函数这么好,那么我们都有哪些激活函数呢,激活函数之间有什么可以选择的空
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×