信息熵

熵熵的计算公式为:$$H(x)=-\sump(x)log^{p(x)}$$这个公司我们并不陌生,在决策树切割的时候会记住熵增益,逻辑回归的损失函数交叉熵函数等,那我们今天就来认识不用的熵有何种物理意义。若不确定性越大,则信息量越大,熵越大若不确定性越小,则信息量越小,熵越小条件熵假设随机变量(X,Y

拉格朗日乘子

拉格朗日乘子拉格朗日乘子在很多机器学习中都提到过,一般都会被一带而过,因为本身理论就比较复杂,这里会拉格朗日乘子的使用做一个简答的介绍,否则SVM这一类凸优化算法根本不可能理解其精髓。在求解最优化问题中,经常用到就是拉格朗日乘子法。在有等式约束时使用拉格朗日乘子法,在有不等约束时使用KKT条件。当你

图像算法--卷积

卷积CNN已经成为图片分类比较成熟的算法,但是,很少人了解其中的数学原理,这里就先从卷积讲起,后面也会主要到卷积神经网络。希望大家能够很好的理解这个内容,为了以后学习卷积神经网络做准备。卷积的定义连续下的定义$$(f*g)(n)=\intf(t)g(n-t)$$离散下的定义$$(f*g)(n)=\s

数学之矩阵

基础概念矩阵在机器学习算法中经常作为辅助计算的存在,除此以外矩阵论本身就是一门独立的学科,在推荐场景下使用尤其广泛,这里有机会从头看看矩阵的相关知识,分享给代价,勾起大学的青葱回忆?本节中我们将介绍一些矩阵的基础知识,和一些常用的表达,其实我们经常看论文会发现一些表达上比较生涩,我们很难看懂,导致我

点积和叉积

点积当我们读一些论文或是一些机器学习的书籍的时候重视感觉有些数学上的结论模糊不清,最后弄得我们也并不是很懂算法其中的数学道理,本系列文章将着重讲解一些基础数学的知识。点积是一个标量,也就是一个数字,如果给出两个向量$A=<a_1,a_2,...,a_n>$$B=<b_1,b_2,.

概率论(四)

中心极限定理当你看数据挖掘的相关数据,虽然一遍一遍的看,但是总是不太懂,这个时候你可能需要看看数理统计的相关知识,这是个追根溯源的时代,知识体系也是一样,所以我们开始数学路程吧。在本节中我们来说一下中心极限定理极限定理设$X_1,...,X_n$是独立同分布的随机变量序列,序列的每一项均值是$\mu

概率论(三)

参数估计当你看数据挖掘的相关数据,虽然一遍一遍的看,但是总是不太懂,这个时候你可能需要看看数理统计的相关知识,这是个追根溯源的时代,知识体系也是一样,所以我们开始数学路程吧。点估计:依据样本估计总体分布中所含的未知参数或未知参数的函数。区间估计(置信区间的估计):依据抽取的样本,根据一定的正确度与精

概率论(二)

概率论与数理统计当你看数据挖掘的相关数据,虽然一遍一遍的看,但是总是不太懂,这个时候你可能需要看看数理统计的相关知识,这是个追根溯源的时代,知识体系也是一样,所以我们开始数学路程吧。本节我们要学一学经常被提到且常用的分布,算是积攒经验了,后面很多机器学习数学建模都是基于现在的本钱,所以咱们来开始学习

概率论(一)

概率论与数理统计当你看数据挖掘的相关数据,虽然一遍一遍的看,但是总是不太懂,这个时候你可能需要看看数理统计的相关知识,这是个追根溯源的时代,知识体系也是一样,所以我们开始数学路程吧。连续随机变量在生产过程中,我经常面对的是取值是连续的概率分布,例如身高体重,而在连续随机变量中,我们的频率函数也被密度

概率论(零)

概率论与数理统计当你看数据挖掘的相关数据,虽然一遍一遍的看,但是总是不太懂,这个时候你可能需要看看数理统计的相关知识,这是个追根溯源的时代,知识体系也是一样,所以我们开始数学路程吧。随机变量如果随机变量的取值范围是{$x_1,x_2..$},且有$\sump(x)=1$的函数p,我们称这个函数是随机

数学之导数大全

常用导数大全把常用的导数求法进行汇总,作为其他学习的基础。$y=C$,$y^{'}=0$$y=x^n$,$y^{'}=nx^{n-1}$$y=sinx$,$y^{'}=cosx$$y=cosx$,$y^{'}=-sinx$$y=tanx$,$y^{'}=\frac{1}{cos^2x}=sec^{2

机器学习之xgboost算法

xgboostxgboost可能是现在用的最多的模型了,炒的火热的深度学习解决实际业务的落地点还是比价少的,比起这种可解释模型,在工程界可能更加受追捧。xgboost的组成话说xgboost是由什么组成的呢?答案就是一堆CART树,但是有了这些CART树怎么做预测呢,难倒是投票,好吧也是一种方式,但
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×