经典算法之回溯

今天来介绍经典算法中的回溯算法,这类算法是一种弱枚举(这里大家千万不要认为枚举很low,很多问题能够枚举出来还是万幸的)的算法,一般如果代码实现十分简单,但是真的思考出来还是有些难度的,因为一般使用递归实现,所以代码十分简洁,但是执行过程会让你十分痛苦,你即使在项目中打上断点追踪,最后很快就追丢了。所以本节咱们来列举几个经典问题,然后详细介绍一下这类问题的解决办法。组合给定两个整数 n 和 k,返

经典算法之动态规划

动态规划这东西呀,还是需要多多练习的。数字 n 代表生成括号的对数,请你设计一个函数,用于能够生成所有可能的并且 有效的 括号组合。 当 n=3的时候,输出是这个样子的out=["((()))","(()())","(())()","()(())","()()(

xgboost(五) -- 与其他模型融合

之前我们讲了很多xgboost的特性用法等等,接下来我们需要回答的一个问题是xgboost能够与其他模型融合吗?怎么融合?xgboost和DNN模型融合当我们使用xgboost的时候经常会发现,很多场景下我们只用xgboost模型的效果就能够达到一个最佳的效果,使用深度神经网络反而没有xgboost的效果好,这个经常让我们十分头疼,我想做点更nb的东西逻辑就这么难吗?其实个人认为xgboost效果

xgboost(三) -- 排序模型

RankNet是一种pairwise的排序方法,它将排序问题转换为比较$<d_{i},d_{j}>$对的排序概率问题,即比较$d_{i}$排在$d_{j}$前面的概率。RankNet提出了一种概率损失函数来学习排序模型,并通过排序模型对文档进行排序。这里的排序模型可以是任意对参数可微的模型,如增强树、神经网络等。

xgboost(零)--使用基础

xgboost是非常常用的机器学习框架,本章我们仅仅从应用角度来讲,xgboost到底能干什么,通过其他文章我们再了解它是怎么做的,这个也比较符合我们的认知过程,能干什么和怎么干。二分类问题84,051

xgboost(二)之Gradient Boosting

由前述内容可知,XGBoost是由多棵决策树(即CART回归树)构成的,那么多棵决策树是如何协作的呢?此时便用到了Boosting技术。Boosting的基本思想是将多个弱学习器通过一定的方法整合为一个强学习器。在分类问题中,虽然每个弱分类器对全局的预测准确率不高,但可能对数据某一方面的预测准确率非常高,将很多局部预测准确率非常高的弱分类器进行组合,即可达到全局预测准确率高的强分类器的效果。Ada

xgboost(一)之cart树

最近因为工作原因,需要重新回顾xgboost,原来我个人也仅仅限制于使用,没有过多总结,借着这次机会,正好回顾一下这款神器。提到xgboost就必须要提一下cart树,这个是xgboost的基本组成单元。cart树之前微博中提到决策树,可能包括ID3和cs4.5这些算法,其实cart树和这些算法没有什么本质的区别,都是找到一些分割点,然后构建决策树,这里我们主要介绍一下cart的细节,其实这个也是

轨迹挖掘(四)--基于geohash的临近搜索

引言在地理信息中,我们经常要做一个范围搜索,这个往往也是性能的瓶颈,今天我们就来介绍基于geohash的临近搜索。geohash首先我们来介绍什么是geohash,geohash简单来说是一种地理编码,就是你给我输入一个经纬度,我给你一个字符串编码。我们可以简单思考一下,如果让你做范围搜索,你怎么来

linux下升级python版本

大家可能都会遇到这样的问题,python版本升级的问题,这个问题也是比较头疼,对于我这种深度强迫症患者,在不知情的情况下安装了n多版本,也不知道怎么清理,简直让人不能容忍。下面我们来介绍如何升级你服务器上的python呢?下载相应版本的pythonwgethttps://www.python.org

机器学习之ADMM算法

交替方向乘子法本文是继拉格朗日乘子以后有一个讲优化算法,建议先读完拉格朗日乘子然后阅读本文效果更佳。首先我们来考虑以下什么是优化问题,它的数学表达是怎么样的,如果阅读了上面这个博客,你能很好的回答的这个问题,最简单的表达实际上就是。$$min_x=f(x)$$其中$x$是优化变量,也就是可以改变的数值,通过调节$x$的大小,使得目标函数$f(x)$的数值达到最小。实际上对于上面的表达式,$min_
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×