sklearn[e3 ??]:混合多重方法获得feature

Concatenating multiple feature extraction methods
通常有很多方法从数据集中获得features,有时候需要把多重方法混合在一起,才能得到一个更好的结果。
这里讲介绍的是通过FeatureUnion将PCA和univariate selection两种方法获得features混合起来用。

继续阅读“sklearn[e3 ??]:混合多重方法获得feature”

sklearn[e2]:保序回归(Isotonic Regression)

这种回归,是这一种单调函数的回归,回归模型中后一个x一定比前一个x大,也就是有序,具体的数学公式在上面两个网址中都有。
保序回归并不需要制定的目标函数。保序回归的应用之一就是用来做统计推断,比如药量和毒性的关系,一般认为毒性随着药量是不减或者递增的关系,借此可以来估计最大药量。
继续阅读“sklearn[e2]:保序回归(Isotonic Regression)”

sklearn[e1]–Plotting Cross-Validated Predictions(交叉验证预测)

看sklearn的英文文档,就算看完还是不清楚到底如何用,还不如直接看它的例子,通过例子来了解我的这个机器学习到底可以有什么用,不说了,就跟刷数学题一样,每天撸这么一个例子。
继续阅读“sklearn[e1]–Plotting Cross-Validated Predictions(交叉验证预测)”

机器学习[7]–深度学习

一 、强化学习

* 强化学习就是程序或智能体(agent)通过与环境不断地进行交互学习一 个从环境到动作的映射,学习的目标就是使累计回报最大化。
* 强化学习是一种试错学习,因其在各种状态(环境)下需要尽量尝试所 有可以选择的动作,通过环境给出的反馈(即奖励)来判断动作的优劣, 最终获得环境和最优动作的映射关系(即策略)。
继续阅读“机器学习[7]–深度学习”

机器学习[6]-监督学习–回归

三、回归分析
回归:统计学分析数据的方法,目的在于了解两个或多个变数间是否相关、 研究其相关方向与强度,并建立数学模型以便观察特定变数来预测研究者感兴 趣的变数。回归分析可以帮助人们了解在自变量变化时因变量的变化量。一般 来说,通过回归分析我们可以由给出的自变量估计因变量的条件期望。
继续阅读“机器学习[6]-监督学习–回归”

机器学习[5]-监督学习–分类

## 一、监督学习的目标

利用一组带有标签的数据,学习从输入到输出的映射,然后将这种映射 关系应用到未知数据上,达到分类或回归的目的。
分类:当输出是离散的,学习任务为分类任务。
回归:当输出是连续的,学习任务为回归任务。
继续阅读“机器学习[5]-监督学习–分类”