|
|
|
@@ -3,13 +3,114 @@ |
|
|
|
|
|
|
|
## 1.1 Welcome |
|
|
|
|
|
|
|
由于目前网络中数据的爆炸性增长,以及目前硬件方面升级迭代,机器学习的很多算法再次被开发,并进行了实际的工业使用。 |
|
|
|
|
|
|
|
第一个视频介绍了一些机器学习的应用,例如: |
|
|
|
|
|
|
|
## 1.2 What is Machine Learning |
|
|
|
- 手写识别 |
|
|
|
- 垃圾邮件分类 |
|
|
|
- 搜索引擎 |
|
|
|
- 照片处理 |
|
|
|
- … |
|
|
|
|
|
|
|
## 1.3 Supervised Learning |
|
|
|
使用到机器学习的一些案例: |
|
|
|
|
|
|
|
## 1.4 Unsupervised Learning |
|
|
|
- 数据挖掘 |
|
|
|
- 网页访问记录 |
|
|
|
- 人工无法处理的工作 |
|
|
|
- 手写识别 |
|
|
|
- 计算机视觉 |
|
|
|
- 个人定制 |
|
|
|
- 推荐系统 |
|
|
|
- 研究大脑 |
|
|
|
|
|
|
|
总之就是,机器学习的出现让很多不可能成为了可能,让许多可能变得更好。 |
|
|
|
|
|
|
|
## 1.2 什么是机器学习(What is Machine Learning) |
|
|
|
1. 机器学习定义 |
|
|
|
这里主要有两种定义: |
|
|
|
|
|
|
|
- Arthur Samuel (1959). Machine Learning: Field of study that gives computers the ability to learn without being explicitly programmed. |
|
|
|
|
|
|
|
这个定义是非正式但是是最早的,来自于一个会计算机编程的下棋菜鸟,计算机通过不断的对弈,通过对弈计算布局的好坏,通过不断“学习”,积累经验,成为了一个厉害的棋手。 |
|
|
|
|
|
|
|
- Tom Mitchell (1998) Well-posed Learning Problem: A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E. |
|
|
|
|
|
|
|
这个定义是第一个正式的机器学习定义,有点拗口,视频介绍了一个例子,即垃圾邮件分类的例子,对于垃圾邮件分类,三个字母分别代表: |
|
|
|
|
|
|
|
- T(task): 对垃圾邮件分类这个任务。 |
|
|
|
- P(Performance): 垃圾邮件分类的准确程度。 |
|
|
|
- E(Experience): 用户对于邮件进行是否为垃圾邮件的分类(即帮助机器体验、学习)。 |
|
|
|
|
|
|
|
2. 机器学习算法 |
|
|
|
|
|
|
|
主要有两种机器学习的算法分类 |
|
|
|
|
|
|
|
1. 监督学习 |
|
|
|
2. 无监督学习 |
|
|
|
|
|
|
|
两者的区别为**是否需要人工参与数据标注**。这两部分的内容占比很大,并且很重要,掌握的不好很容易在实际的运用中浪费大量的时间。 |
|
|
|
|
|
|
|
还有一些算法也属于机器学习领域,诸如: |
|
|
|
|
|
|
|
- 半监督学习 |
|
|
|
- 推荐算法 |
|
|
|
- 强化学习:通过观察来学习如何做出动作,每个动作都会对环境有所影响,而环境的反馈又可以引导该学习算法。 |
|
|
|
- 迁移学习 |
|
|
|
|
|
|
|
|
|
|
|
## 1.3 监督学习(Supervised Learning) |
|
|
|
监督学习,即为教计算机如何去完成预测任务(有反馈),预先给一定数据量的输入和对应的结果,建模拟合,最后让计算机进行预测未知数据的结果。 |
|
|
|
|
|
|
|
监督学习一般有两种: |
|
|
|
|
|
|
|
1. 回归问题(Regression) |
|
|
|
|
|
|
|
回归问题即为预测一系列的**连续值**。 |
|
|
|
|
|
|
|
视频中举了房屋价格预测的例子,即给出了一系列的房屋数据,根据其预测任意给定数据的房屋价格。 |
|
|
|
|
|
|
|
 |
|
|
|
|
|
|
|
2. 分类问题(Classification) |
|
|
|
|
|
|
|
分类问题即为预测一系列的**离散值**。 |
|
|
|
|
|
|
|
即根据数据预测被预测对象属于哪个分类。视频中举了癌症肿瘤这个例子,分类分为良性和恶性。上个视频中的垃圾邮件分类问题,也同样是监督学习中的分类问题。 |
|
|
|
|
|
|
|
 |
|
|
|
|
|
|
|
视频中提到**支持向量机**这个算法,当特征量很大的时候(特征即如癌症例子中的肿块大小,颜色,气味等各种特征),计算机内存一定会不够用,支持向量机则能用于大量特征值,能让计算机处理无限多个特征。 |
|
|
|
|
|
|
|
|
|
|
|
## 1.4 无监督学习(Unsupervised Learning) |
|
|
|
|
|
|
|
相对于监督学习,训练集不会有人为标注的结果(无反馈),而是由计算机自己来分析,计算机通过无监督学习的算法,可能会把特定的数据集归为几个不同的簇,这个算法叫做聚类算法。 |
|
|
|
|
|
|
|
无监督学习一般由两种: |
|
|
|
1. 聚类(Clustering) |
|
|
|
2. 关联(Associative) |
|
|
|
|
|
|
|
这里列举一些无监督学习的例子: |
|
|
|
|
|
|
|
- 新闻聚合分类 |
|
|
|
- DNA 个体聚类 |
|
|
|
- 社交网络 |
|
|
|
- 市场细分 |
|
|
|
- 天文数据分析 |
|
|
|
|
|
|
|
**鸡尾酒问题** |
|
|
|
 |
|
|
|
|
|
|
|
在鸡尾酒会上,大家说话声音彼此重叠,几乎很难分辨出面前的人说了什么。而这里的机器学习鸡尾酒算法就可以将说话者的声音同背景音乐分离出来,效果还不错呢\~~。 |
|
|
|
|
|
|
|
嗯,这块是打打鸡血的,只需要一行代码,就是这么简单!嗯,当然,我没复现过 ^_^。 |
|
|
|
|
|
|
|
神奇的代码: |
|
|
|
`[W,s,v] = svd((repmat(sum(x.*x,1),size(x,1),1).*x)*x');` |
|
|
|
|
|
|
|
提到了在机器学习刚开始时,**推荐使用 Matlab 类的工程编程语言**,因为在 C++ 或 Java 等编程语言中,编写对应的代码需要用到复杂的库以及大量的冗余代码,比较耗费时间,建议可以在学习过后再考虑使用其他语言来构建系统。 |
|
|
|
另外,尤其是在做**原型搭建**的时候,也仍然使用 Octave,当其已经可以工作后,才将模型移植到其他的高级编程语言中。 |
|
|
|
|
|
|
|
# 2 Linear Regression with One Variable |
|
|
|
|
|
|
|
|