Browse Source

finish "6.3 决策边界(Decision Boundary)"

master
scruel 8 years ago
parent
commit
ad8fdf1b2b
5 changed files with 52 additions and 5 deletions
  1. BIN
      image/20180111_000653.png
  2. BIN
      image/20180111_000814.png
  3. BIN
      image/2413fbec8ff9fa1f19aaf78265b8a33b_Logistic_function.png
  4. +1
    -1
      week3.html
  5. +51
    -4
      week3.md

BIN
image/20180111_000653.png View File

Before After
Width: 394  |  Height: 309  |  Size: 27 kB

BIN
image/20180111_000814.png View File

Before After
Width: 375  |  Height: 323  |  Size: 29 kB

BIN
image/2413fbec8ff9fa1f19aaf78265b8a33b_Logistic_function.png View File

Before After
Width: 826  |  Height: 128  |  Size: 17 kB Width: 826  |  Height: 128  |  Size: 16 kB

+ 1
- 1
week3.html
File diff suppressed because it is too large
View File


+ 51
- 4
week3.md View File

@@ -38,11 +38,13 @@ $h_\theta(x) \lt 0.5$ ,预测为 $y = 0$,即负向类。

为了使 $h \in \left(0, 1\right)$,引入逻辑回归模型,定义假设函数
$$
h_\theta \left( x \right)=g\left(\theta^{T}X \right)
h_\theta \left( x \right)=g(z)=g\left(\theta^{T}X \right)
$$
对比线性回归函数 $h_\theta \left( x \right)=\theta^{T}X$,$g$ 表示逻辑函数([logistic function][1]),复合起来,则为线性回归函数。
对比线性回归函数 $h_\theta \left( x \right)=\theta^{T}X$,$g$ 表示逻辑函数([logistic function][1]),复合起来,则称为逻辑回归函数。

一个常用的逻辑函数是 S 形函数,叫做 [sigmoid 函数][2](如下图),其公式为 $g\left( z \right)=\frac{1}{1+{{e}^{-z}}}$。
逻辑函数是 S 形函数,会将所有实数映射到 $(0, 1)$ 范围。

[sigmoid 函数][2](如下图)是逻辑函数的特殊情况,其公式为 $g\left( z \right)=\frac{1}{1+{{e}^{-z}}}$。

![sigmoid function](image/2413fbec8ff9fa1f19aaf78265b8a33b_Logistic_function.png)

@@ -61,9 +63,54 @@ $\begin{align*}& h_\theta(x) = P(y=1 | x ; \theta) = 1 - P(y=0 | x ; \theta) \ne

## 6.3 决策边界(Decision Boundary)

决策边界的概念可以帮助我们更好地理解逻辑回归模型。

在逻辑回归中,有假设函数 $h_\theta \left( x \right)=g(z)=g\left(\theta^{T}X \right)$。

为了得出分类的结果,这里和前面一样,规定以 $0.5$ 为阈值:


$\begin{align*}& h_\theta(x) \geq 0.5 \rightarrow y = 1 \newline& h_\theta(x) < 0.5 \rightarrow y = 0 \newline\end{align*}$

回忆一下逻辑函数的图像:

![sigmoid function](image/2413fbec8ff9fa1f19aaf78265b8a33b_Logistic_function.png)

观察可得当 $g(z) \geq 0.5$ 时,有 $z \geq 0$,即 $\theta^TX \geq 0$。

同线性回归模型的不同点在于: $\begin{align*}z \to +\infty, e^{-\infty} \to 0 \Rightarrow g(z)=1 \newline z \to -\infty, e^{\infty}\to \infty \Rightarrow g(z)=0 \end{align*}$

直观一点来个例子,${h_\theta}\left( x \right)=g\left( {\theta_0}+{\theta_1}{x_1}+{\theta_{2}}{x_{2}}\right)$ 是下图模型的假设函数。

![](image/20180111_000814.png)

根据上面的讨论,要进行分类,那么只要 $ {\theta_0}+{\theta_1}{x_1}+{\theta_{2}}{x_{2}}\geq0$ 时,就预测 $y = 1$,即预测为正向类。

如果取 $\theta = \begin{bmatrix} -3\\1\\1\end{bmatrix}$,则有 $z = -3+{x_1}+{x_2}$,当 $z \geq 0$ 即 ${x_1}+{x_2} \geq 3$ 时,易绘制图中的品红色直线即**决策边界**,为正向类(以红叉标注的数据)给出 $y=1$ 的分类预测结果。



上面讨论了逻辑回归模型中线性拟合的例子,下面则是一个多项式拟合的例子,和线性回归中讨论的其实没有多大区别。

为了拟合下图数据,建模多项式假设函数:

${h_\theta}\left( x \right)=g\left( {\theta_0}+{\theta_1}{x_1}+{\theta_{2}}{x_{2}}+{\theta_{3}}x_{1}^{2}+{\theta_{4}}x_{2}^{2} \right)$

这里取 $\theta = \begin{bmatrix} -1\\0\\0\\1\\1\end{bmatrix}$,决策边界对应了一个在原点处的单位圆,如此便可给出分类结果了,如图中品红色曲线:



![](image/20180111_000653.png)

当然,通过一些更为复杂的多项式,还能拟合那些图像显得非常怪异的数据,使得决策边界像碗状、爱心状等等。



简单来说,决策边界就是**分类的分界线**,分类现在实际就由 $z$ (中的 $\theta$)决定啦。

## 6.4 代价函数(Cost Function)


## 6.4 Cost Function

## 6.5 Simplified Cost Function and Gradient Descent



Loading…
Cancel
Save