|
|
|
@@ -84,11 +84,11 @@ $Size(\Theta^{(2)})=s_3 \times (s_2 + 1) = 1 \times 4$ |
|
|
|
|
|
|
|
 |
|
|
|
|
|
|
|
对第 $1$ 层的所有激活单元应用激活函数,从而得到第 $2$ 层激活单元的值: |
|
|
|
对输入层(Layer 1)的所有激活单元应用激活函数,从而得到隐藏层(Layer 2)中激活单元的值: |
|
|
|
|
|
|
|
$\begin{align*} a_1^{(2)} = g(\Theta_{10}^{(1)}x_0 + \Theta_{11}^{(1)}x_1 + \Theta_{12}^{(1)}x_2 + \Theta_{13}^{(1)}x_3) \newline a_2^{(2)} = g(\Theta_{20}^{(1)}x_0 + \Theta_{21}^{(1)}x_1 + \Theta_{22}^{(1)}x_2 + \Theta_{23}^{(1)}x_3) \newline a_3^{(2)} = g(\Theta_{30}^{(1)}x_0 + \Theta_{31}^{(1)}x_1 + \Theta_{32}^{(1)}x_2 + \Theta_{33}^{(1)}x_3) \newline \end{align*}$ |
|
|
|
|
|
|
|
对第 $2$ 层的所有激活单元应用激活函数,从而得到输出: |
|
|
|
对 Layer 2 中的所有激活单元应用激活函数,从而得到输出: |
|
|
|
|
|
|
|
$h_\Theta(x) = a_1^{(3)} = g(\Theta_{10}^{(2)}a_0^{(2)} + \Theta_{11}^{(2)}a_1^{(2)} + \Theta_{12}^{(2)}a_2^{(2)} + \Theta_{13}^{(2)}a_3^{(2)})$ |
|
|
|
|
|
|
|
@@ -130,10 +130,12 @@ ${{z}^{\left( 2 \right)}}={{\Theta }^{\left( 1 \right)}} {{X}^{T}}$,这时 $z^ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
当然,神经网络不仅限于三层,每层的激活单元数量也并不固定: |
|
|
|
当然,神经网络可有多层,每层的激活单元数量也并不固定: |
|
|
|
|
|
|
|
 |
|
|
|
|
|
|
|
> 我们习惯于将输入层称为神经网络的第 0 层,如上图的神经网络被称为三层网络。 |
|
|
|
|
|
|
|
## 8.5 例子和直观理解1(Examples and Intuitions I) |
|
|
|
|
|
|
|
为了更好的理解神经网络,举例单层神经网络进行逻辑运算的例子。 |
|
|
|
|