[TOC]
对于神经网络的代价函数公式:
$\begin{gather*} J(\Theta) = - \frac{1}{m} \sum_{i=1}^m \sum_{k=1}^K \left[y^{(i)}k \log ((h\Theta (x^{(i)}))k) + (1 - y^{(i)}k)\log (1 - (h\Theta(x^{(i)}))k)\right] + \frac{\lambda}{2m}\sum{l=1}^{L-1} \sum{i=1}^{s_l} \sum_{j=1}^{s_{l+1}} ( \Theta_{j,i}^{(l)})^2\end{gather*}$
$L$: 神经网络的总层数
$s_l$: 第 $l$ 层激活单元的数量(不包含偏置单元)
$K$: 分类总数,即输出层输出单元的数量
$h_\Theta(x)_k$: 分为第 $k$ 个分类的概率 $P(y=k | x ; \Theta) $
注:此处符号表达和第四周的内容有异有同,暂时先按照视频来,有必要的话可以统一一下.
公式可长可长了是吧,那就对照下逻辑回归中的代价函数:
$J(\theta) = - \frac{1}{m} \sum_{i=1}^m [ y^{(i)}\ \log (h_\theta (x^{(i)})) + (1 - y^{(i)})\ \log (1 - h_\theta(x^{(i)}))] + \frac{\lambda}{2m}\sum_{j=1}^n \theta_j^2$
在神经网络的代价函数中,
$\mathbb{R}^{m}$: 即 $m$ 维向量
$\mathbb{R}^{m\times n}$: 即 $m \times n$ 维矩阵
可见,神经网络背后的思想是和逻辑回归一样的。