反向传播(Backpropagation)算法详解

反向传播(back propagation)算法详解

反向传播算法是神经网络的基础之一,该算法主要用于根据损失函数来对网络参数进行优化,下面主要根据李宏毅机器学习课程来整理反向传播算法,原版视频在https://www.bilibili.com/video/av10590361/?p=14.

首先,我们来看一看优化方程:

上面的损失函数是普通的交叉熵损失函数,然后加上了正则化项,为了更新参数W,我们需要知道J关于W的偏导。

上图是一个简单的例子,我们截取神经网络的一部分,根据链式法则(chain rule),要想知道J关于w的偏导,我们需要求出:

上面的式子也可以写成下式,a代表activation function也就是激活函数:

     

 

1:前向传播(forward pass)

在前向传播中,我们可以得到每个神经元的输出z,以及z关于该层参数w的偏微分:

根据z的式子我们可以知道,z关于w的偏导等于该层的输入,下图是一个例子:

2:反向传播(backward pass)

通过正向传播,我们已经知道了但是还没有求出来,而这两项都是在反向传播过程中得到的。

其中比较好求,因为它的值就是激活函数的偏导,比如sigmoid函数的偏导等于z(1-z).因此现在我们只需要求解

根据链式法则,等于所有分支关于a的偏导,如上图所示。

因此求解的过程大致如下:

为了求,我们需要求解,如果直接连接输出的话,可以按照下面求解:

如果不是直接输出,那么就递归的求解

下面就是总的过程:

可以看出,在求解偏导的时候,需要乘以每一层的输出z,以及激活函数的导数,以及中间的参数w,因此在训练神经网络的时候需要做batch normalization,使得每一层的输入大致在一个scale下面,另外还需要加正则项防止w过大(会造成梯度爆炸),除此之外还需要设计一些好的激活函数来防止梯度消失问题(如sigmoid的偏导最大值为0.25,因此层数加深之后会造成梯度消失)。

  • 5
    点赞
  • 65
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
反向传播backpropagation,简称BP)是一种用于训练神经网络的算法,其主要目的是通过计算误差并反向传播来更新每个神经元之间的权重。 以下是一个简单的反向传播算法的代码示例: ```python # 初始化网络参数 input_layer_size = 2 hidden_layer_size = 3 output_layer_size = 1 # 初始化权重和偏差 W1 = np.random.randn(input_layer_size, hidden_layer_size) b1 = np.zeros((1, hidden_layer_size)) W2 = np.random.randn(hidden_layer_size, output_layer_size) b2 = np.zeros((1, output_layer_size)) # 定义激活函数 def sigmoid(z): return 1 / (1 + np.exp(-z)) # 定义反向传播算法 def backpropagation(X, y, W1, b1, W2, b2, learning_rate): # 前向传播 z1 = np.dot(X, W1) + b1 a1 = sigmoid(z1) z2 = np.dot(a1, W2) + b2 y_pred = sigmoid(z2) # 计算误差 delta3 = y_pred - y # 反向传播 delta2 = np.dot(delta3, W2.T) * (a1 * (1 - a1)) # 更新权重和偏差 dW2 = np.dot(a1.T, delta3) db2 = np.sum(delta3, axis=0, keepdims=True) dW1 = np.dot(X.T, delta2) db1 = np.sum(delta2, axis=0) W2 -= learning_rate * dW2 b2 -= learning_rate * db2 W1 -= learning_rate * dW1 b1 -= learning_rate * db1 return W1, b1, W2, b2 # 训练模型 for i in range(1000): W1, b1, W2, b2 = backpropagation(X, y, W1, b1, W2, b2, 0.1) # 预测结果 z1 = np.dot(X, W1) + b1 a1 = sigmoid(z1) z2 = np.dot(a1, W2) + b2 y_pred = sigmoid(z2) ``` 这段代码假设我们要训练一个具有一个隐藏层、2个输入节点和1个输出节点的神经网络。我们首先随机初始化权重和偏差,然后定义了一个`sigmoid`激活函数。然后我们定义了一个`backpropagation`函数,该函数接收输入数据`X`和目标输出`y`,以及当前的权重和偏差,并使用反向传播算法来更新权重和偏差。在训练模型时,我们重复调用`backpropagation`函数,直到模型收敛。最后,我们使用训练好的模型来预测新的输入数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值