手写BP(反向传播)算法

迈不过友情╰ 2023-06-02 09:12 140阅读 0赞

BP算法为深度学习中参数更新的重要角色,一般基于loss对参数的偏导进行更新。

一些根据均方误差,每层默认激活函数sigmoid(不同激活函数,则更新公式不一样)

假设网络如图所示:

1254945-20191001202819610-2045853468.png

则更新公式为:

1254945-20191001204053964-1671293594.png

以上列举了最后2层的参数更新方式,第一层的更新公式类似,即上一层的误差来自于下一层所有的神经元,e的更新就是不断建立在旧的e上(这里g可以当做初始的e)

下面上代码:

1,BP算法

  1. # 手写BP算法
  2. import numpy as np
  3. # 先更新参数,再继续传播
  4. # layers:包括从输入层到输出层,每层参数为:连接权重w,阈值b,输出y。类型为np.array
  5. # 对于输入层,w和b随便是啥,反正不用,只需y即原始输入
  6. # 基于激活函数sigmoid
  7. # loss为均方误差
  8. def bp(layers,labels,lr=0.001):
  9. # 翻转layers,反向传播
  10. reversed_layers=layers[::-1]
  11. # 输出层
  12. output_w,output_b,output_y=reversed_layers[0]
  13. g=np.array([output_y[j]*(1-output_y[j])*(labels[j]-output_y[j]) for j in range(len(labels))])
  14. # 最后一层更新较为特殊,先进行更新
  15. delta_w=np.empty(shape=(output_w.shape[0],output_w.shape[1]))
  16. # 上一层输出y
  17. last_y=reversed_layers[1][2]
  18. for h in range(output_w.shape[0]):
  19. for j in range(output_w.shape[1]):
  20. delta_w[h,j]=lr*g[j]*last_y[h]
  21. delta_b=-lr*g
  22. new_w=output_w+delta_w
  23. new_b=output_b+delta_b
  24. reversed_layers[0][0]=new_w
  25. reversed_layers[0][1]=new_b
  26. # 从倒数第二层到第二层进行更新,每次取3层进行计算,由公式知,需用到上一层输出即下一层权重
  27. for i in range(1,len(reversed_layers)-1):
  28. # 下一层w
  29. next_w=reversed_layers[i-1][0]
  30. out_w,out_b,out_y=reversed_layers[i]
  31. # 上一层y
  32. last_y=reversed_layers[i+1][2]
  33. # 更新辅助量,意思即上一层每个神经元的误差都由下一层所有神经元的误差反向传播,体现在这里内循环
  34. e=np.empty(shape=(len(out_b),1))
  35. for h in range(len(out_b)):
  36. temp=0
  37. for j in range(next_w.shape[1]):
  38. temp+=next_w[h,j]*g[j]
  39. e[h]=out_y[h]*(1-out_y[h])*temp
  40. delta_w=np.empty(shape=(out_w.shape[0],out_w.shape[1]))
  41. for h in range(out_w.shape[0]):
  42. for j in range(out_w.shape[1]):
  43. delta_w[h,j]=lr*e[j]*last_y[h]
  44. delta_b=-lr*e
  45. out_new_w=out_w+delta_w
  46. out_new_b=out_b+delta_b
  47. reversed_layers[i][0]=out_new_w
  48. reversed_layers[i][1]=out_new_b
  49. g=np.copy(e)
  50. return layers

以上假设每个神经元的输出为一个实数y值

2,构建测试

构建平面上的点(x,y),将y是否大于0作为划分,进行训练。只使用了一层网络,sigmoid激活

  1. X=[]
  2. Y=[]
  3. for i in range(-100,100):
  4. for j in range(-100,100):
  5. X.append([[i],[j]])
  6. if j>=0:
  7. Y.append([1])
  8. else:
  9. Y.append([0])
  10. X=np.array(X)
  11. Y=np.array(Y)

3,划分训练,验证集

  1. indexs=np.random.choice(range(40000),size=30000)
  2. x_train=np.array([X[i] for i in indexs])
  3. y_train=np.array([Y[i] for i in indexs])
  4. x_val=np.array([X[i] for i in np.setdiff1d(range(40000),indexs))
  5. y_val=np.array([Y[i] for i in np.setdiff1d(range(40000),indexs))

4,训练。这里只对所有样本训练了一轮。使用随机初始化的w和b,每个样本都会改变w和b

  1. # 使用sigmoid激活函数
  2. def output(input_x,w,b):
  3. res=0
  4. t=np.matmul(np.transpose(w),input_x)-b
  5. return 1./(1+np.power(np.e,-t))
  6. w1=np.random.normal(size=(2,1))
  7. b1=np.array([[0]])
  8. for i in range(len(x_train)):
  9. y0=x_train[i]
  10. l=y_train[i]
  11. input_layers=[]
  12. w0,b0=(0,0)
  13. input_layers.append([w0,b0,y0])
  14. input_layers.append([w1,b1,output(y0,w1,b1)])
  15. input_layers=bp(input_layers,l)
  16. w1=input_layers[1][0]
  17. b1=input_layers[1][1]
  18. # w: [[0.11213777]
  19. # [1.67425498]]
  20. # b: [[0.0001581]]
  21. print('w: ',w1)
  22. print('b: ',b1)

5,验证。从分出的验证集选取部分验证即可

  1. for xx in x_val[:50]:
  2. print(xx.reshape((2,)),output(xx,w1,b1).reshape((1,)))

验证结果如下:

  1. [63 68] [1.]
  2. [-100 -99] [1.39636722e-77]
  3. [-100 -98] [7.44936654e-77]
  4. [63 69] [1.]
  5. [-100 -96] [2.12011171e-75]
  6. [-100 -94] [6.03390049e-74]
  7. [-100 -93] [3.21897678e-73]
  8. [63 74] [1.]
  9. [-100 -91] [9.16130293e-72]
  10. [63 75] [1.]
  11. [63 76] [1.]
  12. [63 77] [1.]
  13. [63 78] [1.]
  14. [-100 -86] [3.95872874e-68]
  15. [-100 -85] [2.11191018e-67]
  16. [63 79] [1.]
  17. [-100 -83] [6.01055872e-66]
  18. [-100 -82] [3.20652436e-65]
  19. [63 82] [1.]
  20. [-100 -80] [9.12586299e-64]
  21. [-100 -79] [4.86848285e-63]
  22. [63 83] [1.]
  23. [-100 -77] [1.38558459e-61]
  24. [-100 -76] [7.39184317e-61]
  25. [63 89] [1.]
  26. [-100 -74] [2.10374039e-59]
  27. [63 91] [1.]
  28. [-100 -72] [5.98730724e-58]
  29. [-100 -71] [3.19412012e-57]
  30. [-100 -70] [1.70400531e-56]
  31. [-100 -69] [9.09056014e-56]
  32. [-100 -68] [4.84964942e-55]
  33. [-100 -67] [2.58720025e-54]
  34. [-100 -66] [1.38022454e-53]
  35. [63 99] [1.]
  36. [-100 -64] [3.92815978e-52]
  37. [-100 -63] [2.09560219e-51]
  38. [ 64 -100] [2.53988133e-70]
  39. [-100 -61] [5.9641457e-50]
  40. [ 64 -97] [3.85631522e-68]
  41. [ 64 -96] [2.05727442e-67]
  42. [-100 -58] [9.05539386e-48]
  43. [ 64 -90] [4.74253371e-63]
  44. [ 64 -89] [2.53005596e-62]
  45. [ 64 -87] [7.20061393e-61]
  46. [-100 -52] [2.08749548e-43]
  47. [ 64 -84] [1.09327301e-58]
  48. [-100 -50] [5.94107377e-42]
  49. [ 95 -13] [1.49260907e-05]
  50. [-100 -45] [2.56722211e-38]

6,总结:可以看出,这50个验证样本上都没问题,虽然想到的测试方案有点low,但一时找不到啥好数据。由此验证BP算法的正确性。如有可疑或不足之处,敬请告知。

转载于:https://www.cnblogs.com/lunge-blog/p/11616175.html

发表评论

表情:
评论列表 (有 0 条评论,140人围观)

还没有评论,来说两句吧...

相关阅读