Правильно ли обратное распространение для NN

#python #neural-network

#python #нейронная сеть

Вопрос:

У меня есть 3 слоя NN. 3 нейрона на входе, затем 3 с активацией RELU, затем 3 с активацией Sigmoig, затем 3 с активацией Softmax (ее вывод). И есть веса:

 W = np.array([[[0.1, 0.2, 0.3],
             [0.3, 0.2, 0.7],
             [0.1, 0.2, 0.3]],
            [[0.2, 0.3, 0.5],
             [0.3, 0.5, 0.7],
             [0.6, 0.4, 0.8]],
            [[0.1, 0.4, 0.8],
             [0.3, 0.7, 0.2],
             [0.5, 0.2, 0.9]]])
 

Ввод и результат:

 X = np.array([0.1, 0.2, 0.7])
Y = np.array([1.0, 0.0, 0.0])
 

Перемотка вперед:

 Z1 = W[0] @ X
H1 = RELU(Z1)
Z2 = W[1] @ H1
H2 = Sigmoid(Z2)
Z3 = W[2] @ H2
H3 = Softmax(Z3)
Loss = CrossEntropy(Ypred,Y)
 

Обратное распространение:

 dLoss = dCrossEntropy(Ypred, Y)
o_error = dLoss
o_delta = dLoss*(dSoftmax(o_error))

z2_error = o_delta*(W[2].T)
z2_delta = z2_error * dSigmoid(Z2)

z1_error = z2_error*(W[1].T)
z1_delta = z1_error * dRELU(Z1)

W[0]  = X.T.dot(z1_delta)
W[1]  = (Z1.T).dot(z1_delta)
W[2]  = (Z2.T).dot(o_delta)
 

Я прав в обратном распространении?