#python #neural-network
#python #нейронная сеть
Вопрос:
У меня есть 3 слоя NN. 3 нейрона на входе, затем 3 с активацией RELU, затем 3 с активацией Sigmoig, затем 3 с активацией Softmax (ее вывод). И есть веса:
W = np.array([[[0.1, 0.2, 0.3],
[0.3, 0.2, 0.7],
[0.1, 0.2, 0.3]],
[[0.2, 0.3, 0.5],
[0.3, 0.5, 0.7],
[0.6, 0.4, 0.8]],
[[0.1, 0.4, 0.8],
[0.3, 0.7, 0.2],
[0.5, 0.2, 0.9]]])
Ввод и результат:
X = np.array([0.1, 0.2, 0.7])
Y = np.array([1.0, 0.0, 0.0])
Перемотка вперед:
Z1 = W[0] @ X
H1 = RELU(Z1)
Z2 = W[1] @ H1
H2 = Sigmoid(Z2)
Z3 = W[2] @ H2
H3 = Softmax(Z3)
Loss = CrossEntropy(Ypred,Y)
Обратное распространение:
dLoss = dCrossEntropy(Ypred, Y)
o_error = dLoss
o_delta = dLoss*(dSoftmax(o_error))
z2_error = o_delta*(W[2].T)
z2_delta = z2_error * dSigmoid(Z2)
z1_error = z2_error*(W[1].T)
z1_delta = z1_error * dRELU(Z1)
W[0] = X.T.dot(z1_delta)
W[1] = (Z1.T).dot(z1_delta)
W[2] = (Z2.T).dot(o_delta)
Я прав в обратном распространении?