Сведите к минимуму потерю матрицы

#python #matrix #optimization

Вопрос:

У меня есть задача оптимизации матрицы, аналогичная нейронной сети, в которой при «обучении» я получаю только матрицу, фактическое выходное значение и прогнозируемое выходное значение.

Например, в конце каждой итерации я получаю:

 Matrix = [[12,34,56], [12,34,56]]  Output = [1,2,3] Actual = [3,2,1]  

Как я могу оптимизировать это лучше, чем рандомизированные предположения?

Я думал о таких методах, как градиентный спуск и нейронные сети, но они, похоже, не совсем подходят.

Примечание: Я использую python.

Комментарии:

1. вы оптимизируете матрицу? вы не получаете входные данные? можете ли вы привести простой воспроизводимый пример этой оптимизации?