Ошибка при использовании предварительно обученной модели в ЦИФРАХ с другим набором данных. Как изменить слои на основе новых наборов данных?

#machine-learning #computer-vision #deep-learning #caffe #nvidia-digits

#машинное обучение #компьютерное зрение #глубокое обучение #caffe #nvidia-цифры

Вопрос:

Я пытаюсь использовать предварительно подготовленную модель (VGG 16) для обработки ЦИФР, но я получил эту ошибку.

ОШИБКА: Проверка не удалась: ошибка == cudaSuccess (2 против 0) не хватает памяти

и

 conv2_2 does not need backward computation.
relu2_1 does not need backward computation.
conv2_1 does not need backward computation.
pool1 does not need backward computation.
relu1_2 does not need backward computation.
conv1_2 does not need backward computation.
relu1_1 does not need backward computation.
conv1_1 does not need backward computation.
data does not need backward computation.
This network produces output label
This network produces output softmax
Network initialization done.
Solver scaffolding done.
Finetuning from /home/digits/digits/jobs/20161020-095911-9d01/model.caffemodel
Attempting to upgrade input file specified using deprecated V1LayerParameter: /home/digits/digits/jobs/20161020-095911-9d01/model.caffemodel
Successfully upgraded file specified using deprecated V1LayerParameter
Attempting to upgrade input file specified using deprecated input fields: /home/digits/digits/jobs/20161020-095911-9d01/model.caffemodel
Successfully upgraded file specified using deprecated input fields.
Note that future Caffe releases will only support input layers and not input fields.
Check failed: error == cudaSuccess (2 vs. 0)  out of memory
  

Я успешно загрузил deploy.prototxt и VGG_ILSVRC_16_layers.caffemodel synset_words.txt в DIGITS и протестировал с моим набором данных, который имеет два класса.

Ответ №1:

Иногда digits-server не удается очистить память. Попробуйте использовать эту команду, если вы используете ubuntu:

 sudo restart nvidia-digits-server
  

Если это не сработает и вы снова столкнетесь с тем же самым, вам необходимо уменьшить batch_size

Комментарии:

1. Спасибо. Проблема с памятью решена, но ошибка осталась. Я должен изменить последний слой, но когда я меняю имя, процесс обучения идет не очень хорошо.

2. оба предварительно обученных и ваш набор данных одинаковы? Если хотя бы предварительно подготовленная модель не подготовлена из аналогичной базы данных, вы не получите лучших результатов

3. У меня другой набор данных только с двумя классами, и я хочу использовать модель для своего набора данных. Я прочитал «тонкая настройка» и «Передача обучения», чтобы изменить и доработать для моего нового набора данных, но я получил ошибку при обучении.