AWS Elastic Inference с Pytorch — ошибка сегментации результатов EIA 1.3.1

#python-3.x #amazon-web-services

#python-3.x #amazon-веб-сервисы

Вопрос:

Я развертываю эластичный вывод на нашем сервере AWS.

Есть некоторая модель, которую я должен преобразовать в модуль TorchScript для использования с эластичным выводом.

Но когда я конвертирую модели, ошибка ошибки сегментации python приводит к ошибке без каких-либо объяснений.

Я искал и включал функцию отладки, затем это привело к ошибке ошибки сегментации с информацией (информация привела меня к исходному коду torch-eia (предоставленному AWS))

Я продолжаю поиск и изменяю предельное значение рекурсии системы, расширяю значение stach_size, и ошибка немного отличается. Вместо ошибки сегментации теперь возникает ошибка сегментации (дамп ядра)

Оперативная память и процессор в порядке, stack_size увеличен, предел рекурсии также увеличен.

Это снимок экрана с сообщением об ошибке

И это сообщение об ошибке при отладке с помощью ubuntu gdb Пожалуйста, помогите, я ценю вашу помощь. Спасибо.

Я работаю с python 3.6 torch-eia 1.3.1 поддерживает эластичный вывод

Комментарии:

1. Кто-нибудь здесь? пожалуйста, помогите.

2. Проблема заключалась в следующем: поскольку TorchScript не поддерживает индексацию списка модулей, а также архивирование, я использовал вложенный цикл, чтобы преодолеть это. Но вложенный цикл из 2 (или более) списков модулей приведет к ошибке ошибки сегментации. Мы не можем понять сообщение об ошибке, ошибка сегментации — это ошибка hardward, но в данном случае речь идет о вложенном цикле по многим спискам модулей. Конечно, я не думаю, что это единственная причина ошибки ошибки сегментации, но при развертывании Elastic Inference стоит попробовать.