tensorflow/докер обслуживания и предварительная обработка ввода/постобработка вывода

#tensorflow2.0 #tensorflow-serving

Вопрос:

У меня есть сохраненная модель машинного обучения, и я хотел бы обернуть вокруг нее сервер. Самый простой способ-это, очевидно, пройти через докер tensorflow/serving. Это работает нормально, но я хотел бы сделать вызов этого докера tensorflow немного более эффективным, отправляя байты, которые затем преобразуются в тензор пикселей на стороне сервера, а не на стороне клиента.

Я понял, что для этого можно использовать предварительную и постобработку в amazon sagemaker, но я еще не нашел способа добиться этого в докере tensorflow/serving. Обратите внимание, что я получил модель и могу использовать только ее, изменение модели для выполнения преобразования внутри самой модели в настоящее время на самом деле не находится в таблице.

Я действительно не могу найти то, что мне нужно, в документации tensorflow/serving, но, возможно, я не ищу правильные термины, не уверен. У кого-нибудь есть какие-нибудь указания? Основная проблема заключается в том, что модель ожидает большого тензора пикселей, и когда я отправляю это через тип содержимого application/json, файл json полностью непропорциональен. Поэтому я хотел бы отправить байты изображения и преобразовать их в этот тензор на стороне сервера.

Каспер