Получение прогнозов из развернутой модели TF для poet в облаке Google

#tensorflow #machine-learning #google-cloud-platform #tensorflow-serving

#tensorflow #машинное обучение #google-облачная платформа #tensorflow-обслуживание

Вопрос:

Я развернул свою переподготовленную модель TF для poet в облаке Google. в настоящее время я пытаюсь получить прогнозы из этого. Но это выдает следующую ошибку.

  "error": "Prediction failed: Error during model execution: AbortionError(code=StatusCode.INVALID_ARGUMENT, details="contents must be scalar, got shape [1]nt [[{{node DecodeJpeg}}]]")"
  

Следующий код я использовал для получения модели обслуживания

 import tensorflow as tf
from tensorflow.python.saved_model import signature_constants
from tensorflow.python.saved_model import tag_constants
from tensorflow.python.saved_model import builder as saved_model_builder

input_graph = 'retrained_graph.pb'
saved_model_dir = 'my_model'

with tf.Graph().as_default() as graph:
  # Read in the export graph
  with tf.gfile.FastGFile(input_graph, 'rb') as f:
      graph_def = tf.GraphDef()
      graph_def.ParseFromString(f.read())
      tf.import_graph_def(graph_def, name='')

  # Define SavedModel Signature (inputs and outputs)
  in_image = graph.get_tensor_by_name('DecodeJpeg/contents:0')
  inputs = {'image_bytes': tf.saved_model.utils.build_tensor_info(in_image)}

  out_classes = graph.get_tensor_by_name('final_result:0')
  outputs = {'prediction': tf.saved_model.utils.build_tensor_info(out_classes)}

  signature = tf.saved_model.signature_def_utils.build_signature_def(
      inputs=inputs,
      outputs=outputs,
      method_name='tensorflow/serving/predict'
  )

  with tf.Session(graph=graph) as sess:
    # Save out the SavedModel.
    b = saved_model_builder.SavedModelBuilder(saved_model_dir)
    b.add_meta_graph_and_variables(sess,[tf.saved_model.tag_constants.SERVING],signature_def_map={'serving_default': signature})
    b.save()
  

генерирующий код request.json

 python -c 'import base64, sys, json; img = base64.b64encode(open(sys.argv[1], "rb").read()); print json.dumps({"image_bytes": {"b64": img}})' test.jpg amp;> request.json
  

Комментарии:

1. Каков результат: saved_model_cli show --dir <your_saved_model_dir> --all ?

2. Спасибо за ваш ответ. Я закончил это раньше, чем за 3 месяца.

Ответ №1:

Вы можете попробовать:

 {"instances": [{"image_bytes": {"b64": encoded_string}, "key": "0"}]}
  

Комментарии:

1. Спасибо за ваш ответ. Я попробовал это, но это не сработало. Я закончил это раньше, чем за 3 месяца.

2. Здравствуйте, Чаритпрамодя, не могли бы вы, пожалуйста, поделиться своим решением, чтобы оно было полезно людям, которые столкнулись бы с подобной ошибкой.