Tensorflow / keras: как обучить CNN с помощью пользовательских файлов изображений (.FITS images)

#python #tensorflow #keras #conv-neural-network #astropy

#python #tensorflow #keras #conv-нейронная сеть #astropy

Вопрос:

В настоящее время я пытаюсь обучить CNN (EfficientNet), используя .ПОДХОДИТ для файлов изображений, но я полагаю, что это применимо и к другим типам изображений. Для открытия такого рода изображений требуется библиотека astropy, и в моем случае, чтобы получить доступ к данным изображения, я просто набираю:

 from astropy.io import fits
path = "path/to/file.fits"
hdul = fits.open(path)
image = hdul[1].data
  

Тогда эта переменная image будет иметь тип numpy.ndarray . Сначала я попробовал использовать keras’ image_dataset_from_directory и, как и ожидалось, это не сработало. Затем я проверил tf.data здесь: https://www.tensorflow.org/tutorials/load_data/images#using_tfdata_for_finer_control. Я попытался создать аналогичный конвейер, и все получилось вплоть до decode_img функции. Поскольку я не имею дело с jpeg, я попытался найти обходной путь, чтобы получить:

 data_dir = home/astro/train
class_names = np.array(sorted([item.name for item in data_dir.glob('*')]))
# class_names = ["stars", "galaxies"]

def get_label(file_path):
    parts = tf.strings.split(file_path, os.path.sep)
    one_hot = parts[-2] == class_names
    return tf.argmax(one_hot)

def decode_img(img):
    hdul = fits.open(img)
    data = hdul[1].data
    data = data.reshape((data.shape[0], data.shape[1], 1))
    data = np.pad(data, [(0,0), (0,0), (0, 2)], 'constant') # padding to create 3 channels
    img = tf.convert_to_tensor(data, np.float32)
    return tf.image.resize(img, [img_height, img_width])

def process_path(file_path):
    label = get_label(file_path)
    img = decode_img(file_path)
    return img, label
  

И это на самом деле работает довольно хорошо, таким образом, что при печати process_path я получаю два тензора, один для изображения, а другой для метки с правильными формами и значениями, которые я хочу.

ПРОБЛЕМА:

Следуя руководству, когда я доберусь до:

 AUTOTUNE = tf.data.experimental.AUTOTUNE
train_ds = train_ds.map(process_path, num_parallel_calls=AUTOTUNE)
val_ds = val_ds.map(process_path, num_parallel_calls=AUTOTUNE)
  

Я получаю следующую ошибку:

 TypeError                                 Traceback (most recent call last)
 in 
      1 AUTOTUNE = tf.data.experimental.AUTOTUNE
      2 
----> 3 train_ds = train_ds.map(process_path, num_parallel_calls=AUTOTUNE)
      4 val_ds = val_ds.map(process_path, num_parallel_calls=AUTOTUNE)

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/data/ops/dataset_ops.py in map(self, map_func, num_parallel_calls, deterministic)
   1700           num_parallel_calls,
   1701           deterministic,
-> 1702           preserve_cardinality=True)
   1703 
   1704   def flat_map(self, map_func):

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/data/ops/dataset_ops.py in __init__(self, input_dataset, map_func, num_parallel_calls, deterministic, use_inter_op_parallelism, preserve_cardinality, use_legacy_function)
   4082         self._transformation_name(),
   4083         dataset=input_dataset,
-> 4084         use_legacy_function=use_legacy_function)
   4085     if deterministic is None:
   4086       self._deterministic = "default"

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/data/ops/dataset_ops.py in __init__(self, func, transformation_name, dataset, input_classes, input_shapes, input_types, input_structure, add_to_graph, use_legacy_function, defun_kwargs)
   3369       with tracking.resource_tracker_scope(resource_tracker):
   3370         # TODO(b/141462134): Switch to using garbage collection.
-> 3371         self._function = wrapper_fn.get_concrete_function()
   3372         if add_to_graph:
   3373           self._function.add_to_graph(ops.get_default_graph())

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/eager/function.py in get_concrete_function(self, *args, **kwargs)
   2937     """
   2938     graph_function = self._get_concrete_function_garbage_collected(
-> 2939         *args, **kwargs)
   2940     graph_function._garbage_collector.release()  # pylint: disable=protected-access
   2941     return graph_function

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/eager/function.py in _get_concrete_function_garbage_collected(self, *args, **kwargs)
   2904       args, kwargs = None, None
   2905     with self._lock:
-> 2906       graph_function, args, kwargs = self._maybe_define_function(args, kwargs)
   2907       seen_names = set()
   2908       captured = object_identity.ObjectIdentitySet(

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/eager/function.py in _maybe_define_function(self, args, kwargs)
   3211 
   3212       self._function_cache.missed.add(call_context_key)
-> 3213       graph_function = self._create_graph_function(args, kwargs)
   3214       self._function_cache.primary[cache_key] = graph_function
   3215       return graph_function, args, kwargs

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/eager/function.py in _create_graph_function(self, args, kwargs, override_flat_arg_shapes)
   3073             arg_names=arg_names,
   3074             override_flat_arg_shapes=override_flat_arg_shapes,
-> 3075             capture_by_value=self._capture_by_value),
   3076         self._function_attributes,
   3077         function_spec=self.function_spec,

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/framework/func_graph.py in func_graph_from_py_func(name, python_func, args, kwargs, signature, func_graph, autograph, autograph_options, add_control_dependencies, arg_names, op_return_value, collections, capture_by_value, override_flat_arg_shapes)
    984         _, original_func = tf_decorator.unwrap(python_func)
    985 
--> 986       func_outputs = python_func(*func_args, **func_kwargs)
    987 
    988       # invariant: `func_outputs` contains only Tensors, CompositeTensors,

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/data/ops/dataset_ops.py in wrapper_fn(*args)
   3362           attributes=defun_kwargs)
   3363       def wrapper_fn(*args):  # pylint: disable=missing-docstring
-> 3364         ret = _wrapper_helper(*args)
   3365         ret = structure.to_tensor_list(self._output_structure, ret)
   3366         return [ops.convert_to_tensor(t) for t in ret]

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/data/ops/dataset_ops.py in _wrapper_helper(*args)
   3297         nested_args = (nested_args,)
   3298 
-> 3299       ret = autograph.tf_convert(func, ag_ctx)(*nested_args)
   3300       # If `func` returns a list of tensors, `nest.flatten()` and
   3301       # `ops.convert_to_tensor()` would conspire to attempt to stack

~/anaconda3/lib/python3.7/site-packages/tensorflow/python/autograph/impl/api.py in wrapper(*args, **kwargs)
    256       except Exception as e:  # pylint:disable=broad-except
    257         if hasattr(e, 'ag_error_metadata'):
--> 258           raise e.ag_error_metadata.to_exception(e)
    259         else:
    260           raise

TypeError: in user code:

    :17 process_path  *
        img = decode_img(file_path)
    :7 decode_img  *
        hdul = fits.open(img)
    /home/marcostidball/anaconda3/lib/python3.7/site-packages/astropy/io/fits/hdu/hdulist.py:154 fitsopen  *
        if not name:
    /home/marcostidball/anaconda3/lib/python3.7/site-packages/tensorflow/python/autograph/operators/logical.py:29 not_
        return _tf_not(a)
    /home/marcostidball/anaconda3/lib/python3.7/site-packages/tensorflow/python/autograph/operators/logical.py:35 _tf_not
        return gen_math_ops.logical_not(a)
    /home/marcostidball/anaconda3/lib/python3.7/site-packages/tensorflow/python/ops/gen_math_ops.py:5481 logical_not
        "LogicalNot", x=x, name=name)
    /home/marcostidball/anaconda3/lib/python3.7/site-packages/tensorflow/python/framework/op_def_library.py:493 _apply_op_helper
        (prefix, dtypes.as_dtype(input_arg.type).name))

    TypeError: Input 'x' of 'LogicalNot' Op has type string that does not match expected type of bool.

  

Кто-нибудь знает способ исправить это? Я искал способы обучения CNN, используя непосредственно массив numpy, такой как тот, который я получаю перед выполнением преобразования тензора, и нашел несколько примеров использования MNIST с автономным keras. Я хотел бы применить обычное увеличение данных и пакетное обучение, и я не уверен, возможно ли это, следуя чему-то вроде того, что я видел.

Большое спасибо!

Комментарии:

1. Что такое class_names?

2. При возникновении неожиданного исключения, пожалуйста, отправьте полный ответ (все, начиная Traceback (most recent call last): с сообщения об исключении. Из одного этого не очень понятно, откуда берется исключение. Кроме того, похоже, что вы чрезмерно адаптируете свой код к тому руководству, которое работает с изображениями RGB. Должно быть совершенно нормально проводить обучение на одноцветных изображениях, например, из файла FITS (поэтому не должно быть необходимости, например, добавлять поддельное дополнительное измерение для 3 цветовых каналов, как вы делаете с np.pad материалом).

3. Я отредактировал вопрос и опубликовал рекомендации. Кроме того, причина, по которой я сделал это дополнение, заключалась в том, что я планировал использовать подход к обучению с переносом, а предварительно обученная модель имеет входные данные (200, 200, 3) . Будет ли это дополнение по-прежнему актуальным? У меня есть изображения только в g-диапазоне, поэтому я не могу использовать другие диапазоны в качестве других каналов.

Ответ №1:

Я столкнулся с той же проблемой. Я думаю, что проблема в том (но я не знаю наверняка), что когда вы создаете train_ds , это говорит что-то вроде «это произойдет, когда мы действительно захотим следующую партию». astropy.io.fits ожидает запуска при вызове, поэтому жалуется, когда указанные имена файлов еще не существуют (или являются заменителями).

Решение, которое я придумал, состояло в том, чтобы написать код для загрузки файлов fits без использования astropy . Вы можете получить это из этого репозитория GitHub. Возможно, это глючит, как вам нравится, но у меня работает, чтобы открывать подходящие изображения (я еще не разобрался с таблицами).