#image-processing #tensorflow #deep-learning
#обработка изображений #tensorflow #глубокое обучение
Вопрос:
Чтобы подготовить большие объемы наборов данных для обучения моделей классификации изображений на основе глубокого обучения, нам обычно приходится полагаться на методы увеличения изображений. Я хотел бы знать, каковы обычные алгоритмы увеличения изображения, есть ли какие-либо соображения при их выборе?
Ответ №1:
Литература по увеличению данных очень и очень велика и очень зависит от типа ваших приложений. Первое, что приходит мне в голову, — это ротации в конкурсе Galaxy и увеличение данных Джаспера Сноука.
Но на самом деле у всех статей есть свои собственные приемы для получения хороших результатов по специальным наборам данных, например, для растягивания изображения до определенного размера перед его обрезкой или чем-то еще, и это в очень определенном порядке.
Более практично для обучения моделей, подобных CIFAR или IMAGENET, использовать случайные обрезки и случайный контраст, возмущения яркости в дополнение к очевидным переворотам и добавлению шума.
Посмотрите учебник CIFAR-10 на веб-сайте TF, это хорошее начало. Плюс теперь у TF random_crop_and_resize()
есть, что весьма полезно.
Ответ №2:
Это зависит от проблемы, которую вам нужно решить, но большую часть времени вы можете сделать:
- Поворачивайте изображения
- Переверните изображение (симметрия X или Y)
- Добавить шум
- Все предыдущие одновременно.