#deep-learning #image-segmentation #medical-imaging
#глубокое обучение #сегментация изображений #медицинская визуализация
Вопрос:
Я новичок в глубоком обучении и семантической сегментации.
У меня есть набор данных медицинских изображений (КТ) в формате Dicom, в котором мне нужно сегментировать опухоли и органы, задействованные на изображениях. Я пометил органы, очерченные нашим врачом, которые мы называем структурой RT, также сохраненной в формате Dicom.
Насколько я знаю, люди обычно используют «маску». Означает ли это, что мне нужно преобразовать всю контурную структуру в структуре rt в маску? или я могу использовать информацию из структуры RT (.dcm) непосредственно в качестве входных данных?
Спасибо за вашу помощь.
Комментарии:
1. В общем,
If you create a mask
вы можете легко обучить его с помощью модели глубокого обучения (Unet). В противном случае, если вы не хотите создавать маску, вам нужноcreate a custom data generator
, и это будет немного сложно.
Ответ №1:
Существует специальная библиотека, pydicom
которую необходимо установить, прежде чем вы сможете фактически декодировать, а затем визуализировать рентгеновское изображение.
Теперь, поскольку вы хотите применить семантическую сегментацию и сегментировать опухоли, решение этой проблемы заключается в создании нейронной сети, которая принимает в качестве входных данных пару [image,mask]
, где, скажем, все местоположения в маске равны 0, за исключением зон, где находится опухоль, которые отмечены знаком1; практически ваша основная истина — это маска.
Конечно, для этого вам придется реализовать свой CustomDataGenerator()
, который должен давать на каждом шаге пакет [image,mask]
пар, как указано выше.