Планирование пути робота с использованием сети Deep Q

#tensorflow #keras #deep-learning #q-learning

#tensorflow #keras #глубокое обучение #q-обучение

Вопрос:

Как создать пользовательскую среду openai gym?

Ответ №1:

@Alexandre Catalano спасибо, что поделились,введите описание изображения здесьно как создать пользовательскую среду с препятствиями для робота, подобную изображению выше, где красный круг — робот, зеленый квадрат — цель, а черный z — статическое препятствие для алгоритма DQN с глубоким подкреплением, который можно импортировать, как и другие среды gym в python.

Я хочу создать среду, в которой робот может находить цель со статическими препятствиями.

Комментарии:

1. Я отредактировал свой ответ, чтобы избежать слишком большого количества ответов и вопросов. Вы должны прокомментировать или отредактировать свои ответы, чтобы другим людям было легко их понять. Переполнение стека — это сообщество 😉 Если мой ответ вам подходит, пожалуйста, отметьте его как правильный ответ, если нет, пожалуйста, оставьте мне комментарий под ним

Ответ №2:

На ваш вопрос, как создать пользовательскую среду deepbots для моего робота?

Вы можете создать свою собственную пользовательскую среду в тренажерном зале, и у вас есть пример на env, которым вы можете вдохновиться. Например, этот https://gym.openai.com/envs/CarRacing-v0 / (источник доступен) возможно, вам будет достаточно изменить эту среду

На ваш вопрос, как реализовать DQN с помощью CNN, используя TensorFlow и keras.

Я думаю, здесь есть то, что вам нужно https://keras.io/examples/rl/deep_q_network_breakout/Вы можете увидеть больше алгоритма здесь https://github.com/openai/baselines

Извините, что не предоставил код, но ваши вопросы очень открытые, и предоставление вам ссылок звучит как лучшие идеи.

РЕДАКТИРОВАТЬ 10/11/2020

Я думаю, что вы ищете https://github.com/MattChanTK/gym-maze Я настоятельно советовал использовать env таким образом, чтобы написать свой DQN. Затем, когда это сработает для вас, проверьте исходный код и обновите его для своих нужд.