#tensorflow #keras #deep-learning #q-learning
#tensorflow #keras #глубокое обучение #q-обучение
Вопрос:
Как создать пользовательскую среду openai gym?
Ответ №1:
@Alexandre Catalano спасибо, что поделились,но как создать пользовательскую среду с препятствиями для робота, подобную изображению выше, где красный круг — робот, зеленый квадрат — цель, а черный z — статическое препятствие для алгоритма DQN с глубоким подкреплением, который можно импортировать, как и другие среды gym в python.
Я хочу создать среду, в которой робот может находить цель со статическими препятствиями.
Комментарии:
1. Я отредактировал свой ответ, чтобы избежать слишком большого количества ответов и вопросов. Вы должны прокомментировать или отредактировать свои ответы, чтобы другим людям было легко их понять. Переполнение стека — это сообщество 😉 Если мой ответ вам подходит, пожалуйста, отметьте его как правильный ответ, если нет, пожалуйста, оставьте мне комментарий под ним
Ответ №2:
На ваш вопрос, как создать пользовательскую среду deepbots для моего робота?
Вы можете создать свою собственную пользовательскую среду в тренажерном зале, и у вас есть пример на env, которым вы можете вдохновиться. Например, этот https://gym.openai.com/envs/CarRacing-v0 / (источник доступен) возможно, вам будет достаточно изменить эту среду
На ваш вопрос, как реализовать DQN с помощью CNN, используя TensorFlow и keras.
Я думаю, здесь есть то, что вам нужно https://keras.io/examples/rl/deep_q_network_breakout/Вы можете увидеть больше алгоритма здесь https://github.com/openai/baselines
Извините, что не предоставил код, но ваши вопросы очень открытые, и предоставление вам ссылок звучит как лучшие идеи.
РЕДАКТИРОВАТЬ 10/11/2020
Я думаю, что вы ищете https://github.com/MattChanTK/gym-maze Я настоятельно советовал использовать env таким образом, чтобы написать свой DQN. Затем, когда это сработает для вас, проверьте исходный код и обновите его для своих нужд.