Использование среды вне Gym (OpenAI) - PullRequest
0 голосов
/ 17 февраля 2020

У меня есть куча вопросов, которые я хочу задать относительно использования этой библиотеки ('keras-rl') при ее использовании вне среды "Gym". Я понимаю, что пользователей этой библиотеки очень мало, поэтому я могу принять лучшую альтернативную библиотеку.

Я пытаюсь реализовать DQN с этой игрой T-Rex на Chrome (chrome: // Дино). Я использовал эту библиотеку для создания агента, когда у меня возникли некоторые проблемы: -

В моем агенте DQN код примерно такой:

Кстати, я использую Tensorflow + keras

dqn = DQNAgent(model = model, nb_actions = num_actions,
               memory = memory, nb_steps_warmup = 10,target_model_update = 1e-2, policy = strategy)
  1. Итак, поскольку я хочу определить свои собственные действия (т. Е. Какие элементы управления имеет агент) Как их определить?
  2. В простой среде, в которой только 2 действия и мало опыта какой рекомендуемый объем памяти?
  3. Во всем этом сценарии как изменить систему вознаграждений? Предположим, я хочу дать агенту вознаграждение за то, что установлено по умолчанию. Как мне это сделать?

Есть ли способ настроить код для изменения моих требований? Или есть какая-нибудь другая простая в использовании библиотека для создания агента DQN с минимальными настройками?

...