Вопросы с тегом армирование обучение - PullRequest

Вопросы с тегом армирование обучение

0 голосов
3 ответов

Требование: мне нужно выполнить задание T, N раз в игре, в которую играют 500 раундов. У меня есть...

aneeshaasc / 18 апреля 2019
0 голосов
0 ответов

Я бы хотел использовать стандартный обратный вызов Tensorboard с функцией Keras fit для отображения...

keith gould / 18 апреля 2019
0 голосов
0 ответов

Я пытался внедрить SARSA с LVFA. До сих пор я реализовал следующий код, но он, похоже, не работает...

Uzair Akbar / 17 апреля 2019
0 голосов
0 ответов

Я обучил простую последовательную модель для оценки функции стоимости для конкретной политики в...

Malo / 15 апреля 2019
1 голос
1 ответ
0 голосов
0 ответов

Я построил модель обучения подкреплению с помощью Pytorch. Я использовал принцип Q-Learning. Модель...

Tobias M. / 12 апреля 2019
0 голосов
0 ответов

Я пытаюсь сделать глубокого агента q-обучения из https://keon.io/deep-q-learning Моя среда выглядит...

EnesZ / 12 апреля 2019
2 голосов
1 ответ

Я пытаюсь вычислить градиент с помощью tf.GradientTape.Когда я пытаюсь сделать это, используя в...

kosaka norio / 10 апреля 2019
0 голосов
2 ответов

Я удивлен пространством наблюдения, которое я прохожу через самоанализ для CartPole-v0. Согласно...

MasterScrat / 09 апреля 2019
0 голосов
0 ответов

Я строю Agent из keras-rl и использую LinearAnnealedPolicy с EpsGreedyQPolicy. Подробный вывод...

Angelo / 09 апреля 2019
1 голос
0 ответов

У меня есть реализация поиска по дереву Монте-Карло, которую нужно оптимизировать. Поэтому я...

ATidedHumour / 08 апреля 2019
0 голосов
0 ответов

Я пытаюсь реализовать модель актерского критика, чтобы решить проблему с MountainCar. Среда не...

nolw38 / 07 апреля 2019
0 голосов
1 ответ

Краткое описание моей модели Я пытаюсь написать свой собственный алгоритм DQN на Python, используя...

kosaka norio / 06 апреля 2019
1 голос
1 ответ
2 голосов
1 ответ

Мой агент продолжает случайные действия, поэтому алгоритм не тренируется должным образом.Как мне...

omnidevio / 05 апреля 2019
1 голос
1 ответ

У меня есть модель, по которой я хотел бы построить пользовательскую функцию потерь, у меня есть...

Rhys / 04 апреля 2019
1 голос
0 ответов

Я настраиваю как собственные потери, так и собственные методы подгонки внутри Keras для алгоритма...

Mauricio Maroto / 04 апреля 2019
2 голосов
1 ответ

Размер партии означает количество образцов, обученных нейронной работе в обучении под наблюдением,...

guilt11 / 02 апреля 2019
0 голосов
0 ответов

Я устанавливаю тренажерный зал на anaconda, пытаюсь запустить тестовый код на ноутбуке jupyter, но...

xuwenhua625 / 30 марта 2019
0 голосов
0 ответов

Я использую DQNAgent и PrioritizedMemory, чтобы тренироваться против среды, и за вознаграждение это...

Angelo / 28 марта 2019
2 голосов
0 ответов

Я учусь Reinforcement Learning, и я сталкиваюсь с проблемой понимания разницы между SARSA,...

Cooper / 27 марта 2019
1 голос
1 ответ

Я пытаюсь использовать среду FlappyBird в Google Colab для учебной задачи подкрепления. Я скачал...

Subham Agarwala / 27 марта 2019
0 голосов
0 ответов

Я пытаюсь реализовать сеть критиков-актеров, используя keras (и тензор потока 2.0 альфа с...

Taxel / 26 марта 2019
1 голос
0 ответов

У меня есть некоторые проблемы с инициализацией тэты параметра политики для алгоритма REINFORCE из...

xenomeno / 26 марта 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...