Метод «обучения» алгоритмов OpenAI Gym RL сбрасывает модели? - PullRequest
0 голосов
/ 14 января 2020

Если я позвоню «учиться» во второй раз, будет ли модель сначала сброшена, или последующие вызовы «учат» улучшат модель?

Например,

import gym
from stable_baselines.common.policies import MlpPolicy
from stable_baselines.common import make_vec_env
from stable_baselines import A2C
env = make_vec_env('CartPole-v1', n_envs=4)
model = A2C(MlpPolicy, env, verbose=1)
model.learn(total_timesteps=10000) # NOTE the number

и

import gym
from stable_baselines.common.policies import MlpPolicy
from stable_baselines.common import make_vec_env
from stable_baselines import A2C
env = make_vec_env('CartPole-v1', n_envs=4)
model = A2C(MlpPolicy, env, verbose=1)
model.learn(total_timesteps=5000) # NOTE the number
model.learn(total_timesteps=5000) # NOTE the number

дают несколько похожих моделей по модулю какой-либо случайности?

...