Мой соавтор и я обнаруживаем, что когда мы пытаемся запустить coda::gelman.diag()
на нашей модели, подгонка часто приводит к проблемам с памятью. Очевидно, мы можем откорректировать это с помощью прореживания и обжига в некоторой степени, но задаемся вопросом, какие ярлыки могут быть доступны для нас. Мы теряем «многовариантный Rhat», но похоже, что JAGS создает выходные данные (rjags
и R2jags
) my.model.fit$BUGSoutput$summary
с оценочной Rhat для каждого отслеживаемого параметра .... достаточно ли этого достаточно?
Если все оценки Rhat для одной переменной в BUGSoutput
ниже нашего целевого значения (скажем, 1.1), являемся ли мы каким-либо образом антиконсервативным? Есть ли причина для вызова coda::gelman.diag()
в дополнение к этому (gelman.diag
также оценивает верхний предел достоверности для Rhat)?
Существуют ли эмпирические правила, позволяющие нам включать достаточно длинную цепочку для большого эффективного размера выборки, но также избегать ограничений памяти с помощью coda::gelman.diag*()
?