R metafor - почему результаты отличаются при использовании весов по умолчанию и весов 1 / дисперсии? - PullRequest
0 голосов
/ 30 апреля 2018

Я использую пакет метафор для выполнения мета-регрессии. Моя модель / код имеет вид:

rma.mv(yi = data_mean, V = data_variance, random = ~ 1 | study_id/arm_id, data=mydata, mods = ~ mod1 + mod2 + mod3)

У меня сложилось впечатление, что значение по умолчанию - обратная дисперсия. Тем не менее, я заметил, что если я добавлю аргумент "W = 1 / data_variance" в приведенный выше код, он даст другие результаты (чем без указания W). Почему это?

Пока я здесь, я также хотел бы подтвердить, что для V я должен использовать (стандартную ошибку) ^ 2, а не (стандартное отклонение) ^ 2 - это правильно? (Кажется, «дисперсия» может относиться к обоим, что сбивает с толку!)

1 Ответ

0 голосов
/ 30 апреля 2018

По умолчанию rma.mv()rma.uni()) использует обратную матрицу подразумеваемой дисперсии-ковариации наблюдаемых результатов в качестве матрицы весов. Для простой модели с фиксированными или случайными эффектами модель подразумеваемой дисперсионно-ковариационной матрицы диагональна с V или V + tau^2, соответственно, по диагонали. Следовательно, инверсия также диагональна с 1/V или 1/(V + tau^2) вдоль диагонали.

Вы используете более сложную модель со случайными эффектами на уровне обучения и на уровне руки. Следовательно, подразумеваемая матрица var-cov результатов не является диагональной матрицей и, следовательно, ее обратная также не является диагональной. Следовательно, если вы принудительно используете веса 1/V (которые превращаются в диагональную матрицу весов с 1/V вдоль диагонали), вы используете совершенно другую матрицу весов, чем та, которая используется по умолчанию.

Что касается вашего второго вопроса: V соответствует квадрату стандартных ошибок оценок. Они также называются «выборочными отклонениями» оценок.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...