glmer - противоречивые проблемы сходимости - PullRequest
0 голосов
/ 13 октября 2019

Я начинаю строить модель, которая выглядит следующим образом:

model_sim <- glmer(Accuracy ~ x*y*z_scaled + (1 |Participant), 
          binomial(link = "logit"), data = Data)

И он не смог сходиться, поэтому я запустил функцию allFit:

(model_sim <- allFit(model_sim, maxfun = 1e+05))

, чтобы увидеть,были реальные разумные причины для беспокойства, он сходился с 5 из 6 оптимизаторами, все с одинаковым значением, поэтому я выбрал тот, который я всегда выбираю - bobyqa с 1e + 05 итерациями, но он не смог снова сойтись. Кто-нибудь может объяснить, почему это произошло? Разве это не должно сходиться на основе всех подходящих результатов? Что бы вы сделали в этой ситуации?

$fixef

 $llik
      bobyqa                   Nelder_Mead                    nlminbwrap 
      -24286.15               -24286.15                     -24286.15 
 nloptwrap.NLOPT_LN_NELDERMEAD     nloptwrap.NLOPT_LN_BOBYQA 
                -24286.15                     -24286.15 

  $theta
                                     Participant.(Intercept)
  bobyqa                                      0.6872716
  Nelder_Mead                                 0.6872370
  nlminbwrap                                  0.6872456
  nloptwrap.NLOPT_LN_NELDERMEAD               0.6872732
  nloptwrap.NLOPT_LN_BOBYQA                   0.6872732

1 Ответ

0 голосов
/ 15 октября 2019

Возможно, вы неправильно понимаете значение / цель allFit() (и, возможно, сами предупреждения о конвергенции). allFit() на самом деле ничего не меняет / заставляет что-либо сходиться «лучше» - он просто проверяет, сходится ли ряд различных алгоритмов оптимизации на одном и том же решении (или достаточно похожих решениях),

Ваш вывод показывает, что все доступные оптимизаторы сходятся к одним и тем же коэффициентам, по крайней мере, к нескольким десятичным разрядам (надеюсь, разница между коэффициентом Probability, равным 0,449 и 0,451, не будет иметь существенного значения для вашеговыводы), и что разница в логарифмических правдоподобиях составляет менее 0,005 логарифмических правдоподобий (что мало). Итак, мой вывод в этом случае заключается в том, что подгонка в порядке, и на самом деле не имеет значения, какой оптимизатор вы используете.

...