Как объединить приоры из разных наборов данных в зазубрины? - PullRequest
0 голосов
/ 30 октября 2019

Я довольно плохо знаком с зазубринами и байесовским анализом, поэтому, пожалуйста, прости меня, если я сделаю несколько ошибок новичка:)

Моя проблема заключается в следующем: у меня есть, скажем, 3 набора данных, которые состоят из координатx, y и некоторая статистическая ошибка dy1 и систематическая ошибка dy2. Статистическая ошибка dy1 изменяется для отдельных наборов данных, в то время как dy2 постоянна в наборе данных.

Я хочу ввести некоторое нормальное распределение до "n" с mu = 1 и sig = dy2, которое сравнивает некоторую модель (например,кривая) с отдельными наборами данных. И затем я хочу масштабировать модель относительно объединенных наборов данных, которые включают отдельные "n" априоры. Это должно быть сделано с некоторой гаммой, предшествующей «альфе». Может быть, с некоторым кодом это станет понятным… модель, которую я использую для первого шага, -

model{
    for (i in 1:Nx1) #Nx1 is the range of the first data set{
        y[i] ~ dnorm(z[i],dy1[i]) #
        z[i] = mu.y[i]*n  #this is the normalization with the n prior   
        mu.y[i] <- 0.5*0.1*x[i]  #this is the model, the x[i] are from the first data set
    }
    n ~ dnorm(1,dy2) #this is the prior for n 
}

Теперь я не знаю, как включить это длявсе 3 набора данных одновременно, а затем имеют что-то вроде

for (j in 1:N) #now range over all data sets{
    y[i] ~ dnorm(z[i],dy1[i]) #
    # here the z[i] should be the ones from the model above that carry the n priors information
    z[i] = mu.y[i]
    mu.y[i] <- alpha *(0.5*0.1*x[i])  #this is the model, scaled by alpha prior, the x[i] are from all data sets
}
alpha ~ dgamma(1,pow(100,-2))

для масштабирования модели после того, как все наборы данных имеют свои отдельные n априоров. Таким образом, цель состоит в том, чтобы иметь модель, которая включает все 3 n априора (n1, n2, n3) вместе с альфа-предшественником. Я не знаю, достаточно ли я прояснил себя или нет ... Пожалуйста, дайте мне знать, если вам нужна дополнительная информация.

...