Когда вы делаете:
Xpmf <- c(1/2, 1/2)
X <- sample(c(0, 9), size = 10000, replace = TRUE, prob = Xpmf)
Ypmf <- c(1/7, 6/7)
Y <- sample(c(-3, 1), size = 10000, replace = TRUE, prob = Ypmf)
P2 <- mean( X - Y < 0 | X > 0) # P2 = 0.92
вы делаете , а не вычисляете приближение условной вероятности P( X - Y < 0 | X > 0)
. |
в mean( X - Y < 0 | X > 0)
- это логическое ИЛИ, это не обусловленность. Легко проверить, что X-Y
никогда не бывает <0
, когда X>0
, поэтому правильное значение P2
равно 0
.
Вероятность выше 3
звучит как ошибка. Или, может быть, вам нужно установить совместное распространение с jointRV
, я не знаю, предполагает ли discreteRV
независимость по умолчанию.
EDIT
Пакет не предполагает независимости по умолчанию:
> P((X == 0) %AND% (Y == 1)) # should be 1/2*6/7 if independence
[1] 0
Таким образом, вы должны использовать jointRV
.
__
РЕДАКТИРОВАТЬ
Вы можете указать независимость следующим образом:
XandY <- jointRV(
outcomes = list(c(0,9), c(-3,1)),
probs = c(t(outer(c(1/2,1/2), c(1/7,6/7))))
)
X <- marginal(XandY, 1)
Y <- marginal(XandY, 2)
Однако это не решает проблему:
P( X - Y < 0 | Y <= 0) # still 3
Это потому, что X-Y
и Y
не определены в одном и том же пробном пространстве.
Вы можете получить эту условную вероятность следующим образом:
XminusY_and_Y <- joint(X-Y, Y)
XminusY <- marginal(XminusY_and_Y, 1)
Y <- marginal(XminusY_and_Y, 2)
P(XminusY < 0 | Y <= 0) # 0.3673469
Не очень удобно ...