Вы можете легко оценить, какую ошибку (столбцы ошибок) вы должны получить, в этом и состоит прелесть Монте-Карло.Для этого вам нужно вычислить второй импульс и оценить дисперсию и стандартное отклонение.Хорошо, что собранное значение будет таким же, как и среднее значение, потому что вы просто прибавили 1 к 1 после 1.
Тогда вы сможете получить оценку сигма симуляции и столбцы ошибок для желаемого значения.,Извините, я не знаю достаточно Javascript, поэтому код здесь находится на C #:
using System;
namespace Pi
{
class Program
{
static void Main(string[] args)
{
ulong N = 1_000_000_000UL; // number of samples
var rng = new Random(312345); // RNG
ulong v = 0UL; // collecting mean values here
ulong v2 = 0UL; // collecting squares, should be the same as mean
for (ulong k = 0; k != N; ++k) {
double x = rng.NextDouble();
double y = rng.NextDouble();
var r = (x * x + y * y < 1.0) ? 1UL : 0UL;
v += r;
v2 += r * r;
}
var mean = (double)v / (double)N;
var varc = ((double)v2 / (double)N - mean * mean ) * ((double)N/(N-1UL)); // variance
var stdd = Math.Sqrt(varc); // std.dev, should be sqrt(Pi/4 (1-Pi/4))
var errr = stdd / Math.Sqrt(N);
Console.WriteLine($"Mean = {mean}, StdDev = {stdd}, Err = {errr}");
mean *= 4.0;
errr *= 4.0;
Console.WriteLine($"PI (1 sigma) = {mean - 1.0 * errr}...{mean + 1.0 * errr}");
Console.WriteLine($"PI (2 sigma) = {mean - 2.0 * errr}...{mean + 2.0 * errr}");
Console.WriteLine($"PI (3 sigma) = {mean - 3.0 * errr}...{mean + 3.0 * errr}");
}
}
}
После 10 9 семплов у меня есть
Mean = 0.785405665, StdDev = 0.410540627166729, Err = 1.29824345388086E-05
PI (1 sigma) = 3.14157073026184...3.14167458973816
PI (2 sigma) = 3.14151880052369...3.14172651947631
PI (3 sigma) = 3.14146687078553...3.14177844921447
, которыйвыглядит примерно так.Легко видеть, что в идеальном случае дисперсия была бы равна (Pi / 4) * (1-Pi / 4).На самом деле нет необходимости вычислять v2
, просто установите его на v
после моделирования.
Я, честно говоря, не знаю, почему вы получаете не то, что ожидали.Точность в суммировании может быть ответом, или, как я подозреваю, ваша симуляция не дает независимых выборок из-за последовательностей заполнения и перекрытия (поэтому фактическое N намного меньше, чем 900 триллионов).
Но при использовании этого методаВы контролируете ошибку и проверяете, как идут вычисления.
ОБНОВЛЕНИЕ
Я добавил ваши цифры, чтобы показать, что вы явно недооцениваете значение.Код
N = 893_547_800_000UL;
v = 701_766_448_388UL;
v2 = v;
var mean = (double)v / (double)N;
var varc = ((double)v2 / (double)N - mean * mean ) * ((double)N/(N-1UL));
var stdd = Math.Sqrt(varc); // should be sqrt(Pi/4 (1-Pi/4))
var errr = stdd / Math.Sqrt(N);
Console.WriteLine($"Mean = {mean}, StdDev = {stdd}, Err = {errr}");
mean *= 4.0;
errr *= 4.0;
Console.WriteLine($"PI (1 sigma) = {mean - 1.0 * errr}...{mean + 1.0 * errr}");
Console.WriteLine($"PI (2 sigma) = {mean - 2.0 * errr}...{mean + 2.0 * errr}");
Console.WriteLine($"PI (3 sigma) = {mean - 3.0 * errr}...{mean + 3.0 * errr}");
И вывод
Mean = 0.785370909522692, StdDev = 0.410564786603016, Err = 4.34332975349809E-07
PI (1 sigma) = 3.14148190075886...3.14148537542267
PI (2 sigma) = 3.14148016342696...3.14148711275457
PI (3 sigma) = 3.14147842609506...3.14148885008647
Итак, ясно, что у вас где-то есть проблема (код? Потеря точности в представлении; точность в суммировании? Повторная / независимая выборка?)