ответ ван с использованием scipy абсолютно правильный, а использование scipy.stats.ttest_*
функций очень удобно.
Но я пришел на эту страницу в поисках решения с чистым numpy , как указано в заголовке, чтобы избежать зависимости от scipy. Для этого позвольте мне привести пример, приведенный здесь: https://docs.scipy.org/doc/numpy/reference/generated/numpy.random.standard_t.html
Основная проблема в том, что у numpy нет кумулятивных функций распределения, поэтому я пришел к выводу, что вам действительно следует использовать scipy. В любом случае возможно использование только numpy:
Исходя из исходного вопроса, я предполагаю, что вы хотите сравнить свои наборы данных и судить по t-критерию, есть ли существенное отклонение? Далее, что образцы в паре? (См. https://en.wikipedia.org/wiki/Student%27s_t-test#Unpaired_and_paired_two-sample_t-tests)
В этом случае вы можете вычислить значения t и p следующим образом:
import numpy as np
sample1 = np.array([55.0, 55.0, 47.0, 47.0, 55.0, 55.0, 55.0, 63.0])
sample2 = np.array([54.0, 56.0, 48.0, 46.0, 56.0, 56.0, 55.0, 62.0])
# paired sample -> the difference has mean 0
difference = sample1 - sample2
# the t-value is easily computed with numpy
t = (np.mean(difference))/(difference.std(ddof=1)/np.sqrt(len(difference)))
# unfortunately, numpy does not have a build in CDF
# here is a ridiculous work-around integrating by sampling
s = np.random.standard_t(len(difference), size=100000)
p = np.sum(s<t) / float(len(s))
# using a two-sided test
print("There is a {} % probability that the paired samples stem from distributions with the same means.".format(2 * min(p, 1 - p) * 100))
Это напечатает There is a 73.028 % probability that the paired samples stem from distributions with the same means.
Так как это намного выше любого нормального доверительного интервала (скажем, 5%), вы не должны ничего делать для конкретного случая.