Это не совсем вопрос о R - вы получите аналогичные результаты на любом статистическом языке. Тем не менее ...
Мы можем сделать 2 типа ошибок в этой проблеме. Если распределение действительно нормальное, мы можем ошибочно заключить, что распределение не является нормальным. Если распределение не является нормальным, мы можем ошибочно сделать вывод, что оно нормальное. Это ошибки типа 1 и 2 соответственно. Теперь, если распределение нормальное, у нас есть довольно хорошее представление о том, как будут вести себя данные - по крайней мере, асимптотически. Если истинное распределение не является нормальным, мы не можем ничего сказать о его поведении. Может быть, это на самом деле t-дистрибутив с df = 100 - это будет очень похоже на нормальное, хотя технически это не нормально. Это может быть экспоненциальное, логарифмическое, гамма, ... ненормальное, ничего не говорит о том, что это , только то, что не (это не нормально).
Из-за этой асимметрии идея этих тестов заключается в следующем:
- Сравните наблюдаемые данные с тем, что мы ожидаем увидеть, если они действительно были нормальными. Измерьте, насколько наши наблюдаемые данные отличаются от того, что мы ожидаем увидеть.
- Рассчитайте вероятность того, что мы увидим наблюдаемую разницу , по крайней мере, как экстремальную, как то, что мы фактически наблюдали. Это то, что мы называем p -значением.
- Решите, достаточно ли наше p -значение, чтобы сделать вывод о том, что распределение на самом деле нормальное не существует.
Здесь есть два хитрых момента для тех, кто не знаком со статистикой. Во-первых, это понимание того, почему нам нужно смотреть на «по крайней мере как на крайность», а не просто вычислять вероятность того, что мы увидим наблюдаемые данные. Причина этого заключается в том, что вероятность получения точно любого заданного расстояния равна 0. Нам нужно взглянуть на диапазоны, чтобы получить фактические ненулевые вероятности ... и диапазон, который имеет здесь наибольшее значение, состоит в том, чтобы посмотри на вещи более экстремальные.
Второй сложный момент - заключение. Статистические тесты работают как уголовные процессы в США (или, по крайней мере, как они должны работать). Точно так же, как обвиняемый является невиновным, пока его вина не доказана, мы предполагаем, что нулевая гипотеза верна (нулевая гипотеза в данном случае - «распределение нормальное»). Только когда значение p достаточно мало, мы отклоняем его и говорим, что имеется достаточно доказательств, чтобы сделать вывод, что распределение не является нормальным. Важно отметить, что мы никогда не докажем нулевую гипотезу . Если данные действительно следуют t-распределению со 100 степенями свободы, мы почти наверняка не сможем отклонить нулевую гипотезу и допустить ошибку типа 2 (сохраняя нулевую гипотезу, когда мы не должны).
Так что это подводит нас к следующему пункту - насколько маленький достаточно мал? Один из отцов-основателей статистики, блестящий человек по имени Р.А. Фишер решил, что 0,05 кажется правильным - и с тех пор он стал стандартом. Иногда вместо этого используются 0,01 или 0,1, но 0,05 встречается гораздо чаще. Эта отсечка имеет важную интерпретацию - это также вероятность того, что мы допустим ошибку типа 1 - неправильно отвергнем нулевую гипотезу, когда мы не должны этого делать.
Теперь, чтобы объяснить ваши результаты. В вашем случае не имеет значения, используете ли вы 0,01, 0,05 или 0,1 - ваши значения p НАМНОГО ниже, чем любое из них. На самом деле они настолько малы, что компьютер может начать сталкиваться с машинными ошибками (ошибками, которые возникают из-за того, что мы пытаемся представить несчетные множества с использованием конечного числа компьютерных байтов) - может даже оказаться невозможным точное вычисление точного p -значение (а точное число почти всегда не так важно).
При таком маленьком значении p тесты утверждают, что практически невозможно получить наблюдаемые данные из нормального распределения. Вы можете смело отклонить свою нулевую гипотезу и сделать вывод, что распределение не является нормальным.
Обновление: среднее значение по отношению к медиане
Как сказано в комментариях, нет одного правильного ответа на это - это действительно зависит от того, чего вы пытаетесь достичь. Часто можно встретить совет, утверждающий, что медиана используется с асимметричными распределениями, тогда как среднее значение чаще встречается с симметричными распределениями. Это правда, но я бы сказал, что это больше связано с измерением изменчивости, чем со средним значением.
Для симметричного распределения одно число (например, стандартное отклонение или дисперсия) довольно хорошо характеризует изменчивость данных. Это функция 1-го и 2-го моментов, и она прекрасно сочетается с 1-м моментом (средним). Для асимметричного распределения вам нужно смотреть на левую и правую части распределения отдельно, потому что они разные. Допустим, вы фиксируете это, используя диапазон, который также соответствует 0-му и 100-му процентилям). Вы также можете зафиксировать это с помощью межквартильного диапазона (25-й и 7-й процентили) - или (даже лучше) обоих. В конечном счете, эти пары хорошо сочетаются со средним (50-й процентиль).
Если ваша единственная цель - обобщить распределение, общее правило будет работать хорошо (симметричное -> среднее, асимметричное -> медианное). Если вам нужно взять свою оценку и подключить ее к другому анализу, то это определяет, что вам нужно. Вы также можете рассмотреть преобразования - возможно, ваш дистрибутив очень искажен, но он может быть нормальным в логарифмическом масштабе, и тогда среднее геометрическое / sd может быть наилучшим итогом.
Еда на вынос здесь:
Самое большое определение среднего значения по медиане - это то, что вы хотите, чтобы ваша аудитория поняла о данных. Дело не в том, какие данные у вас есть , а в том, что вы хотите сказать об этом.