Я использую python с numpy, scipy и matplotlib для оценки данных. В результате я получаю средние и подгоночные параметры с ошибками.
Я бы хотел, чтобы python автоматически печатал эти данные в соответствии с заданной точностью. Например:
Предположим, я получил результат x = 0.012345 +/- 0.000123
.
Есть ли способ автоматически отформатировать это как 1.235(12) x 10^-2
, когда была указана точность 2. То есть, считая точность в панели ошибок, а не в значении.
Кто-нибудь знает пакет, обеспечивающий такую функциональность, или я должен был бы реализовать это сам?
Есть ли способ внедрить это в механизм форматирования строки python? То есть возможность написать что-то вроде "%.2N" % (0.012345, 0.0000123)
.
Я уже просмотрел документы о тупой и скупой и погуглил вокруг, но ничего не смог найти. Я думаю, что это было бы полезно для всех, кто занимается статистикой.
Спасибо за вашу помощь!
EDIT:
По просьбе Натана Уайтхеда я приведу несколько примеров.
123 +- 1 ----precision 1-----> 123(1)
123 +- 1.1 ----precision 2-----> 123.0(11)
0.0123 +- 0.001 ----precision 1-----> 0.012(1)
123.111 +- 0.123 ----precision 2-----> 123.11(12)
Степени десяти опущены для ясности.
Число в круглых скобках является сокращенным обозначением стандартной ошибки. Последняя цифра числа перед скобками и последняя цифра числа внутри скобок должны иметь одинаковую десятичную дробь. Почему-то я не могу найти хорошее объяснение этой концепции в Интернете. Единственное, что я получил, это немецкая статья в Википедии здесь . Тем не менее, это довольно распространенное и очень удобное обозначение.
EDIT2:
Я сам реализовал сокращенную запись:
#!/usr/bin/env python
# *-* coding: utf-8 *-*
from math import floor, log10
# uncertainty to string
def un2str(x, xe, precision=2):
"""pretty print nominal value and uncertainty
x - nominal value
xe - uncertainty
precision - number of significant digits in uncertainty
returns shortest string representation of `x +- xe` either as
x.xx(ee)e+xx
or as
xxx.xx(ee)"""
# base 10 exponents
x_exp = int(floor(log10(x)))
xe_exp = int(floor(log10(xe)))
# uncertainty
un_exp = xe_exp-precision+1
un_int = round(xe*10**(-un_exp))
# nominal value
no_exp = un_exp
no_int = round(x*10**(-no_exp))
# format - nom(unc)exp
fieldw = x_exp - no_exp
fmt = '%%.%df' % fieldw
result1 = (fmt + '(%.0f)e%d') % (no_int*10**(-fieldw), un_int, x_exp)
# format - nom(unc)
fieldw = max(0, -no_exp)
fmt = '%%.%df' % fieldw
result2 = (fmt + '(%.0f)') % (no_int*10**no_exp, un_int*10**max(0, un_exp))
# return shortest representation
if len(result2) <= len(result1):
return result2
else:
return result1
if __name__ == "__main__":
xs = [123456, 12.34567, 0.123456, 0.001234560000, 0.0000123456]
xes = [ 123, 0.00123, 0.000123, 0.000000012345, 0.0000001234]
precs = [ 1, 2, 3, 4, 1]
for (x, xe, prec) in zip(xs, xes, precs):
print '%.6e +- %.6e @%d --> %s' % (x, xe, prec, un2str(x, xe, prec))
Выход:
1.234560e+05 +- 1.230000e+02 @1 --> 1.235(1)e5
1.234567e+01 +- 1.230000e-03 @2 --> 12.3457(12)
1.234560e-01 +- 1.230000e-04 @3 --> 0.123456(123)
1.234560e-03 +- 1.234500e-08 @4 --> 0.00123456000(1235)
1.234560e-05 +- 1.234000e-07 @1 --> 1.23(1)e-5