Джо Кингтон имеет правильный ответ, но ваш DATA
, вероятно, более сложный, чем представляется. Может иметь несколько значений в «а». Джо быстро строит значения по оси X, но работает только для списка уникальных значений. Возможно, есть более быстрый способ сделать это, но вот как я это сделал:
import matplotlib.pyplot as plt
def assignIDs(list):
'''Take a list of strings, and for each unique value assign a number.
Returns a map for "unique-val"->id.
'''
sortedList = sorted(list)
#taken from
#/234616/kak-vy-udalyaete-dublikaty-iz-spiska-sohranyaya-poryadok#234619
seen = set()
seen_add = seen.add
uniqueList = [ x for x in sortedList if x not in seen and not seen_add(x)]
return dict(zip(uniqueList,range(len(uniqueList))))
def plotData(inData,color):
x,y = zip(*inData)
xMap = assignIDs(x)
xAsInts = [xMap[i] for i in x]
plt.scatter(xAsInts,y,color=color)
plt.xticks(xMap.values(),xMap.keys())
DATA = [
('a', 4),
('b', 5),
('c', 5),
('d', 4),
('e', 2),
('f', 5),
]
DATA2 = [
('a', 3),
('b', 4),
('c', 4),
('d', 3),
('e', 1),
('f', 4),
('a', 5),
('b', 7),
('c', 7),
('d', 6),
('e', 4),
('f', 7),
]
plotData(DATA,'blue')
plotData(DATA2,'red')
plt.gcf().savefig("correlation.png")
Мой DATA2
набор имеет два значения для каждого значения оси x. Это показано красным ниже:
EDIT
Вопрос, который вы задали, очень широк. Я искал «корреляцию», и Википедия хорошо обсудила коэффициент произведения-момента Пирсона, который характеризует наклон линейной аппроксимации. Имейте в виду, что это значение является лишь ориентировочным и никоим образом не предсказывает, является ли линейное соответствие разумным допущением, см. Примечания на приведенной выше странице о корреляции и линейности . Вот обновленный метод plotData
, который использует numpy.linalg.lstsq
для линейной регрессии и numpy.corrcoef
для вычисления R Пирсона:
import matplotlib.pyplot as plt
import numpy as np
def plotData(inData,color):
x,y = zip(*inData)
xMap = assignIDs(x)
xAsInts = np.array([xMap[i] for i in x])
pearR = np.corrcoef(xAsInts,y)[1,0]
# least squares from:
# http://docs.scipy.org/doc/numpy/reference/generated/numpy.linalg.lstsq.html
A = np.vstack([xAsInts,np.ones(len(xAsInts))]).T
m,c = np.linalg.lstsq(A,np.array(y))[0]
plt.scatter(xAsInts,y,label='Data '+color,color=color)
plt.plot(xAsInts,xAsInts*m+c,color=color,
label="Fit %6s, r = %6.2e"%(color,pearR))
plt.xticks(xMap.values(),xMap.keys())
plt.legend(loc=3)
Новая цифра:
Также может оказаться полезным выравнивание каждого направления и просмотр отдельных распределений, и они являются примерами , делающими это в matplotlib :
Если полезно линейное приближение, которое можно качественно определить, просто взглянув на подбор, вы можете вычесть эту тенденцию перед выравниванием направления y. Это поможет показать, что у вас есть гауссово случайное распределение относительно линейного тренда.