Python3, scipy.optimize: подгонка модели к нескольким наборам данных - PullRequest
0 голосов
/ 04 октября 2019

У меня есть модель, которая определяется как:

m (x, z) = C1 * x ^ 2 * sin (z) + C2 * x ^ 3 * cos (z)

У меня есть несколько наборов данных для разных z (z = 1, z = 2, z = 3), в которых они дают мне m (x, z) как функцию от x.

Параметры C1 и C2 должны быть одинаковыми для всех значений z.

Таким образом, я должен согласовать свою модель с тремя наборами данных одновременно, иначе у меня будут разные значения C1 и C2для разных значений z.

Это можно сделать с помощью scipy.optimize. Я могу сделать это только для одного значения z, но не могу понять, как это сделать для всех z.

Для одного z я просто пишу это:

def my_function(x,C1,C1):
    z=1
return C1*x**2*np.sin(z)+ C2*x**3*np.cos(z)


data = 'some/path/for/data/z=1'

x= data[:,0]
y= data[:,1]

from lmfit import Model

gmodel = Model(my_function)
result = gmodel.fit(y, x=x, C1=1.1)

print(result.fit_report())

Как я могу сделать это для нескольких наборов данных (то есть для разных значений z?)

Ответы [ 2 ]

0 голосов
/ 06 октября 2019

Ваш код неполон и содержит несколько синтаксических ошибок.

Но я думаю, что вы хотите построить модель, которая объединяет модели для различных наборов данных, а затем подгоняет объединенные данные к этой модели. В контексте lmfit (раскрытие: автор и сопровождающий) я часто нахожу, что проще использовать minimize() и целевую функцию для нескольких наборов данных, а не класс Model. Возможно, начнем с чего-то вроде этого:

import lmfit
import numpy as np
# define the model function for each dataset 
def my_function(x, c1, c2, z=1): 
    return C1*x**2*np.sin(z)+ C2*x**3*np.cos(z)

# Then write an objective function like this
def f2min(params, x, data2d, zlist):
    ndata, npts = data2d.shape
    residual = 0.0*data2d[:]
    for i in range(ndata):
        c1 = params['c1_%d' % (i+1)].value
        c2 = params['c2_%d' % (i+1)].value
        residual[i,:] = data[i,:] - my_function(x, c1, c2, z=zlist[i])
    return residual.flatten()

# now build that `data2d`, `zlist` and build the `Parameters`
data2d = []
zlist = []
x = None
for fname in dataset_names:
    d = np.loadtxt(fname)  # or however you read / generate data
    if x is None: x = d[:, 0]
    data2d.append(d[:, 1])
    zlist.append(z_for_dataset(fname)) # or however ...

data2d = np.array(data2d)  # turn list into nd array
ndata, npts = data2d.shape
params = lmfit.Parameters()
for i in range(ndata):
    params.add('c1_%d' % (i+1), value=1.0) # give a better starting value!
    params.add('c2_%d' % (i+1), value=1.0) # give a better starting value!

# now you're ready to do the fit and print out the results:
result = lmfit.minimize(f2min, params, args=(x, data2d, zlist))
print(results.fit_report())

Этот код на самом деле является наброском и не проверен, но, надеюсь, даст вам хорошую стартовую основу.

0 голосов
/ 05 октября 2019

То, что вы хотите сделать, это установить многомерное соответствие (2-D в вашем случае) для ваших данных;Таким образом, для всего набора данных вы получаете один набор параметров C, который лучше всего описывает ваши данные. Я думаю, что лучший способ сделать это - использовать scipy.optimize.curve_fit().

Так что ваш код будет выглядеть примерно так:

import scipy.optimize as optimize
import numpy as np

def my_function(xz, *par):
    """ Here xz is a 2D array, so in the form [x, z] using your variables, and *par is an array of arguments (C1, C2) in your case """
    x = xz[:,0]
    z = xz[:,1]
    return par[0] * x**2 * np.sin(z) + par[1] * x**3 * np.cos(z)

# generate fake data. You will presumable have this already
x = np.linspace(0, 10, 100)
z = np.linspace(0, 3, 100)
xx, zz = np.meshgrid(x, z) 
xz = np.array([xx.flatten(), zz.flatten()]).T
fakeDataCoefficients = [4, 6.5]
fakeData = my_function(xz, *fakeDataCoefficients) + np.random.uniform(-0.5, 0.5, xx.size)

# Fit the fake data and return the set of coefficients that jointly fit the x and z
# points (and will hopefully be the same as the fakeDataCoefficients
popt, _ = optimize.curve_fit(my_function, xz, fakeData, p0=fakeDataCoefficients)

# Print the results
print(popt)

Когда я подхожу, я получаю именно fakeDataCoefficientsЯ использовал для генерации функции, так что подгонка работает хорошо.

Таким образом, вывод состоит в том, что вы не делаете 3 подгонки независимо, устанавливая значение z каждый раз, но вместо этого вы делаете 2D-подборку, которая принимает значения x и z одновременнонайти лучшие коэффициенты.

...