Оптимальные параметры не найдены: количество обращений к функции достигло maxfev = 100 - PullRequest
1 голос
/ 26 октября 2019

Я новичок в python, я пытаюсь внести некоторые коррективы в данные, но когда я получаю график, появляются только исходные данные и с сообщением "Оптимальные параметры не найдены: число вызовов функции достигло maxfev= 1000. "Не могли бы вы помочь мне найти мою ошибку?

%matplotlib inline
import matplotlib.pylab as m
from scipy.optimize import curve_fit
import numpy as num
import scipy.optimize as optimize


xData=num.array([0,0,100,200,250,300,400], dtype="float")
yData=num.array([0,0,0,0,75,100,100], dtype="float")

m.plot(xData, yData, 'ro', label='Datos originales')

def fun(x, a, b):
  return a + b * num.log(x)

popt,pcov=optimize.curve_fit(fun, xData, yData,p0=[1,1], maxfev=1000)
print=popt

x=num.linspace(1,400,7)

m.plot(x,fun(x, *popt), label='Función ajustada')

m.xlabel('concentración')
m.ylabel('% mortalidad')
m.legend()
m.grid()

1 Ответ

0 голосов
/ 26 октября 2019

Модель в вашем коде "a + b * num.log (x)". Поскольку ваши данные содержат значение x 0,0, оценка log (0,0) выдает ошибки и не позволит функционировать программному обеспечению. Иногда эти значения x 0,0 могут быть заменены очень маленькими числами, так как log (небольшое число) не потерпит неудачу - но в этом случае уравнение и данные не совпадают, и поэтому использование одного только этого метода здесь будет недостаточно.

Я думаю, что другое уравнение будет лучшей моделью для этих данных. Я выполнил поиск по уравнению, используя ваши данные, и обнаружил, что несколько различных уравнений сигмоидального типа дали подозрительно хорошие соответствия этому набору данных - что неудивительно из-за небольшого числа точек данных.

Сигмоидальные уравнения, которые я пробовалвсе были чрезвычайно чувствительны к первоначальным оценкам параметров. Вот графический установщик Python, использующий модуль генетического алгоритма Scipy's diffrential Evolution для определения начальных оценок параметров для нелинейного решателя curve_fit. Этот модуль scipy использует алгоритм Latin Hypercube для обеспечения тщательного поиска пространства параметров, требующего границ для поиска. Здесь эти границы взяты из максимальных и минимальных значений данных.

Лично я бы не использовал это соответствие точно , потому что небольшое количество точек данных дает такие подозрительно хорошие соответствия, и настоятельно рекомендуювзятие дополнительных точек данных, если это вообще возможно. Однако я не смог найти ни одного уравнения с менее чем тремя параметрами, которые бы соответствовали данным.

plot

import numpy, scipy, matplotlib
import matplotlib.pyplot as plt
from scipy.optimize import curve_fit
from scipy.optimize import differential_evolution
import warnings

xData=numpy.array([0,0,100,200,250,300,400], dtype="float")
yData=numpy.array([0,0,0,0,75,100,100], dtype="float")


def func(x, a, b, c): # Sigmoid B equation from zunzun.com
    return  a / (1.0 + numpy.exp(-1.0 * (x - b) / c))


# function for genetic algorithm to minimize (sum of squared error)
def sumOfSquaredError(parameterTuple):
    warnings.filterwarnings("ignore") # do not print warnings by genetic algorithm
    val = func(xData, *parameterTuple)
    return numpy.sum((yData - val) ** 2.0)


def generate_Initial_Parameters():
    # min and max used for bounds
    maxX = max(xData)
    minX = min(xData)

    parameterBounds = []
    parameterBounds.append([minX, maxX]) # search bounds for a
    parameterBounds.append([minX, maxX]) # search bounds for b
    parameterBounds.append([0.0, 2.0]) # search bounds for c

    # "seed" the numpy random number generator for repeatable results
    result = differential_evolution(sumOfSquaredError, parameterBounds, seed=3)
    return result.x

# by default, differential_evolution completes by calling curve_fit() using parameter bounds
geneticParameters = generate_Initial_Parameters()

# now call curve_fit without passing bounds from the genetic algorithm,
# just in case the best fit parameters are aoutside those bounds
fittedParameters, pcov = curve_fit(func, xData, yData, geneticParameters)
print('Fitted parameters:', fittedParameters)
print()

modelPredictions = func(xData, *fittedParameters) 

absError = modelPredictions - yData

SE = numpy.square(absError) # squared errors
MSE = numpy.mean(SE) # mean squared errors
RMSE = numpy.sqrt(MSE) # Root Mean Squared Error, RMSE
Rsquared = 1.0 - (numpy.var(absError) / numpy.var(yData))

print()
print('RMSE:', RMSE)
print('R-squared:', Rsquared)

print()


##########################################################
# graphics output section
def ModelAndScatterPlot(graphWidth, graphHeight):
    f = plt.figure(figsize=(graphWidth/100.0, graphHeight/100.0), dpi=100)
    axes = f.add_subplot(111)

    # first the raw data as a scatter plot
    axes.plot(xData, yData,  'D')

    # create data for the fitted equation plot
    xModel = numpy.linspace(min(xData), max(xData), 100)
    yModel = func(xModel, *fittedParameters)

    # now the model as a line plot
    axes.plot(xModel, yModel)

    axes.set_xlabel('X Data') # X axis data label
    axes.set_ylabel('Y Data') # Y axis data label

    plt.show()
    plt.close('all') # clean up after using pyplot

graphWidth = 800
graphHeight = 600
ModelAndScatterPlot(graphWidth, graphHeight)
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...