Я застрял с предварительным сбоем при попытке угадать начальные параметры подгонки для scipy.optimize.curve_fit, чтобы соответствовать моим данным (которые имеют логарифмическую c ось y). Я предполагаю, что это двойная экспоненциальная подгонка из-за двойного затухания (хотя я могу ошибаться). Код и полученный график приведены ниже.
import numpy as np
import matplotlib.pyplot as plt
from scipy.optimize import curve_fit
def double_exponential(x, a, b, c, d):
return a*np.exp(-c*(x-b))+d
fig, ax = plt.subplots()
x = np.array([7.13793103, 21.4137931, 35.68965517, 49.96551724, 64.24137931, 78.51724138, 92.79310345, 107.06896552, 121.34482759, 135.62068966, 149.89655172, 164.17241379, 178.44827586, 192.72413793, 207.00000000, 221.27586207, 235.55172414, 249.82758621, 264.10344828, 278.37931034, 292.65517241, 306.93103448, 321.20689655, 335.48275862, 349.75862069, 364.03448276, 378.31034483, 392.5862069, 406.86206897, 421.13793103])
y = np.array([169954, 20599, 7309, 3989, 2263, 1569, 1134, 1017, 788, 806, 693, 528, 502, 431, 445, 367, 277, 267, 255, 189, 171, 109, 76, 36, 18, 9, 4, 3, 2, 1])
y_pruned = np.where(y < 1, 1, y)
p0 = (1.0, 1.0, 1.0, 1.0) # only an example (I've tried other values without success)
popt, pcov = curve_fit(double_exponential, x, np.log(y_pruned), p0=p0)
ax.plot(x, double_exponential(x, *popt), 'g--')
ax.plot(x, np.log(y_pruned), 'ro')
ax.set_yscale('log') # I need to have the y-axis logarithmic
plt.show()