Я пытаюсь свернуть функцию, используя функцию оптимизации SciPy, но когда я ее запускаю, алгоритм не выполняет итераций и оптимизация не выполняется. Данные, которые я загружаю, имеют размер (117,3). Я не получаю никаких ошибок или предупреждений при запуске программы, но результат от функции минимизации говорит:
сообщение: «Требуемая ошибка не обязательно достигается из-за потери точности».
нфев: 113
нит: 0
njev: 101
статус: 2
успех: Ложь
В чем может быть проблема? Я прикрепил мой код ниже:
data = pd.read_csv('ex2data2.txt')
data = data.values
m = data.shape[0]
X = data[:,0:2]
y = np.c_[data[:,2]]
X_pol = extend_to_degree(X[:,0], X[:,1], 6)
initial_theta = np.zeros(X_pol.shape[1])
lamb = 1 # Regularization parameter
import scipy.optimize as opt
res = opt.minimize(cost_function_reg, x0 = initial_theta, args=(lamb, X_pol, y), method=None, jac=gradient, options={'maxiter':400})
def sigmoid(x):
return 1/(1+np.exp(x))
def cost_function(theta, X, y):
m = X.shape[0]
sum = 0
for i in range(0, m):
xi = X[i,:]
yi = y[i]
h = sigmoid(xi.dot(theta))
if(yi == 0):
sum = sum - np.log(1-h)
elif(yi == 1):
sum = sum - np.log(h)
sum = sum/m
return sum
def cost_function_reg(theta, lamb, X, y):
m = X.shape[0]
sum = cost_function(theta, X, y)
theta[0] = 0 # Do not regularize theta_0.
sum = sum + lamb/(2*m)*np.sum(np.power(theta,2))
return (sum.flatten())
def gradient(theta, lamb, X, y):
n = theta.shape[0]
m = X.shape[0]
sum = np.zeros((n))
for i in range(0,m):
xi = X[i,:]
yi = y[i]
h = sigmoid(xi.dot(theta))
sum = np.add(sum, (h-yi)*xi)
sum = sum + lamb/m*theta
return sum
def predict(theta, X, threshold = 0.5):
res = sigmoid(X.dot(theta)) >= threshold
return res
def extend_to_degree(X1, X2, degree = 6):
m = X1.shape[0]
out = np.ones((m, 1))
for i in range(1,degree+1):
for j in range(0,i+1):
out = np.column_stack([out, np.multiply(np.power(X1,i-j), np.power(X2, j))])
return out