Используйте искусственный интеллект для прогнозирования следующего числа (n + 1) в последовательности - PullRequest
0 голосов
/ 02 мая 2019

ИИ должен предсказать следующее число в данной последовательности инкрементных целых чисел, используя Python, но до сих пор я не получил ожидаемого результата. Я пытался изменить скорость обучения и итерации, но пока безуспешно.

Следующее число должно быть предсказано на основе этого PATTERN :

Первое число в последовательности (1) - это случайное целое число в интервале [2 ^ 0 (текущий индекс), 2 ^ 1 (следующий индекс) и так далее ...

ИИ должен принимать решение о том, какое число выбрать из интервала

Проблема, с которой я столкнулся, заключалась в том, чтобы внедрить упомянутый выше шаблон в ИИ, чтобы он мог предсказать n + 1, так как я довольно плохо знаком с машинным обучением. Я не знаю, как кормить ИИ этим шаблоном и какие библиотеки у меня есть. работать с.

Это код, который я использовал:

import numpy as np

# Init sequence
data =\
    [
        [1, 3, 7, 8, 21, 49, 76, 224, 467, 514, 1155, 2683, 5216, 10544, 51510, 95823,
        198669, 357535, 863317, 1811764, 3007503, 5598802, 14428676, 33185509, 54538862,
        111949941, 227634408, 400708894, 1033162084, 2102388551, 3093472814, 7137437912, 14133072157,
        20112871792, 42387769980, 100251560595, 146971536592, 323724968937, 1003651412950, 1458252205147,
        2895374552463, 7409811047825, 15404761757071, 19996463086597, 51408670348612, 119666659114170,
        191206974700443, 409118905032525, 611140496167764, 2058769515153876, 4216495639600700, 6763683971478124,
        9974455244496710, 30045390491869460, 44218742292676575, 138245758910846492, 199976667976342049,
        525070384258266191]
    ]

X = np.matrix(data)[:, 0]
y = np.matrix(data)[:, 1]

def J(X, y, theta):
    theta = np.matrix(theta).T
    m = len(y)
    predictions = X * theta
    sqError = np.power((predictions-y), [2])
    return 1/(2*m) * sum(sqError)

dataX = np.matrix(data)[:, 0:1]
X = np.ones((len(dataX), 2))
X[:, 1:] = dataX

# gradient descent function
def gradient(X, y, alpha, theta, iters):
    J_history = np.zeros(iters)
    m = len(y)
    theta = np.matrix(theta).T
    for i in range(iters):
        h0 = X * theta
        delta = (1 / m) * (X.T * h0 - X.T * y)
        theta = theta - alpha * delta
        J_history[i] = J(X, y, theta.T)
     return J_history, theta
print('\n'+40*'=')

# Theta initialization
theta = np.matrix([np.random.random(), np.random.random()])

# Learning rate
alpha = 0.02

# Iterations
iters = 1000000

print('\n== Model summary ==\nLearning rate: {}\nIterations: {}\nInitial 
theta: {}\nInitial J: {:.2f}\n'
  .format(alpha, iters, theta, J(X, y, theta).item()))
print('Training model... ')

# Train model and find optimal Theta value
J_history, theta_min = gradient(X, y, alpha, theta, iters)
print('Done, Model is trained')
print('\nModelled prediction function is:\ny = {:.2f} * x + {:.2f}'
  .format(theta_min[1].item(), theta_min[0].item()))
print('Cost is: {:.2f}'.format(J(X, y, theta_min.T).item()))

# Calculate the predicted profit
def predict(pop):
    return [1, pop] * theta_min

# Now
p = len(data)
print('\n'+40*'=')
print('Initial sequence was:\n', *np.array(data)[:, 1])
print('\nNext numbers should be: {:,.1f}'
  .format(predict(p).item()))

1 Ответ

0 голосов
/ 06 мая 2019

Я думаю, что нет необходимости использовать ИИ, модель линейной регрессии достаточно хороша для этой задачи.

Input=[('scale',StandardScaler()),('model',LinearRegression())] # Standardizes the data
pipe=Pipeline(Input)
# perform prediction using a linear regression model using the features Z and targets y
pipe.fit(Z,y)
ypipe=pipe.predict(Z)
...