Я пытаюсь создать сервер, который предсказывает (регрессию) данные определенного ввода, однако, когда я делаю файл с общими керасами (с бэкэндом тензорного потока) для предварительной загрузки и пропускаю загрузку модели каждый раз (что сэкономит около 1,8 секунды) и когда я пытаюсь что-либо предсказать из потока, программа просто зависает (хотя во время моего теста к нему обращается только один поток). Я знаю, что тензор не предназначен для этого, однако, поскольку он только предсказывает, для этого должен быть обходной путь. Я попытался использовать _make_prediction_function, но это не сработало.
Это основная функция:
keras_model = keras_model_for_threads()
def thread_function(conn, addr, alive):
print('Connected by', addr)
start = time.time()
sent = conn.recv(1024)
x_pred = preproc(sent)
conn.sendall(keras_model.predict_single(x_pred))
conn.close()
import socket
HOST = ''
PORT = xxxxx
s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
s.bind((HOST, PORT))
s.listen(1000)
print('Ready for listening')
while alive.get():
conn, addr = s.accept()
Process(target=thread_function, args=(conn, addr, alive)).start()
с помощью keras_model:
class keras_model_for_threads():
def __init__(self):
self.model = load_model(model_path)
self.model._make_predict_function()
def predict_single(self, x_pred):
return self.model.predict(x_pred)
Теперь, если я запустите это обычно он выполняет и возвращает прогноз, но через процесс с функцией потока он останавливается в self.model.predict.