Ваша проблема, кажется, разделена на две основные задачи:
1 - получение результатов из таблицы getprocessid
MySQL
2 - обработка результата и его обновление таблица (но разные поля)
Таким образом, один из способов оптимизировать ваш код - создать поток (это может быть основной поток), выполнить шаг 1, а затем разделить проблему на шаге 2 между вашими тремя потоками:
import requests
import os
import json
import pymysql
import threading
#you can create these dynamically if you
#want more (or less) threads
batches = [[], [], []]
conn = pymysql.connect(host='localhost', user=USER,
passwd=PASSWORD,
db='sampledb',charset='utf8mb4',autocommit=True)
url = "http://www.someapi.com/somelink/"
cur = conn.cursor()
def fetch_and_split():
cur.execute("select asset_id from getprocessid
where status =%s LIMIT 1",("uploaded",))
results = cur.fetchall()
count = 0
#this populates the lists to be processed with the ids
while count < size(results):
cur_batch = batches[size(batches) % count ]
cur_batch.append(results[count][0])
count++
def process_and_update(batch):
#each thread receives its own list
for idofassets in batch:
req = requests.Session()
resp = req.get(url+str(idofassets))
resp_json = json.loads(resp.text)
actual = resp_json['getResponse']
cur.execute("update getprocessid set class = %s
,status =%s where asset_id = %s",
(str(actual),"completed",str(idofasset),))
while True:
# For threading purpose i added
# The main thread splits the results
fetch_and_split()
# The other threads process the
# results and update the values
thread1 = threading.Thread(target=process_and_update, args=(batches[0],))
thread2 = threading.Thread(target=process_and_update, args=(batches[1],))
thread3 = threading.Thread(target=process_and_update, args=(batches[2],))
thread1.start()
thread2.start()
thread3.start()
thread1.join()
thread2.join()
thread3.join()