Да, вы можете назвать все 15 файлов параллельными.Вот пример.Я вызываю запрос 4 раза с различными параметрами для функций.
from concurrent.futures import ThreadPoolExecutor
import random,time
from bs4 import BeautifulSoup as bs
import requests
URL = 'http://quotesondesign.com/wp-json/posts'
def quote_stream():
'''
Quoter streamer
'''
param = dict(page=random.randint(1, 1000))
quo = requests.get(URL, params=param)
if quo.ok:
data = quo.json()
author = data[0]['title'].strip()
content = bs(data[0]['content'], 'html5lib').text.strip()
print(f'{content}\n-{author}\n')
else:
print('Connection Issues :(')
def multi_qouter(workers=4):
with ThreadPoolExecutor(max_workers=workers) as executor:
_ = [executor.submit(quote_stream) for i in range(workers)]
if __name__ == '__main__':
now = time.time()
multi_qouter(workers=4)
print(f'Time taken {time.time()-now:.2f} seconds')
Суть в том, чтобы создать функцию, которая запускает один файл от начала до конца (quote_stream).Затем вызовите эту функцию с разными файлами в разных потоках (multi_qouter).Для функции, которая принимает параметры как ваши, вы просто помещаете их [executor.submit (quote_stream, file) для файла в файлах] и устанавливаете max_workers = len (files), где files - это список ваших файлов sql, которые нужно передать в этот файл.функция.