Почему этот фрагмент кода не работает должным образом на ноутбуке Jupyter.Он продолжает подключаться без какого-либо результата.Я стараюсь создать базу данных и максимально быстро очистить данные с веб-сервера.Я использую потоки, чтобы ускорить процесс и выполнять итерации по нескольким URL-адресам (каждый другой URL-адрес представляет отдельный день).
import pandas as pd
import datetime
import urllib
import requests
from pprint import pprint
import time
from io import StringIO
from multiprocessing import Process, Pool
symbols = ['AAP']
start = time.time()
dflist = []
def load(date):
if date is None:
return
url = "http://regsho.finra.org/FNYXshvol{}.txt".format(date)
try:
df = pd.read_csv(url,delimiter='|')
if any(df['Symbol'].isin(symbols)):
stocks = df[df['Symbol'].isin(symbols)]
print(stocks.to_string(index=False, header=False))
# Save stocks to mysql
else:
print(f'No stock found for {date}' )
except urllib.error.HTTPError:
pass
pool = []
numdays = 365
start_date = datetime.datetime(2019, 1, 15 ) #year - month - day
datelist = [
(start_date - datetime.timedelta(days=x)).strftime('%Y%m%d') for x in range(0, numdays)
]
pool = Pool(processes=16)
pool.map(load, datelist)
pool.close()
pool.join()
print(time.time() - start)
Хотелось бы узнать, как я могу решить эту проблему и заставить ее работать