Моей первой идеей было то, что вы получаете ошибки из-за перегрузки в DNS - возможно, ваш распознаватель просто не позволяет вам выполнять более определенного количества запросов за раз.
Кроме того, я заметил несколько проблем:
Вы забыли правильно назначить site
в цикле while
- который, вероятно, лучше заменить циклом for
, повторяющимся в очереди, или чем-то еще. В вашей версии вы используете переменную site
из пространства имен уровня модуля, что может привести к двойным запросам и пропуску других.
В этом месте вы можете контролировать, есть ли в очереди записи или они еще ожидаются. Если и то и другое нет, вы можете выйти из своей темы.
По соображениям безопасности лучше сделать
def mexec(befehl, args=None):
cur = conn.cursor()
cur.execute(befehl, args)
чтобы потом делать
mexec("UPDATE sites2block SET ip=%s, updated='yes'", result) #puts site in mysqldb
Чтобы оставаться совместимым с будущими протоколами, вы должны использовать socket.getaddrinfo()
вместо socket.gethostbyname_ex(site)
. Там вы получаете все IP-адреса, которые вам нужны (сначала вы можете ограничиться IPv4, но переключиться на IPv6 легче) и, возможно, можете поместить их все в БД.
Для вашей очереди примеры кода могут быть
def queue_iterator(q):
"""Iterate over the contents of a queue. Waits for new elements as long as the queue is still filling."""
while True:
try:
item = q.get(block=q.is_filling, timeout=.1)
yield item
q.task_done() # indicate that task is done.
except Empty:
# If q is still filling, continue.
# If q is empty and not filling any longer, return.
if not q.is_filling: return
def getips(i, q):
for site in queue_iterator(q):
#--resolve IP--
try:
result = socket.gethostbyname_ex(site)
print(result)
mexec("UPDATE sites2block SET ip=%s, updated='yes'", result) #puts site in mysqldb
except (socket.gaierror):
print("no ip")
mexec("UPDATE sites2block SET ip='no ip', updated='yes',")
# Indicate it is filling.
q.is_filling = True
#Spawn thread pool
for i in range(num_threads):
worker = Thread(target=getips, args=(i, queue))
worker.setDaemon(True)
worker.start()
#Place work in queue
for site in websites:
queue.put(site)
queue.is_filling = False # we are done filling, if q becomes empty, we are done.
#Wait until worker threads are done to exit
queue.join()
должен сделать трюк.
Другая проблема - ваша параллельная вставка в MySQL. Вам разрешено делать только один запрос MySQL за раз. Таким образом, вы можете защитить доступ через threading.Lock()
или RLock()
, или вы можете поместить ответы в другую очередь, которая обрабатывается другим потоком, который может даже связать их.