Я действительно новичок в python, но я действительно хочу создать веб-приложение, которое будет искать галерею популярного веб-сайта для обмена фотографиями и загружать первые 15 последних загруженных людей.Я дошел до того, что получил URL-адреса, направленные на jpgs, и сохранил их в текстовый файл.Затем я открываю файл и пытаюсь читать построчно, затем загружаю jpgs с запросами и сохраняю их в разные файлы, используя uuid для генерации их случайных имен файлов.Моя конечная цель - написать что-то, что будет автоматически классифицировать фотографии, загруженные случайными людьми, такими как кошки, собаки, мебель и т. Д.
Я пытался исследовать эту тему, но я действительно запутался.Очень хотелось бы получить отзыв.
import requests
from bs4 import BeautifulSoup
import re
link = 'link'
ip = '176.88.217.170:8080'
proxies = {
'http': ip,
'https': ip,
}
r = requests.get(link, proxies=proxies)
import uuid
unique_filename = str(uuid.uuid4())
print(unique_filename)
#r = requests.get(link)
c = r.content
bs = BeautifulSoup(c, 'html.parser')
images = bs.find_all('img', {'src':re.compile('_tn.jpg')})
with open('data.txt', 'w') as f:
for image in images:
f.write(image['src']+'\n')
print('done')
for mentes in images:
with open('data.txt', 'r+') as read:
cnt = 0
for line in read:
line = line.strip()
line = read.readline()
cnt += 1
print(cnt)
print(line)
with open(unique_filename +'.jpg' , 'wb') as kep:
kep.write(requests.get(line , proxies=proxies).content)
print(line)
kep.close()
print('saved')
Я хочу сохранить скопированные изображения со случайно сгенерированным именем в виде jpgs для будущего использования.
Я в основном спрашиваю направление или предложение о том, что я должен искать больше, потому что у меня нет логики и навыков.