Как поместить одну строку URL-адреса из текста в мой запрос и сохранить функцию? - PullRequest
0 голосов
/ 16 июня 2019

Я действительно новичок в python, но я действительно хочу создать веб-приложение, которое будет искать галерею популярного веб-сайта для обмена фотографиями и загружать первые 15 последних загруженных людей.Я дошел до того, что получил URL-адреса, направленные на jpgs, и сохранил их в текстовый файл.Затем я открываю файл и пытаюсь читать построчно, затем загружаю jpgs с запросами и сохраняю их в разные файлы, используя uuid для генерации их случайных имен файлов.Моя конечная цель - написать что-то, что будет автоматически классифицировать фотографии, загруженные случайными людьми, такими как кошки, собаки, мебель и т. Д.

Я пытался исследовать эту тему, но я действительно запутался.Очень хотелось бы получить отзыв.

import requests
from bs4 import BeautifulSoup
import re

link = 'link'

ip = '176.88.217.170:8080'
proxies = {
  'http': ip,
  'https': ip,
}

r = requests.get(link, proxies=proxies)

import uuid

unique_filename = str(uuid.uuid4())

print(unique_filename)

#r = requests.get(link)
c = r.content

bs = BeautifulSoup(c, 'html.parser')

images = bs.find_all('img', {'src':re.compile('_tn.jpg')})
with open('data.txt', 'w') as f:
    for image in images:
        f.write(image['src']+'\n')
        print('done')

for mentes in images:
    with open('data.txt', 'r+')  as read:
        cnt = 0
        for line in read:
            line = line.strip()
            line = read.readline()
            cnt += 1
            print(cnt)
            print(line)

   with open(unique_filename +'.jpg' , 'wb') as kep:
            kep.write(requests.get(line , proxies=proxies).content)
            print(line)
            kep.close()
            print('saved')

Я хочу сохранить скопированные изображения со случайно сгенерированным именем в виде jpgs для будущего использования.

Я в основном спрашиваю направление или предложение о том, что я должен искать больше, потому что у меня нет логики и навыков.

1 Ответ

0 голосов
/ 16 июня 2019

Вам нужен файл data.txt?Разве вы не можете просто сохранить 15 URL-адресов в памяти?В любом случае, если я правильно понимаю вопрос, основная проблема - получить изображение с URL-адреса к этому изображению.В этом случае этот ответ , вероятно, поможет вам.
Один из способов сделать это - это:

import urllib.request

with open('data.txt', 'r+') as data_file:
    urls = data_file.read()

for url in urls:
    unique_filename = str(uuid.uuid4()) + '.jpg'
    with open(unique_filename, 'wb') as jpeg_file:
        online_file = urllib.request.urlopen(url)
        jpeg_file.write(online_file.read())
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...