Проблема утилизации в Интернете.я использую красивый суп и питона - PullRequest
0 голосов
/ 15 мая 2019

Мне нужно название, адрес, номер телефона, описание из этого кода.Пока я сделал это.Теперь я застрял, пожалуйста, помогите новичку в утилизации Web

from IPython.core.display import display, HTML

display(HTML("<style>.container { width:100% !important; }</style>"))

from bs4 import BeautifulSoup as soup

import urllib.request

import pandas as pd

withurllib.request.urlopen("http://buildingcongress.org/list/category/architects-6") as url:

s = url.read()

page_soup = soup(s, 'html.parser')

listings = []

for rows in page_soup.find_all("div"):

    if ("mn-list-item-odd" in rows["mn-listing mn-nonsponsor mn-search-result-priority-highlight-30"]) or ("mn-list-item-even" in rows["mn-listing mn-nonsponsor mn-search-result-priority-highlight-30"]):

        name = rows.find("div", class_="mn-title").a.get_text()

Я получаю ошибку в моем цикле.Я застрял, пожалуйста, помогите

Ответы [ 2 ]

1 голос
/ 15 мая 2019

Вы можете использовать следующее для посещения каждой страницы

import requests
from bs4 import BeautifulSoup as bs
import pandas as pd
import re

results = []
with requests.Session() as s:
    r = s.get('http://buildingcongress.org/list/category/architects-6')
    soup = bs(r.content, 'lxml')
    links = [item['href'] for item in soup.select('.mn-title a')]
    for link in links:
        r = s.get(link)
        soup = bs(r.content, 'lxml')
        name = soup.select_one('[itemprop="name"]').text
        address = re.sub(r'\n|\r', ' ' , ' '.join([item.text.strip() for item in soup.select('.mn-address1, .mn-citystatezip')]))
        tel = soup.select_one('.mn-member-phone1').text
        desc = re.sub(r'\n|\r','',soup.select_one('#about .mn-section-content').text) if soup.select_one('#about .mn-section-content') else 'No desc'
        row = [name, address, tel, desc]
        results.append(row)
df = pd.DataFrame(results, columns = ['name', 'address', 'tel', 'desc'])
print(df)
1 голос
/ 15 мая 2019

Используйте регулярное выражение для поиска классов, а затем итерируйте.

import re
import requests
from bs4 import BeautifulSoup

url = "http://buildingcongress.org/list/category/architects-6"

res = requests.get(url)
soup = BeautifulSoup(res.text,"lxml")
for rows in soup.find_all('div',class_=re.compile('mn-list-item-odd|mn-list-item-even')):
    name = rows.find("div", class_="mn-title").find('a').text
    print(name)
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...