Как я могу получить определенные вложенные элементы с тем же тегом в Beautiful Soup? - PullRequest
1 голос
/ 23 марта 2019

Я действительно новичок в Python, поэтому я все еще пытаюсь выяснить Beautiful Soup.Я пытаюсь очистить веб-сайт и извлечь пять элементов, которые следуют сразу за тегом, который я нашел в своем коде.

Я попробовал next.element, который извлекает только текст тега, который я использовал в моем sou.find, и я попробовал next.sibling, который возвращается пустым.

Тамколичество «первого» и «последнего» классов на странице, поэтому я должен указать, какую строку я хочу с текстом.Вот то, что я пытаюсь очистить:

 <li>
        <ul>
            <li class="first">Maintenance</li>
                        <li>$number1</li>
                        <li>$number2</li>
                        <li>$number3</li>
                        <li>$number4</li>
                        <li>$number5</li>
                    <li class="last">$linetotal</li>
        </ul>
    </li>

Это то, что я пытаюсь:

for x,y in zip(make, model):
    url = ('https://URL with variables goes here')
    headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36'}
    search = requests.get(url, headers = headers)
    html = search.text
    soup = BeautifulSoup(html, 'lxml')
    search_results = soup.find('li', class_ = 'first', text = re.compile('Maintenance'))
    try:
        d = search_results.next_element
        print(d)
    except:
        print('pass')  

Конечной целью будет добавление массива number1: number5 в список,но с приведенным выше кодом, вывод просто «Техническое обслуживание».Куда я иду не так?Кроме того, поскольку я новичок, если вы сможете предоставить контекст, я был бы очень признателен.

Ответы [ 3 ]

0 голосов
/ 23 марта 2019

Вы можете использовать выражение xpath с чем-то вроде tree.xpath

//li[@class='first' and text()='Maintenance']/following-sibling::li[not(@class)]

Е.Г.

from lxml.html import fromstring
# url = ''
# tree = html.fromstring( requests.get(url).content)
h = '''
 <li>
    <ul>
        <li class="first">Maintenance</li>
        <li>$number1</li>
        <li>$number2</li>
        <li>$number3</li>
        <li>$number4</li>
        <li>$number5</li>
        <li class="last">$linetotal</li>
    </ul>
</li>
'''
tree = fromstring(h)
items = [item.text for item in tree.xpath("//li[@class='first' and text()='Maintenance']/following-sibling::li[not(@class)]")]
print(items)
0 голосов
/ 24 марта 2019

Что-то вроде ответа QHarr, но несколько другое:

 h = '''
   <li>
     <ul>
       <li class="first">Maintenance</li>
       <li>$number1</li>
       <li>$number2</li>
       <li>$number3</li>
       <li>$number4</li>
       <li>$number5</li>
       <li class="last">$linetotal</li>
   </ul>
</li>

  '''
from lxml import etree
doc = etree.fromstring(h)
for cost in doc.xpath('//li'): 
   if not 'class' in cost.attrib:
      print(cost.text)

Вывод:

$number1
$number2
$number3
$number4
$number5
0 голосов
/ 23 марта 2019

Для вашего примера самый простой способ - добавить в список результатов все элементы li, для которых класс не определен.

from bs4 import BeautifulSoup

html = """ <li>
        <ul>
            <li class="first">Maintenance</li>
                        <li>$number1</li>
                        <li>$number2</li>
                        <li>$number3</li>
                        <li>$number4</li>
                        <li>$number5</li>
                    <li class="last">$linetotal</li>
        </ul>
    </li>"""

soup = BeautifulSoup(html, 'lxml')
start = soup.find('li', class_ = 'first').parent
result = []

for ele in start.find_all('li'):

    if not ele.get('class'):
        result.append(ele.text)

print(result)

Выходы:

['$number1', '$number2', '$number3', '$number4', '$number5']
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...