Пожалуйста, подготовьтесь к длительному чтению.Я нахожусь в тупике и не знаю, где искать ответ /...
Я использую BeautifulSoup для анализа содержимого веб-страницы с информацией об исполнителе и...
Я разрабатываю небольшой инструмент для очистки веб-страницы.Я использую Красивый суп .Я хотел бы...
Я работаю над инструментом очистки экрана в Python. Но, просматривая источник веб-страницы, я...
Я пытаюсь сопоставить что-то вроде этого с beautifulsoup. <a href="
Я пишу маленький скребок. Вот код на данный момент. from urllib import urlopen from BeautifulSoup...
У меня есть сложная проблема, на которую я не могу найти ответ. У меня запущен HTTPServer Python,...
Поэтому я пишу сборщики ссылок, чтобы найти новые ссылки на определенных сайтах для данной группы...
Не уверен, что с Mechanize или BeautifulSoup есть что-то, что могло бы помочь. Любые предложения...
Я собираю некоторую информацию с сайта, и одно из полей было сохранено в моем списке следующим...
Мой образец данных: <table id = "history"> <tr class = "printCol">...
Допустим, у меня есть страница с div.Я могу легко получить этот div с помощью soup.find(). Теперь,...
Скажи, что я использовал date = r.find('abbr') чтобы получить <abbr...
Множество результатов для PHP нравится / не нравится результаты на YouTube, но ничего на Python. Я...
Мой сценарий import BeautifulSoup as bs from BeautifulSoup import BeautifulSoup url_list = sys
Я пытаюсь просканировать Википедию, чтобы получить некоторые данные для анализа текста. Я использую...
Я пытался прочитать исходный сайт со следующим текстом: import urllib2 from BeautifulSoup import...
Я пытаюсь адаптировать код для извлечения информации из wunderground. Однако сценарий, который я...
Я пытаюсь получить некоторые финансовые данные для городских властей, используя BeautifulSoup...
Я пытаюсь использовать Beautiful Stone Soup (BSS) для изменения существующего XML с именами тегов с...
for i in range(1,1000000): page = urllib2.urlopen("http://www.palgrave.com/products/title.aspx
В настоящее время, если при получении веб-страницы возникла ошибка, суп не будет заполнен страницей...
Код работает, но я ищу советы о том, как это можно было бы написать немного более правильно,...
Я просматривал несколько сообщений здесь, но я просто не могу разобраться с пакетной загрузкой...
for issn in inputList: link = journalresults.find('a', attrs={'href' : re