Я пытался удалить некоторые данные из этого URL.Тем не менее, я не смог удалить посмотреть, можете ли вы идентифицировать вредного организма .Был класс с именем "collapsefaq-content", который не удалось найти Beautifulsoup.
Я хочу удалить все данные тега
в этом классе.
Вот мой код:
import urllib.request
import csv
import pandas as pd
from bs4 import BeautifulSoup
import html5lib
import lxml
page_url = 'http://www.agriculture.gov.au/pests-diseases-weeds/plant#identify-pests-diseases'
page = urllib.request.urlopen(page_url)
soup = BeautifulSoup(page, 'html.parser')
file_name = "alpit.csv"
main_url = []
see_if_you_can = []
see_if_you_can.append("Indetify")
legal =[]
legal.append('Legal Stuff')
specimen =[]
specimen.append("Specimen")
insect_name = []
insect_name.append("Name of insect")
disease_name = []
disease_name.append("Name")
disease_list = []
disease_list.append("URL")
origin = []
origin.append('Origin')
for insectName in soup.find_all('li', attrs={'class': 'flex-item'}):
if(str(insectName.a.attrs['href']).startswith('/')):
# to go in the link and extract data
main_url.append('http://www.agriculture.gov.au' +
insectName.a.attrs['href'])
print(insectName.text.strip()) # disease name
for name in insectName.find_all('img'):
print('http://www.agriculture.gov.au' +
name.attrs['src']) # disease link
disease_list.append('http://www.agriculture.gov.au' +
name.attrs['src'])
for disease in main_url:
if(True):
# disease = 'http://www.agriculture.gov.au'+disease
inner_page = urllib.request.urlopen(disease)
soup_list = BeautifulSoup(inner_page, 'lxml')
for detail in soup_list.find_all('strong'):
if(detail.text == 'Origin: '):
origin.append(detail.next_sibling.strip())
print(detail.next_sibling.strip())
for name in soup_list.find_all('div', class_='pest-header-content'):
print(name.h2.text)
insect_name.append(name.h2.text)
for textin in soup_list.find_all('div',class_ = "collapsefaq-content"):
print("*******")
print(textin.text)
# print('alpit')
# print(len(disease_list))
# print(len(origin))
df = pd.DataFrame([insect_name, disease_list, origin,see_if_you_can, legal, specimen])
df = df.transpose()
df.to_csv(file_name, index=False, header=None)
# with open('alpit.csv','w') as myfile:
# wr = csv.writer(myfile)
# for val in disease_list:
# wr.writerow([val])
# for val in origin:
# wr.writerow([val])
Даже "***" не печатаются.Может кто-нибудь сказать мне, что я делаю здесь не так ...?