Я занимаюсь разработкой проекта слома для своего исследования, но я застрял, чтобы записать данные отходов в CSV.Пожалуйста, помогите мне за это?
Я успешно удалил данные, но я хочу сохранить их в CSV. Ниже приведен мой код
Мне нужно написать код, чтобы извлечь все HTML с веб-сайта, а затем сохранить его в CSV-файл.
Я считаю, что мне как-то нужно превратить ссылки в список, а затем написать список, но я не уверен, как это сделать.
Это то, что у меня так далеко:
import requests
import time
from bs4 import BeautifulSoup
import csv
# Collect and parse first page
page = requests.get('https://www.myamcat.com/jobs')
soup = BeautifulSoup(page.content, 'lxml')
print("Wait Scrapper is working on ")
time.sleep(10)
if(page.status_code != 200):
print("Error in Srapping check the url")
else:
print("Successfully scrape the data")
time.sleep(10)
print("Loading data in csv")
file = csv.writer(open('dataminer.csv', 'w'))
file.writerow(['ProfileName', 'CompanyName', 'Salary', 'Job', 'Location'])
for pname in soup.find_all(class_="profile-name"):
#print(pname.text)
profname = pname.text
file.writerow([profname, ])
for cname in soup.find_all(class_="company_name"):
print(cname.text)
for salary in soup.find_all(class_="salary"):
print(salary.text)
for lpa in soup.find_all(class_="jobText"):
print(lpa.text)
for loc in soup.find_all(class_="location"):
print(loc.text)