Я скребу статьи, опубликованные в Милбанк Квартал.Меня особенно интересуют данные об авторах и их институциональной принадлежности.Я написал код, используя библиотеки Beautifulsoup и Pandas, чтобы мой вывод был сохранен как CSV.CSV содержит по одной строке на статью.Это означает, что для статей с несколькими авторами столбец «автор» содержит всех авторов, а столбец «институт» содержит все институты авторов, которые были соавторами статьи.Вместо этого я хочу получить вывод, что CSV имеет одну строку на автора;другими словами, несколько строк на статью.Это потому, что я хочу посчитать, сколько раз каждое учреждение было представлено в журнале.
Я использовал метод Beautifulsoup .find_all
, чтобы получить все свои данные.Первоначально я пытался использовать .find_all_next
, чтобы получить авторов и организации, полагая, что в нем будут размещаться статьи с несколькими авторами, но это ничего не даст для этих столбцов.
Какой лучший способ для меня переписать этот код такчто у каждого автора есть свой ряд?
import pandas as pd
import numpy as np
import requests
import re
import urllib
from bs4 import BeautifulSoup
from bs4 import SoupStrainer
articletype=list()
articlelist=list()
titlelist=list()
vollist=list()
issuenumlist=list()
authorlist = list()
instlist = list()
urllist=list()
issueurllist = ['https://onlinelibrary.wiley.com/toc/14680009/2018/96/1', 'https://onlinelibrary.wiley.com/toc/14680009/2018/96/2','https://onlinelibrary.wiley.com/toc/14680009/2018/96/3','https://onlinelibrary.wiley.com/toc/14680009/2018/96/4']
for issue in issueurllist:
requrl = requests.get(issue)
soup = BeautifulSoup(requrl.text, 'lxml')
#Open url of each article.
baseurl = 'https://onlinelibrary.wiley.com'
for article in issue:
doi=[a.get('href') for a in soup.find_all('a', title = "Full text")]
for d in doi:
doilink = baseurl + d
opendoi = requests.get(doilink)
articlesoup=BeautifulSoup(opendoi.text, 'lxml')
```Get metadata for each article```
for tag in articlesoup:
arttype=articlesoup.find_all("span", {"class":"primary-heading"})
title=articlesoup.find_all("meta",{"name":"citation_title"})
vol=articlesoup.find_all("meta",{"name":"citation_volume"})
issuenum = articlesoup.find_all("meta",{"name":"citation_issue"})
author = articlesoup.find_all("meta",{"name":"citation_author"})
institution=articlesoup.find_all("meta",{"name":"citation_author_institution"})
url=articlesoup.find_all("meta",{"name":"citation_fulltext_html_url"})
articletype.append(arttype)
titlelist.append(title)
vollist.append(vol)
issuenumlist.append(issuenum)
authorlist.append(author)
instlist.append(institution)
urllist.append(url)
milbankdict={'article type':articletype, 'title':titlelist, 'vol':vollist, 'issue':issuenumlist,'author':authorlist, 'author institution':instlist, 'url':urllist}
milbank2018=pd.DataFrame(milbankdict)
milbank2018.to_csv('milbank2018.csv')
print("saved")