Добавление данных в файл CSV - PullRequest
0 голосов
/ 23 мая 2018

В последние несколько дней я возился с питоном, и, следуя учебнику Эдмунда Мартина , я столкнулся с проблемой:

Я хотел бы добавить имя и заголовок, которые язаписан в файл CSV.Единственная проблема - данные, которые я очистил, не отображаются в файле.

Не могли бы вы объяснить мне логику того, почему в файл CSV записываются только «ранг», «описание» и «заголовок», а не фактические данные.И как мне это решить?

Ниже приведен код, который я нашел на веб-сайте учебника с последними тремя добавленными мной строками:

import requests
from bs4 import BeautifulSoup
import time
import csv 

USER_AGENT = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '
              'AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 '
              'Safari/537.36'}


def fetch_results(search_term, number_results, language_code):
    assert isinstance(search_term, str), 'Search term must be a string'
    assert isinstance(number_results, int), 'Number of results must be an integer'
    escaped_search_term = search_term.replace(' ', '+')

    google_url = 'https://www.google.com/search?q={}&num={}&hl={}'.format(
        escaped_search_term, number_results, language_code)
    response = requests.get(google_url, headers=USER_AGENT)
    response.raise_for_status()

    return search_term, response.text


def parse_results(html, keyword):
    soup = BeautifulSoup(html, 'html.parser')

    found_results = []
    rank = 1
    result_block = soup.find_all('div', attrs={'class': 'g'})
    for result in result_block:

        link = result.find('a', href=True)
        title = result.find('h3', attrs={'class': 'r'})
        description = result.find('span', attrs={'class': 'st'})
        if link and title:
            link = link['href']
            title = title.get_text()
            description = description.get_text()
            if link != '#':
                found_results.append({
                    'rank': rank,
                    'title': title,
                    'description': description
                })
                rank += 1
    return found_results


def scrape_google(search_term, number_results, language_code):
    try:
        keyword, html = fetch_results(search_term, number_results, language_code)
        results = parse_results(html, keyword)
        return results
    except AssertionError:
        raise Exception("Incorrect arguments parsed to function")
    except requests.HTTPError:
        raise Exception("You appear to have been blocked by Google")
    except requests.RequestException:
        raise Exception("Appears to be an issue with your connection")


if __name__ == '__main__':
    keywords = ['python']
    data = []
    for keyword in keywords:
        try:
            results = scrape_google(keyword,2, "en")
            for result in results:
                data.append(result)
        except Exception as e:
            print(e)
        finally:
            time.sleep(1)
print(data)

with open('python_scrape.csv', 'w') as csvFile:
    writer = csv.writer(csvFile)
    writer.writerows(data)

csvFile.close()import requests
from bs4 import BeautifulSoup
import time
import csv 

USER_AGENT = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '
              'AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 '
              'Safari/537.36'}


def fetch_results(search_term, number_results, language_code):
    assert isinstance(search_term, str), 'Search term must be a string'
    assert isinstance(number_results, int), 'Number of results must be an integer'
    escaped_search_term = search_term.replace(' ', '+')

    google_url = 'https://www.google.com/search?q={}&num={}&hl={}'.format(
        escaped_search_term, number_results, language_code)
    response = requests.get(google_url, headers=USER_AGENT)
    response.raise_for_status()

    return search_term, response.text


def parse_results(html, keyword):
    soup = BeautifulSoup(html, 'html.parser')

    found_results = []
    rank = 1
    result_block = soup.find_all('div', attrs={'class': 'g'})
    for result in result_block:

        link = result.find('a', href=True)
        title = result.find('h3', attrs={'class': 'r'})
        description = result.find('span', attrs={'class': 'st'})
        if link and title:
            link = link['href']
            title = title.get_text()
            description = description.get_text()
            if link != '#':
                found_results.append({
                    'rank': rank,
                    'title': title,
                    'description': description
                })
                rank += 1
    return found_results


def scrape_google(search_term, number_results, language_code):
    try:
        keyword, html = fetch_results(search_term, number_results, language_code)
        results = parse_results(html, keyword)
        return results
    except AssertionError:
        raise Exception("Incorrect arguments parsed to function")
    except requests.HTTPError:
        raise Exception("You appear to have been blocked by Google")
    except requests.RequestException:
        raise Exception("Appears to be an issue with your connection")


if __name__ == '__main__':
    keywords = ['python']
    data = []
    for keyword in keywords:
        try:
            results = scrape_google(keyword,2, "en")
            for result in results:
                data.append(result)
        except Exception as e:
            print(e)
        finally:
            time.sleep(1)
print(data)

with open('python_scrape.csv', 'w') as csvFile:
    writer = csv.writer(csvFile)
    writer.writerows(data)

csvFile.close()

Спасибо за помощь!

Ответы [ 2 ]

0 голосов
/ 23 мая 2018

Поскольку вы используете csv.writer.writerows (который заканчивается на 's', строки - во множественном числе), а не writerow, csv writer ожидает список "итерируемых объектов", которые он будет обрабатывать как строки.

Ваша функция main () использует scrape_google (), чтобы вернуть список словарей, которые похожи на {'rank': rank, 'title': title, 'description': description}.

Python выполняет итерацию по словарям, возвращая каждый ключ, так что авторы видят только ключи "rank", "title" и "description" в каждой строке.

Самый быстрый способ исправить происходящее - этодобавьте строку

results = [[j[i] for i in j] for j in results]

перед строкой "with open ('python_scrape.csv' ..." ". Это использует понимание списка, что полезно для изучения как нового пользователя python.

Лучший способ исправить ваш код - это убедиться, что он формирует список списков для записи в csv вместо списка словарей.

0 голосов
/ 23 мая 2018
def parse_results(html, keyword):
    # code ....
    for result in result_block:

        link = result.find('a', href=True) # here you get links
        title = result.find('h3', attrs={'class': 'r'}) # here you get title
        description = result.find('span', attrs={'class': 'st'}) # here you get description

        # if you want something to search here
        # for example you can print(result) here an see what data have result variable 
        # and after that parse that data and save in variable for example
        # body = result.find('h1', attrs={'class': 'h1'})


        if link and title:
            link = link['href']
            title = title.get_text()
            description = description.get_text()

            # here we take text from that body 
            # body = body.get_text()

            if link != '#':
                found_results.append({
                    'rank': rank,
                    'title': title,
                    'description': description,

                    # and here we append to list
                    'body': body
                })
                rank += 1
    return found_results
...