Извлеченные данные не попадают в базу данных Postgres - PullRequest
0 голосов
/ 04 июля 2019

Скребок должен очищать каждое сообщение в блоге на каждой странице. Данные со скребка должны идти в базу данных Postgresql, где будет учитываться следующая статистика:

  1. 10 самых распространенных слов вместе с их номерами под адресом / статистика
  2. 10 самых распространенных слов с их номерами для каждого автора, доступные по адресу / stats / /
  3. сообщений авторов с их именами доступны в адресе / статистика / / доступны под адресом / авторов /

До сих пор я сосредоточился на первом и втором задании, но у меня есть две проблемы (одна вытекает из другой и наоборот). Я не знаю, как заставить данные поступать в базу данных, и поэтому я не знаю, как сделать "Счетчик"

Вот мой скребок:

import requests
from bs4 import BeautifulSoup as bs
from selenium import webdriver
from webdriver_manager.chrome import ChromeDriverManager
from collections import Counter
import psycopg2
# from sqlalchemy.dialects.postgresql import psycopg2


url = 'https://teonite.com/blog/page/{}/index.html'
all_links = []


headers = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
    'User-Agent': 'Mozilla/5.0'
}
with requests.Session() as s:
    r = s.get('https://teonite.com/blog/')
    soup = bs(r.content, 'lxml')
    article_links = ['https://teonite.com' + item['href'][2:] for item in soup.select('.post-content a')]
    all_links.append(article_links)
    num_pages = int(soup.select_one('.page-number').text.split('/')[1])


    for page in range(2, num_pages + 1):
        r = s.get(url.format(page))
        soup = bs(r.content, 'lxml')
        article_links = ['https://teonite.com' + item['href'][2:] for item in soup.select('.post-content a')]
        all_links.append(article_links)



    all_links = [item for i in all_links for item in i]

    d = webdriver.Chrome(ChromeDriverManager().install())

    contents = []
    authors = []

    for article in all_links:
        d.get(article)
        soup = bs(d.page_source, 'lxml')
        [t.extract() for t in soup(['style', 'script', '[document]', 'head', 'title'])]
        visible_text = soup.getText()
        content = soup.find('section', attrs={'class': 'post-content'})
        contents.append(content)
        author = soup.find('span', attrs={'class': 'author-content'})
        authors.append(author)
        unique_authors = list(set(authors))
        unique_contents = list(set(contents))


        try:
            print(soup.select_one('.post-title').text)
        except:
            print(article)
            print(soup.select_one('h1').text)
            break  # for debugging
    d.quit()

    # POSTGRESQL CONNECTION
    # 1. Connect to local database using psycopg2

    hostname = 'balarama.db.elephantsql.com'
    username = 'user'
    password = 'password'
    database = 'db'

    conn = psycopg2.connect(host='domain.com', user='user',
                            password='password', dbname='db')
    conn.close()

# Counter = Counter(split_it)
#
# # most_common() produces k frequently encountered
# # input values and their respective counts.
# most_occur = Counter.most_common(10)
#
# print(most_occur)

# split() returns list of all the words in the string
# split_it = contents.split()
#
# # Pass the split_it list to instance of Counter class.
# Counter = Counter(split_it)
#
# # most_common() produces k frequently encountered
# # input values and their respective counts.
# most_occur = Counter.most_common(10)
#
# print(most_occur)

# # split() returns list of all the words in the string
# split_it = contents.split()
#
# Pass the split_it list to instance of Counter class.

Модель:

from django.db import models

class author(models.Model):
    author_id = models.CharField(primary_key=True, max_length=50, editable=False)
    author_name = models.CharField(max_length=50)

    class Meta:
        ordering = ['-author_id']
        db_table = 'author'


class stats(models.Model):
    content = models.CharField(max_length=50)
    stats = models.IntegerField()

    class Meta:
        ordering = ['-stats']
        db_table = 'stats'



class authorStats(models.Model):
    author_id = models.CharField(max_length=100)
    content = models.CharField(max_length=100)
    stats = models.IntegerField()

    class Meta:
        ordering = ['stats']
        db_table = 'author_stats'

Ответы [ 2 ]

1 голос
/ 04 июля 2019

Прежде всего, я сомневаюсь, что вам нужно использовать пакет psycopg2 для записи в базу данных, если вы используете django.Вы можете вместо этого использовать модели Django.Поэтому этот код является избыточным:

# POSTGRESQL CONNECTION
# 1. Connect to local database using psycopg2

hostname = 'balarama.db.elephantsql.com'
username = 'user'
password = 'password'
database = 'db'

conn = psycopg2.connect(host='domain.com', user='user',
                        password='password', dbname='db')
conn.close() 

Так что, если вы используете модели django в своем приложении, имеет смысл использовать их для хранения данных в postgres.Django имеет исчерпывающую документацию , и всегда стоит изучить ее.Для вашего конкретного примера с сохранением authors это может быть так:

scraped_author = author(name='author name')
author.save()
1 голос
/ 04 июля 2019

Я думаю, вы найдете вторую часть Django Tutorial здесь очень удобной. Эта глава обрабатывает соединения с базой данных в приложениях Django и даже указывает Postgres в качестве примера.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...