Невозможно войти на сайт с помощью веб-сканера (scrapy) - PullRequest
0 голосов
/ 21 марта 2020

Я работаю над проектом, для которого я должен очистить сайт "http://app.bmiet.net/student/login" после входа в него. Однако я не могу войти, используя scrapy. Я думаю, это потому, что мой код не может прочитать код CSRF с веб-сайта, однако я все еще учусь использовать скрап, и поэтому я не уверен. Пожалуйста, помогите мне с моим кодом и скажите, в чем моя ошибка. Код приведен ниже.

import scrapy
from scrapy.http import FormRequest
from scrapy.utils.response import open_in_browser


class spidey(scrapy.Spider):
     name = 'spidyy'
     start_urls = [
        'http://app.bmiet.net/student/login'
      ]


def parse(self, response):
         token = response.css('form input::attr(value)').extract_first()
         return FormRequest.from_response(response, formdata={
            'csrf_token' : token,
             'username' : '//username//',
             'password' : '//password//'
         }, callback = self.start_scrapping)

def start_scrapping(self, response):
    open_in_browser(response)
    all = response.css('.table-hover td')
    for x in all:
        att = x.css('td:nth-child(2)::text').extract()
        sub = x.css('td~ td+ td::text').extract()
        yield {
            'Subject': sub,
            'Status': att
        }

Я удалил имя пользователя и пароль по понятным причинам. Я также делюсь тем, что получаю в терминале при запуске программы.

2020-03-21 17:06:49 [scrapy.core.engine] INFO: Spider opened
2020-03-21 17:06:49 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
2020-03-21 17:06:49 [scrapy.extensions.telnet] INFO: Telnet console listening on 127.0.0.1:6023
2020-03-21 17:06:50 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://app.bmiet.net/robots.txt> (referer: None)
2020-03-21 17:06:54 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://app.bmiet.net/student/login> (referer: None)
2020-03-21 17:06:54 [scrapy.core.scraper] ERROR: Spider error processing <GET http://app.bmiet.net/student/login> (referer: None)
Traceback (most recent call last):
  File "c:\users\administrator\pycharmprojects\sarthak_project\venv\lib\site-packages\twisted\internet\defer.py", line 654, in _runCallbacks
    current.result = callback(current.result, *args, **kw)
  File "c:\users\administrator\pycharmprojects\sarthak_project\venv\lib\site-packages\scrapy\spiders\__init__.py", line 84, in parse
    raise NotImplementedError('{}.parse callback is not defined'.format(self.__class__.__name__))
NotImplementedError: spidey.parse callback is not defined
2020-03-21 17:06:54 [scrapy.core.engine] INFO: Closing spider (finished)

1 Ответ

0 голосов
/ 21 марта 2020

Я бы посоветовал вам переформатировать ваш код с отступом методов, чтобы они были частью класса следующим образом:

import scrapy
from scrapy.http import FormRequest
from scrapy.utils.response import open_in_browser


class spidey(scrapy.Spider):
    name = 'spidyy'
    start_urls = [
        'http://app.bmiet.net/student/login'
    ]

    def parse(self, response):
        token = response.css('form input::attr(value)').extract_first()
        return FormRequest.from_response(response, formdata={
            'csrf_token' : token,
             'username' : '//username//',
             'password' : '//password//'
        }, callback = self.start_scrapping)

    def start_scrapping(self, response):
        open_in_browser(response)
        all = response.css('.table-hover td')
        for x in all:
            att = x.css('td:nth-child(2)::text').extract()
            sub = x.css('td~ td+ td::text').extract()
            yield {
                'Subject': sub,
                'Status': att
            }
...