Селеновый повар ie обработка - PullRequest
1 голос
/ 18 апреля 2020

Так что я мог бы пойти на это с совершенно неверным подходом, если так, пожалуйста, направьте меня к лучшему пути. Я пытаюсь получить все объявления со своей университетской веб-страницы и распечатать их ботом-раздором (это я могу успешно сделать).

Однако, я тупик с обработкой файлов cookie после входа в систему

# scrapeCSUP.py

import pickle
import time
import pprint
import requests
from selenium.webdriver import Chrome
from selenium.webdriver.chrome.options import Options
from bs4 import BeautifulSoup as bs

opts = Options()
opts.headless = True
assert opts.headless

main_url = "https://cs.up.ac.za/courses/COS132"
browser = Chrome(options=opts)

page = requests.get(main_url)

soup = bs(page.content, 'html.parser')


def save_cookies(driver, location):
    pickle.dump(browser.get_cookies(), open(location, 'wb'))


def load_cookies(driver, location, url = None):
    cookies = pickle.load(open(location, 'rb'))
    browser.delete_all_cookies()
    url = "https://cs.up.ac.za/courses/COS132" if url is None else url
    browser.get(main_url)
    for cookie in cookies:
        browser.add_cookie(cookie)


def user_login():
    browser.get("https://cs.up.ac.za/login?next=%2Fcourses%2FCOS132")
    browser.find_element_by_xpath('/html/body/div/div/div[3]/div/form/table/tbody/tr[1]/td/input').send_keys(
        'username')
    browser.find_element_by_xpath('/html/body/div/div/div[3]/div/form/table/tbody/tr[2]/td/input').send_keys(
        'password')
    checkbox = browser.find_element_by_xpath('/html/body/div/div/div[3]/div/form/table/tbody/tr[4]/td[2]/input')
    if not checkbox.is_selected():
        checkbox.click()
    browser.find_element_by_xpath('/html/body/div/div/div[3]/div/form/table/tbody/tr[5]/td[2]/input[3]').click()

    save_cookies(browser, 'cookies.txt')
    print("Logged in successfully")

    time.sleep(5)
    pprint.pprint(browser.get_cookies())

    browser.quit()


def login_w_cookies():
    load_cookies(browser, 'cookies.txt', main_url)
    browser.get(main_url)

    time.sleep(5)
    pprint.pprint(browser.get_cookies())


def announcement_printer():
    whole_content = soup.find(class_='siteContainer')

    announcements = whole_content.find_all('div', class_='left')

    for announcement in announcements:
        print(announcement, end='\n' * 2)


browser.get(main_url)
#user_login()
login_w_cookies()
announcement_printer()
print("========================================\n")

Я запускаю user_login(), чтобы сохранить куки, затем выполняю login_w_cookies(), но я, однако, не правильно загружаю куки, и это меня огорчает.

Traceback (most recent call last):
  File "E:/DiscBot/scrapeCSUP.py", line 75, in <module>
    login_w_cookies()
  File "E:/DiscBot/scrapeCSUP.py", line 57, in login_w_cookies
    load_cookies(browser, 'cookies.txt', main_url)
  File "E:/DiscBot/scrapeCSUP.py", line 33, in load_cookies
    browser.add_cookie(cookie)
  File "E:\DiscBot\venv\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 894, in add_cookie
    self.execute(Command.ADD_COOKIE, {'cookie': cookie_dict})
  File "E:\DiscBot\venv\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 321, in execute
    self.error_handler.check_response(response)
  File "E:\DiscBot\venv\lib\site-packages\selenium\webdriver\remote\errorhandler.py", line 242, in check_response
    raise exception_class(message, screen, stacktrace)
selenium.common.exceptions.InvalidArgumentException: Message: invalid argument: invalid 'expiry'
  (Session info: headless chrome=81.0.4044.113)

1 Ответ

0 голосов
/ 18 апреля 2020

В load -функции добавьте следующие строки:

...
for cookie in cookies:
    if isinstance(cookie.get("expiry"), float):
        cookie["expiry"] = int(cookie["expiry"])
    browser.add_cookie(cookie)

Надеюсь, это вам поможет!

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...