Есть два способа - простой и сложный.
Сложный путь - вам нужно отслеживать все запросы, отправляемые страницей, когда вы входите в систему в реальном браузере (через Вкладка «Сеть» в Chrome или инструментах разработчика FF), а затем вам нужно скопировать их на своей стороне, чтобы они выглядели как настоящий пользователь. Вы можете сделать это с помощью requests
+ BeautifulSoup
, но я лучше буду использовать Scrapy , потому что он имеет встроенную поддержку для сохранения файлов cookie между запросами, et c.
Простой способ, и все равно Python - используйте Selenium . Таким образом, вы работаете через настоящий браузер, вы можете просто послать click on that thing
команд, а браузер сделает всю работу, в том числе «выглядит как настоящий браузер», так что вы пропустите много антиботов.