Я продолжаю получать ошибку отступа, и я не должен - PullRequest
0 голосов
/ 31 января 2019

Я получаю ошибку отступа всякий раз, когда я запускаю свою программу в CMD.Для меня отступ во всей программе выглядит идеально, поэтому я абсолютно не понимаю, почему я получаю ошибку.

Ошибка CMD:

        scraper9.py", line 50
            browser.get(url2)
            ^
        IndentationError: unexpected unindent

Я полностью удалил все отступы и повторнострока с отступом для строки, чтобы получить текущую итерацию, но я все еще выдает ошибки.

import os import sys import csv из bs4 import BeautifulSoup import urllib2 import xlsxwriter из селена import webdriver

            reload(sys)
            sys.setdefaultencoding("utf8")

            key_stats_on_main = ["Market Cap", "PE Ratio (TTM)"]
            key_stats_on_stat = ["Enterprise Value", "Trailing P/E"]

            stocks_arr =[]
            pfolio_file = open("tickers.csv", "r")
            for line in pfolio_file:
                indv_stock_arr = line.strip().split(",")
                stocks_arr.append(indv_stock_arr)

            print(stocks_arr)

            browser = webdriver.PhantomJS()
            stock_info_arr = []

            for stock in stocks_arr:
                stock_info = []
                ticker = stock[0]
                stock_info.append(ticker)

                url="https://finance.yahoo.com/quote/{0}?p={0}".format(ticker)
                url2="https://finance.yahoo.com/quote/{0}/key-statistics?p={0}".format(ticker)

                browser.get(url)
                innerHTML = browser.execute_script("return document.body.innerHTML")
                soup = BeautifulSoup(innerHTML, "html.parser")
                for stat in key_stats_on_main:
                    page_stat1 = soup.find(text = stat)
                    try:
                        page_row1 = page_stat1.find_parent("tr")
                        try:
                            page_statnum1 = page_row1.find_all("span")[1].contents[1]
                        except:
                            page_statnum1 = page_row1.find_all("td")[1].contents[0]
                        except:
                            print("Invalid parent for this element")
                            page_statnum1 = "N/A"
                        stock_info.append(page_statnum1)

                browser.get(url2)
                innerHTML2 = browser.execute_script("return document.body.innerHTML2")
                soup2 = BeautifulSoup(innerHTML2, "html.parser")
                for stat in key_stats_on_stat:
                    page_stat2 = soup2.find(text=stat)
                    try:
                        page_row2 = page_stat2.find_parent("tr")
                        try:
                            page_statnum2 = page_row2.find_all("span")[1].contents[0]
                        except:
                            page_statnum2 = page_row2.find_all("td")[1].content[0]
                    except:
                        print("Invalid pareent for this element")
                        page_statnum2 = "N/A"
                    stock_info.append(page_statnum2)

                stock_info_arr.append(stock_info)

            print(stock_info_arr)

            key_stats_on_main.extend(key_stats_on_stat)
            workbook = xlsxwriter.Workbook("Stocks01.xlsx")
            worksheet = workbook.add_worksheet()
            row = 0
            col = 2

            for stat in key_stats_on_main:
                worksheet.write(row, col, stat)
                col +=1

            row = 1
            col = 0
            for our_stock in stock_info_arr:
                col = 0 
                for info_bit in our_stock:
                    worksheet.write(row, col, info_bit)
                    col += 1
                row += 1
            workbook.close()
            print("Script completed")

Я ожидаю, что код будет выполнен без ошибок Ineation.

Ошибка.Я так потерян.

1 Ответ

0 голосов
/ 31 января 2019

У вашего try: нет except: или finally:.

            for stat in key_stats_on_main:
                page_stat1 = soup.find(text = stat)
                try:  # <--------------- this one here
                    page_row1 = page_stat1.find_parent("tr")
                    try:
                        page_statnum1 = page_row1.find_all("span")[1].contents[1]
                    except:
                        page_statnum1 = page_row1.find_all("td")[1].contents[0]
                    except:
                        print("Invalid parent for this element")
                        page_statnum1 = "N/A"
                    stock_info.append(page_statnum1)
                      # <---------------- needs something here
            browser.get(url2)

Возможно, вы подразумевали, что второй except: находится на уровне отступа первого try::

            for stat in key_stats_on_main:
                page_stat1 = soup.find(text = stat)
                try:  # <--------------- this one here
                    page_row1 = page_stat1.find_parent("tr")
                    try:
                        page_statnum1 = page_row1.find_all("span")[1].contents[1]
                    except:
                        page_statnum1 = page_row1.find_all("td")[1].contents[0]
                except:
                    print("Invalid parent for this element")
                    page_statnum1 = "N/A"
                stock_info.append(page_statnum1)

            browser.get(url2)

Попробуйте!

Кстати, вы должны уменьшить размер кода в вашем предложении try: и перехватывать только те исключения, которые вы обрабатываете.В вашем случае AttributeError (в случае сбоя .contents) будет обнаружен первым except:.Лучше:

try:
    found = page_row1.find_all("span")
    index = 1
except XError:  # should be the one .find_all() can raise
    found = page_row1.find_all("td")
    index = 0
page_statnum1 = found[1].contents[index]

И что-то похожее для внешнего try / except.

Таким образом, вы не скрываете другие исключения, которые никогда не собирались обрабатывать.Если ты сделаешь это сокрытие, тебе будет трудно понять, что идет не так, поэтому избегай этого.

...