У меня есть большой json-файл, который мне нужно прочитать в pandas dataframe без использования json-модуля .Вот ссылка на файл melbourne_bike_share.json .Я не знал, что вырезать, чтобы сделать минимальный пример.
Каждый раз, когда я пытаюсь перейти от чтения файла к кадру данных, я получаю ту же ошибку:
ValueError: Mixing dicts with non-Series may lead to ambiguous ordering.
Я попытался прочитать его прямо в:
import pandas as pd
mbs = pd.read_json('Melbourne_bike_share.json')
и убедиться, что моя строка, которая должна быть прочитана pd.read_json (), верна:
with open("Melbourne_bike_share.json", encoding="utf8") as mbs_json:
mbs_string = mbs_json.readlines()
mbs_string = [line.rstrip() for line in mbs_string]
mbs_string = ''.join(mbs_string)
mbs = pd.read_json('Melbourne_bike_share.json')
Но все равно получаю ту же ошибку ValueError.Я не могу найти причину этой ошибки, что она на самом деле означает, или почти любые задаваемые и отвеченные вопросы, связанные с чтением файлов json, которые не просто предлагают использовать модуль json, чего я не могу сделать.
Яплохо знакомы с файлами Python и JSON.Из того, что я понял, следующий шаг после того, как я смог прочитать файл json, это сгладить его:
from pandas.io.json import json_normalize
df = json_normalize(mbs)
, после чего я получу свой фрейм данных и смогу манипулировать этим.
PostОтредактировано, чтобы показать ожидаемую первую строку результирующего кадра данных.Первая строка - заголовки столбцов (индексы по умолчанию, пока я не выясню, как извлечь заголовки столбцов из метаданных в файле json).Я расположил заголовки столбцов 0-5, чтобы выровнять их значения, после чего формат здесь помещает их в новую строку.Извини за это.надеюсь, вы видите, что они все должны выровняться.Вторая строка - это первая строка.
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
0 155 7C09387D-9E6C-4B42-9041-9A98B88F54BB 155 1428899388 880594 1453945520 880594 {\n "invalidCells" : {\n "27624917" : "22/... 2 Harbour Town - Docklands Dve - Docklands 60000 9 14 1453985105 [{"address":"","city":"","state":"","zip":""},..
Любая помощь приветствуется.