Как разобрать из файла JSONP с помощью Python3? - PullRequest
0 голосов
/ 03 января 2019

Это мой первый раз, когда я возился с файлами .json / .jsonp, и у меня есть несколько файлов .jsonp в папке, из которой мне нужно проанализировать значения ключей.Насколько я понимаю, мне нужно преобразовать jsonp в json, а затем использовать ключ, чтобы получить соответствующее значение, но не могу понять, как успешно загрузить мой файл jsonp с python3, а затем преобразовать его в json.

IМожно прочитать файл, просто открыв и прочитав, но это кажется неправильным способом его чтения.Если это нормально, то как лучше конвертировать его?

Как я читаю это:

jsonp=open(r'''C:\Users\zburc_000\Desktop\observed_otus_significance\column-african_american.jsonp''','r')

Как выглядит файл:

load_data ('amount_fat_free_milk', {"name": null, "index": ["12oz (n = 10)", "16oz (n = 7)", "20oz (n = 2)", "6или менее 8 унций (n = 1) »,« 8 унций (n = 27) »,« NA (n = 225) »,« менее 6 унций (n = 24) »,« более 20 унций (n = 54)"]," данные ": [[54,47,19,64,74,61,72,52,31,30], [38,77,129,34,38,39,82], [51,39],[39], [29,53,47,74,62,36,40,39,32,63,41,139,72,156,27,43,25,95,65,23,45,72,108,85,33,82, 65], [70,48,68,121,58,90,45,62,52,136,56,93,76,84,53,82,92,84,26,53,50,109,81,58,84,54, 61,69,55,59,41,54,66,96,66,80,42,59,44,56,58,33,26,51,69,48,93,103,55,79,76,41, 96,71,56,26,98,51,60,59,60,33,63,50,45,45,69,127,65,94,32,38,102,86,59,85,30,102,117,95,55, 44,71,86,36,102,67,40,54,81,66,45,83,25,91,76,42,27,46,75,86,89,42,59,60,49,65, 57,37,57,49,42,35,54,38,77,54,57,95,34,51,78,47,91,97,78,62,53,41,59,55,37, 55,114,31,87,54,56,56,53,63,29,34,34,47,32,123,76,35,29,34,54,62,80,60,45,37,62,36, 28,40,62,56,71,47,40,97,47,58,53,45,36,63,36,85,86,100,36,53,37,37,28,48,73,70, 83,50,78,95,46,52,16,70,105,71,79,51,66,77,47,47,154,100,60,77,46,86,69,43,64,38,22,75,33,45,68,35,43,67,141,45,49,60,87,103], [26,122,98,99,38,61,116,42,51,67,32,117,135,63,47,21,56,24,55,61,69,40,100,30], [20,77,23,43,37,56,171,55,135,130,52,123,80,67,107,41,75,72,42,44,27,87,104,47,69,64,17,84,30,26,117,53,29,49,45,20,76,116,46,77,15,47,96,83,39,36,133,27,168,30,49,42,34,45]]}, {"начальный": 350, "отфильтрованный": 350}, {"p": 0,6810926316972944, "H": 4,826778985767726}, 'H p-значениеq-значение Группа 1 Группа 2 12 унций (n = 10) 16 унций (n = 7) 0,467239 0,494260 0,891202 20 унций (n = 2) 0,415385 0,519249 0,891202 6 унций или меньше8 унций (n = 1) 0,400000 0,527089 0,891202 8 унций (n = 27) 0,379262 0,537998 0,891202 NA (n = 225) 1,728250 0,188635 0,891202 менее 6 унций (n = 24) 0,692063 0,405464 0,891202 более 20 унций (n = 54) 0,407082 0,523455 0,891202 16 унций (n = 7) 20 унций (n = 2,89 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 092 029 082 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 06 унций или менее8 унций (n = 1) 0,000000 1,000000 1,000000 8 унций (n = 27) 0,000454 0,983003 1,000000 NA (n = 225) 0,267899 0,604744 0,891202 менее 6 унций (n = 24) 0,055860 0,813163 0,988559 более чем 54 унции) 0.032782 0,856322 0,988559 20 унций (n = 2) 6 унций или менее 8 унций (n = 1) 0,500000 0,479500 0,891202 8 унций (n = 27) 0,313194 0,575727 0,891202 NA (n = 225) 1,3339476 0,247126 0,891202 менее 6 унций (n = 24) 0,6690,413247 0,891202 более 20 унций (n = 54) 0,304675 0,580967 0,891202 6 унций или менее 8 унций (n = 1) 8 унций (n = 27) 0,552177 0,457429 0,891202 NA (n = 225) 1,304423 0,253407 0,891202 менее 6 унций (n = 24)0,692574 0,405290 0,891202 более 20 унций (n = 54) 0,620241 0,430958 0,891202 8 унций (n = 27) NA (n = 225) 0,889579 0,345591 0,891202 менее 6 унций (n = 24) 0,115421 0,734055 0,988559 более 20 унций (n = 54) 0,07500,988559 NA (n = 225) менее 6 унций (n = 24) 0,000720 0,978590 1,000000 более 20 унций (n = 54) 0,756352 0,384473 0,891202 менее 6 унций (n = 24) более 20 унций (n = 54) 0,098603 0,753513 0,988559 ','kruskal-wallis-pairwise-amount_fat_free_milk.csv', 'seen_otus');

В конечном счете мне нужно иметь возможность получить значения из "p" и "H", но моя главная проблема сейчас заключается в полученииэто преобразовано в JSON.

...