Python разбивает большие списки на меньшие списки для проверки производительности? - PullRequest
0 голосов
/ 06 июля 2011

Каков наилучший способ разбить большой список (более 1000 наименований) в целях повышения производительности? А использовать «части» большого списка?

Например; У меня есть список из 10 тысяч адресов, которые я хочу сканировать. Как я могу разделить этот список на 4-й и закончить список по разделам, чтобы повысить производительность?

Ответы [ 3 ]

2 голосов
/ 06 июля 2011

Если вы читаете все элементы списка, разделение фактически снизит вашу производительность. Вы должны профилировать свою программу (возможно, опубликуйте ее в вопросе здесь, если вы можете достаточно упростить ее).

Если вы не читаете все элементы, почему вы используете список в первую очередь? Используйте set или dict. Операции над обоими чрезвычайно быстры.

1 голос
/ 06 июля 2011

См. Ответы на этот вопрос о том, как разбить произвольный список на более мелкие куски.Он явно не охватывает увеличение производительности, поэтому вы можете рассмотреть возможность использования многопроцессорного модуля для фактического управления этими небольшими списками одновременно, если это то, что вы ищете.

0 голосов
/ 06 июля 2011

То есть, вы хотите выполнить операцию над всем списком, но она медленно выполняется последовательно?Я думаю, что вы хотите рабочий пул. это помогает?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...