У меня есть массив строк, которые мне нужно обработать. Поскольку строки могут обрабатываться независимо, я делаю это параллельно:
import multiprocessing
import numpy as np
def func(x):
ls = ["this", "is"]
return [i.upper() for i in x.split(' ') if i not in ls]
arr = np.asarray(["this is a test", "this is not a test", "see my good example"])
pool = multiprocessing.Pool(processes=2)
tst = pool.map(func, arr)
pool.close()
У меня следующий вопрос: существуют ли очевидные способы, которыми я могу улучшить свой код с точки зрения сокращения использования памяти и процессорного времени? Такие как
- Использование numpy-массивов в
func
?
- Использование Python-списков вместо numpy-массивов?
- ...