Можете ли вы показать мне, как я могу умножить два целых числа длиной M бит, используя не более O (N ^ 1.63) процессоров за O (N) параллельного времени в python. Я думаю, что алгоритм Карацуба будет работать, но я не понимаю, как я могу реализовать его параллельно.