Я работаю над заданием по преобразованию изображения в градациях серого в 1-битное двоичное изображение путем сглаживания. Я пробую простую матрицу 4x4, которая сделает изображение в 16 раз больше оригинала.
dithering_matrix = array([[ 0, 8, 2, 10],
[12, 4, 14, 6],
[ 3, 11, 1, 9],
[15, 7, 13, 5]], dtype=uint8)
split_num = dithering_matrix.size + 1
Я прочитал изображение 512x512 в im
ndarray и сделал следующие вещи:
output = list()
for row in im:
row_output = list()
for pixel in row:
pixel_matrix = ((pixel / (256 / split_num)) > dithering_matrix) * 255
row_output.append(pixel_matrix)
output.append( hstack( tuple(row_output) ) )
output_matrix = vstack( tuple(output) )
Я обнаружил, что для вывода потребовалось 8-10 секунд, и я думаю, что цикл im
выше потратил много времени. В некоторых программах ту же операцию обычно выполняли в одно мгновение. Так можно ли повысить эффективность?
UPDATE:
@ Игнасио Васкес-Абрамс
Я не очень похож на профилировщика :( Я попробовал cProfile, и результат странный.
1852971 function calls (1852778 primitive calls) in 9.127 seconds
Ordered by: internal time
List reduced from 561 to 20 due to restriction <20>
ncalls tottime percall cumtime percall filename:lineno(function)
1 6.404 6.404 9.128 9.128 a1.1.py:10(<module>)
513 0.778 0.002 0.778 0.002 {numpy.core.multiarray.concatenate
}
262144 0.616 0.000 1.243 0.000 D:\Python27\lib\site-packages\nump
y\core\shape_base.py:6(atleast_1d)
262696 0.260 0.000 0.261 0.000 {numpy.core.multiarray.array}
262656 0.228 0.000 0.487 0.000 D:\Python27\lib\site-packages\nump
y\core\numeric.py:237(asanyarray)
515 0.174 0.000 1.419 0.003 {map}
527019 0.145 0.000 0.145 0.000 {method 'append' of 'list' objects
}
Строка 10 в a1.1.py - это первая строка from numpy import *
(все комментарии до этого), которая действительно озадачивает меня.