Предположим, у меня большая разреженная матрица. Я хочу взять каждый вектор-строку этой матрицы и вычислить косинусное расстояние до ближайшего соседа среди предыдущих window_size строк матрицы.
Поскольку sklearn.neighbors не улучшает время выполнения, когда используя распараллеливание (см. эту проблему на github ), я попытался распараллелить процесс, используя ray. Мой код работает лучше, чем sklearn с многопроцессорной обработкой, но он все еще медленнее, чем просто вычисление последовательного расстояния.
Мой код приведен ниже. Что-то я сделал не так и должен улучшить?
import scipy.sparse
from sklearn.metrics.pairwise import cosine_distances
from sklearn.neighbors import NearestNeighbors
import numpy as np
import timeit
import ray
import math
n = 4000
m = 100
big_matrix = scipy.sparse.random(n, m).tocsr()
window_size = 1000
retry = 1
n_jobs = 4
ray.init(num_cpus=n_jobs)
def simple_cosine_distance():
distances = np.zeros(n)
for i in range(1, n):
past = big_matrix[max(0, i - window_size):i]
query = big_matrix[i]
distances[i] = cosine_distances(query, past).min(axis=1)
def sklearn_nneighbor():
distances = np.zeros(n)
for i in range(1, n):
past = big_matrix[max(0, i - window_size):i]
nn = NearestNeighbors(metric="cosine", n_neighbors=1, n_jobs=1)
nn.fit(X=past)
query = big_matrix[i]
distance, _ = nn.kneighbors(query)
distances[i] = distance[0]
def sklearn_nneighbor_parallel():
distances = np.zeros(n)
for i in range(1, n):
past = big_matrix[max(0, i - window_size):i]
nn = NearestNeighbors(metric="cosine", n_neighbors=1, n_jobs=n_jobs)
nn.fit(X=past)
query = big_matrix[i]
distance, _ = nn.kneighbors(query)
distances[i] = distance[0]
@ray.remote
def get_chunk_min(data, indices, indptr, shape, slice_i, slice_j, query):
matrix = scipy.sparse.csr_matrix((data, indices, indptr), shape=shape)
past = matrix[slice_i:slice_j]
query = matrix[query]
chunk_min = cosine_distances(query, past).min(axis=1)
return chunk_min
def ray_parallel():
distances = np.zeros(n)
data = ray.put(big_matrix.data)
indices = ray.put(big_matrix.indices)
indptr = ray.put(big_matrix.indptr)
shape = ray.put(big_matrix.shape)
for i in range(1, n):
chunk_size = math.ceil((i - max(0, i - window_size)) / n_jobs)
chunk_mins = ray.get([
get_chunk_min.remote(
data,
indices,
indptr,
shape,
enum,
enum + chunk_size,
i
) for enum in range(max(0, i - window_size), i, chunk_size)])
distances[i] = min(chunk_mins)
for method in ["simple_cosine_distance", "sklearn_nneighbor", "sklearn_nneighbor_parallel", "ray_parallel"]:
print(method)
print(timeit.timeit(method + "()", setup="from __main__ import " + method, number=retry))
print("*"*50)
Вывод:
simple_cosine_distance 3.978868665999471
sklearn_nneighbor 4.265772191996803
sklearn_nneighbor_parallel 28.664759318002325
ray_parallel 17.89882287799992