Как масштабировать каждый столбец матрицы - PullRequest
0 голосов
/ 03 мая 2018

Вот как я масштабирую один вектор:

vector = np.array([-4, -3, -2, -1, 0])

# pass the vector, current range of values, the desired range, and it returns the scaled vector
scaledVector = np.interp(vector, (vector.min(), vector.max()), (-1, +1)) # results in [-1.  -0.5  0.   0.5  1. ]

Как я могу применить вышеуказанный подход к каждому столбцу данного matrix?

matrix = np.array(
      [[-4, -4, 0, 0, 0],
      [-3, -3, 1, -15, 0],
      [-2, -2, 8, -1, 0],
      [-1, -1, 11, 12, 0],
      [0, 0, 50, 69, 80]])

scaledMatrix = [insert code that scales each column of the matrix]

Обратите внимание, что первые два столбца scaledMatrix должны быть равны scaledVector из первого примера. Для matrix, выше, правильно вычислено scaledMatrix:

[[-1.         -1.         -1.         -0.64285714 -1.        ]
 [-0.5        -0.5        -0.96       -1.         -1.        ]
 [ 0.          0.         -0.68       -0.66666667 -1.        ]
 [ 0.5         0.5        -0.56       -0.35714286 -1.        ]
 [ 1.          1.          1.          1.          1.        ]]

Мой текущий подход (неверно):

np.interp(matrix, (np.min(matrix), np.max(matrix)), (-1, +1))

1 Ответ

0 голосов
/ 03 мая 2018

Если вы хотите сделать это вручную и понять, что происходит:

Первые минусы по столбцам, чтобы в каждом столбце было минимум 0.

Затем разделите амплитуду по столбцам (max - min), чтобы у каждого столбца было максимум 1.

Теперь каждый столбец находится между 0 и 1. Если вы хотите, чтобы он был между -1 и 1, умножьте на 2 и вычтите 1:

In [3]: mins = np.min(matrix, axis=0)

In [4]: maxs = np.max(matrix, axis=0)

In [5]: (matrix - mins[None, :]) / (maxs[None, :] - mins[None, :])
Out[5]: 
array([[ 0.        ,  0.        ,  0.        ,  0.17857143,  0.        ],
       [ 0.25      ,  0.25      ,  0.02      ,  0.        ,  0.        ],
       [ 0.5       ,  0.5       ,  0.16      ,  0.16666667,  0.        ],
       [ 0.75      ,  0.75      ,  0.22      ,  0.32142857,  0.        ],
       [ 1.        ,  1.        ,  1.        ,  1.        ,  1.        ]])

In [6]: 2 * _ - 1
Out[6]: 
array([[-1.        , -1.        , -1.        , -0.64285714, -1.        ],
       [-0.5       , -0.5       , -0.96      , -1.        , -1.        ],
       [ 0.        ,  0.        , -0.68      , -0.66666667, -1.        ],
       [ 0.5       ,  0.5       , -0.56      , -0.35714286, -1.        ],
       [ 1.        ,  1.        ,  1.        ,  1.        ,  1.        ]])

Я использую [None, :] для numpy, чтобы понять, что я говорю о «векторах строк», а не столбцах.

В противном случае используйте замечательный пакет sklearn, в модуле которого preprocessing есть много полезных преобразователей:

In [13]: from sklearn.preprocessing import MinMaxScaler

In [14]: scaler = MinMaxScaler(feature_range=(-1, 1))

In [15]: scaler.fit(matrix)
Out[15]: MinMaxScaler(copy=True, feature_range=(-1, 1))

In [16]: scaler.transform(matrix)
Out[16]: 
array([[-1.        , -1.        , -1.        , -0.64285714, -1.        ],
       [-0.5       , -0.5       , -0.96      , -1.        , -1.        ],
       [ 0.        ,  0.        , -0.68      , -0.66666667, -1.        ],
       [ 0.5       ,  0.5       , -0.56      , -0.35714286, -1.        ],
       [ 1.        ,  1.        ,  1.        ,  1.        ,  1.        ]])
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...