Как получить имя столбца для второго по величине значения строки в пандах DataFrame - PullRequest
0 голосов
/ 23 сентября 2018

У меня довольно простой вопрос - я думаю - но, похоже, я не могу обернуться вокруг этого.Я начинающий с Python и Pandas.Я искал форум, но не смог получить (недавний) ответ, который соответствует моим потребностям.

У меня есть фрейм данных, такой как этот:

df = pd.DataFrame({'A': [1.1, 2.7, 5.3], 'B': [2, 10, 9], 'C': [3.3, 5.4, 1.5], 'D': [4, 7, 15]}, index = ['a1', 'a2', 'a3'])

, который дает:

          A   B    C   D
    a1  1.1   2  3.3   4
    a2  2.7  10  5.4   7
    a3  5.3   9  1.5  15

Мой вопрос прост: я хотел бы добавить столбец, который дает имя столбца секунда максимальное значение каждой строки.

Я написал простую функцию, которая возвращает второе максимальное значение для каждой строки

def get_second_best(x):
    return sorted(x)[-2]

df['value'] = df.apply(lambda row: get_second_best(row), axis=1)

, которая дает:

      A   B    C   D  value
a1  1.1   2  3.3   4    3.3
a2  2.7  10  5.4   7    7.0
a3  5.3   9  1.5  15    9.0

Но я не могу найти, как отобразить имя столбца встолбец «значение», а не значение ... Я думаю о булевой индексации (сравнивая значения столбца «значение» с каждой строкой), но я не понял, как это сделать.

Чтобы быть более понятным, я хотел бы, чтобы это было:

      A   B    C   D  value
a1  1.1   2  3.3   4    C
a2  2.7  10  5.4   7    D
a3  5.3   9  1.5  15    B

Любая помощь (и объяснение) приветствуется!

Ответы [ 2 ]

0 голосов
/ 23 сентября 2018

Вот одно решение с использованием NumPy.Идея состоит в том, чтобы argsort значения в вашем фрейме данных, выбрать второй последний столбец и, наконец, использовать это для индексации df.column.

df['value'] = df.columns[df.values.argsort(1)[:, -2]]

print(df)

      A   B    C   D value
a1  1.1   2  3.3   4     C
a2  2.7  10  5.4   7     D
a3  5.3   9  1.5  15     B

. Вы должны найти это более эффективным, чем решения на основе Pandas:

# Python 3.6, NumPy 1.14.3, Pandas 0.23.0

np.random.seed(0)

df = pd.DataFrame(np.random.normal(size=(100, 4)), columns=['A', 'B', 'C', 'D'])

%timeit df.T.apply(lambda x: x.nlargest(2).idxmin())  # 49.6 ms
%timeit df.T.apply(lambda x: x.nlargest(2)).idxmin()  # 73.2 ms
%timeit df.columns[df.values.argsort(1)[:, -2]]       # 36.3 µs
0 голосов
/ 23 сентября 2018

Один из подходов - выбрать два самых больших элемента в каждой строке, используя Series.nlargest, и найти столбец, соответствующий наименьшему из элементов, использующих Series.idxmin:

In [45]: df['value'] = df.T.apply(lambda x: x.nlargest(2).idxmin())

In [46]: df
Out[46]:
      A   B    C   D value
a1  1.1   2  3.3   4     C
a2  2.7  10  5.4   7     D
a3  5.3   9  1.5  15     B

Стоит отметить, что выбор Series.idxmin над DataFrame.idxmin может иметь значение с точки зрения производительности:

df = pd.DataFrame(np.random.normal(size=(100, 4)), columns=['A', 'B', 'C', 'D'])
%timeit df.T.apply(lambda x: x.nlargest(2).idxmin()) # 39.8 ms ± 2.66 ms
%timeit df.T.apply(lambda x: x.nlargest(2)).idxmin() # 53.6 ms ± 362 µs

Редактировать: добавив ответ @ jpp, если производительность имеет значение, выможно значительно ускорить работу, используя Numba , написав код, как если бы это был C, и скомпилировав его:

from numba import njit, prange

@njit
def arg_second_largest(arr):
    args = np.empty(len(arr), dtype=np.int_)
    for k in range(len(arr)):
        a = arr[k]
        second = np.NINF
        arg_second = 0
        first = np.NINF
        arg_first = 0
        for i in range(len(a)):
            x = a[i]
            if x >= first:
                second = first
                first = x
                arg_second = arg_first
                arg_first = i
            elif x >= second:
                second = x
                arg_second = i
        args[k] = arg_second
    return args

Давайте сравним различные решения для двух наборов данных с фигурами(1000, 4) и (1000, 1000) соответственно:

df = pd.DataFrame(np.random.normal(size=(1000, 4)))
%timeit df.T.apply(lambda x: x.nlargest(2).idxmin())     # 429 ms ± 5.1 ms
%timeit df.columns[df.values.argsort(1)[:, -2]]          # 94.7 µs ± 2.15 µs
%timeit df.columns[np.argpartition(df.values, -2)[:,-2]] # 101 µs ± 1.07 µs
%timeit df.columns[arg_second_largest(df.values)]        # 74.1 µs ± 775 ns

df = pd.DataFrame(np.random.normal(size=(1000, 1000)))
%timeit df.T.apply(lambda x: x.nlargest(2).idxmin())     # 1.8 s ± 49.7 ms
%timeit df.columns[df.values.argsort(1)[:, -2]]          # 52.1 ms ± 1.44 ms
%timeit df.columns[np.argpartition(df.values, -2)[:,-2]] # 14.6 ms ± 145 µs
%timeit df.columns[arg_second_largest(df.values)]        # 1.11 ms ± 22.6 µs

В последнем случае мне удалось выжать немного больше и довести тест до 852 мкс с помощью @njit(parallel=True) и заменой внешнего циклас for k in prange(len(arr)).

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...