Переход от EDU к java.util.concurrent снижает производительность в два раза - PullRequest
4 голосов
/ 23 марта 2011

Кросс-пост от http://forums.oracle.com/forums/thread.jspa?threadID=2195025&tstart=0

Существует сервер приложений связи (на основе JAIN SLEE) и приложение, работающее на нем.
Приложение получает сообщение из сети, обрабатывает его и отправляет обратно в сеть ответ.
Требование к задержке запроса / ответа составляет 250 мс для 95% вызовов и 3000 мс для 99,999% вызовов.
Мы используем EDU.oswego.cs.dl.util.concurrent.ConcurrentHashMap, 1 экземпляр. Для обработки одного вызова (один вызов - несколько сообщений) вызываются следующие методы:

"put", "get", "get", "get", then in 180 seconds "remove".

Существует 4 потока, которые вызывают эти методы.
(Небольшое примечание: работа с ConcurrentHashMap - не единственное действие. Также для одного сетевого сообщения существует множество других действий: разбор протокольного сообщения, запрос к БД, запись SDR в файл, создание недолговечных и долгоживущих объектов. )

При переходе от EDU.oswego.cs.dl.util.concurrent.ConcurrentHashMap к java.util.concurrent.ConcurrentHashMap мы видим снижение производительности с 1400 до 800 вызовов в секунду.
Первое узкое место для последних 800 вызовов в секунду не является достаточной задержкой для вышеуказанного требования.

Это снижение производительности воспроизводится на хостах со следующим ЦП:

  • 2 процессора x четырехъядерный процессор AMD Opteron 2356 2312 МГц, всего 8 HW потоков,
  • 2 CPU x Intel Xeon E5410 2,33 ГГц, 8 HW темы всего.

Он не воспроизводится на процессоре X5570 (Intel Xeon Nehalem X5570 2,93 ГГц, всего 16 HW потоков).

Кто-нибудь сталкивался с подобными проблемами? Как их решить?

Ответы [ 3 ]

1 голос
/ 23 марта 2011

Сначала вы проверили, что хэш-карта действительно является виновником? Предполагая, что вы это сделали: существует хэш-карта без блокировки , предназначенная для масштабирования до сотен процессоров без большого количества споров. Его автором является Cliff Click, известный инженер из оригинальной команды компиляторов Hot Spot. Теперь работаем над масштабированием JDK на машины с сотнями процессоров. Итак, я предполагаю, что он знает, что он делает в реализации этой хэш-карты. Более подробную информацию об этой хэш-карте можно найти на этих слайдах .

1 голос
/ 29 марта 2011

Вы пытались изменить concurrencyLevel в ConcurrentHashMap?Попробуйте некоторые более низкие значения, такие как 8, попробуйте несколько большие значения.И помните, что производительность и параллелизм ConcurrentHashMap зависят от вашего качества функции HashCode .

И да, это - java.util.ConcurrentHashMap имеет одинаковое происхождение (Дуг Ли из edu.oswego) как edu.oswego.cs.dl ..., но он был полностью переписан им, чтобы он мог лучше масштабироваться.

Я думаю, что вам будет полезно проверить быструю карту javolution.Может лучше подойти для приложений реального времени.

1 голос
/ 23 марта 2011

Я полагаю, вы тратите около нано секунд, а не миллисекунд. (Это в миллион раз меньше!)

ИЛИ использование ConcurrentHashMap - тривиальная часть вашей задержки.

РЕДАКТИРОВАТЬ: отредактировал пример, чтобы стать многопоточным, используя 100 задач.

/*
Average operation time for a map of 10,000,000 was 48 ns
Average operation time for a map of 5,000,000 was 51 ns
Average operation time for a map of 2,500,000 was 48 ns
Average operation time for a map of 1,250,000 was 46 ns
Average operation time for a map of 625,000 was 45 ns
Average operation time for a map of 312,500 was 44 ns
Average operation time for a map of 156,200 was 38 ns
Average operation time for a map of 78,100 was 34 ns
Average operation time for a map of 39,000 was 35 ns
Average operation time for a map of 19,500 was 37 ns
 */
 public static void main(String... args) {
    ExecutorService es = Executors.newFixedThreadPool(Runtime.getRuntime().availableProcessors());
    try {
        for (int size = 100000; size >= 100; size /= 2)
            test(es, size);
    } finally {
        es.shutdown();
    }
}

private static void test(ExecutorService es, final int size) {
    int tasks = 100;
    final ConcurrentHashMap<Integer, String> map = new ConcurrentHashMap<Integer, String>(tasks*size);
    List<Future> futures = new ArrayList<Future>();
    long start = System.nanoTime();
    for (int j = 0; j < tasks; j++) {
        final int offset = j * size;
        futures.add(es.submit(new Runnable() {
            public void run() {
                for (int i = 0; i < size; i++)
                    map.put(offset + i, "" + i);
                int total = 0;
                for (int j = 0; j < 10; j++)
                    for (int i = 0; i < size; i++)
                        total += map.get(offset + i).length();
                for (int i = 0; i < size; i++)
                    map.remove(offset + i);
            }
        }));
    }
    try {
        for (Future future : futures)
            future.get();
    } catch (Exception e) {
        throw new AssertionError(e);
    }
    long time = System.nanoTime() - start;
    System.out.printf("Average operation time for a map of %,d was %,d ns%n", size * tasks, time / tasks / 12 / size);
}
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...