То, на что вы ссылаетесь, обычно называется привязанностью клиента. По сути, вы сохраняете cookie для клиента, чтобы балансировщик нагрузки знал, на какой сервер приложений фермы отправлять запрос. Так как get и post будут распространять cookie, запросы для одного пользователя всегда будут отправляться на один и тот же сервер. Вы можете узнать больше о некоторых конфигурациях (используя Apache в качестве обратного прокси-сервера для Tomcat) здесь: http://docs.codehaus.org/display/JETTY/Configuring+mod_proxy
Тем не менее, использование общего хранилища часто легче, если у вас нет значительной фермы бэкэнд-процессоров. Например, на нескольких машинах использование memcached в качестве упрощенного хранилища для информации о состоянии - неплохая идея, и я успешно использовал ее как для данных сеанса, так и для данных состояния.
Обратите внимание, что использование обратного прокси-сервера решает проблему SSL (где вы не можете увидеть куки с аппаратным балансировщиком нагрузки из-за шифрования). RP кодирует / декодирует и передает данные на внутренний сервер. Mod_proxy в Apache - это обычный выбор, хотя nginx готовится к работе. Вы также можете использовать IP-интерфейс. Однако однажды я понял, что это была плохая идея, когда я понял, что вся очень крупная городская школьная система читается как один IP из-за их системы фильтрации:)