Я работаю над приложением ASP.NET, которое имеет следующие требования:
- Раз в 15 минут выполняется довольно дорогой запрос из примерно 20 000 элементов ( не из базы данных ). Имеет около 10 столбцов, все короткие строки, кроме одного, в котором хранится до 3000 символов (обычно намного меньше).
- Обработайте итоговый DataTable с различными сортировками и фильтрами, а затем сохраните первые 100 элементов в дополнительных DataTables.
- Показать эту информацию в виде агрегирования для потенциально 10 000 человек.
Мне кажется, что это отличный кандидат для кеширования (System.Web.Caching), особенно если учесть, что мы можем пожелать поддерживать дополнительную фильтрацию "на лету". Например: фильтрация таблицы по строкам, относящимся только к конкретному пользователю.
Однако, прежде чем начать, я хотел бы понять:
- Если есть какие-либо рекомендации по хранению такого большого DataTable в Cache.
- Если у кого-то есть опыт, которым он может поделиться? Большие таблицы вы сохранили?
- Есть ли какие-нибудь ловушки, по которым нужно быть осторожнее?
Заранее спасибо.