Вот сценарий, для которого я ищу решение на работе. У нас в postgres есть таблица, в которой хранятся события, происходящие в сети. В настоящее время работает так: строки вставляются по мере наступления сетевых событий, и в то же время удаляются более старые записи, которые соответствуют определенной отметке времени, чтобы размер таблицы был ограничен примерно 10 000 записей. В принципе, идея похожа на ротацию бревен. Сетевые события происходят тысячами раз за разом, следовательно, скорость транзакций слишком высока, что приводит к снижению производительности, после того, как когда-нибудь сервер либо просто падает, либо становится очень медленным, кроме того, клиент просит сохранить размер таблицы до миллиона записей что ускорит снижение производительности (так как мы должны продолжать удалять записи, соответствующие определенной временной метке) и вызвать проблему с управлением пространством. Мы используем простой JDBC для чтения / записи в таблице. Может ли техническое сообщество предложить более эффективный способ обработки вставок и удалений в этой таблице?