У нас есть несколько файлов, сгенерированных из теста, каждый файл содержит почти 60000 строк данных.Требуется рассчитать количество параметров с помощью данных, представленных в этих файлах.Возможны два способа обработки данных:
- Каждый файл читается построчно и обрабатывается для получения необходимых параметров
- Данные файла массово копируются в таблицы базы данных.и требуемые параметры вычисляются с помощью агрегатных функций в хранимой процедуре.
Я пытался выяснить накладные расходы, связанные с обоими методами.Поскольку база данных предназначена для обработки таких ситуаций, я обеспокоен накладными расходами, которые могут быть проблемой, когда база данных увеличивается.
Повлияет ли это на скорость извлечения данных из таблиц, что замедляет вычисления?Таким образом, обработка файлов будет лучшим решением с учетом размера базы данных?Должно ли разделение базы данных решить проблему для большой базы данных?