С точки зрения производительности и эффективности, лучше ли использовать множество маленьких файлов (я имею в виду целых несколько миллионов) или пару (десять или около того) огромных (несколько гигабайт) файлов? Скажем так, я создаю базу данных (не совсем верно, но все, что имеет значение, это то, что к ней будет обращаться много).
В основном меня интересует производительность чтения Моя файловая система в настоящее время ext3 в Linux (Ubuntu Server Edition, если это имеет значение), хотя я все еще могу переключаться, поэтому сравнение между различными файловыми системами было бы невероятным. По техническим причинам я не могу использовать реальную СУБД для этого (отсюда и вопрос), поэтому «просто используйте MySQL» не является хорошим ответом.
Заранее спасибо, и дайте мне знать, если мне нужно быть более конкретным.
РЕДАКТИРОВАТЬ: Я собираюсь хранить много сравнительно небольших фрагментов данных, поэтому мне было бы проще использовать множество маленьких файлов. Поэтому, если бы я использовал несколько больших файлов, я бы извлекал из них только несколько КБ за раз. Я бы также использовал индекс, так что это не проблема. Кроме того, некоторые данные указывают на другие фрагменты данных (это указывает на файл в случае большого количества маленьких файлов и указывает на местоположение данных в файле в случае больших файлов).