ARG_MAX будет иметь дело с этим ... например, rm -rf * (находясь в каталоге) скажет "слишком много аргументов". У утилит, которые хотят сделать какую-то глобализацию (или оболочку), будет некоторое нарушение функциональности.
Если этот каталог доступен для общественности (скажем, через FTP или веб-сервер), вы можете столкнуться с дополнительными проблемами.
Эффект на любую файловую систему полностью зависит от этой файловой системы. Как часто эти файлы доступны, какова файловая система? Помните, Linux (по умолчанию) предпочитает хранить недавно использованные файлы в памяти, а процессы помещать в своп, в зависимости от настроек. Этот каталог обслуживается через http? Будет ли Google просматривать и сканировать его? Если это так, вам может потребоваться настроить давление и перестановку в VFS-кэше.
Edit:
ARG_MAX - это системное ограничение на количество аргументов, которые могут быть представлены точке входа программы. Итак, давайте возьмем «rm» и пример «rm -rf *» - оболочка превратит «*» в список файлов, разделенных пробелом, который, в свою очередь, станет аргументом «rm».
То же самое произойдет с ls и несколькими другими инструментами. Например, ls foo * может сломаться, если слишком много файлов начинаются с 'foo'.
Я бы посоветовал (независимо от того, какой fs используется) разбить его на более мелкие порции каталогов, только по одной этой причине.