В большинстве схем дедупликации предполагается, что коллизии хешей настолько маловероятны, что их можно игнорировать.Это позволяет клиентам пропускать повторную загрузку уже имеющихся данных.Он ломается, когда у вас есть два файла с одинаковым хешем, но это вряд ли произойдет случайно (и вы выбрали безопасную хеш-функцию, чтобы люди не делали это намеренно, верно?)
Если вы настаиваетебудучи абсолютно уверенным, все клиенты должны повторно загрузить свои данные (даже если они уже находятся на сервере), и после того, как эти данные повторно загружены, вы должны убедиться, что они идентичны текущим данным.Если это не так, вам нужно выбрать новый идентификатор, а не использовать хеш (и подать сигнал о том, что в SHA1 обнаружено столкновение!)