Я могу только подтвердить, что я использую те же наблюдения, что и вы, в моем тестовом кластере EKS при использовании постоянных томов на основе EFS, динамически создаваемых с помощью PV C request spe c: accessModes: ReadOnlyMany
.
Как видно ниже, я могу одновременно записывать в один и тот же файл два разных модуля, запланированных на разных узлах:
Hello from test-deployment-6f954f9f67-ljghs at 1583239308 on ip-192-168-68-xyz.us-west-2.compute.internal node
Hello from test-deployment-6f954f9f67-bl99s at 1583239308 on ip-192-168-49-abc.us-west-2.compute.internal node
Вместо этого я предпочел бы ожидать такого же поведения *, как в случае другие типы PV, поддерживающие все типы режимов доступа (RWO, RWX, ROX):
Warning FailedAttachVolume 103s attachdetach-controller Multi-Attach error for volume "pvc-badb4724-5d5a-11ea-8395-42010aa80131"
Multi-Attach error for volume "pvc-badb4724-5d5a-11ea-8395-42010aa80131" Volume is already used by pod(s) test-deployment-xyz-...
* происходит, когда планировщик пытается запланировать вторую реплику модуля, используя тот же PV.
Я думаю, что это лежит в основе хранилища на основе NFS, которое является базовым типом хранилища для EFS-Provider .
Похоже, у нас не единственные проблемы с пониманием официальной документации в этом отношении, пожалуйста, проверьте эти открытые проблемы github: # 18714 , # 60903 .