Я пытаюсь переместить данные из одного сегмента в другой в рамках одного проекта в Google Cloud. Он имеет простые изображения и документы, такие как файлы .png, .jpg & .pdf. Я пробовал несколько раз, но результаты остались прежними.
Ниже приведена команда, которую я использую, gsutil -m cp -r -n gs: // bucket1 / folder1 / subfolder / * gs: // bucket2 / folder1 / subfolder / 2> & 1 | tee ./result.txt
Он работает в течение нескольких часов, через некоторое время экран переходит в зависшее состояние, я не вижу никаких журналов, работающих на консоли Google.
Я сомневаюсь в следующем: есть ли на GCP какая-либо настройка, которая, если сетевой трафик c протекает в течение нескольких часов, блокирует трафик c, что-то в этом роде? Есть ли крышка размера на уровне ковша? Если да, как я могу это проверить?
Должен ли я добавить какой-либо дополнительный параметр в приведенную выше команду? У вас есть другие предложения для выполнения этой задачи?