Я работаю над GKE.
Иногда я вижу следующее сообщение в моих операциях кластера GKE (которое, как я предполагаю, сообщает аналог kubectl get events
)
Memory cgroup out of memory: Kill process 670233 (java) score 1728 or sacrifice child
Killed process 670233 (java) total-vm:16535056kB, anon-rss:10437020kB, file-rss:20112kB, shmem-rss:0kB
Конкретный модульимеет следующие ресурсы
limits:
cpu: 4096m
memory: 10Gi
requests:
cpu: 1024m
memory: 8Gi
Должен ли я предполагать, что OOM происходит, потому что стручок достигает> 10 Ги (что является пределом)?
Мой вопрос проистекает из того факта, что когда стручокдостигает своего предела памяти, уничтожение которого должно быть обработано kubelet
.
Однако вышеупомянутое, кажется, событие node
уровня (точнее, связанное с cgroup
событие).
Может ли быть просто совпадением тот факт, что сумма размера резидентного набора (rss-*
) чуть выше 10Gi
, что является пределом модуля?