Общая статистика данных GCP - PullRequest
       35

Общая статистика данных GCP

0 голосов
/ 21 сентября 2018

В настоящее время я готовлюсь к нашей оценке внутреннего аудита и очистке для GCP.Поскольку данные в ТБ по различным услугам и проектам.Для начала, есть ли способ получить данные уровня обслуживания / проекта / местоположения, хранящиеся в облачной платформе Google, с привязкой к соответствующим учетным записям, которые включают в себя облачное хранилище, большой запрос, вычислительные машины (постоянные диски) и другие службы от GCP.

Можем ли мы извлечь эти данные из журналов аудита / выставления счетов простым способом или нам нужно изучить отдельные службы / проекты с соответствующими командами, такими как команды bq, gsutil, gcloud?

В настоящее время я использую следующие способы оценки общего хранилища для всех проектов в BigQuery и хранилище:

Для BigQuery:

#standardSQL
SELECT
  SUM(bytes)/(1024*1024*1024*1024)
FROM (
  SELECT
    SUM(size_bytes) AS bytes
  FROM
    `<project-x>.<dataset-1>.__TABLES__` union all
  SELECT
    SUM(size_bytes) AS bytes
  FROM
    `<project-y>.<dataset-2>.__TABLES__` union all .....)

Для хранилища:

gsutil -o GSUtil:default_project_id=project-id du -shc

#This command executes slower with increasing number of files in the bucket
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...