Я обучил языковую модель, используя transformer-lm , которая использует PyTorch. Я хотел бы развернуть полученную модель в облачной платформе Google в качестве облачной функции. Облачные функции ограничены 2 ГБ памяти.
Проблема заключается в том, что загрузка модели приводит к ошибке, так как используется слишком много памяти (превышен лимит памяти). Файл model.pt составляет 1,32 ГБ, и я использую
torch.load(model_path / 'model.pt', map_location='cpu')
для загрузки модели. Есть ли способ, чтобы я) сжать модель? II) не загружать полную модель сразу? или любая другая возможность заставить его работать на GCP?