Я читал некоторые статьи, касающиеся этой темы c, и у меня есть предварительные мысли о том, что мне следует с ней делать, но я все еще хочу узнать, сможет ли кто-нибудь поделиться комментариями, если у вас больше опыта в работе с машинным обучением на AWS. Я делал проект для профессора в школе, и мы решили использовать AWS. Мне нужно найти рентабельный и эффективный способ развертывания модели прогнозирования на нем.
Чего мы хотим добиться:
- читать данные из корзины S3 ежемесячно (новые данные будут поступать каждый месяц),
- запускать несколько python файлы (.py) для пользовательских пакетов и зависимостей установки (включая файлы, не более 30 КБ),
- дают прогнозируемые результаты в файл обратно в S3 (JSON или CSV работает) или pu sh на другие конечные точки (скорее всего, это будут некоторые инструменты BI - tableau et c.) - но на самом деле этот шаг может быть гибким (точно не веб)
Первая мысль у меня AWS мудрец . Однако мы будем использовать модель «fb prophet» для прогнозирования результатов, и мы создали специальный пакет для использования в модели, поэтому я не думаю, что экземпляр ноутбука нам поможет. (Пожалуйста, исправьте меня, если я ошибаюсь). Насколько я понимаю, Sagemaker - это среда для создания и обучения модели, но мы уже создали и обучили модель. Кроме того, в любом случае мы не будем использовать AWS готовых моделей.
Другое дело, что если мы хотим использовать пользовательский пакет, нам нужно будет создать образ контейнера, а я никогда не делал что раньше, не уверен насчет попыток сделать это.
2-й вариант заключается в создании нескольких лямбда-функций
, которые запускают запуск python скрипты из корзины S3 (2-3 .py файла) каждый раз, когда новый файл импортируется в корзину S3, что будет происходить ежемесячно.
тот, который срабатывает после python Сценарии выполняются и дают результаты и сохраняются в корзину S3.
3-й вариант объединит обе опции: - Использование лямбда-функции для запуска реализации сценариев python в корзине S3 когда приходит новый файл. - Pu sh результат с использованием конечной точки sagemaker, что означает, что мы размещаем модель на sagemaker и развертываем оттуда.
Я до сих пор не совсем уверен, как поставить готовую модель и python скрипты на Экземпляр и ведущий sagemaker оттуда.
Я надеюсь, что тот, у кого больше опыта работы с сервисом AWS, может дать мне несколько советов относительно более экономичного и эффективного способа запуска модели.
Спасибо!