Существуют ли какие-либо конкретные проблемы безопасности предприятия при развертывании модели машинного обучения в облаке - PullRequest
2 голосов
/ 11 мая 2019

Мы создаем платформу, нацеленную на предоставление решений по машинному обучению для крупных предприятий с серьезными проблемами безопасности данных.Все данные тренируются на предпосылке с ограничениями на характер данных, используемых для обучения модели.Как только модель будет завершена, я собираюсь развернуть ее в облаке со стандартными стандартами безопасности / аудита (белые списки IP, маркеры доступа, журналы)

Я полагаю, что функции могут быть завершены анонимно (нормализовано, PCA и т. Д.)обеспечить дополнительный уровень безопасности. Есть ли способ, которым данные, отправленные в облачную модель ML, могут привести к исходным данным?

Пока я рассматривал другие вопросы, касающиеся развертывания модели, этот аспект безопасности не существует.Т обрабатываются специально.https://dzone.com/articles/security-attacks-analysis-of-machine-learning-mode (проблема не в доступности или искажении модели, а в большей степени в отношении конфиденциальных данных)

Опять же, идея состоит в том, чтобы сохранить обучение и данные в помещении и только развертывание в облаке для скорости, гибкости идоступность.

1 Ответ

0 голосов
/ 20 мая 2019

Есть ли способ, которым данные, отправленные в облачную модель ML, могут привести к исходным данным?

Любая функция, имеющая обратную, может привести к исходным данным. Риск не только от случайного человека, просматривающего данные, но и от внутренней угрозы внутри команды. Вот пример:

Как обратить PCA и восстановить исходные переменные из нескольких основных компонентов?

В зависимости от количества главных компонентов, также может быть возможным угадать собственные векторы с помощью грубой силы.

...