Мы создаем платформу, нацеленную на предоставление решений по машинному обучению для крупных предприятий с серьезными проблемами безопасности данных.Все данные тренируются на предпосылке с ограничениями на характер данных, используемых для обучения модели.Как только модель будет завершена, я собираюсь развернуть ее в облаке со стандартными стандартами безопасности / аудита (белые списки IP, маркеры доступа, журналы)
Я полагаю, что функции могут быть завершены анонимно (нормализовано, PCA и т. Д.)обеспечить дополнительный уровень безопасности. Есть ли способ, которым данные, отправленные в облачную модель ML, могут привести к исходным данным?
Пока я рассматривал другие вопросы, касающиеся развертывания модели, этот аспект безопасности не существует.Т обрабатываются специально.https://dzone.com/articles/security-attacks-analysis-of-machine-learning-mode (проблема не в доступности или искажении модели, а в большей степени в отношении конфиденциальных данных)
Опять же, идея состоит в том, чтобы сохранить обучение и данные в помещении и только развертывание в облаке для скорости, гибкости идоступность.