Я пытаюсь понять последствия для безопасности при сериализации модели, подобранной по принципу scikit-learn / keras (с использованием pickle / joblib и т. Д.).
В частности, если я работаю с данными, которые я не хочу раскрывать, найдется ли у кого-нибудь способ перепроектировать, какие данные были установлены на модели?Или данные, просто способ для алгоритма обновить соответствующие коэффициенты / веса для алгоритма?(Если я обучу модель «Этот фильм великолепен» и сохраню его в виде файла foo.pkl, смогу ли я загрузить файл foo.pkl и сказать, что он обучен на «Этот фильм великолепен», если у меня есть вседоступ к файлу pkl, а не к данным)