У меня есть модель глубокого обучения keras, и теперь мне нужно обработать большой набор данных и вычислить результаты.Эта модель уже обучена, поэтому обучение не является проблемой.Я попытался представить свою модель как службу REST, а затем вызвать ее через spark, все работает нормально, но есть фактор задержки, и для огромного набора данных это проблема.Есть ли пример, который кто-то может процитировать, который я могу использовать в качестве справочного, чтобы использовать мою модель keras в pyspark и обрабатывать данные прямыми вызовами python вместо вызовов REST