У меня есть модель конвейера искры ML, я хочу проверить возможность обслуживания модели из приложения потоковой структуризации искры.Как я могу имитировать реальный сценарий отправки X сообщений в секунду, и посмотреть, удерживает ли приложение давление.У меня есть CSV-пример транзакций, которые я хочу потоковое.я думал об использовании jmeter, но как потоковое искрение может получить сообщение, с каким приемником?разъем?заказной?у меня сейчас нет кафкиесли я использую обычный csv-ридер, хорошо ли он имитирует реальный мир с точки зрения многопоточности и параллелизма, могу ли я ожидать такую же задержку при обслуживании вызовов REST API?Есть ли способ обслуживать вызовы REST API в приложении структурированного потокового вещания?Есть ли у кого-то опыт в обслуживании трубопроводов искрового ML с малой задержкой?я пробовал pmml & mleap, но он не поддерживает все необходимые преобразования и т. д.