В стандартной архитектуре микросервисов каждая служба отвечает за свои собственные данные с установленными границами.Единственный способ манипулировать этими данными - использовать конечные точки RESTful, предоставляемые службой.
У меня есть уникальный случай, когда я хотел бы запустить несколько кластеризованных процессов скребка, заполнив таблицу необработанными данными.Эти процессы скребка также могут быть сконфигурированы для конкретных случаев, например, для очистки текста, для очистки изображений и т. Д.
Затем необработанные данные будут использованы и объединены в нормализованную структуру в другой таблице другим процессом.Я хотел бы разделить все эти процессы на небольшие развертываемые компоненты, но это означает, что я должен каким-то образом делиться определениями модели между несколькими репозиториями / проектами, поскольку логика агрегации должна потреблять все необработанные данные.
ЭтоВозможно, что логика агрегации делает запрос к каждому кластерному процессу скребка, но контроль состояния для этого будет намного сложнее, чем просто запрос к таблице.
Я знаю, что можно определить определения модели в изолированном репоа затем импортировать как зависимость в другие проекты, но правильная ли это архитектура?