В настоящее время Data Fusion , основанный исключительно на CDAP platfrom, представляет множество желаемых функций, расширяя базовые функциональные возможности c внутри отдельных плагинов .
Когда вам нужно изучить плагин и использовать его в выделенном конвейере или stream source, плагин необходимо развернуть в родительских артефактах cdap-data-pipeline
или cdap-data-streams
соответственно.
В основном Артефакт представляет собой упакованный файл, созданный в процессе разработки программного обеспечения, который содержит свойства и зависимости, связанные с приложением. кроме того, он должен содержать уникальные идентификаторы, такие как groupId
, artifactId
, version
.
. Рассматривая проблему, о которой вы сообщили, я бы порекомендовал начать исследование с первой фазы сборки, компилируя код и упаковка в файлы JAR
и JSON
. Основной чувствительный вкладчик здесь - это файл pom.xml
, поскольку он содержит важную информацию о проекте и сведения о конфигурации, используемые Maven для создания проекта, также известные как POM .
Несколько вещи, которые можно проверить:
Какая пользовательская конфигурация была применена к исходному коду http-plugin
исходного кода, и учитываете ли вы какие-либо изменения, вызванные собственным кодом, отражая их в pom.xml
file;
Проверьте, указан ли верный репозиторий в pom.xml
, из которого изначально был загружен пакет;
- Как вы скомпилировали исходный код код в Maven, например:
mvn clean
install
или mvn clean package
?; - Проверьте выходные данные компиляции Maven, чтобы найти подозрительные результаты.
Я провел быстрый тест, клонировал приемник HTTP плагин репо и следуя инструкциям по реализации в разделе руководства; Я создал файлы JAR и JSON и смог успешно развернуть http-plugins 1.3.0-SNAPSHOT
в своем экземпляре Data Fusion.