Настройка кластера JBoss с помощью Hudson? - PullRequest
0 голосов
/ 08 июля 2010

Я хочу иметь установку Hudson, в которой есть два узла кластера с JBoss. Уже есть тестовая машина с Hudson, и она запускает ночные сборки и тесты. На данный момент приложение развернуто на коробке Гудзона.

В моей голове есть пара вариантов. Можно использовать SCPplugin for Hudson для копирования файла ear с мастера на узлы кластера. Другим вариантом может быть настройка подчиненных Hudson на узлах кластера.

Какие-либо мнения, опыт или другие подходы?

edit: Я установил ведомое устройство, но кажется, что я не могу выполнить задание на более чем одном ведомом без копирования задания. Я что-то упустил?

Ответы [ 2 ]

1 голос
/ 08 июля 2010

Вы правы. Вы не можете запускать разные этапы сборки одного задания на разных узлах. Однако задание может быть настроено для запуска на разных ведомых, Хадсон, чем определяет во время выполнения, на каком узле будет выполняться это задание.

Вам необходимо настроить метки для ваших узлов. Узел может иметь более одной метки. Для каждой работы может потребоваться более одного ярлыка.

Пример:

Node 1 has label maven and db2
Node 2 has label maven and ant

Job 1 requires label maven
   can run on Node 1 and Node 2
Job 2 requires label ant
   can run on Node 2
Job 2 requires label maven and db2 
   can run on Node 1

Если вам нужны разные этапы сборки одного задания для запуска на разных узлах, вам нужно создать более одного задания и объединить их в цепочку. Вы запускаете только первое задание, которое запускает последующие задания. Одно из следующих заданий может получить доступ к артефактам предыдущего задания. Вы даже можете запустить два задания параллельно, и когда оба они будут выполнены, автоматически активируется следующее задание. Для параллельных заданий вам понадобится Join Plugin .

1 голос
/ 08 июля 2010

Если вам нужна балансировка нагрузки и централизованное администрирование от Hudson (то есть настройка проектов, просмотр сборок с использованием ATM и т. Д.), Вы должны запустить slave.

...