Как я это делал:
1) получить mocha и jest (я использовал разные технологии) для генерации файлов lcov в качестве вывода.Вы должны проверить соответствующую документацию, но lcov - это одна из стандартных опций вывода для многих систем
2) объединить ее с одним из инструментов.Я думаю, что я использовал linux lcov.Вот сценарий извлечения:
cp test/coverage/lcov.info cov-data/unit.info
cp bdd/coverage/lcov.info cov-data/it.info
#fixing the absolute folder to relative ones
sed -i -E 's,(SF:).*(/app/.*),\1.\2,' cov-data/unit.info
sed -i -E 's,(SF:).*(/app/.*),\1.\2,' cov-data/it.info
lcov --add-tracefile cov-data/unit.info -a cov-data/it.info -o cov-data/common.info --rc lcov_branch_coverage=1
3) Теперь у вас есть файл common.info, в котором содержатся данные совместного покрытия из обоих прогонов.Все, что вам нужно сделать, это как-то визуализировать.Я бы предложил использовать сонар, так как он также выполняет статический анализ кода для вас.Вам нужно будет создать конфигурацию, которая указывает на источник и покрытие.И, конечно же, вам придется запустить экземпляр сервера эхолота (это можно сделать на виртуальной машине и / или с помощью докера).
https://www.sonarqube.org/