Каков лучший способ программно трансформировать большие пакеты очень похожих веб-страниц в новый макет на основе CSS?
Я изменяю все содержимое старого веб-сайта в новый макет на основе CSS. Многие страницы очень похожи, и я хочу иметь возможность автоматизировать процесс.
В настоящее время я думаю о том, чтобы прочитать страницы с использованием HtmlAgilityPack и создать метод для каждой группы похожих страниц, который будет создавать выходной текст.
Какой, по вашему мнению, лучший способ сделать это? Страницы в основном различаются в зависимости от того, какой файл .jpg используется для изображения, или от того, сколько групп heading-image-text существует на этой конкретной странице
РЕДАКТИРОВАТЬ: я не могу использовать любой другой тип файла, кроме .html, так как это все, что мне разрешено делать. Есть предложения?
РЕДАКТИРОВАТЬ 2: В идеале, я также мог бы сделать это достаточно универсальным, чтобы я мог использовать его для многих различных групп HTML-файлов, просто переключая несколько движущихся частей.
ОБРАЗЕЦ ТИПИЧНОЙ СТРАНИЦЫ
Приведенная выше ссылка является примером того, с чем я имею дело. Части, которые будут отличаться на разных страницах, будут:
- мета-тег описания
- различные заголовки, особенно основной заголовок
- почти каждое изображение на странице будет новым
- текст для каждого видео будет уникальным, но они будут сгруппированы в похожие куски
- видеофайлы и размеры видео будут уникальными
Все остальное такое же, и формат страниц также тот же.
РЕДАКТИРОВАТЬ3: Если есть сомнения, еще одна вещь, которая может быть полезна, это написать код, который будет писать для меня страницы. Мне просто нужно вырезать части оригиналов, которые являются переменными, и поместить их в файл данных, который читается и используется для написания новых версий.