Мне нравится оставаться в рамках «обычных» решений, поэтому я нашел середину:
в бэкэнде вы вводите Route Type = Page, File or URL [uri]
со значением t3://page?type=201
, чтобы обратиться к тип страницы для роботов
и с помощью Typoscript вы определяете свой файл условных роботов:
# Theme robots.txt
robots = PAGE
robots {
typeNum = 201
config {
disableAllHeaderCode = 1
additionalHeaders.10.header = Content-Type:text/plain;charset=utf-8
xhtml_cleaning = 0
admPanel = 0
debug = 0
index_enable = 0
removeDefaultJS = 1
removeDefaultCss = 1
removePageCss = 1
INTincScript_ext.pagerender = 1
sourceopt.enabled = 0
}
10 = TEXT
10.value (
User-Agent: *
Allow: /
# indexed search
User-agent: googlebot
Disallow: /*?tx_indexedsearch
# folders
Disallow: /typo3/
Disallow: /typo3conf/
Allow: /typo3conf/ext/
Allow: /typo3temp/
# parameters
Disallow: /*?id=* # non speaking URLs
Disallow: /*&id=* # non speaking URLs
Disallow: /*cHash # no cHash
Disallow: /*tx_powermail_pi1 # no powermail thanks pages
Disallow: /*tx_form_formframework # no forms
# sitemap
Sitemap: {$theme.configuration.sitemap}
)
}
# Adwords Site closed
[globalString = ENV:HTTP_HOST=adw-domain.com]
robots.10.value (
User-Agent: *
Disallow: /
)
[global]
Я также устанавливаю константу в constants.typoscript для сайта seo:
theme.configuration {
sitemap = /?eID=dd_googlesitemap
sitemap = http://seo-domain.com/sitemap/seo-domain.xml
}