Как получить отдельный файл robots.txt для каждого субдомена в Laravel 6.x? - PullRequest
0 голосов
/ 18 февраля 2020

У меня есть laravel проект, который имеет основной домен и настройку sudomain в маршрутах / сети. php вот так:

Route::get('/', 'WebController@index');
Route::get('/about', 'WebController@about');
Route::get('/about/team', 'WebController@team');
Route::get('/services', 'WebController@services');
Route::get('/contact', 'WebController@contact');

Route::domain('dashboard.mywebsite.com')->group(function () {
    // Dashboard routes...
});

Мне интересно, есть ли способ получить другой файл robots.txt для моего поддоменов панели инструментов, чтобы блокировать сканирование ботами всего поддоменов.

...