Как определить robots.txt для приложения anguluarjs - PullRequest
0 голосов
/ 25 мая 2019

Я хочу определить robots.txt, как вы можете видеть ниже, чтобы заблокировать роботов с login url:

user-agent: *
disallow: /#!/login

Sitemap: http://mysite.ir/sitemap.xml

но гугл не распознает # подписи и игнорирует весь сайт. как я могу решить эту проблему.

Ответы [ 2 ]

0 голосов
/ 30 мая 2019

Я решил эту проблему с помощью $locationProvider.html5Mode(true);, как вы можете видеть ниже:

(function() {
    'use strict';

    angular.module('myapp').config(stateConfig);

    function stateConfig($locationProvider) {
        $locationProvider.html5Mode(true);

    }
})();

и установите это в head разделе index.html:

<base href="/">

с этимИзменения angularjs удаляет # из URL-адресов в, помните, что вы должны внести некоторые изменения на стороне сервера.

0 голосов
/ 26 мая 2019

Насколько я знаю, angularJS не подходит для SEO, но все же вы можете заняться базовым SEO.

В любом случае, этот пост может помочь вам создать robots.txt Robot.txt в angularJS

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...