Как заблокировать мой сайт со всей сети - PullRequest
1 голос
/ 29 марта 2011

У меня есть веб-сайт, и он не должен быть доступен никому без URL или каких-либо поисковых систем.

Ни один поисковик не должен знать о моем сайте, доступ к нему должен иметь только тот, у кого есть ссылка. Кто-нибудь может предложить лучшие идеи, так как я собираюсь поделиться данными своего офиса на нем.

Ответы [ 3 ]

3 голосов
/ 29 марта 2011

Вы можете запретить большинству поисковых систем индексировать ваш сайт с помощью файла robots.txt. Подробнее здесь: http://www.robotstxt.org/

Однако это не очень безопасно. Некоторые роботы игнорируют robots.txt. Лучший способ ограничить доступ - это потребовать от пользователя входа в систему до входа на сайт или использовать брандмауэр, чтобы разрешить только IP-адрес этого пользователя.

1 голос
/ 29 марта 2011

Ничего себе. OK:

1) robots.txt http://www.robotstxt.org/robotstxt.html

2) Аутентификация. Если вы используете apache, защитите паролем сайт

3) Убедитесь, что никто и нигде не ссылается на него.

4) Рассмотрим другую альтернативу, например dropbox. http://www.dropbox.com/

1 голос
/ 29 марта 2011

Вам необходимо добавить файл robots.txt в корневую папку вашего сайта, указывая, что пауки поисковых систем не должны индексировать сайт тура.

http://www.robotstxt.org/robotstxt.html

Но его оставили поисковикам, чтобы прочитать файл. Самые популярные поисковые системы чтят этот файл. Другим способом является отсутствие index.htm или default.htm на вашем веб-сайте. Даже если он существует, удалите все ссылки на внутренние страницы. Таким образом, пауки никогда не узнают структуру сайта вашего сайта.

...