ASP.NET. Скрытие всей структуры сайта. Является ли это возможным? - PullRequest
1 голос
/ 15 ноября 2010

Полагаю, всем остальным хотелось бы обратного, но мне нужно скрыть структуру "каталогов" веб-сайта ASP.NET.

По этой причине я думаю о

  1. Используйте файл robots.txt следующим образом ...

    Пользователь-агент: * Disallow: /

  2. Использование перезаписи URL для создания призрачных путей

  3. Отключить просмотр каталогов. (В каталоге нет доступа ...)

  4. . Используйте .ashx для обслуживания изображений.

  5. Другие способы, которые вы можете предложить.

Другими словами, я бы не хотел, чтобы кто-то с «читателем-загрузчиком-структурой» раздевал мой сайт.

Как видите, тег sekurity отсутствует:)

P.S. Я не забочусь о SEO

Ответы [ 2 ]

2 голосов
/ 15 ноября 2010

Если вы хотите, чтобы пользователи могли просматривать ваш сайт, вам, очевидно, понадобятся ссылки на другие страницы. Чтобы (попытаться) сделать эти ссылки трудными для сканера, вы можете попробовать динамически отобразить все ваши ссылки в javascript. Это означает, что робот, который не выполняет полный DOM-рендеринг, как браузер, не сможет извлечь ссылки. Однако, конечно, кто-то может взглянуть на ваш сайт и создать что-то такое, что разберет ссылки, если они так склонны.

Что касается сокрытия структуры каталогов от пользователей и / или ботов, то да, вам придется реализовать какое-то переписывание URL:

Outbound: /assets/images/image.jpg -> /somecode.jpg
Inbound:  /somecode.jpg -> /assets/images/image.jpg

В противном случае они смогут просматривать ссылки (статические или динамически отображаемые) в своем браузере и определять структуру каталогов.

1 голос
/ 15 ноября 2010

Загрузчик сайта типа wget -r будет работать в любом случае. Он следует по ссылкам и не заботится о каталогах (за исключением того факта, что вы можете ограничить глубину). Если вы хотите исключить легальные сканеры, такие как Google, используйте robots.txt. Впрочем, сканерам wget и rogue плевать на это.

Единственное действительно хорошее решение - это либо повторно ввести логин (но это все равно не защитит вас от тех людей, которые просто используют wget для загрузки всего вашего сайта; они просто предоставят ему информацию для входа / идентификатор сессии ) или засорение вашего контента надоедливыми капчами (быстро раздражает законных пользователей) или заставление всего сайта использовать JavaScript / AJAX для отображения / загрузки контента. Это делает работу с пользователем еще лучше (если все сделано правильно) и эффективно блокирует большинство / все сканеры.

...