Сканирование в Интернете и его ограничения - PullRequest
1 голос
/ 25 мая 2009

Допустим, мы размещаем в сети файл, который можно будет публично оценить, если вы знаете прямой URL-адрес. На сервере нет ссылок, указывающих на файл, и списки каталогов также отключены. Так что, хотя он общедоступен, нет возможности попасть на страницу, кроме как ввести точный URL-адрес этого файла. Каковы шансы, что веб-сканер любого типа (хороший или вредоносный) сможет найти этот файл путем сканирования и индексации файла.

Для меня, несмотря на то, что он общедоступен, он потребует удачи или определенных знаний по поиску файла. Так же, как закапывать золото на заднем дворе, где кто-то находит его без карты или что-то знает, там похоронено

Я просто не вижу другого пути, как это могло бы быть обнаружено, но именно поэтому я спрашиваю сообщество stackoverflow.

Спасибо.

Ответы [ 8 ]

3 голосов
/ 25 мая 2009

Безопасность через неизвестность никогда не работает. Вы говорите, , вы не будете ссылаться на него, и я вам верю. Но ничто не мешает вашему пользователю ссылаться на него, намеренно или неумышленно. Как указал ceejayoz, сейчас так много разных мест для размещения ссылок. И даже есть «синхронизаторы закладок», которые люди могут считать частными, но на самом деле открыты миру.

Так что используйте настоящую аутентификацию. Если вы этого не сделаете, вы пожалеете об этом позже.

3 голосов
/ 25 мая 2009

В прошлом такие скрытые местоположения якобы "находили" с помощью панели инструментов Google (и, возможно, других подобных плагинов браузера), используемой владельцем / загрузчиком.

1 голос
/ 01 октября 2010

Данные о купленном / проданном потоке кликов могут привести к обнаружению несвязанного контента: http://en.wikipedia.org/wiki/Clickstream

1 голос
/ 25 мая 2009

Ссылки могут появляться где угодно - кто-то может написать в Твиттере ссылку на нее, или опубликовать ее в Facebook, или в комментарии в блоге. Это займет всего один.

Если важно, чтобы он нигде не появлялся, оставьте его за паролем.

Если это не жизненно важно, но вы все равно предпочитаете, чтобы его было нелегко получить через поисковую систему, используйте файл robots.txt, чтобы заблокировать сканеры с хорошим поведением.

0 голосов
/ 21 августа 2009

yes u r Right Web Crawler посещает URL-адреса, он идентифицирует все гиперссылки на странице и добавляет их в список URL-адресов для посещения и называет границу сканирования, но эти гиперссылки и URL-адреса имеют плохие ссылки. Когда пользователи нажимают плохую ссылку и попадают на сайт вредоносного ПО, им часто предлагается диалоговое окно установки поддельного кодека. Если этого не получится, сайт все равно будет загружен десятками других тактик заражения их компьютера. От поддельных панелей инструментов, программного обеспечения, мошеннического программного обеспечения и многого другого, на сайтах есть все. Один сайт, с которым они сталкивались, даже пытался установить 25 разных битов вредоносного ПО. Такие сайты делают людей уязвимыми для установки спам-ботов, руткитов, паролей Стилер и множества троянских коней, среди прочего.

0 голосов
/ 25 мая 2009

Вы правы. Сканеры, в переносном смысле слова, являются пауками - они должны иметь возможность обходить сеть (гиперссылки) и переходить на вашу страницу.

Чтобы вставить свою гипотетическую страницу в результаты поиска, вы должны вручную отправить ее URL в поисковую систему. Существует несколько сервисов для отправки вашей страницы в эти поисковые системы. См. «Отправка URL-адресов поисковым системам»

Кроме того, ваша страница будет отображаться только в том случае, если поисковая система определит, что на вашей странице достаточно метаданных / кармы в собственной системе ранжирования поисковой системы. Смотрите "SEO" и "ключевые слова мета".

0 голосов
/ 25 мая 2009

Предполагая это:

  • Список каталогов: отключен. Никто
  • знает о существовании страницы.
  • Ваш файл не содержит ссылок (ваш браузер может затем отправить реферера на связанный сайт)
  • Вы правильно настроили файл robots.txt
  • Вы доверяете, что все люди не передадут вашу ссылку кому-либо еще.
  • Вы счастливчик

Ну, ваша страница, вероятно, не будет найдена или обнаружена.

Вывод?

Используйте файл .htaccess для защиты ваших данных.

0 голосов
/ 25 мая 2009

вы можете использовать Google Search API. для веб-страницы, не связанной с любой другой веб-страницей. мы понятия не имеем об этом.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...