Обновление robots.txt определенно решит проблему в будущем, но я думаю, что вопрос, который вы должны задать, - как Google узнал, что эти страницы были там?
Во-первых, вы должны убедиться, что пользователь не может пройти через файловую систему вашего сайта (если ваш сервер * nix, .htaccess должен иметь что-то вроде Options -Indexes
). И если бы у вас была общедоступная ссылка в любом месте, объединяющая два сайта в одном домене, это могло бы быть так, как ее нашла Google. Если вы тщательно следите за тем, чтобы ваш сайт содержался в чистоте и никогда не указывал на файлы в другом документе, не должно быть проблем с размещением одного домена вне подкаталога другого домена.
Вы можете очистить индекс Google этих страниц, используя Инструменты для веб-мастеров . Чтобы идентифицировать себя как владельца сайта, вам нужно установить уникальный файл (они создадут его для вас) в корневой каталог ваших различных корней документов, а затем вы можете вручную обновить части своего сайта, которые у них есть. индексируются. Это относится только к к Google.
Если вы были проиндексированы другими поисковыми системами (и вы, вероятно, были, если Google проиндексировал вас), вы должны попытаться выяснить, как они туда попали, исправить проблему, переместить второй сайт в другую папку (вызывая страниц, чтобы сообщить 404 Page Not Found
на ваш основной домен), а затем заставить поисковые системы переиндексировать.