Создал недавно пару новых сайтов. Не далее, как 1 октября. Сайты - http://eftel.ru (вот этот самый) и stootvetov.ru. Причины создания - ниже. Просто интересна скорость работы поисковиков. Гугл - это вообще монстр. Как работает - непонятно! Ещё несколько лет назад где-то упоминалось, что во всемирном интернете насчитывается несколько десятков триллионов страниц. Что уж сейчас творится... Наверняка давно уже число всех страниц исчисляется сотнями триллионов. Может, больше. Поправьте, кто знает. Так вот, гуглу для обнаружения и индексации обоих сайтов потребовалось несколько часов! С сайтом stootvetov.ru вроде понятно. Потому как является он зеркалом прежнего сайта, с которого был сделан грамотный 301-й редирект. То есть в прежнем сайте прописал: в. htaccess - RewriteEngine on RewriteRule ^.htaccess$ - [F] RedirectPermanent / http://stootvetov.ru/ в robots.txt - User-agent: * Crawl-delay: 3 User-agent: Yandex Disallow: Host: stootvetov.ru Только вот почему абсолютно новый сайт eftel.ru
Полная версия статьи
Категория: Интернет, скрипты, боты