Во время нашей работы заметили, что Яндекс спокойно себе краулит закрытые в robots.txt разделы сайта.
Это все дело прикрывается так называемым "Антивирусом", т.е. в закрытые в robots.txt разделы сайта заходит вот такой робот "Mozilla/5.0 (compatible; YandexAntivirus/2.0; +http://yandex.com/bots)" описывается он тут http://help.yandex.ru/webmaster/?id=995329 как "антивирусный робот, который проверяет страницы на наличие опасного кода", но мы же понимаем, что чтобы проверить на наличие опасного кода этот код надо скачать.
Ошибок в robots.txt нет, через Яндекс.Вебмастер проверяем урл к которому идет обращение он отвечает "запрещен правилом", а на деле туда ходит антивирус.
Проверка веб-страниц на вредоносный код не связана с индексированием для поиска. Она происходит независимо от индексирования, и проверенные страницы, запрещенные в robots.txt, никогда не попадут в результаты поиска. Проверка поисковыми системами страниц на вредоносный код подразумевает анализ всех загружающихся скриптов. Возможность закрывать от проверки вредоносные скрипты в robots.txt сделала бы antimalware-системы поисковых систем бесполезными. При этом очевидна польза для вебмастеров. Во-первых, если сайт взломали и заразили, лучше поскорее об этом узнать и вредоносный код удалить, чтобы не было проблем с законом. Во-вторых, Антивирусные продукты на компьютерах пользователей (а в продвинутых учреждениях — на общем интернет-шлюзе) часто блокируют доступ к зараженным сайтам. Из-за этого количество пользователей ресурса резко сокращается, а вебмастер может долго не понимать, в чем причина. Разметка же Яндекса предполагает оповещение вебмастера о заражении.