Как использовать файл robots.txt

При помощи инструкций, размещенных в текстовом файле robots.txt, расположенном в корневой папке сайта, владелец сайта может сообщать поисковым роботам рекомендации о необходимости сканирования определенных страниц сайта или же файлов. Инструкции в файле robots.txt могут разрешать или запрещать полное или частичное сканирование сайта. Ниже приведено несколько примеров подобных инструкций.

Разрешение на просмотр инструкций для всех поисковых роботов:
User-agent:*

Разрешение на просмотр инструкций для поисковых роботов Google:
User-agent: Googlebot

Запрет на сканирование всего сайта:
Disallow: /

Запрет на сканирование папки c названием gallery:
Disallow: /gallery

Запрет на сканирование ссылки, имеющей URL адрес_сайта/gallery.php:
/gallery.php

Запрет на сканирование файла с названием gallery.jpg:
Disallow: /gallery.jpg

Разрешение на сканирование папки c названием gallery:
Allow: /gallery

Разрешение на сканирование ссылки, имеющей URL адрес_сайта/gallery.php:
/gallery.php

Разрешение на сканирование файла с названием gallery.jpg:
Disallow: /gallery.jpg

Существует еще множество других правил, позволяющих произвести гибкую настройку для определенных поисковых систем, с некоторыми из которых возможно ознакомится на следующей странице — https://support.google.com/webmasters/answer/6062596?hl=ru