Домой / Раскрутка и SEO / Правильный robots.txt для wordpress

Правильный robots.txt для wordpress

Правильный robots.txt для wordpress
Правильный robots.txt для wordpress

Как сделать правильный robots.txt для wordpress?

Здравствуйте, уважаемые посетители и гости моего блога! Сегодня я Вам расскажу как сделать правильный robots.txt для wordpress. Думаю многие блоггеры уже знают, что такое файл robots.txt и для чего он нужен на wordpress, да и на каждом сайте. А некоторые даже и не догадываются. Да да, есть и такие! Сначала поясню, для не знающих о файле robots.txt. А потом уже расскажу, как сделать правильный robots.txt для wordpress. Robots.txt это такой файл, который ...


Что за файл robots.txt? И для чего он нужен?

Robots.txt файл это текстовый документ, который содержит набор разрешающих и запрещающих команд для робота посетившего ваш блог или сайт. Соответственно этим командам поисковый робот зашедший на ваш ресурс, будет просматривать и индексировать материал блога. Ели команды будут правильными, тогда ваш блог будет просмотрен роботом и отправлен в индекс. Ну а если прописанные команды для поискового робота неправильные, тогда робот просто покинет ваш блог, не отправив его в индекс. Это значит, что правильный robots.txt для wordpress полностью и на прямую отвечает за сео оптимизацию и раскрутку вашего блога!

Делаем правильный robots.txt для wordpress!

Сначала Вам нужно узнать, есть ли вообще у Вас на блоге файл robots.txt. Для этого перейдите в яндекс вебмастер и проделайте следующее действие, как показано на картинке:

яндекс вебмастер
яндекс вебмастер

Я проделаю эти манипуляции на примере своего блога. У меня есть файл robots.txt, если его нет тогда вам напишут об этом. Таким образом Вы можете проверить любой блог и сайт, который вам понравиться. И яндекс вебмастер сообщит вам о любом ресурсе, какой там файл robots.txt. Вы можете скопировать его себе, поменяв внизу ссылки на свои и поставить на свой блог, закачав в корневую папку блога. Но Вы рискуете ошибиться! Откуда Вы можете знать, подойдет ли этот файл robots.txt для вашего блога и правильный ли он?

Давайте разбираться и делать правильный robots.txt для wordpress.

Работа файла robots.txt основывается на трех правилах:

  • Первое это выбор поискового робота для индексации ресурса
  • Второе  разрешающие команды для индексации разделов блога
  • Третье запрещающие команды для индексации разделов блога

Не будем мудрить и лить много воды. Вот основные команды, которые разрешают и запрещают индексацию блога для поискового робота:

User-agent: *  для всех роботов
Disallow: /запрет к индексации всех страниц
Allow: /разрешение индексировать все страницы

Что вам нужно сделать, чтобы ваш файл robots.txt был правильным. Все просто вот вам правильный robots.txt для wordpress:

User-agent: Yandex
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /feed/
Disallow: */feed
Disallow: */trackback
Disallow: */comments
Disallow: /*?
Disallow: /*?*
Disallow: /tag
Host: ваш домен
Sitemap: ссылка на вашу карту блога

Просто вставьте свои ссылки, сохраните в формате txt, назвав его robots.txt и закачайте себе в корневую папку на блог. Все, ваш блог теперь будет содержать правильный robots.txt для wordpress!

Хотите получать свежий материал на почту первым? Подпишитесь на обновления блога!

Спасибо за внимание! Всегда ваш Валерий Бородин



Про Валерий Бородин

Проверьте также

хрумер

Хрумер — программа для SEO продвижения и заработка в интернете!

Хрумер — автоматизация SEO продвижения и раскрутки сайта в интернете! Здравствуйте, уважаемые друзья и гости блога! …

  • https://pribylwm.ru/dlya-sajta/kak-sdelat-tablicu-v-wordpress.html Дмитрий

    Здравствуйте Валерий! Ни как не могу разобраться вот в чем: допустим я захотел закрыть рубрику от индексации(чтобы было поменьше дублей), я прописываю Disallow: /рубрика1 , а будут ли тогда индексироваться сами статьи который находятся в этой рубрике с адресом https: //мойсайт/рубрика1/статья1 ?

    • https://pribylwm.ru/ Валерий Бородин

      Здравствуйте, Дмитрий! Для того, чтобы не было дублей вам нужен плагин Yoast SEO. Установите, настройте его и все! А таким способом, как Вы хотите, Вы только заморочите себе голову и найдете лишнюю работу, а толку будет 0. Удачи!

Блог Валерия Бородина: LiveInternet число посетителей за сегодня Блог Валерия Бородина: данные за сегодня (Yandex.Metrika) Блог Валерия Бородина: рейтинг МайлРу