Seo оптимизация Drupal 7.

image

05.01.12
Comments 7

Всем привет, сегодняшний пост я решил посвятить поисковой оптимизации Drupal 7. Drupal отлично seo оптимизирован уже из коробки, имеет встроенную систему ЧПУ и т.д, но все же кое какие настройки следует все таки произвести. В этай статье я дам вам несколько ссылок на предыдущие посты моего блога, которые я считаю полезными для SEO, а так же покажу как правильно настроить файлы robots.txt и .htaccess. Ну что, поехали!!!

Самую важную роль в продвижении сайта в поисковиках играют конечно заголовки его станиц, то есть мета тег Title. Не знаю как так получилось , но в Друпал нельзя вручную прописывать заголовки страниц, они автоматически берутся из названия статьи. Но этот недостаток можно исправить с помощью доп. модуля, о том как это сделать читайте здесь.

Какая же поисковая оптимизация может обойтись без красивых, человеко понятных ссылок, да в Друпал поддержка ЧПУ идет из коробки, но при добавлении нового материала  их приходится прописывать вручную, о том как настроить автоматическое создание ЧПУ, я писал в этой статье.

Чтобы поисковикам было легче индексировать наш сайт, нужно установить карту сайта sitemap.xml. Про ее установку и настройку можно в подробностях прочитать здесь.

Теперь поправим файл robots.txt. Так как мы решили что будем использовать ЧПУ, нам необходимо избавиться от дублей страниц. Появятся они обязательно, так как после включения ЧПУ один и тот же пост будет доступен по трем адресам, к примеру:

Sirega.ru/seo-v-drupal-7.html
Sirega.ru/node/1
Sirega.ru /?q=node/1

Поисковики могут наложить санкции на сайт который имеет много такого мусора в выдаче, поэтому нужно от этого всего избавиться, для этого в файл robots.txt следует добавить следующие строки:

Disallow: /taxonomy/
Disallow: /node/

Disallow: /?q=taxonomy/
Disallow: /?q=node/

На этом еще не все, как то я блуждая по просторам интернета я наткнулся на интересную статейку, в ней говориться что строчки:

Disallow: /comment/reply/
Disallow: /?q=comment/reply/

нужно исправить на:

Disallow: /comment/
Disallow: /?q=comment/

Смысл этого исправления в том что при не исправленном роботсе, каждый комментарий становится доступным на отдельной странице, вместе с материалом к которому он добавлен, представьте что будет, если к статье добавить 100 комментариев. На этом основные настройки файла robots.txt закончены.

В файле .htaccess сделаем только редирект с www на без www или наоборот, кому как нравится, для этого откроем файл и найдем строки:

# To redirect all users to access the site WITH the 'www.' prefix, (домен с www)
# (http://example.com/... will be redirected to http://www.example.com/...)
# uncomment the following:
# RewriteCond %{HTTP_HOST} !^www\. [NC]
# RewriteRule ^ http://www.%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
#
# To redirect all users to access the site WITHOUT the 'www.' prefix, (домен без www)
# (http://www.example.com/... will be redirected to http://example.com/...)
# uncomment the following:
# RewriteCond %{HTTP_HOST} ^www\.(.+)$ [NC]
# RewriteRule ^ http://%1%{REQUEST_URI} [L,R=301]

Для того чтобы выбрать один из вариантов, раскомментируйте соответствующие строки.

И так, сегодня мы произвели основные внутренние SEO настройки, благодаря им ваш сайт будет отлично смотреться в глазах поисковых машин.

Tags: 

Комментарии

Richi 21.03.12

Как бэ ни одной ссылки то и нет..

admin 21.03.12

Все исправил!, спасибо что подсказали.

Ольга 12.12.12

Это только к Drupal 7 относится? Исправила robots.txt в Drupal 6 - никакого эффекта. Страницы с адресами /node/ никуда не девались, и по прежнему открываются.

admin 12.12.12

robots.txt никак не влияет на это, он просто запрещает поисковикам индексировать указанные страницы.

Ольга 12.12.12

Спасибо за быстрый ответ и за полезную статью

Станислав 24.05.13

Привет Серега!
Столкнулся с такой проблемой. Уже мозги кипят.
Сайт (ссылка указана), Яша исключает все страницы в раздел "Документ не канонический". Все ссылки ЧПУ уже сделал. Карту перестроил. Результат в яше все вида ?q=node/21. Это уже повторно так. Не пойму что за каноническая. Модуль стоит PAth, MetaTags, адреса страниц сам пишу в ручную. Гугл сайт ест отлично.

Второе нужно ли термины таксономии убирать из карты?

Спасибо за ответ.

Drupal 7 юзаю

Андрей 11.05.16

Подскажите, как RSS закрыть от индексации?

Комментировать