SEO-оптимизация блоггерского темплейта
Предпосылкой к написанию данного поста явилась статья Бананового Рая. Пересказывать своими словами не буду, лучше сошлюсь на первоисточник с цитированием.
Казалось бы, чем больше страниц в индексе, тем больше посетителей придет на ваш сайт. Ан нет. Часто бывает с точностью до наоборот. Вот живой пример. Вы делаете блог на каком-нибудь вордпрессе. Собираете посты по определенным кеям, оптимизируете их, раскладываете по категориям. В общем все по-взрослому. Гугл потиху индексирует ваш сайт, посетители начинают заходить из серпа, но, вдруг, поток посетителей резко уменьшается, а половина страниц которые вы так упорно позиционировали по своим фразам ушла в саплиментал. Вы начинаете пристально разглядывать как там в гугле проиндексировался ваш сайт, и к своему ужасу узнаете, что страницы с самими постами ушли в сплиментал, а вместо них в основную выдачу попали списки статей по категориям. Естественно эти списки в серпе гугла по вашим кеям будут сидеть далеко не на первых местах, и чаще всего даже не на первых страницах. Вот и получилось, что гугл просто выдавил из основного поиска ваши правильные страницы, причем выдавил их в пользу ваших же страниц списков категорий. Так что после этого вебмастеру остается только robots.txt править и запрещать гуглю индексировать на вашем сайте что-то в ущерб основным страницам.
Я полагаю всем всё предельно ясно.
Соглашусь с автором статьи по поводу того, что “не стоит отдавать свой сайт просто так на откуп поисковому боту”, так как самолично не раз наблюдал в SERP’e картину, когда архивы по месяцам красовались на топовых позициях, вытесняя из выдачи правильные постовые страницы.
Все бы ничего, поправил robots.txt и спи спокойно, жди когда поисковые боты прочитают правила и примут их на карандаш. Однако прамблема в том, что наш горячо-любимый Blogger не предоставляет доступ к robots.txt.
Ну как говориться, если гора не идет к Магомету, то … попробуем подойти к проблеме с другой стороны. Вариант со сменой хостинга на свой собственный я не рассматриваю, так как смысла в этом я особо не вижу. Если уже менять хостинг, то зачем тогда вообще на Blogger’е оставаться.
Итак, что нам нужно сделать? Правильно. Нам нужно сделать так чтобы страницы архива не индексировались поисковиком, т.е. выкидываем все непотребное из SERP’a. Сделать это можно, через соответствующий мета-тэг:
<meta content='noindex,follow' name='robots'/>
Однако если взять его и тупо вставить в блоггерский темплейт, то уверяю вас, - ничего хорошего из этого не получится. Так что, тупо нам не надо.
Нужно найти условие, при котором можно было бы определить является ли загружаемая страница архивом за какой-то период или нет. Если является, то получи с полки пирожок, если нет, то - нет.
Порыскав по внутренностям темплейта, искомое условие, было найдено. И тот час же применено на блоге в виде заветных комбинаций строк:
<b:if cond='data:blog.pageType == "archive"'>
<meta content='noindex,follow' name='robots'/>
<b:else/>
<meta content='all' name='robots'/>
</b:if>
Через пару недель, архивные страницы полностью ушли из SERP’a, оставив после себя ссылки на правильные посты с осмысленными заголовками.
Вот и сказочке конец, кто прочёл, тому зач0т :)
9 Comments:
а первый вариант что сделает?
первый вариант запретит роботу индексировать ВЕСЬ сайт
Я по данному запросу вижу только 28 статей, и кстати вопрос: а после какой строчки вставлять данный код?
в раздел head, где и все мета-тэги располагаються
Надо будет над своими сайтами такое провернуть...
Полезная вещь.
Вопрос по теме:
данный код убивает индексирование страниц типа архив, но есть еще поиск...
например если в меню архива блога нажать на год, то у него примерно такой адресс search?updated-min=2008-01-01T0....
Вредны-ли данные страницы для индексирования?
Можно их как-то закрыть?
Еще есть страницы с статьями по тэгу... у них адрес типа search/label/blahblah
Вредны-ли данные страницы для индексирования?
Можно их как-то закрыть?
Спасибо за ответ.
Вредны-ли данные страницы для индексирования?Если исходить из утверждений данной статьи, то получаются что они тоже вредны.
Можно их как-то закрыть?
Blogger позаботился о запрете индексации данных страниц в robots.txt.
Посмотрите например на robots.txt данного блога.
Строчка
Disallow: /search
запрещает индексирование страниц урл которых содержит "/search".
Спасибо за ответ.
Всегда пожалуйста.
То, что вы пишите легко делает плагин All in one SEO Pack... я даже не задумывался,полез делать, то что вы пишите и обнаружил, что уже все сделано...
Я вообщем-то описывал способ для блоггерского движка. А в WP плагины разве что сами посты не пишут, хотя тоже спорно :)
Post a Comment