пятница, 18 января 2008 г.

Выкидываем сами себя из SERP’a

SEO-оптимизация блоггерского темплейта

Предпосылкой к написанию данного поста явилась статья Бананового Рая. Пересказывать своими словами не буду, лучше сошлюсь на первоисточник с цитированием.

Казалось бы, чем больше страниц в индексе, тем больше посетителей придет на ваш сайт.  Ан нет.  Часто бывает с точностью до наоборот. Вот живой пример. Вы делаете блог на каком-нибудь вордпрессе. Собираете посты по определенным кеям, оптимизируете их, раскладываете по категориям. В общем все по-взрослому. Гугл потиху индексирует ваш сайт,  посетители начинают заходить из серпа, но, вдруг, поток посетителей резко уменьшается, а половина страниц которые вы так упорно позиционировали по своим фразам ушла в саплиментал.  Вы начинаете пристально разглядывать как там в гугле проиндексировался ваш сайт, и к своему ужасу узнаете, что страницы с самими постами ушли в сплиментал, а вместо них в основную выдачу попали списки статей по категориям. Естественно эти списки  в серпе гугла по вашим кеям будут сидеть далеко не на первых местах, и чаще всего даже не на первых страницах.  Вот и получилось, что гугл просто выдавил из основного поиска ваши правильные  страницы, причем выдавил их в пользу ваших же страниц списков категорий. Так что после этого вебмастеру остается только robots.txt править и запрещать гуглю индексировать на вашем сайте что-то в ущерб основным страницам.

Я полагаю всем всё предельно ясно.

Соглашусь с автором статьи по поводу того, что “не стоит отдавать свой сайт просто так на откуп поисковому боту”, так как самолично не раз наблюдал в SERP’e картину, когда архивы по месяцам красовались на топовых позициях, вытесняя из выдачи правильные постовые страницы.

Все бы ничего, поправил robots.txt и спи спокойно, жди когда поисковые боты прочитают правила и примут их на карандаш. Однако прамблема в том, что наш горячо-любимый Blogger не предоставляет доступ к robots.txt.

Ну как говориться, если гора не идет к Магомету, то … попробуем подойти к проблеме с другой стороны. Вариант со сменой хостинга на свой собственный я не рассматриваю, так как смысла в этом я особо не вижу. Если уже менять хостинг, то зачем тогда вообще на Blogger’е оставаться.

Итак, что нам нужно сделать? Правильно. Нам нужно сделать так чтобы страницы архива не индексировались поисковиком, т.е. выкидываем все непотребное из SERP’a. Сделать это можно, через соответствующий мета-тэг:

<meta content='noindex,follow' name='robots'/>

Однако если взять его и тупо вставить в блоггерский темплейт, то уверяю вас, - ничего хорошего из этого не получится. Так что, тупо нам не надо.

Нужно найти условие, при котором можно было бы определить является ли загружаемая страница архивом за какой-то период или нет. Если является, то получи с полки пирожок, если нет, то - нет.

Порыскав по внутренностям темплейта, искомое условие, было найдено. И тот час же применено на блоге в виде заветных комбинаций строк:

<b:if cond='data:blog.pageType == "archive"'>
<meta content='noindex,follow' name='robots'/>
<b:else/>
<meta content='all' name='robots'/>
</b:if>

Через пару недель, архивные страницы полностью ушли из SERP’a, оставив после себя ссылки на правильные посты с осмысленными заголовками.

Вот и сказочке конец, кто прочёл, тому зач0т :)