14:21 Новые фильтры поисковой системы Google |
Новые фильтры Фильтры поисковых систем – неизбежная вещь. Только благодаря им (в идеале, в теории, конечно...) посетители, использующие поиск, получают релевантную выдачу; им выдаются те сайты, которые наиболее точно соответствуют введенным ими поисковым запросам. Увы, это всего лишь теория; на практике большинство фильтров очень далеко от совершенства. Их влияние приводят к тому, что на первых местах в поиске находятся не самые релевантные страницы, а те, которым удалось теми или иными способами обойти эти фильтры. Нет, конечно же, они нужны. Выдачу необходимо фильтровать, отсеивая говносайты и просто некачественные ресурсы, всяческие нарушения поисковой лицензии, обманы пользователей и т. п. Но вот, несмотря на постоянное развитие поисковых технологий, качественная эффективность фильтров не увеличивается. Их развитие и появление новых приводит лишь к всё большему и большему недовольству вебмастеров. Они перестают понимать правила поисковых систем, которые и так не написаны в явном виде. И чем дальше, тем они становятся все менее понятными. Непонимание усугубляется еще и выборочным действием фильтров. Часто в топах встречаются сайты с многочисленными нарушениями поисковых лицензий; при этом под санкции попадают и совершенно "чистые" ресурсы. Фильтры не накладываются сразу – может пройти много времени, прежде чем робот найдет на сайте нарушения и накажет его; это же касается и снятия санкций. Службы поддержки поисковых систем еще больше усложняют ситуацию, запутывая вебмастеров нечеткими ответами. Панда Панда "пришла" в Гугл в феврале 2011 года. Ее введение, точнее, его результаты, шокировало многих вебмастеров – и не удивительно, ведь трафик упал в несколько раз, причем на вполне "белых" сайтах для людей, которые до этого долго и успешно работали и находились на первых позициях. Как всегда, никаких конкретных сведений о фильтре "Панда", о его особенностях и причинах, а также о методах выхода из-под него, Гугл не выложил. Через какое-то время представители Гугла поиздевались над вебмастерами, выложив список факторов, приводящих к наложению фильтра. И что мы с них видим? Да-да, все то же самое: - неуникальный контент, точнее, его большое количество; Универсальный ответ на вопрос "за что сайт попал под санкции", причем независимо от типа санкций, самого сайта и поисковой системы. Практической пользы от этого ответа ровно ноль, так как нормальные сайты и так избегают всех этих пунктов, но это не спасает от санкций. В любом случае вывод можно сделать один: Гугл ужесточил критерии к качеству сайтов в топе. Критерии вроде бы и не изменились, но усилился контроль их соблюдения. Казалось бы, все эти принципы вполне очевидны – но следовать им всем в рамках одного сайта практически невозможно... "Ваши проблемы", говорит Гугл. Кто прав? Он, конечно; ведь именно от него зависит трафик и, как главное его следствие, прибыль, которую приносят сайты их создателям. Но все же делать что-то надо. В первую очередь стоит обратить внимание на уникальность контента, причем не только вообще в интернете, а даже в рамках одного сайта. Вот несколько важных моментов; нелогичность некоторых из них налицо, но что поделаешь... 1. Следует избавиться от всех дублей контента. Это могут быть и краткие новости в виде фрагментов полных, и страницы с тегами, датами, разделами и т. п., в общем, все, где участки текста могут дублироваться. Все это нужно закрыть от индексации в robots.txt. Самое неприятное - факт, что под этот фильтр попали и сайты, которые работали годами без всяких нареканий со стороны поисковых систем. Да, за такое время работы у них, вполне естественно, накопились тысячи страниц, не содержащих контента, содержащих какой-либо "непотребный" контент или же просто служебных материалов. Это могло стать следствием и недостатков движка, и недосмотра владельцев сайта. Все это не мешало и не стало вдруг мешать посетителям... ну, хотя бы потому, что просто все эти страницы не попадают на поисковые вершины и большинство людей просто их не видят, а даже если видят – сразу закрывают. У многих подобных сайтов дизайн и юзабилити могли не меняться лет десять – при этом вполне отвечать всем требованиям пользователей. При этом, повторюсь, эти сайты на все 100% удовлетворяли потребности посетителей, имели очень качественное и регулярно обновляемое текстовое содержимое и вообще долгое время являлись своего рода эталонами контентных проектов. Так, спрашивается, чего вдруг они должны полностью меняться? Ради чего? Ведь они создавались и функционируют именно для посетителей – а посетители удовлетворены. Подстраиваться под поисковые системы? – увольте! Вот и теряется драгоценный трафик; а теряют от этого те, для кого создавались и поисковые системы – их посетители. Думаю, уже многие заметили, что если раньше требуемая информация находилась на первой странице поиска, а то и на первых 5 позициях, то теперь она может попасться и на третьей, и на четвертой странице. Неудобно, однако, и не логично. Панда – не новый алгоритм ранжирования. Это именно фильтр, который время от времени проходится по топам и чистит их от нежеланных, по его скромному мнению, сайтов. Аналог – АГС у яндекса, причем аналогия усиливается, если понять полную нелогичность результатов работы обоих фильтров. Можно сказать, что Панда является классификатором документов; она распределяет их по различным категориям, группам и, следовательно, "дает знак" поисковым алгоритмам для повышения или понижения их позиций, а также позиций остальных документов в рамках данного сайта. И этих категорий может быть множество... начиная от банального неуникального контента и заканчивая, казалось бы, безобидными и не влияющими на отображение, ошибками в коде страницы. И к чему же в итоге приведет Панда и ее последующие "реинкарнации"? А к тому, что владельцы крупных сайтов начнут их забрасывать и станут заниматься "одномоментными проектами", суть которых заключается в быстром сборе трафика и денег с него. Такие сайты будут быстро попадать в топы, существовать там месяцами (ну, максимум пару лет) и потом тихо исчезать в недрах серпа. А на их место придут другие. Она же привела к тому, что источники информации начали оказываться на более низких позициях в поиске, чем сайты, которые эту информацию копируют. Конечно, во многих ситуациях это оправдано – но все равно чаще всего хорошие новостные сайты, тем более, агентства, представляют свою информацию в отличной форме, куда лучше, чем те, кто ее просто парсит по RSS... Если внимательно почитать вышеуказанные критерии, можно прийти к выводу, что идеальный сайт – это MFA. Да, любой современный сайт, созданный исключительно для заработка на контекстной рекламе, соответствует всем принципам "идеального сайта для людей". Но идеален ли он? – увы, нет. Его цель – не удовлетворение потребностей посетителей, а непосредственный заработок на кликах по рекламе. А потребности свои пользователи удовлетворяют на сайтах, на которые они попали по этой самой рекламе. Дорвей, по сути, но более окультуренный. По заявлениям менеджеров Гугла, Панда использует так называемые "сигналы", которые говорят о качестве того или иного документа – среди этих сигналов не последнее место занимает реакция посетителей. И тут же указывают, что посетителям важен качественный контент. Вскоре после введения Панды появилось официальное сообщение о том, что этот фильтр активно учитывает пользовательские отзывы, которые собираются плагином к браузеру Хром, автором которого является Гугл. Практически все сайты (84%), получившие негативные отклики, вскоре попали под "колеса" Панды. Несмотря на это, они утверждают, что блокировки сайтов пользователями сами по себе не приведут к понижению позиций – это всего лишь сигнал для алгоритма фильтрации. Но цифры говорят сами за себя... Еще одним неприятным моментом является то, что, опять же, по заявлению представителей Гугла, Панда – алгоритм на 100% автоматический, и никакие запросы на пересмотр сайта не помогут вернуть прежние его позиции. Все решают алгоритмы. Исправите, мол, нарушения на сайте, он и вернет свои утраченные позиции сам по себе. Напоминает ответы службы поддержки Яндекса в лице Платона Щукина – "Наши алгоритмы приняли решение...", который присылали даже тогда, когда роботы на сайт и не заходили. Как можно предположить, от Панды пострадали не только сами зафильтрованные сайты, а и те, кому они давали трафик. По цепочке, таким образом, посетителей потеряли совершенно "безобидные" ресурсы – только лишь потому, что на них ссылались сайты, попавшие под Панду. Это же касается и потери Page Rank, хоть сейчас его роль свелась к символической. Многие, во время введения Панды, заметили, что упал также трафик и с других поисковых систем, например, Bing или Yahoo. Причин может быть несколько. Самая очевидная – эти поисковые системы используют в той или иной мере выдачу Гугла или его же методы фильтрации, или прямо, или косвенно. Менее очевидная, но более логичная причина – владельцы сайтов, попавших под фильтр, естественно, пытаются выйти из-под него, значительно видоизменяя сайт. Эти изменения могут войти в противоречия с требованиями Бинга или Яху, следовательно, в этих системах позиции сайта понижаются. Но факт остается фактом – Панда лишила трафика многих. Есть множество рекомендаций для оценки статей, размещенных на сайте, с точки зрения или профилактики попадания под Панду, или же с целью выйти из-под нее. Нет смысла писать длинные списки, все они сводятся к одному: Прочитайте статью и задумайтесь – стоящая она? Порекомендовали ли бы вы ее своим друзьям для ознакомления с темой? Оригинальна ли она? Хорошо ли читается? В марте 2012 года вебмастера были "приятно" удивлены введением новой версии фильтра – 3.3. По заявлению представителей Гугла, в алгоритм было внесено более сорока изменений. Основной упор идет на изменение системы анализа и оценки ссылок – впрочем, никаких подробностей от них не последовало, кроме общих фраз об определении тематики страниц. Можно сделать вывод, что усиливается борьба с "неестественными", покупными ссылками. Эта борьба декларировалась уже давно, впрочем, никогда особо активно не велась по многим причинам. Главная причина – собственно, покупные ссылки и позволяют поисковым системам формировать релевантную выдачу. Еще одной причиной можно назвать возможность манипулирования этим фактором с целью понижения позиций конкурирующих сайтов – ведь никто не мешает накупить тысячи ссылок, ведущих на чужой сайт, и поисковая система никак не выявит это. Пингвин "Зоопарк" Гугла пополнился в апреле 2012 года новым алгоритмом фильтрации выдачи – Пингвином. Основной особенностью Пингвина, в отличие от прошлого алгоритма, Панды, является большая направленность на внешние факторы продвижения, а именно на ссылки. Он обращает внимание на их качество, количество, скорость изменения ссылочной массы, ее естественность и т. п. Обобщив, можно сказать, что Пингвин призван для борьбы с веб-спамом во всех его проявлениях. В общем случае, веб-спам можно определить как любые действия, совершаемые для повышения позиций страницы без улучшения качества самой страницы и сайта в целом. В описании алгоритма упоминается усиленное влияние естественных ссылок. Правда, ничего не говорится о том, какие именно ссылки считаются естественными и как их отличить от покупных. Как следствие, среди вебмастеров появилось новое понятие – "имитация естественности". Оно содержит внутреннее логическое противоречие, ведь как можно сымитировать естественность? Версий появляется много: - покупка ссылок с анкором, содержащим адрес сайта Такие ссылки называются "безанкорными", то есть, в их тексте не содержится традиционного поискового запроса. Есть ли в них смысл или же это просто трата времени и денег – большой вопрос. Если обобщить причины, за которые сайты наказываются Пингвином, можно выделить следующее: - ему не нравится обилие ключевых слов в анкорах покупных (ну, или вдруг естественных) ссылок. Разбавляйте их, используйте околоссылочный текст... в конце концов, покупайте ссылки с анкорами, не касающимися непосредственно страницы, на которую они ведут. Также может учитываться и качество страниц-доноров, их заспамленность ключевыми словами и качество их контента. Несмотря на все это, не стоит сразу же снимать все ссылки или их большинство. Стоит снять лишь откровенно плохие ссылки, и то после этого может быть временное падение позиций. Если в панели вебмастера вы не получили уведомление об "использовании некачественных ссылок", следовательно, дело в других факторах, скорее всего, внутренних, связанных с качеством самого сайта. Внутренним фактором, как уже было сказано, могут являться внутренние ссылки – стоит внимательно просмотреть страницы сайта на предмет некачественной внутренней перелинковки. Ну, и требования по поводу уникальности и качества контента тоже остаются в силе, так как Панду никто не отменял. Некоторые эксперты, в частности, Михаил Шакин, отмечают, что одним из факторов, влияющих на выход из-под Пингвина, являются переходы на сайт непосредственно со строки браузера, когда адрес туда вводится вручную или копируется. Следовательно, положительный эффект будет от расстановки "неактивных" ссылок в виде http://site.ru без тега a на популярных сайтах, где на такую ссылку обратят внимание люди. Ссылка, естественно, должна быть контекстной, размещенной в интересной статье. |
|
Всего комментариев: 0 | |