14:24 ПФ - Поведенческие факторы продвижения ваших сайтов |
Критический анализ Эти загадочные поведенческие факторы... Легенды, слухи и ужастики о них (правда, в основном, речь идет о Гугле) ходят много лет; мол, поисковая система учитывает не только вполне понятные внешние ссылочные и внутренние контентные факторы, а и поведение посетителей на сайте – время пребывания, клики, прокрутки страниц и т. д. И никто толком не знал, как же оно влияет на позиции сайта – но все обсуждали. Прямо как мифический траст. Прошло 5 лет – и об учете поведенческих факторов заговорил Яндекс. Естественно, весь рунет оживился; неужели у нас будут использовать какие-то непонятные факторы ранжирования кроме привычных покупных ссылок?! Сапа умрет?! Отбросив наиболее вероятную мысль о том, что это была на 99% мистификация от яндекса, попробуем разобраться, что такое поведенческие факторы, какими они бывают и как могут влиять на ранжирование сайта. Ну, и как это можно использовать для активного продвижения, а не просто для анализа и досужих разговоров. Целью введения учета ПФ являлось желание поисковых систем избавиться от всевозможных манипуляций ранжированием в выдаче – ведь и внутренней оптимизацией, и внешними ссылками можно легко продвинуть в топ практически любой сайт, который не будет адекватным этой "вершине"; были бы деньги. То есть, теперь сами пользователи должны решать, релевантен ли сайт их требованиям и запросам. А дело поисковика – использовать формализированные (те, которые можно рассчитать математически и статистически проанализировать) критерии поведения этих пользователей как один из основных факторов ранжирования. Преимущества метода:
Недостатки:
Как видно, преимущества вполне существенные, но и недостатков хватает – и сложно сразу сказать, что же выходит на первый план. Особенно сложно это определить при условии отсутствия официальной информации от поисковых систем касательно конкретных систем реализации. Чтобы провести серьезный эксперимент, нужно имеет "под рукой" большие объемы самого разнообразного трафика, как поискового, так и иного, а разбрасываться посетителями мало кто может себе позволить ради чистой науки... Надо помнить одно. В настоящее время (середина 2012 года), как и раньше, основными факторами ранжирования в яндексе являются традиционные показатели – ссылки, внешние и внутренние, оптимизация сайта и его контент. Несмотря на утверждения многих вебмастеров об усилении влияния поведенческих факторов, их роль все равно является корректирующей, дополняющей. Не более того. Итак, основным фактором поведения посетителей является показатель отказов. Показатель (процент) отказов считается основным фактором, так как легко формализуется и контролируется. Гугл определяет понятие отказ, как факт покидания посетителем сайта после просмотра лишь одной страницы. При этом же дальше пишет, мол, страницы должны быть максимально релевантными запросу. Сразу же появляется внутреннее противоречие – если страница на 100% релевантна и соответствует запросу пользователя, то ситуация, когда он, посетив только ее, уйдет вполне удовлетворенным. Вероятно, оценивается также время пребывания его на данной странице, прокрутка текста, выделения и т. п., но как-то уж оно все сложно и сомнительно, ведь требует от владельца сайта установки тонкой настройки статистики, а это ущемляет права других. Следовательно, в Гугле бывают ситуации, когда сайт имеет вылизанные и крайне релевантные страницы, но процент отказов высокий. Посетителю нужна именно эта страница; если он конкретную информацию, он ее просто прочитает (или сохранит) и закроет страницу. Формально это отказ, фактически - практическая реализация абсолютной релевантности. Вот и получается, что достичь 20-30% отказов бывает очень сложно, чаще всего это число 40-50. Яндекс пошел дальше и ввел явное время пребывания человека на странице, больше которого это посещение не будет считаться отказом – 15 секунд. Но его надо установить вручную в настройках счетчика Яндекс.Метрика... многие ли вебмастера это сделают? Вот и прибегают многие авторы сайтов к ухищрениям, чтобы задержать пользователя на сайте, даже если ему это и не нужно. Ведь если он сделал пару кликов и хоть немного задержался, это уже не отказ. Например, можно разбить текст на несколько страниц. Можно чуть затруднить навигацию по сайту, правда, это чревато потерей посетителя. Куда эффективнее будет "подсунуть" ему под нос ссылки на похожие статьи (товары, услуги) или просто на какие-то интересные материалы на сайте, авось он кликнет. За рубежом многие доходят до того, что приобретают специальные шаблоны дизайна и верстки, оптимизированные с целью понизить процент отказов. Стандартная фраза у многих блоггеров, пишущих на тему сео – "контент должен быть уникальным!!!" и якобы эта самая уникальность должна обеспечить минимальный процент отказов. Смешно это читать. Уникальность контента как "вещь в себе" это полная ерунда, есть смысл говорить об уникальности представления контента, такая формулировка есть и у Яндекса. Создать уникальный текст в настоящее время не проблема. Написать самому, заказать профессионалам, переписать чужой текст с нуля, в конце концов, использовать какой-то генератор. А толку? Даже самый интересный, на 100% уникальный текст, выложенный в нечитаемом виде, не заинтересует практически никого. А тот же текст, скопированный (пусть даже незаконно, но это не есть парафия поисковых систем) и качественно оформленный с учетом психологических аспектов, привлечет куда больше внимания и уж точно задержит посетителей. Про генерированные или автоматически переведенные тексты молчу; уникальность у них может быть 100%, но пользы ровно 0%. Итак, перечислим основные методы понижения процента отказов. В принципе, все это актуально для увеличения другого параметра – времени пребывания на сайте, а также, вероятно, для некоторых других поведенческих факторов. Про качество контента говорить нет смысла, это очевидно, и хорошие интересные тексты или сервисы могут затмить собой все недостатки. Кстати, задумайтесь – ведь, по большому счету, все это нужно было и так делать, не думая о каких-то там ПФ. Просто для повышения качества сайта.
Как видно из сути самого понятия "процент отказов", на него могут влиять и внешние факторы, которые не всегда подвластны хозяину сайта. Например, большое количество ссылок на нетематических ресурсах приведут трафик, но посетители не будут заинтересованы в тематике сайта, следовательно, будут и отказы. А трафик можно, в конце концов, купить за копейки, и этот вариант куда более неприятный. Скорее всего, системы статистики поисковых систем такие накрутки контролируют, но трафик бывает разным. Вполне возможно, что скоро, когда/если влияние ПФ будет усилено, такие атаки на конкурентов и просто на топовые сайты станут довольно распространенными. Бороться с этим сложно. Если массовый дешевый трафик можно фильтровать на уровне сервера, то с кликами по ссылкам ничего не поделаешь. Как еще один из поведенческих факторов рассматривается посещаемость сайта. Скорее всего, поисковые системы не учитывают общий трафик как таковой – им слишком просто манипулировать. Также может быть парадоксальная ситуация, когда сайт растет потому, что у него растет посещаемость, следовательно, посещаемость растет еще больше вследствие роста позиций... получается рост по геометрической прогрессии и вечный топ. Влияние посещаемости наверняка более гибкое. Вероятно, статистика по трафику фильтруется, анализируется его источники, качество, и сайты с высоким процентом целевых посетителей получают плюс к позициям. Процент возвратов на сайт – вполне объективный параметр сторонней оценки качества проекта, впрочем, он подходит далеко не для всех сайтов. Например, он будет высоким для литературных порталов, новостных и информационных сайтов, а также для интересных блогов. При этом, у интернет-магазинов он может быть низким, так как большинство людей совершают разовые покупки и довольно редко возвращаются в тот же магазин, если возвращаются вообще. Манипулировать этим фактором просто – создавайте интересный контент и люди будут возвращаться. Оставляйте немного недосказанного, это будет интриговать. Завлекайте посетителей интерактивностью; дайте им свободу действий в плане комментирования и оценки материалов сайта. В конце концов, устраивайте конкурсы, это один из самых недорогих способов привлечения и удержания аудитории. Призы для конкурсов всегда с радостью предоставят спонсоры, если сайт будет хоть немного популярен. Блоггерам и того проще; если в блоге пишется об актуальных вещах, он регулярно обновляется и не увешан рекламой с головы до пят, люди будут регулярно на него возвращаться. Проблему составляет RSS – благодаря ему материалы блога можно читать, не заходя на сам сайт. Но и это решаемо. Вариант отдавать по RSS лишь анонсы постов не является оптимальным. Куда интереснее завлекать людей на сайт для обсуждения публикуемой информации, для этого нужно настроить удобную и защищенную от спама систему комментирования. Или же использовать те же конкурсы. Подытоживая вышесказанное, можно отметить, что даже при невысоком влиянии поведенческих факторов в настоящее время, нужно обязательно обращать на них внимание, анализировать и оптимизировать их, чтобы быть готовым к тому времени, когда они станут одним из столпов ранжирования. Другие статьи по SEO |
|
Всего комментариев: 0 | |