Здравствуйте!
Давным давно, в далёкой-далёкой галактике, поисковая система Google создала алгоритм, который получил название Panda. Разработали этот алгоритм всего два человека, это Амит Сингал вместе Мэтт Катс. Этот алгоритм отличается от своих собратьев тем, что, прежде всего он рассчитан на человеческий фактор.
А также алгоритм учитывает и другие факторы при ранжировании сайта.
В этом материала мы постарались собрать всё, что может касаться алгоритма Google Panda, как его определить и как под него не попасть, чтобы с успехом продвигать сайт.
Что учитывает алгоритм Google Panda
Уникален ли контент на сайте
Алгоритм Панда, прежде всего, обращает внимание, не встречается ли на других сайтах такой же контент. Более того, он ищет не только похожие тексты на сайтах или страницах также учитываются и фрагменты текстов. Другими словами, уникальность текста определяется с помощью процентного соотношения. Допустим, если статья была скопирована полностью, значит, уникальность равна нулю. Если же скопирована часть текста, то уникальность может быть 80%, например.
Алгоритм рассчитывает уникальность как самого сайта, так и отдельной страницы, в том числе и относительно других страниц сайта. Вдобавок к этому алгоритм панда имеет на вооружении такой инструмент, как шаблонность. Другими словами, он может определить похожие страницы на разных сайтах, даже если они продвигаются с помощью различных ключевых слов.
Более того, этот алгоритм обращает внимание и на рекламу. Если на сайте, который оказывает юридические услуги, размещена реклама конкурентов, то это алгоритм фиксирует и учитывает при ранжировании сайта.
Задача поисковых систем давать пользователю ответ на его вопрос. Задача алгоритма Панда немножко спустить на землю, владельцев сайтов, цель которых только заработок. В общем, цель этого алгоритм до ужаса проста. В поисковой выдаче должны быть только уникальные, актуальные и полезные сайты. Вот пример, как создавать хороший образовательный контент.
Количество и качество ссылок (ссылочный профиль)
Алгоритм также учитывает ссылки. Причём он учитывает все ссылки, и входящие и исходящие. Требование всего одно, и тот и другой сайт должен быть одной тематики. Конечно же, алгоритм отслеживает количество входящих и исходящих ссылок, но это не самый важный фактор при ранжировании сайта.
Первое, что его интересует, это человеческий фактор. Другими словами, он внимательно смотрит за пользователем на сайте. Что он делает, сколько времени проводит, читает ли он материал, заполняет ли формы и так далее. Конечно, разработчики проделали огромную работу, по созданию и обкатке этого алгоритма.
По сути, этот алгоритм потребовал шлифовки и других алгоритмов, чтобы поисковая система могла выдавать только качественные сайты.
При введении этого алгоритма при ранжировании сайта, попасть в ТОП поисковой выдачи могут только реально полезные и качественные сайты. Именно этот алгоритм, и сделал поисковую систему Google мощным поисковым инструментом. Это подтверждается тем, что аудитория Гугл растёт в геометрической прогрессии.
Более того, бюджет компании так же растёт как на дрожжах. Ведь обмануть пользователя ещё можно, используя так называемые чёрные методы продвижения. Различные фишки и агрессивную рекламу. А вот инвестора обмануть нельзя, и он прекрасно знает и осознаёт, что Гугл – дело прибыльное.
Конечно, такой рост компании это заслуга не только одного алгоритма. А теперь вернёмся к теме статьи.
Поведенческие факторы
В этот показатель входит целый ряд критериев, такие как:
- показатель отказов;
- сколько времени проводит человек на сайте за одну сессию;
- сколько страниц он посетил за один визит;
- возвращается ли он на сайт и как часто;
- сколько показывается сайт в выдаче, и сколько переходят по ссылке (CTR).
Все это алгоритм отслеживает, причём он делает это для каждого пользователя. То есть он следит за каждым посетителем и внимательно смотрит, что он делает, переходит ли по ссылкам, заполняет ли формы, прокручивает страницу вниз или нет и так далее. Таким образом, алгоритм определяет, отвечает ли на запросы пользователь сайт или отдельная страница и находит ли пользователь ответ на запрос введённый в поисковую строку.
Как понять, что сайт попал под фильтр Panda и что делать?
Далее мы приводим наиболее распространённые причины попадания сайта под фильтр Panda, способы их диагностики, а так же решения:
- Резкое падение трафика. Если Вы обнаружили, что количество переходов из Google резко снизилось, то одной из возможных причин, может являться Panda и технические проблемы сайта, которые не были выявлены:
— медленный ответ сервера;
— недоступность страниц и прочие.
Чтобы проверить это внимательно проанализируйте данный Google Analytics и Search Console. - Аккуратнее с ссылками. Хоть ссылки для Google остаются ключевым факторам ранжирования, не стоит слишком заострять внимание на них, потому что поисковик давно научился отличать естественные ссылки от закупленных, а так же выявлять неествественный прирост ссылочной массы.
- Плохие тексты. Тексты написанные не человеческим языком, с множеством орфографических ошибок, короткие, не уникальные и размещённые в виде газетной полосы — убьют любой сайт, так как служат сигналом для Панды понизить сайт в выдаче.
Что делать? Пишите качественный, уникальный контент, который полезен для пользователей, тщательно его проверяйте и редактируйте. - Нет видео и фото. Если Вы не разбавляйте содержание статей и страниц сайта, картинками, инфографикой и видео, то глазу читателя просто не за что зацепиться и если это плохо для пользователя, значит это не нравится Панде.
Добавляйте больше оптимизированных фото и видео, заполняя атрибуты alt и title. - Мало внутренних ссылок. Зайдя на сайт, пользователь должен легко и не принуждёно перемещаться по нему, при этом попадая именно на те страницы, которые он ожидал увидеть. И здесь очень важно сделать грамотную внутреннюю перелинковку, которая позволит переходить на такие страницы. Так же отличным решением будет разместить виджеты с последними записями в блоге, самыми популярными статьями и наиболее интересными разделами
И помните: «Лучше не злите Панду!».
До новых встреч!