На прошлой неделе Джон Мюллер, являющийся постоянным спикером «Корпорации добра», порадовал вебмастеров сразу двумя «откровениями». Сначала он заявил, что частота обновления контента на сайте вообще не влияет на ранжирование в Google. Затем удивил сеошников сообщением, что поисковые роботы могут определить дублированный контент не просматривая страницу, ориентируясь только на косвенные признаки.
Алгоритмы ранжирования компании Google не дают преференций интернет-ресурсам, которые регулярно, с завидной частотой, добавляют новый контент. При этом не важно, какое количество свежей информации появляется на сайте ежедневно и существует ли определенный график публикаций. Такой вывод легко сделать на основании ответа Джона Мюллера на твитт пользователя по имени Vlad Rappoport.
Влияние частоты публикации контента на ранжирование в Google – ответ представителя поисковой системы.
Вопрос Влада состоит в следующем: «Учитывают ли алгоритмы Google частоту/объем/график публикации нового контента? Будет ли от поисковика реакция, если сначала на сайте появляется до 5 новых страниц, а потом их становится всего 2-3?».
Джон Мюллер ответил достаточно лаконично: «Нет. Ведь сайт это не машина, которая выдает свой контент с фиксированной скоростью».
Вторая интересная новость прозвучала во время традиционной видеоконференции для вебмастеров. Во время онлайн-встречи, один из слушателей спросил, будут ли алгоритмы поисковой системы оценивать французскую версию страницы в качестве дубликата английской. На что получил довольно-таки интересный ответ.
Оказывается, краулеры Google способны определять дубли по косвенным признакам. Например, по одинаковым или сильно похожим параметрам URL. В этом случае роботы поисковой системы действуют проактивно и не стараются изучить все содержимое страницы. Пробежав «по вершкам» и сравнив параметры, они записывают страницу в число дублей.
При этом не исключены случаи, когда роботы Google ошибаются, записывая в число дублеров страницы с полностью уникальным содержимым. Именно поэтому Джон Мюллер настоятельно рекомендует всем вебмастерам отнестись внимательно к настройкам и проверить, по какому принципу генерируются параметры URL’ов.
Отметим, что алгоритмы «Корпорации добра» не накладывают санкции на интернет-ресурсы, при нахождении дублированного контента в разных форматах. Об этом еще два года назад рассказал другой сотрудник компании Гэри Илш.