Еще в марте 2024 года в сеть утекла часть внутренней документации Google с описанием работы поисковых алгоритмов, однако общественность об этом узнала только в конце мая. В слитом документе 2500 страниц, на которых рассказано о 14 тысячах параметров ранжирования. Утечка алгоритмов — мощная подсказка для всех, кто занимается SEO. Что стало известно и как это использовать в продвижении сайта — рассказываем в статье.
Что это за документ и кто стоит за утечкой
Слитые алгоритмы — внутренняя инструкция к API одной из устаревших гугловских систем ранжирования. В документе содержится 14 тысяч факторов, но не радуйтесь раньше времени: одни параметры описаны просто и конкретно, а другие не расшифровать без знания внутренней кухни Google. Внутри документа нет кода — только инструкция по работе с API и ссылки на внутренние гугловские проекты. Параметры не отсортированы по важности, но общая картина понятна.
Существует две версии слива:
- Google нечаянно загрузили файл в общедоступный GitHub-репозиторий;
- Анонимный источник передал документ SEO-эксперту.
Какой бы ни была правда, концы ведут к главе компании SparkToro — Ренду Фишкину. Кстати, Google подтвердили, что слитые алгоритмы подлинные.
Как SEO-эксперты поймали Google на лжи
Первым, кто уличил Google во лжи, был в Ренд Фишкин. Потом тему подхватили эксперты из других компаний: Эрфан Азими из EA Digital Eagle и Майкл Кинг из iPullRank. Эти ребята вывели гугловских на «чистую воду»: делимся выжимками из отчетов.
Траст сайта
Майкл Кинг ссылается на видео, где представитель Google отрицает, что поисковик учитывает индекс «авторитетности сайта» при ранжировании.
Теперь ясно: одни сайты нравятся поисковику больше, а другие меньше. Кстати, Гугл учитывает 3 типа траста:
- общий;
- агрегированный: количество пометок и закладок из поисковиков юзеров;
- поведенческий.
Как продвинуться в ТОП выдачи: не зацикливаться на поисковом трафике — развивать бренд, запускать платную рекламу и вставлять ссылки с авторитетных сайтов.
Если не гнаться за поисковым трафиком, Google поймет, что у сайта серьезные намерения, и подкинет вверх.
Поведенческие факторы
В прошлом Гугл признавал, что поисковик учитывает клики. Оказалось, что алгоритмы анализируют поведенческие факторы в целом:
- CTR ресурса в выдаче: чем меньше кликов на сайте, тем ниже упадет сайт;
- процент длинных кликов (юзер кликнул и не убежал через секунду): временные лимиты разнятся от ниши к нише;
- уход к конкурентам: если юзер уйдет к конкурентам, едва открыв ваш сайт, ресурс сдаст позицию.
Еще Гугл учитывает качество кликов: они подразделяются на длинные, обычные, хорошие и т. д.
Накручивать поведенческие факторы не получится. Внутри поисковика лежат три алгоритма, которые вычисляют накрутку и пессимизируют ресурс в выдаче.
- Антифрод-система, которая делит юзеров на настоящих и фейковых. Вероятно, алгоритмы следят за историей в Google-аккаунтах.
- Защита от аномалий. Если на сайте вспыхнет чрезмерная активность, которой не наблюдалось раньше, алгоритм не засчитает клики, и ресурс останется на той же позиции.
- Геолокатор. Алгоритмы засчитают клики тех пользователей, которые живут в одном ГЕО с сайтом: остальные не в счет. Скорее всего, поисковик пробивает по IP.
Единственный способ улучшить поведенческие факторы — создавать интересный контент, который будет вирально распространяться.
Как продвинуться в ТОП выдачи: выигрывать трафик у конкурентов за счет релевантных метатегов, вовлекающих стартовых экранов и кликбейтных заголовков.
Слежка через Chrome
В слитом документе упоминается фактор «ChromelnTotal», а рядом пояснение: «количество просмотров прямо влияет на позицию сайта».
Сеошники догадывались об этом, но в Гугл твердили, что информация из Chrome не учитывается при ранжировании. Если Google подглядывает в «Хром», скорее всего, он черпает инфу и из других гугловских сервисов: YouTube, карты, почта и т. д.
Кстати, дополнительные ссылки генерируются на основе данных из Google Chrome.
Качество контента
Поведение юзеров не единственный фактор, который учитывается при расчете траста. Поисковик стремится обеспечить наиболее комфортный пользовательский опыт, поэтому тщательно фильтрует контент по:
- свежести;
- авторству;
- оригинальности;
- соответствию конкретной страницы тематике сайта;
- соответствию заголовков и содержанию контента;
- качеству статей;
- и даже размеру шрифта.
Помимо внутренних атрибутов, алгоритмы оценивают поведение юзеров.
- Поисковик распознает темы и подтемы в статьях через специальную технологию — если в тексте есть ключ, должна быть и соответствующая подтема.
- Алгоритмы видят уникальный контент. Речь идет не о стопроцентной оригинальности, а об авторской точке зрения и эксклюзивности — топорные рерайты ChatGPT и ворованные картинки опустят сайт на дно поиска.
- Google видит, когда страница обновлялась в последний раз — махинации с датами не помогут.
Как продвинуться в ТОП выдачи:
- делать контент, который закрывает потребности целевой аудитории;
- высказывать авторскую точку зрения вместо бездумного рерайта;
- покрывать все подтемы.
Возраст ресурса
Прежде чем зайти в «соревнование», молодые сайты попадают в песочницу. В инструкции упоминается параметр «HostAge»: пока робот не проверит ресурс, про продвижение можно забыть.
В пояснении написано, что песочница нужна для защиты поисковой выдачи от спама.
Здесь Гугл опять солгали: суммарный параметр EEAT (опыт, компетентность, авторитетность, надежность) имеет значение.
Как быстрее продвинуться в ТОП: создать сайт из 10–15 страниц, забыть о нем на 2–3 месяца и уже после начать продвижение.
Ссылки до сих пор не умерли
Google с трепетом относится к ссылкам. В слитой инструкции этой теме посвящен не один раздел — делимся выжимками:
- поисковик делит анкоры на спам и не спам;
- Google учитывает спам-анкоры в масштабах сайта, а не на отдельных страницах;
- если залить слишком много ссылок за один раз, поисковик снизит сайт в рейтинге;
- ссылки из авторитетных СМИ особенно ценны.
Отдельное внимание Google уделяет трастовым ресурсам: здесь спам-анкоры не считаются за спам — без прокачки бренда никак.
Поисковик недолюбливает молодые сайты, но все не так печально: если залить много спам-ссылок на старте, ресурс не упадет на дно.
Гугл делит ссылки на «плохие» и «хорошие». Самое интересное — то, по каким критериям они оцениваются: если вы ссылаетесь на трастовый ресурс, а главная, страница нравится алгоритмам, ссылка «выстрелит». Желательно, чтобы у донора была приличная трафиковая и кликовая статистика.
Как продвинуться в ТОП выдачи:
- не экономить на ссылках — гнаться за качеством, а не количеством;
- по возможности ссылаться на сайты авторитетных СМИ;
- чем больше трафика и ссылок на главную у донора, тем лучше.
Если верить слитой инструкции, никаких предпосылок, что ссылки «потеряют вес» нет — Гугл несколько лет настаивает на обратном.
Черные и белые списки сайтов
Политика Google не так прозрачна, как уверяют представители корпорации. «Любимчиков» поднимают в ТОПе принудительно — эксперты сходятся во мнении, что поисковику нравятся сайты о путешествиях.
Есть и черный список: к сожалению, там лежит не только детская порнография и другая чернуха. Стать неугодным просто: достаточно написать одну неполиткорректную статью. Ссылки, авторская точка зрения и другие имбовые плюшки не спасут ситуацию.
Как продвинуться в ТОП выдачи: старайтесь не касаться политических тем.
Вместо заключения
Когда документ утек в сеть, Google подтвердили его подлинность, и методом проб и ошибок сеошники разгадали большую часть секретов. Чтобы спасти ситуацию, представители компании заявили, что информация вырвана из контекста и без знания «внутренней кухни» документация принесет больше вреда, чем пользы. Вероятно, разработчики перепишут часть алгоритмов и выкатят новый апдейт. Истина, как говорится, где-то рядом.