ЯНДЕКС —
ДА НАЧНЁТСЯ ВСЁ

Спойлер:
им же всё, нахуй, и закончится.

Начало 2000-х

Счастливое, беззаботное время говносайтов с говнотекстами по три ключевика на строчку:

  • Купить все проститутки Москва недорого
  • Грузоперевозки лучшие Москва
  • Шкафы-купе красивые коричневые

Адские ключевые слова нельзя было склонять, спрягать, менять числа, ставить союзы или предлоги между ними. От того, что стояло в ТОП-10 Яндекса, текла кровь из глаз. И всё у всех было заебись! Особенно у SEO-шников

Попасть в ТОП Яндекса в то время было главной и единственной задачей первых ушлых интернет-предпринимателей. А попасть туда было — как нехуй делать.

Просто нужно было, чтобы на всё это дерьмо ссылалось как можно больше другого дерьма. Трастовых сайтов! Делалось это с помощью арендных ссылок. Сайты-новостники, сайты с типа полезной информацией — тоже говносайты, по сути — размещали такие ссылки у себя в подвалах.

Коммерческие сайты с большой ссылочной массой попадали в ТОП Яндекса, на них вешались почты и телефоны. Так люди получали заявки из органики, во всех смыслах этого слова.

Пример ссылок на сайте

Одновременно с SEO-шниками, которым нужна была эта ссылочная масса, как бензин, зарождалась каста вебмастеров (или манимейкеров). Они лепили сайты на информационные тематики и вешали на них чуть более приличные говнотексты. Дорвеи, проще говоря. Т.н. полезный контент древнего мира.

Первое время вебмастера зарабатывали на продаже арендных ссылок. Позже — на продаже статейных ссылок, ну и ещё позже на баннерах.

Формула ранжирования Яндекса была довольно примитивной. И, хоть она держалась в секрете, на первых порах все просто хуячили побольше арендных ссылок, вешали на сайты говнотексты с ключевыми словами — и всё было шоколадно.

Но постепенно ссылок требовалось всё больше, конкуренция в выдаче росла, вокруг размножались как будто митозом дорвеи под эти ссылки… И весь наш Рунет представлял собой прекрасную ёбаную клоаку с сайтами, от которых беременным женщинам становилось дурно.

Автоматизация закупки ссылок

В 2008 году случилась одна хуйня, которая крепко ударила по лбу всей пиздобратии вебмастеров/манимейкеров/SEO-шников. SeoPult автоматизировал продажу ссылок, дав доступ к своей системе любому желающему. Так интернет-предприниматели древнего мира смогли закупать себе ссылочную массу напрямую, минуя посредников в виде SEO-агентств с их наценками. Ну а вебмастера попиздовали в базы биржи, хуле оставалось делать. Они-то в общем своё не потеряли, и довольно долго подъедались заработками на биржах, хотя там типа был строже отбор и проверка сайтов.

Олдфаги сейчас будут бурлить, что первой была биржа Sape, а не SeoPult. Оно действительно так, но Саповцы немного прожевали хуй — и получилось, как с изобретением радио: кто первый громче всех пропиздел, того и тапки.

Помимо Пульта и Сапы нельзя не упомянуть Миралинкс (или просто Мира), но Мира уже больше применялась под покупку/продажу статейных ссылок. Которые выглядели более естественно в глазах поисковых роботов, и их надо было комбинировать с арендными, чтобы оставаться в выдаче.

Война с Яндексом

Война SEO-шников с Яндексом началась с момента его появления. Суперсила первых — хитровыебанность, супероружие второго — обновления алгоритмов ранжирования.

Яндекс выкатывал что-то новое, через месяц-два SEO-шники придумывали, как его наебать. Ослабевали арендные ссылки — стали закупать статейные. Поиск стал более интеллектуальным — ключевые слова стали разбавлять человеческими.

Первое время Яндекс именовал свои обновления по названиям российских городов, после перешёл к созвездиям. С началом космоса «обычные» результаты выдачи стали всё более часто вытесняться внутренними сервисами Яндекса. Вот несколько главных обновлений, которые ёбнули по SEO-шникам большее всего:

02.07.2008
Магадан 2.0
Добавлены новые факторы, учитывающие уникальность контента
10.04...28.09 2009
Арзамас/Анадырь
Учёт региона пользователя, снятие омонимии.
10.04...28.09 2009
Снежинск
Сильнейшие изменения выдачи из-за запуска MatrixNet (машинное обучение) и изменение подхода к построению ранжирования.
15.12.2010
Краснодар
Новая технология «Спектр», которая повысила разнообразие выдачи.
12.12.2012
Калининград
Более персонализированная выдача, учет долгосрочных интересов пользователя. «Любимые» сайты поднимаются выше.
30.05.2013
Дублин
Влияние ссылок на ранжирование всё меньше. Результаты выдачи подстраиваются под запрос пользователя.
12.03.2014
Без ссылок
Для коммерческих запросов Московского региона введено ранжирование без учёта ссылок.
15.05.2015
Минусинск
Последний гвоздь в крышку гроба: наличие SEO-ссылок понижает сайт в выдаче на срок от одного до нескольких месяцев. Значительная потеря трафика у всех, кто не успел снять такие ссылки.
Осень 2015
Многорукий бандит
Временная рандомизация выдачи с целью анализа поведенческих факторов новых ресурсов.
02.02.2016
Владивосток
Повышение позиции адаптивных сайтов в результатах мобильной выдачи.
02.11.2016
Палех
В основе поиска теперь нейронная сеть. Обилие ключевиков в тексте понижает рейтинг. Предпочтение отдаётся контенту «для людей».
23.03.2017
Баден-Баден
Переоптимизированные тексты понижаются в выдаче.
19.11.2018
Андромеда
Первый шаг к преимущественному отображению сервисов Яндекса в выдаче.
17.12.2019
Вега
Учёт местоположения пользователя на уровне района города.

Afterparty

После того как Яндекс свёл до минимума влияние ссылочной массы и текстового спама, понадобились новые факторы ранжирования. Как-то же надо было оставаться поисковой системой, а не просто доской платных объявлений. По мнению Яндекса, хорошей и трендовой альтернативой стали поведенческие факторы. Сюда можно было добавить очень модный и любимый Яндексом ML, нейросети и прочие хайповые истории. Начался век тщательного анализа роботом поведения пользователей на сайтах, чтобы наконец выбрать те, которые лучше всего закрывают поисковые интенты пользователя.

На конференциях Яндекс показывал записи с вебвизора и объяснял, как их новый алгоритм, анализируя поведение пользователя, безошибочно понимает, где настоящий пользователь закрывает свой интент, и грозил очень жёсткими фильтрами тем, кто попробует обойти это с помощью эмуляции или бирж микрозаданий.

Но по факту, под капотом этой истории оказалось несколько параметров, которые удавалось эмулировать как софтом, так и реальными исполнителями. На рынок вышли сервисы Userator и много софтовых предложений по подписке. Эти сервисы могли нагонять сколько угодно якобы живых посетителей, которые имитировали восторг от контента и повышали CTR на выдаче, время на сайте, и снижали общий показатель отказов.

Самое оргазмическое для Яндекса поведение пользователя выглядело (да и сейчас выглядит) очень просто. Пользователь вбил запрос в выдачу, перелез на один сайт, ушёл оттуда, на другой — тоже ушёл, а вот третий ему понравился настолько, что он там походил, вернулся в выдачу и закрыл её, оставшись на найденном сайте. Изобразить такое — как два пальца. Вопрос в итоге свёлся к количеству таких восторженных пользователей. Но и это — как два пальца.

Так как ПФ среди прочих факторов ранжирования имел приоритет, то в ТОП-10 стали залетать абсолютно новые сайты всего за 2-3 недели такой накрутки. В итоге никому не захотелось месяцами вылизывать свои ресурсы, чтобы его обошёл в выдаче ушлый SEO-шник, и использовать ПФ начали практически все, кто хоть как-то занимался продвижением. Если начинался он с крупных конкурентных ниш в Москве, то сейчас даже мелкий региональный е-коммерс использует этот метод. Тем более, когда выдача вордстата ясно даёт понять, что конкуренты его используют тоже.

Вероятно, Яндекс скоро закроет и эту лавочку, тем более что полгода назад в Метрике появился показатель Роботности, который пока не влияет на выдачу, но в один день может превратить все мобильные прокси-фермы и орды ботов в черепки, а манимейкеров снова пересадить за руль Яндекс.Такси.

Внезапный Google

Тем временем в Google была примерно та же ситуация. Сайты точно так же SEO-оптимизировались при помощи дыр в движке. Гугл точно так же выкатывал обновления. В России народ сидел преимущественно в Яндексе, Гуглом в то время пользовались немногие. Но, тем не менее, и у нас существовали SEO-шники под Буржунет, которые весело ходили на хуй с выходом гугловских фильтров типа Panda и Penguin.

Панда вышла 24.02.2011 года в качестве спам-фильтра. Она была нацелена исключительно на контент: искусственно сгенерированные тексты и биржи трафика. На залинкованность ей было насрать. Бесполезные и спам-сайты с низким качеством текстов отсеивались из выдачи.

24.04.2012 появился Пингвин. Он занимался некачественными ссылками. Залинкованные сайты проседали на 10–20 позиций в выдаче, а если их владельцы не принимали никаких мер — и вовсе выносились за ТОП-100.

Гугл красиво нарисуется в истории коммерческого трафика Рунета чуть позже, когда мы заговорим про мобильный трафик.