Искусственная естественность

На тему этого поста навело очередное уже задолбавшее попадание одной из страниц сайта под фильтр «ты-спамный». При этом данную страницу я очень давно не менял и не ставил на неё никаких ссылок, так что попадание под фильтр могло произойти либо из-за подкруток алгоритма, либо из-за появления на неё естественных ссылок. Теперь придётся менять текст, искусственно заменяя вхождения ключевиков синонимами и разбавлять анкор-лист, покупая ссылки с тупыми анкорами, не соответствующими теме статьи.

Раньше релевантность запроса рассчитывалась по простым правилам. Эти правила были уязвимы для влияния на выдачу, но они были логичны и прекрасно работали бы, если бы вебмастера и пользователи вели себя честно. Главное, что наблюдалось при старых правилах — отлично могли ранжироваться абсолютно любые, самые разные сайты. Но затем поисковики посчитали себя способными «улучшить» выдачу путём учёта всё большего и большего числа факторов, и сайты стали сгоняться в загон, всё более ограничиваемый со всех сторон этими факторами. При этом многие из них на самом деле ничего не говорят о качестве сайта и его релевантности запросу, но вынуждают владельцев сайтов подстраиваться под критерии поисковиков. Это и есть искусственная естественность, когда естественность превращается из настоящей естественности в усреднённый стандарт (кстати, что-то похожее на самом деле можно видеть и в жизни). Сложность формулы ранжирования (когда, например, по разным запросам сайты ранжируются по-разному) ничего не меняет, просто вместо простого единственного стандарта мы получаем дифференцированный стандарт.

Можно взять конкретный пример. Скажем, в алгоритме есть учёт поведенческих факторов. Яндекс предполагает, что если сайт интересный, пользователь побродит по нему и просмотрит много страниц, а если — нет, то закроет страницу вскоре после захода. Но предположим, пользователь ищет некую справочную информацию, например, время вылета самолёта из аэропорта. На одном сайте он сразу попадает на нужную страницу, видит нужную информацию и закрывает. На другом — блуждает в поисках нужной информации, и не находит или находит с трудом. С точки зрения алгоритма — второй сайт более интересен пользователю. В результате учёт поведенческих факторов вынуждает владельцев сайта разными приёмами добиваться того, чтобы пользователь ещё походил по сайту и куда-нибудь покликал.

Что могло бы компенсировать усложнение формулы ранжирования и добавление множества факторов? Предоставление пользователям возможности задавать при поиске хотя бы некоторые из этих факторов. В этом случае была бы сразу решена и проблема борьбы с оптимизацией, поскольку исчез бы одинаковый для всех ТОП, и усложнение алгоритма принесло бы реальную пользу. Однако Яндекс и другие ПС продолжают считать пользователей полными идиотами и исходить из предположения, что поисковик лучше самого пользователя знает, какой ответ на его запрос лучший. В этих условиях всё сводится не к улучшению поиска, а к навязыванию всё более определённого единого стандарта как вебмастерам, так и самим пользователям.

Похожие посты:

  1. 7 золотых правил ссылкостроения в 2009 году
  2. Матрикснет — новое слово в поиске или тупик?
  3. Яндексоиды — чем они там занимаются?
  4. Яндекс. Коллекция маразмов.
  5. Краснодар — путаница прогрессирует

Опубликовано 22.11.2010 в 2:10. В рубриках: Раскрутка и seo, Яндекс. Вы можете следить за ответами к этой записи через RSS 2.0. Вы можете оставить свой отзыв или трекбек со своего сайта.
Метки: , ,

Отзывов (3) на «Искусственная естественность»

  1. Илья пишет:

    Да, порой мнение поисковиков абсолютно противоречит мнению пользователей. сталкиваюсь с этим нередко, когда ищу нужную информацию. Ваше предложение поисковикам было бы крайне полезно. Но многим пользователям такие функции как козе баян, учитывая, что большинство даже кавычками не пользуется. Так что вопрос спорный.

  2. Евгений Шаленный пишет:

    Да, поисковики стали учитывать много факторов…
    Поведенческие — это почти смерть всему сео, которое было до этого ) на смену придет комплексный маркетинг =)
    А самое интересное, что даже поведенческие факторы не могут быть 100% достоверны! Хотя Яндекс и говорит, что поведенческие факторы не учитывает — чушь. Как и google они сделали метрику и теперь пол рунета просто отдаст им нужные данные добровольно =) А они собирая их смогут придумывать новые алгоритмы!
    Писал недавно статью, если интересно:
    http://magicseo.org/ranzhirovanie_i_povedenie_posetitelya_na_saite/

  3. SEO-эксперименты » Архив блога » Краснодар – путаница прогрессирует пишет:

    [...] пользователю. Всё продолжается в рамках тенденции «искусственная естественность«, о которой я уже недавно писал – придумать как [...]

Оставьте свой комментарий