С некоторых пор мне глубоко наплевать на гугл и яндекс в смысле попыток подстроить страницы сайта под них. Там сидят идиоты-невежды в точности как в Википедии, и пытаются придумать алгоритмы, чтобы все было для людей, а на самом деле делают все для своего бизнеса. В январе они хором опять кардинально сменили алгоритмы ранживания, гугл потому, как сменилось руководство и пришел другой идиот, а в яндексе потому, что Медведев сказал, что он не смог стать национальной поисковой системой. Теперь уже особо даже не скрывают (оба опубликовали полность свои алгоритмы, чего никогда раньше не было), что главное - пекутся о своих бабках: обоим нужно, чтобы на сайте был только их родной рекламный директ и тогда многое прощается, как и участие в их каталогах. Но если членство в каталоге яндекса еще можно купить за 15 штук и тогда ты становишься более пушистым в рейтинге выдачи, то попасть в DMOZ практически нереально т.к. это означает полное соответствие сайта требованиям гугла. Теперь, из-за взаимно исключающих требований, оптимизерам нужно выбирать один из поисковиков.
Теперь сайт "должен" быть на конкретную тему, легко соотвествующую делениям на темы в поисковиках и его домен - просто супер, если своим названием в латинице звучит так же :)
Но самая главная и большая гадость - требования отсутствия неуникальных фрагментов текстов, хотя ни у кого нет механизма определить истинное ваторство.
Так что если хочешь повалить конкурента, нужно надергать у него текстов и дать на него ссылки с говносайтов (ГС - это уже официальное название в яндексе). То, что нормально цитировать в качестве обоснований чужой текст - идиотам пофиг. Яндекс даже ввел новую службу: новый текст заявлять у него как авторский до того как он появится и это типа гарантирует идентификацию уникальности. А пока что он просто будет смотреть: есть ли еще такой текст где-то в инте и если есть, тебя "пассивируют".
После ввода алгоритмов у этих поисковиков значительно упала посещаемость у всех, кто по каким-т критериям не соответствует идеалу гениев поисковиков, на Форните, в частности.
где-то с конца 2007 года Яндекс перешел на новую формулу на основе машинного обучения (технология MatrixNet). В результате машинного обучения получается формула, которая не имеет никакого физического смысла. Это некая абстрактная аппроксимация оценок асессоров, которая выливается в какие-то закономерности, которые связаны с совершенно различными факторами. И факторы эти могут быть совершенно глупыми и абсолютно нелогичными. В прошлом году в журнале «Практика интернет-маркетинга» представителями Яндекса было заявлено: «Если мы увидим такой фактор, при котором background красного цвета будет улучшать наши метрики качества, мы будем его использовать». Вот это лучше всего отражает суть данного подхода.
Итак, на данный момент в Яндексе есть ряд формул на основе машинного обучения и технологии MatrixNet. В апреле 2010 года на Киборифе Дэн Расковалов сообщил о наличии 420 с лишним факторов ранжирования. Сложно даже себе представить, что можно вместить в эти 420 факторов. Наверняка здесь учтены не только факторы, но и разные их комбинации (мономы). И если факторы имеют какой-то смысл, пусть и не совсем физический, то мономы, являющиеся приложениями этих факторов, никакого смысла вообще не имеют.
А чего стоит "персонализация поиска"! теперь если я купил билет на самолет, то с этого момента меня будут преследовать реклама предложений авиабилетов и в поиске все будт заточено не на то, что я хочу найти, а преимущество получает связанное с авиабилетами. А в инетмагазины ходят многое и каждый раз меняется все.