Как начать пользоваться школой!

Интересно? Полезно?
Подпишись на обновления в блоге одним кликом!
Реклама на блоге
Начинаем знакомство с лучших постов
Бронирование гостиниц
Продвижение сайтов


Rambler's Top100
Рейтинг блогов

Powered by  MyPagerank.Net
Яндекс цитирования

Моя аська: 155ноль54семь9 (всегда invisible)
Мой скайп: remarka.reklama
Мой емайл: masterxbablorub@gmail.com

понедельник, 30 мая 2016 г.

Методологии работы в SEO

Когда поисковое продвижение только появилось, оно строилось на двух методиках: поиск дырок (взлом топа) и тесты (задаем условия, получаем результат - делаем вывод). Позднее к этим методикам с появлением софта, позволяющего изучать большие объемы данных, добавился анализ топа (смотрим как оно сейчас, делаем гипотезу, проверяем - если да, то внедряем в работу). Вот только все это сбилось в кашу в головах многих из оптимизаторов, что сказывается на их работе. Разберемся с каждым вариантом отдельно.

1) "Взлом" топа. Артефакты.

Основан на поиске факторов со значительным весом или легким в реализации влиянием на группу факторов ранжирования. Пока поисковики были относительно несложной системой, работающей на основании формул, дырок находили больше. С машинным обучением задача усложнилась, с размазыванием весов по факторам, с размытием влияния по разным запросам - сложность выявления дырок выросла еще больше. На сегодня есть еще точки, где можно оказать точечное влияние и получить быстрый и хороший результат, но это или слабо масштабируется, или скрывается первооткрывателями в целях нераспространения.

Слабое место такой технологии - как только число примеров влияния становится статистически значимым, хак умирает. Т.е. один-два человека могут потихоньку пользоваться темой годами, а вот тысячи примеров вызовут быструю реакцию поисковых систем и последующее закрытие дырки путем правки алгоритма или санкций.

Самый яркий пример из последнего - накрутка кликов на выдаче. Как только накручивать стали массово, последовали санкции. Дальше вес кликов на выдаче был или размыт, или, что более вероятно, он был связан с более сложными цепочками действий по другим факторам, и накрутка перестала давать прежние результаты. Говоря проще, поиск научился по иным действиям пользователя отсеивать накрутку. Не всю, рандом не просчитаешь, но любую масштабную, статистически значимую или основанную на просчитанных паттернах - научился. Так даже бан за ПФ с некоторых пор редкость - нет надобности его назначать.

Вывод: артефакты на выдаче можно найти до сих пор - только мамонт попадется вряд ли, рассчитывайте в лучшем случае на мышь. Использовать взлом можно, если не масштабировать его дальше долей процента от общей выборки - речь идет о нескольких тысячах примеров, редко - сотнях тысяч.

2) Тесты. Проверка на выборке.

Тесты издревле считаются одной из самых достоверных систем получения знаний. Но при этом многие забывают, что тесты проводятся в как бы "чистых" условиях. Экспериментатор сознательно подстраивает такие условия проведения тестов, чтобы уменьшить влияние факторов, не участвующих в проверке. В итоге на выходе мы имеем не реальное влияние, а влияние в "чистых" условиях, некую гипотезу, которую еще нужно проверять в реальных условиях.

Например, есть множество распространенных инструкций по длине тайтла как в числе слов, так и по знакам. Тем не менее, все эти инструкции не мешают наблюдать в топе множество результатов, им противоречащих. Или отбивка точкой ВЧ-ключа в начале тайтла. Или плотность ключа в тексте. Или жирнение ключа - причем одни говорят, что это усиление веса, другие до последнего хрипа утверждают, что это переспам.

Т.е. если кому-то удалось получить какой-то результат, показывающий влияние чего-либо в отдельности, не факт, что с учетом других факторов вам не придется корректировать условия в техническом задании. Тесты дают один результат, а по факту имеем срабатывание лишь в ряде случаев.

Особняком здесь стоят исследования на качественную проверку: есть влияние в принципе или нет. К примеру, нет ни одного примера, доказывающего прямого влияния текста в DESCRIPTION на ранжирование документа по запросу. Или пример ДА: по безанкорным ссылкам окружающий текст со страницы донора может попадать в анкор-лист акцептора.

Вывод: тест мало провести, нужно после этого его протестировать на реальной выборке. Скорей всего, результат получится не таким значимым. А если он окажется еще и рандомным, то вам придется отложить этот тест на дальнюю полку, пока не придумаете начальные условия получше.

3) Изучение топа. Анализ любых поисковых баз.

Данная методика основана на "непогрешимости" поисковой системы. Попробую разъяснить. Поиск выдает что-то по одному ему известному алгоритму на заданные нами условия. Мы предполагаем, что если условия повторятся полностью или большей их частью, то мы увидим ту же самую картину.

Сегодня мы знаем, что даже F5 может менять результат на выдаче. Т.е. в поиске не только могут оказаться неучтенными больше факторов, влияющих существенно на исследуюмую выдачу, не только персонализация, но теперь еще и рандом. Т.е. поиск не "непогрешим" с точки зрения "запоминания" его поведения на ряд выставленных условий. В это и тыкают критики различных сервисов кластеризации и текстового анализа, забывая, как сами самозабвенно расчитывали бюджеты на основе среднего числа ссылок у сайтов в топе.

Исходя из этого, надо понимать, что выводы на основании анализа выдачи дают нам картину с некоей вероятностью успеха и не более - по состоянию на момент снятия топа. Так что даже более примитивный подход может показать лучший результат - и мы знаем широкий ряд проектов, которые в топе не потому, что в их штате есть грамотные оптимизаторы. А некоторые в топе даже вопреки любому здравому смыслу с точки зрения простых требований к технической оптимизации и кластеризации.

Но когда мы бросаем на весы объем проектов с лучшей динамикой в поиске после оптимизации и без нее, то видим, что последних сильно меньше.

Вывод: любая методика, основанная на анализе топа, работает лишь с какой-то вероятностью. Более того, эта вероятность может даже внутри одного проекта гулять от посадочной к посадочной очень сильно. Но альтернативные проработки уступают им значительно в общем результате как по времени, так и по объему. Не делайте из статистики топа максиму, но принимайте как возможную рекомендацию.

4) "Хорошие" сайты.

Есть ли альтернатива этому? Можно ли создать сайт, который понравится поиску, не задействуя сам поиск, не принимая в расчет его метрики? Наверно, да. Но я не знаю, как. Это примерно, как вырастить хорошего члена общества, настоящего лидера, не выглядывая на улицу и судя о других по телепередачам вроде "пусть говорят".


6 коммент.:

Как в добро было крутить ПФ))

Получился довольно объемный пост с массой предположений. Что вполне логично при работе с ПС.

Из текста выходит, что на сегодня для поиска технологий продвижения нет ни одного "идеального" способа. Что выбираете Вы?

Настанет день и SEO приравняют к одному из видов искусства))

ГуГл есть и SEO есть,
Они не могут, друг друга, не есть!

Да блин, вообще мрак с поиском, без определенных методов продвижения, не поймешь логику, бывает говносайт в топе и кучу трафика, а хорошей где то внизу

Отправить комментарий

Популярные сообщения

Эту страницу: Twitter Facebook Favorites More