Как начать пользоваться школой!

Интересно? Полезно?
Подпишись на обновления в блоге одним кликом!
Реклама на блоге
Начинаем знакомство с лучших постов
Бронирование гостиниц
Продвижение сайтов


Rambler's Top100
Рейтинг блогов

Powered by  MyPagerank.Net
Яндекс цитирования

Моя аська: 155ноль54семь9 (всегда invisible)
Мой скайп: remarka.reklama
Мой емайл: masterxbablorub@gmail.com

Видеоканал Дмитрия Шахова

Лекции по созданию и продвижению сайтов и многое другое

Большая инструкция по заработку на СДЛ

Полное руководство от А до Я для тех, кто хочет зарабатывать на хороших сайтах.

Как создать свой бизнес?

Большая инструкция для всех, кто решил окунуться в мир предпринимательства.

Показаны сообщения с ярлыком поисковое продвижение и оптимизация сайтов самостоятельно. Показать все сообщения
Показаны сообщения с ярлыком поисковое продвижение и оптимизация сайтов самостоятельно. Показать все сообщения

понедельник, 26 декабря 2016 г.

Эксперимент по влиянию внутренних ссылок

Сначала планировалось проверить влияние по разному типу вхождения в документ, но результаты получились более интересными как раз по внутренним ссылкам.

Начальные условия: пять сайтов с придуманными из головы торговыми марками товаров. Специально проверяли, чтобы ничего не находилось в обоих поисковых системах. Далее разместили фантазийное слово так, чтобы соблюдались следующие типы вхождений:

  • главная страница: два вхождения в анкор, есть текст
  • ссылка с главной + вхождение в текст
  • вхождение на странице + ссылка с внутряка без текста
  • вхождение на странице в текст
  • ссылка с главной
  • вхождение в анкор из статьи
  • ссылка с внутряка со страницы с текстом
  • вхождение в анкор с безтектовой страницы


Дальше проиндексировали сайты и стали ждать. Из интересного за время ожидания: анкор-лист подшивается не сразу после индексации: вхождение донорской страницы в индекс вовсе не гарантирует, что акцептор будет искаться по анкору.

Что мы исключили: подмес по ПФ - сайты без трафика и без кликов с выдачи, подмес внешних линковых - на сайты вообще не было никаких ссылок извне, большинство текстовых - слова были бредовые, так что ни падежей, ни переколдовок. Сам поиск позднее делался без использования условий "по сайту" и в анонимном режиме.

Гипотеза: если получаем на всех пяти сайтах примерно одинаковые результаты, то можем сделать выводы о влиянии исследуемых факторов. Как минимум, взять их как базу для более обширного исследования.

Наиболее логичным казалось, что лучшие результаты покажет документ, на который идет ссылка с главной и есть текстовое вхождение. Это оказалось не так в обоих поисковых системах. Не показал хороших результатов и документ с вхождением без ссылок. Заглянем в таблицу.



Фантазийные фразы размыты, чтобы не палить экспериментальные сайты.

В яндексе оптимальный результат показали страницы, не имеющие вхождений на странице от слова вообще - только в анкор-лист - и главная страница, имеющая вхождение только в анкоры двух ссылок. Самое интересное, что гугл обе страницы без вхождений убрал в сопли и просто не показал на выдаче, хотя в индексе они есть. В нижней части по яндексу рандом.

В гугле кроме исчезновения из выдачи страниц без вхождений в текст более-менее корреляция есть только в нижней части. Не первыми, но после любых других вариантов стоят страницы с вхождением только в анкор.

Выводы. Яндекс по странной причине отдает предпочтение страницам без вхождения в текст документа, но имеющие вхождение во внутренний анкор-лист. Гугл, как раз наоборот, игнорирует страницы без вхождений. И вот тут я что-то задумался.

среда, 16 ноября 2016 г.

Хороший сеошник должен уметь думать. Ответы, окончание

Предыдущие части тут, тут и тут.

На стратегию

1) В нише на 1-2 коммерческих места - остальные заняты агрегаторами. Что будем делать?

Два очевидных решения: делать свой агрегатор. Но это не всегда возможно по ассортименту. Надо понимать, что эмулировать большой ассортимент не у всех получится. Самый красивый пример я видел, когда одна автошкола была представлена в виде справочника водителей-учителей. На любой вид обучения ротировали разные подборки из одних и тех же двадцати учителей. Второй вариант: это острова контента или монополизация выдачи - все ее по разному называют. Что можем, выжимаем из своего сайта. Что не можем, анализируем выдачу, ищем где можно в ней встать. Иногда это страницы агрегаторов, которые вы можете продвинуть в топ. Иногда паблики. Иногда топики на форумах, статьи в блоги, в которые можно зайти комментарием со ссылкой. Долго, муторно, но хоть что-то. Параллельно развиваем крауд - в таких случаях он может давать даже больше трафика чем органика. Т.е. не просто ищем, куда встать со своим комментарием, но и производим такие топики. Еще можно развивать два типа сеток. Одна сетка на заполнение по НЧ - тут все понятно, пытаемся попасть в запросы, в которые не попадает основной сайт, но они тоже НЧ. Вторая - на аффилиат. Сознательно созданные аффилиаты могут разнонаправленно выходить в топ, как итог - занято больше позиций, чем с одного. Далеко не все из перечисленного имеет смысл в каждом конкретном случае, но знать об этом надо.

2) 90% конверсий идет с 5% ультраВК запросов из ядра. Ваши действия?

Та самая ситуация, когда нет смысла качать семантику. Надо стараться выйти в топ по этим ультраВК. Любыми способами. Работать с НЧ нет никакого смысла.

3) На сайте только 100 категорий на 3000 кластеров, дающих разные варианты подбора товаров. Раздувать категорийное дерево нельзя - не дает клиент. Что будем делать?

Тут просто: укрупняем кластеры. Ключей будет охвачено меньше, но все же больше, чем изначально. Нет никаких правил, запрещающих размещение на одной странице контента на несколько десятков ключей. Кластеризация по выдаче - это слепок топа, рекомендация, как лучше на сегодня в сложившейся коньюктуре. Но слабое место тут: то, что могут быть другие решения по кластеризации, которые просто не реализованы в виде сайтов. Соответственно, из-за недостаточной полноты по числу возможных ситуаций с контентом мы и получаем то, что получаем. Не бойтесь укрупнять, если не видите потери интента. Хотя даже разносмысловые ключи но в одной теме можно запихнуть на одну страницу, если делать это разными блоками: живой пример - лендинги.

4) Вы собрали 5000 категорийных кластеров для сайта из 300 товаров. По большинству кластеров не найдется больше 1-2 товаров. Что будем делать?

Переукрупнять. Не стоит избыточно плодить категории и тэговые листинги. Больше чем число товаров - уже рисковано, слишком попахивает спамом. Я бы даже сказал, что есть вероятность, что листинги в некоторых категориях будут одинаковыми.

5) У сайта две версии для России и Беларуси. Обе на русском языке. Как будем их продвигать?

Да никак. Сделать геопривязку и скрестить пальцы. Никаких запретов на ранжирование домена с контентом на том же языке в другой национальной зоне настроить нельзя.

6) Какая стратегия для сайта отеля даст оптимальный результат? Почему?

В первую очередь: работа с агрегаторами и отзовиками. Сайт отеля выводим в витальный ответ по названию отеля (а это не всегда так). Дальше наращиваем через отзовики частотность брендового запроса. И остальное добираем по инфозапросам (блог, например) и через трафик с агрегаторов и крауд.

На аналитику

1) Вы произвели массовые изменения на сайте (допустим, сменили формулу для тайтла). Трафик вырос. Это совпало с сезонностью. Определите ряд действий до и после, чтобы показать клиенту, что рост от ваших изменений, а не от сезона.

Давайте думать. Если вы произвели изменения, то трафик должен был вырасти от подъема позиций по разным ключам. Т.е. надо взять ситуацию "до" по позициям. И после. И сравнить с нормировочными коэффициентами. На пальцах. Фраза1, позиция 5, частота 50. Фраза2, позиция 2, частота 30. После изменений Фраза1 выросла до топ3, Фраза2 упала до топ5. Трафик вырос по обоим. Но с нормировкой получаем примерно тот же результат.

Есть, конечно, очевидный случай, когда значительная доля фраз выросла по позициям. Но и тут проверка с нормировкой не помешает: встречались случаи, когда просадка небольшого числа запросов существенно сказывались на трафике в целом. В идеале с нормировкой с точностью до спецразмещения, но и так сойдет для большинства сайтов.

Другой случай, это когда у вас огромное количество ключей. Но решается за счет исследования по репрезентативному объему. Допустим, вы запили изменение шаблона на 1млн страниц. Как понять? Вы же не храните позиции (да и снимать не будете) по нескольким миллионам фраз. Можно отобрать наиболее трафиковые запросы и снять видимость по ним до и после.

2) Видимость проекта в поиске - как вы ее будете считать?

Выше уже проговорился - нормировка по позициям. Есть разные оценки. И разные сервисы. Например, серпстат утверждает, что считает видимость с точностью до экрана сниппета. Топвизор и раш используют формулы. Есть и несколько исследований (например, прошлый год, доклад на Ашмановке Сливинского и Поломаря), где даны выкладки по кликабельности на топе. Можно и на основании данных из своего вебмастера получить данные относительно своей ниши, но это, конечно, если там ключей несколько тысяч набирается.

3) После оптимизации число страниц входа с поиска увеличилось в три раза, но общий поисковый трафик остался прежним. Почему? Ваши версии?

Сезон. Или какие-то события, влияющие на спрос. Например, рост курса доллара сильно сказался на трафике в магазинах. Снятие с производства сериала обвалит трафик по запросам, с ним связанным. Весной пик по броням в курортных отелях, к августу он стремительно падает и дальше до весны барахтается около нуля.

Есть еще одна версия. Действия привели к вгону в топ большого числа НЧ, но профакапили потерю ВЧ. И да, такое бывает, когда оптимизатор наслушался лекций про выжигание семантики и вместо подумать внедряет все ядро целиком, убивая трафиковые посадочные. Если что-то в топе - не трогайте. Никогда.

4) Трафик на сайт растет, а конверсии - нет. Все продвигаемые запросы - коммерческие. Колл-трекинг - это долго для данного клиента. Предложите вариант скоринга, который поможет решить проблему.

Тут коротко не ответить. Я бы хотел, чтобы человек начал объяснять про ценность запроса, как можно его оценить. Понятно, что можно связать запрос с конкретной конверсией. Но пока будешь ждать этих конверсий - устанешь. Поэтому можно предложить другие оценки ценности запроса. Например, присутствие в топе коммерческих сайтов, конкуренцию на серпе (как бы кто ее не считал), длину конкуренции на серпе, число участников в контексте, ставки в контексте. Просто конкуренции будет недостаточно, так как иной раз больше конверсий идет с не самого конкурентного топа. Кроме того, надо делать коррекцию относительно самого сайта. Агрегатор и корпоративный сайт конвертятся далеко не одинаково по одним и тем же ключам.

-----------

В целом по стратегиям хочется услышать рассуждения и условия для возможных экспериментов, а также понимание, что достижение результата в поисковом продвижении - это итерационный процесс, а не сделал-получил. Ты что-то делаешь, что-то выходит, а что-то - нет. Твоя задача - поймать показывающее положительную динамику и пытаться это развить в рамках данного проекта. А для аналитика необходимо еще и уметь такие вещи масштабировать. Например, частая ошибка в исследованиях - выводы на малой выборке, с отстствием антигипотез. Было бы прекрасно, если бы частный кейс всегда повторялся на других проектах, но в реальном мире это не так. Нынче поиск - это набор вероятностей при воздействии на какие-то факторы определенным способом. Поэтому, как ни странно, отсутствие глубоких знаний в именно поисковом продвижении при хорошей способности к анализу и развитой логике будет лучше, чем справочник в голове. Толку от формул и знаний, если они не сработают в частной ситуации? Это не значит, что учить базу не нужно. Но базу можно качнуть и инхаус. А логическое и аналитическое мышление - оно или есть, или его нет. Если нет, то выше джуна в нормальной конторе не подняться.

четверг, 10 ноября 2016 г.

Хороший сеошник должен уметь думать. Ответы, часть 3

Третья часть ответов на тест для сеошника. Предыдущие ответы тут и тут.

На фильтры

1) Сайт просел на 20 позиций по большинству запросов. При этом не использовал покупного ссылочного. Что случилось?

Если речь о Яндексе, то вероятнее всего - переоптимизация. Более подробно можно посмотреть у Пикселей (в проекте Самостоятельно) в их статье по описанию фильтров. Или доклад Артура Латыпова по фильтрам. Почему? Вероятнее всего, изменились границы переспама по нише. Было все хорошо, но появились более качественные сайты и подвинули границу вниз, и вы - просели.

Для нового фильтра (ограничение в ранжировании) характерно выпадание кусками по ядру. Минусинск - нет причин по ссылочному. ПФ, кликджекинг - вылетело бы за топ50, как минимум. АГС - нет и он прекрасно диагностируется.

2) В панели яндекс указывает на Минусинск. При этом сайт в топе в Гугле. Опишите свои действия по выводу сайта из-под фильтра в Яндексе. Сколько это займет времени?

Есть два варианта. Быстрый - в надежде на эффект ссылочного эха в гугле. И медленный - снятие слоями от худших к лучшим. Быстрый - снимаем все и надеемся, что ссылочное эхо от снятых ссылок пребудет с нами длительное время. Действительно, просадка в гугле бывает, что происходит не так уж и быстро после снятия. Но чаще наоборот. Медленный путь: скоринг ссылок. Можно использовать чектраст, выгребая из него показатели доноров по разным сервисам, или высчитывая свой KEI. Но суть одна - вы присваиваете каждой ссылке коэффициент, стараясь максимально приблизить его к условиям расчета в рамках мадридского доклада (ничего другого все равно нет, чтобы понять, что такое платная ссылка). И дальше срезаете по 10% ссылок за раз. Или в какой-то момент вы перевалитесь за планку, выше которой сайты с назначенным минусом и выйдете из-под фильтра. Или ничего не произойдет. Пересчет минуса обычно - где-то раз в месяц. Т.е. максимальный срок - до 11 месяцев от начала работ, но проекты, где требовалось снять все ссылки - редкость. Впрочем, срок может быть выше из-за проблем со снятием статичных ссылок.

3) В панели указание на фильтр по накрутке ПФ. Вы не крутили. Куда смотреть, чтобы увидеть накрутку со стороны? Что писать платонам, чтобы сняли фильтр?

Панель вебмастера - показы/клики. Сравнивать с более ранними сроками, искать аномалии, прежде всего резкий рост CTR или аномальный CTR для позиции. Обычно крутят 5-20 фраз, размывая между ними накрутку, но поведение все равно будет отличаться. Второе место куда смотреть - метрика: появление переходов по ключам, по которым раньше не ходили на сайт. Вас могут накручивать и по продвигаемым запросам - но там сложнее увидеть прибавку от накрутки, и по совершенно другим. По обоим вариантам будет, как минимум, кратковременный скачок в позициях: улучшение, потом откат. Умную накрутку вы никак не увидите, так как это будут ваши основные трафиковые фразы, их будет довольно много, прибавка от накрутки не будет большой, кликабельность тоже размоется и рост CTR не будет заметным. Т.е. вам не будут крутить фразы в топ30. Вам будут крутить фразы в топ10. И против этого лома приема не придумали пока. А разовые аномальные сессии в вебвизоре никому ничего не докажут.

4) У сайта сегментарная видимость по категориям. Часть в пределах топ100, часть - за пределами и ничего не меняется длительное время. Что случилось? Какой это фильтр?

Новый фильтр. Или так называемое "ограничение в ранжировании". Характеризуется резким снижением позиций по большим группам запросов. Легко диагностируется на большом ядре, когда целые группы похожих запросов имеют заметно более низкие позиции или позиции за пределами топ100. Лечится, как и переоптимизация.

5) Какие санкции не переносятся при склейке по 301?

Не переносятся санкции, которые не имеют связи с факторами, которые не изменятся с редиректом. Т.е. были ссылки, пришел Пингвин. Вы сделали 301, по нему перетек и ссылочный вес по старым ссылкам - и снова, привет, Пингвин. Был плохой контент, пришла Панда или Переспам. Сделали 301, но контент не меняется. Вначале будет улучшение позиций, но потом поиск снова насчитает штрафы. Если же ссылки были выключены, но осталось "эхо" от Пингвина, часто называемое постфильтром, то санкции не перейдут. Т.е. постсанкции не переходят по 301. Фильтры Минусинск и за накрутку ПФ - переходят через несколько недель после склейки - наследуются на новый домен. Если успеть отключить склейку вовремя, то можно успеть перехватить часть факторов на новый домен, но не дать перейти фильтру. Гарантий никаких, но кейсы такие есть.

6) В чем принципиальное отличие Минусинска и Пингвина? Пингвина и Пингвина 4.0?

Минус назначается по принципу царя горы: отбирается пул проектов, высчитываются лидеры по ссылочному, верхушке назначается фильтр. Если что-то и изменилось в этом алгоритме, янексоиды в паблик этого не озвучивали. Пингвин просто назначается за "плохие" ссылки. Тут принципиальная разница. Если в нише все сайты используют покупные ссылки, то Минусинск назначат самым плохишам. Пингвин же может прилететь всем сайтам сразу. Конечно, таких кейсов история не знает, но 3-4 сайта из топ10 - такое бывало, когда Пингвин только начал зверствовать. Теперь это встречается реже, но больше потому, что такие сайты и подняться в топ не успевают.

Пингвин 4.0 в отличие от обычного Пингвина является частью алгоритма ранжирования, рассчитывается автоматически и не указывается в разделе санкций в панели вебмастера. С одной стороны, это теперь затрудняет диагностику фильтра. С другой, улучшает шансы на выход из под Пингвина. Автоматический Пингвин наблюдался и ранее, он также не указывался в панели. И точно также лечился не в апдейты Пингвина, а гораздо быстрее. Теперь же просто ручного Пингвина нет. Да и тот что был, давно уже назначался редко, а последний ап был почти два года назад. Так что наверно и слава Богу, что гугл перешел на автомат.

На внешнюю оптимизацию

1) Приведите, как выглядят безанкорные ссылки.

Это когда в анкоре стоит адрес сайта. Также есть словарь слов, для которых в качестве анкора может попадать в анкор-лист не само слово, а то, что стоит справа/слева от него. Это я о словах типа "тут" и "там". Но чаще, конечно, безанкорка - это адрес конкретной страницы или сайта.

2) Из каких зон может подшиваться в анкор-лист у безанкорных ссылок?

Обычно берется кусок текста справа от анкора. Реже - слева. Еще реже из других значимых зон, выделенных в документе, например, заголовок в Н1.

3) Как проверить влияние анкорной ссылки по динамическому весу? Как сделать так, чтобы можно было проверить все ссылки на проект таким образом?

Если документ находится по анкору ссылки (с выставленными расстояниями и точным вхождением), то влияние по динамическому есть. Некоторыми специалистами оспаривается мнение, что вхождение в анкор-лист анкора является подтверждением передачи динамического веса. Действительно, померять сам вес так не получится, но поскольку практика говорит, что ссылки, обнаруживаемые таким образом, влияют на ранжирование, то можем заключить, что они все-таки влияют. И равно обратное. Опять же некоторыми оспаривается, что если документ не находится по анкору ссылки, то ссылка все равно может влиять. Но пока нет никаких достоверных исследований, показывающих, что такие ссылки хоть как-то влияют на ранжирование. Так что можем принять, что или это влияние микроскопично, или его вовсе нет.

Пример запроса можно найти в статьях Людкевича, Севальнева или презентации моего доклада с недели Байнета.

Самый простой способ анализировать влияние всех ссылок по динамическому весу - это делать все анкоры на один документ 1) разными (например, добавляя какие-то слова к ключу), 2) исключать точное вхождение анкора в продвигаемый документ (с точностью до расстояний).

Для тех, кто не в курсе, как составить запрос с расстояниями, могу только к справке Яндекса отправить.

4) Приведите как можно больше признаков seo-ссылки.

Гуглим статьи по мадридскому докладу, доклад Гладких по Минусинску. Нахождение ссылки в шаблоне (оформлении сайта: сайдбар, поддон, хидер), анкор равен ключам из семантики для сайта или посадочной страницы, замусоренность исходящими ссылками донора (усугбляет наличие ссылок на сайты разной тематики), синтетические параметры замусоренности (малое число входящих ссылок по сравнению с исходящими), низкое качество донора (шаблон, контент, преимущественная посещаемость с поисковых систем). Сам по себе один или даже группа признаков может не повлиять, но совокупность легко позволить квалифицировать ссылки как платные и, как минимум, не учитывать (или дисконтировать) вес с них. А как максимум, назначить фильтр.

5) Приведите варианты источников условно органических ссылок на продвигаемый проект.

Регистрация в живых качественных справочниках, рейтингах. Наличие ссылок в живых профилях пользователей (форумы, базы пользователей чего-либо). Ссылки в промежуточных сайтах (соцсети, ютуб, слайдшаре и т.д.). Ссылки с ваших поставщиков или закупщиков. Ссылки с релизов в СМИ и блогах. Ссылки на какой-то виральный материал на вашем сайте: инфографику, видео, хорошую статью. Сборники, дайджесты материалов с разных сайтов. Аккуратные безанкорные рекомендации на форумах и отзовиках.

6) Жирный сквозняк на 1000 линков с одного домена или 10 линков с разных доноров помельче?

Обычно второе лучше. Хотя, конечно, это сильно идеализированная ситуация. Анкорная сквозная ссылка - это плохо. Безанкорная может помочь сильно с улучшением индексации. Но одиночные линки тоже могут пойти с мусорных ресурсов и оказаться по сумме сильно хуже одной сквозной. Однако, именно так выбор редко стоит и чаще просто аккуратно наращивают оба варианта.

Окончание следует...

среда, 9 ноября 2016 г.

Хороший сеошник должен уметь думать. Ответы, часть 2

Продолжаем размышлять на тему поисковой оптимизации. Начало тут.

На внутреннюю оптимизацию.

1) Перечислите зоны документа, где поиском фиксируются вхождения ключей.

Традиционно выделяют три основные зоны: тайтл, превью (заголовок, но чаще первое предложение) и текст - возьмем тот же сфинкс или эластик. Добавим к ним еще анкор-лист, который делится на внутренний и внешний. У кого есть список факторов Яндекса - там список сильно побольше, но мы же об общедоступной информации.

Понятно, что поиск в текущий момент не ранжирует просто по формулам. Более того, если обратиться к последним докладам от Яндекса (например, выступление М.Сливинского на неделе Байнета, алгоритмы Rankbrain и Палех), то можно сказать, что машинное обучение в плане анализа текстов шагнуло далеко вперед, и поиск теперь пытается оценить тексты на уровне человека, как бы его глазами.

Это хорошо на словах, но для работы (нам же надо как-то оптимизировать сайты) можно пойти путем реверса и выделить зоны, в которых путем анализа вхождений выявить закономерности. Далее допускаем, что если некие условия составления текстов присутствуют в большинстве документов в топе, то именно они приводят к удовлетворению условий поиска. Именно так и поступают текстовые анализаторы, присутствующие на рынке. Выделяя условные зоны: тайтл, заголовок, малый текст, большой текст, анкоры ссылок, альты картинок и так далее - получается некий анализ вхождений. Если он на выдаче подчиняется некоей закономерности (встречается с некоторой погрешностью у большинства сайтов в топе), то можно принять его как набор характеристик, считаемых поиском хорошими для данного запроса.

Так что правильный ответ заключается в поиске закономерностей распределения вхождений по условным зонам документа на выдаче. Если таковая закономерность находится, то можно использовать ее для оптимизации документа. Если нет, то вы или некорректно выявили зоны документа, или дело тут вообще не в этом - слишком велико влияние других факторов.

Про последнее - показателен доклад Стаса Поломаря с DDS-3, где он показывает, что влияние оптимизации по текстовым анализаторам более заметно в конкурентных ВЧ, где у большинства сайтов остальные факторы дожаты до максимума.

Слабость гипотезы по реверсу в том, что возможно есть широкий набор условий, который может привести к тем же результатам, просто на данный момент нет документов, которые были бы по ним созданы. Но в условиях масштабной проработки сайтов можно этим и пренебречь: проще взять восстановленный реверсом набор условий, чем гадать и фантазировать на тему, что такое хороший текст по данному запросу.

2) Распределите приоритет размещения ключей по зонам документов.

Классически наибольший приоритет у тайтла, потом у превью (заголовок, верхняя часть текста), дальше текст. Внутри текста играет роль выделение и порядок слов (подряд или нет). Но это так было. На сегодня данные правила не дают стопроцентной гарантии и надо смотреть конкретный топ по конкретному запросу. Говоря проще, изначально делаем согласно классическим правилам, дальше смотрим, что не вылезло в топ и правим с помощью текстового анализатора. Если и это не помогло, то дальше только тесты.

3) Как увеличить шанс попадания нужного куска текста в сниппет яндекса? В сниппет гугла?

Найдите доклад Стаса Поломаря к ашмановской конференции 2014 года. Для гугла вхождение ключа в дескрипшн почти стопроцентно гарантирует его подстановку в сниппет. Для яндекса - предложение с вхождением ключа как можно по тексту длиной от 120 до 200 символов дает вероятность в 60%. Есть еще техники тюнинга, когда ловят кусок текста в сниппете, а потом модифицируют его уже в документе под свои требования. Тоже вероятностная техника. В некоторых случаях в сниппет попадает описание из Я.Каталога, но на это я бы не ставил - с текстом работать проще, а каталог отключить через noyaca в метатэге.

4) Как подставить адресную информацию в сниппет яндекса?

Добавить страницу в Я.Справочник. Именно оттуда подгребается адресная информация в сниппет.

5) Как подмешать в текст документа ключи с грамматической ошибкой?

Это совсем просто. Иногда надо запихнуть в документ ключи с ошибкой. Ну вот очень надо - допустим, эта ошибка не исправляется поиском. Или прямое вхождение ошибочного ключа дает преимущество в ранжировании в данном случае. Есть еще случаи множественного написания торговой марки или бренда, когда каноническим (или разрешенным в документе) является только один или два варианта (например, несчастный бош/bosch, как его только не пишут). В этом случае есть два варианта: отзывы/комментарии и внутренние/внешние ссылки с вхождением ошибочного ключа в анкор.

6) Как ускорить реиндексацию документа после изменений? Назовите как можно больше вариантов.

- Панель вебмастера.
- Пинг в поиск.
- Соцсети.
- Сайтмап.
- Хабы:
-- Собственный сайт: главная, первый уровень от главной.
-- Главные страницы практически любого сайта.
-- Форумы, новостники.
Из опыта - на сегодня рулят хабы. Просто меняя ссылки на главной собственного сайта можно загнать за 1-2 апа в индекс все нужные страницы небольшого сайта. Ловец ботов - это просто усовершенствованная работа с хабами, делающая хабом любую страницу, посещаемую поиском. Ротатор ссылок - это упрощенный ловец, построенный на вероятности, что боты посещают часть страниц на сайте в любом случае.

7) Если части ключа содержатся в разных предложениях документа - будет ли это вхождением? Если да, то при каких условиях?

При обычном поиске по фразе - нет, это разные пассажи. Документ или не будет находиться или будет показываться после всех вариантов вхождения в один пассаж. При цитатном поиске документ будет показываться. Цитатный поиск игнорирует пассажи.

8) Что лучше: ключ как можно левее в тайтле, но частичное вхождение (разрыв в три слова между частями ключа), или точное с соблюдением порядка слов, но на три слова дальше от левого края?

Вопрос-ловушка. Все от запроса зависит. Смотрите топ. Или можно составлять конструкции вроде [(!пластиковые /1 !пвх /1 !окна /+4 !дешево) | (!пластиковые /+4 !пвх /1 !окна /1 !дешево)] и сравнивать результат, какие сайты выше (слово !пластиковые тут просто чтобы отбить от него три слова до фразы "пвх окна дешево"), но это кривоватенький способ для рассматриваемой задачи, так как слишком много меняет в расчете ранжирования.

9) Как привязать сайт к 40 регионам без субдоменов?

Через Я.Справочник. Делаем 40 страниц с адресами, каждую регистрируем в справочнике, ждем. Если модераторы пропустят, то привязка состоялась.

10) Как в хлебную крошку в выдаче запихнуть свою фразу?

Речь о таком вхождении.


Микроразметкой. В гугле почти всегда получается, в яндексе - реже.

11) Что дает наличие sitemap у сайта?

Sitemap - рекомендация для поиска. Можно указать страницы, на которые нет пути через ссылки на сайте. Можно задать приоритеты для обхода ботами. Можно вывалить в сайтмап только страницы не в индексе. Т.е. для небольших сайтов толку от сайтмапа почти никакого.

12) Перечислите, что даст в совокупности переспам по документу - признаки недопустимой оптимизации. Если можно, то 2-3 варианта.

От топа к топу допустимые границы могут быть разными, но если у вас есть прямое вхождение в разные значимые зоны, то вероятность переспама сильно возрастает. Например, прямое вхождение ключа в тайтл, в Н1 и несколько раз по тексту. Одинаковое вхождение в альты нескольких картинок наряду с вхождением в тайтл и Н1. Одинаковое вхождение ключа в тайтлы и анкоры внутренних ссылок, наряду с вхождением в тайтл или Н1. И т.д. Отдельно стоит выделить переспам по внутреннему или внешнему ссылочному, так как он не очевиден при просмотре документа: большое количество ссылок с одинаковым анкором как внешних, так и внутренних, может привести и само по себе к переспаму, и в совокупности с вхождениями в документе. Дополнительно будет усугублять вхождение как в вордстате, игнорирующее правила русского языка.

При этом надо повторить, что есть запросы, по которым это не будет переспамом, так как границы допустимого там гораздо выше.

Что самое важное?

Показать, что вы понимаете, что на сегодня жестких правил внутренней оптимизации нет. Но при этом проще следовать каноническим правилам для упрощения работы по большому числу посадочных, а потом дожимать страницы, которые пошли вниз или остались на месте по своим запросам, точечно с помощью текстового анализатора или тестов.

Продолжение следует.

понедельник, 7 ноября 2016 г.

Хороший сеошник должен уметь думать. Ответы на мой тест

В поисковой оптимизации важен не правильный ответ - корректных вариантов может быть несколько, а показать ход рассуждений. Не надо бояться невежества, информации очень много по теме, все не освоить никому. Но если вы умеете думать в направлении как решать задачу, откуда брать необходимые данные для внедрения и расчетов, то все у вас получится. Оставшиеся лакуны заполнит практика. А теперь перейдем к тому, каких ответов я бы ждал на свои вопросы.

На ядро.

1) Дайте пример двух запросов, с отличием в одном слове, но изменением типа запроса (коммерческий и информационный) - без использования типичных маркеров информационного (где, как и т.п.).

Здесь сначала надо разобраться, что такое информационный. Информационным изначально считали запросы, ответом на которые будет информационный материал, отвечающий на вопрос что, как, где и т.д., т.е. топ будет представлен в основном справочниками, отзовиками, инфосайтами, новостниками. Ярким примером информационного запроса будет название почти любой болезни. Здесь следует понимать, что наполнение топа и, следовательно, его информационность не угадывается поиском, а складывается из реакций пользователей. И если найдется достаточное количество тех, кто ищет по информационному запросу магазин, то он появится в выдаче по этому запросу.

Важное свойство такого информационного запроса - геонезависимость. Если тип запроса меняется, то в выдаче по нему появляются коммерческие сайты, а сам запрос может стать геозависимым: т.е. набор коммерческих сайтов будет отличаться в зависимости от региона. Пример такого запроса: урология - по этому запросу хватает в выдаче сайтов клиник.

Второе, что нужно пояснить, что и информационность, и геозависимость - небинарные понятия. Точнее, геозависимость - бинарна, но в локальную выдачу могут подмешиваться сайты из других регионов или вообще внерегиональные. Некоторые меряют этот показатель в числе сайтов каждого типа в топ10, но это тоже не совсем верно, хотя и дает представление о том, сколько вакансий на сегодня поиск отводит под тот или иной тип сайтов. Но здесь для оценки лучше использовать не числа, а категории типа "почти все", "примерно половина", "одну-две", "почти не встречается".

Дальше ответ становится очевидным. Берем запрос, смотрим топ, проверяем на информационность и геозависимость, берем второй запрос, проверяем. Ответ готов.

Отдельно стоит описать случай засилья агрегаторов в топе. Некоторые специалисты сегодня называют информационными запросы с большим числом агрегаторов и товарных справочников в топе. Хотя, конечно, интент здесь продолжает оставаться больше коммерческим (цель: покупка, заказ) нежели информационным. Но всем ясно, что пробиться в топ по такому запросу корпоративному сайту будет почти невозможно. Так что эти запросы есть смысл отделять от тех коммерческих запросов, где представленность корпоративными сайтами значительно выше.

2) Запрос по точной частоте имеет 1000 запросов в месяц, а по общей 1млн., вносить ли его в ядро, если максимальная точная частота запросов болтается по ядру от 300 до 1800? Что будет причиной включения и невключения?

Надо смотреть на тип запроса. Если сайт коммерческий и интент запроса тоже коммерческого плана, то такой запрос можно оставить. Пример был выше - запрос "урология" (особенно в регионах). Если сайт коммерческий, а интент запроса информационный - нафиг из ядра. Пример: "гостевой дом".

3) 99% запросов в ядре - названия товаров. Что будете делать?

Такие запросы не несут обычно пользы в том плане, что вы все равно внедрите их по умолчанию на уровне составления шаблона (тайтла, Н1, ЧПУ), а частота их не столь велика, чтобы проявлять повышенный интерес к детальной проработке. Так что пробиваете фразовую частотку, если она не велика, то можно спокойно работать шаблонами, пока не исчерпаете все другие возможности более быстрого привлечения поискового трафика. Это сильно сэкономит время на работу с ядром. Если что, потом всегда можно будет расширить семантику и детально пройти каждый из ста тысяч ваших товаров.

4) Ваш сайт во Владимире - парсинг запросов по Владимиру дал 300 запросов. Парсинг по тем же маркерам по Москве - 2000 запросов. Что будете делать?

Тут все просто. Берем ядро по Москве, обрезаем топоним, пробиваем по Владимиру, расширяем ядро по Владимиру. При парсинге ключей по небольшому городу полнота бывает небольшой - это нормальная ситуация, ее можно нарастить ключами из других регионов и вообще третьих источников, например, подсказок.

5) У вас 30 посадочных (сайт услуг) и 3000 ключей, по которым кластеризация по топу дает 300 кластеров. Ваши действия?

Тут много вариантов решения. Исходить надо больше из бизнес-составляющей. Есть, например,  классический случай, когда кластеризация по выдаче дает много мелких кластеров, но в вашем регионе или нише это один интент. Тогда укрупняем кластеры вручную согласно интентов. Если интент отличается, то делаем новые посадочные. Если интент отличается, но нет возможности расшириться по числу посадочных (например, это лендинги) - укрупняем посадочные, вводя кластеры инфоблоками. Если вообще толком ничего нельзя поменять - такое тоже случается, например, клиент хочет жестко тагетироваться на каких-то мелких но маржинальных для него интентах, тогда урезаем ядро.

6) Кластеризация по топу выдала "генподряд" и "генеральный подряд" в разные кластеры. И действительно в топе разная выдача. Сколько посадочных надо сделать на сайте?

Интент один? Один. Тогда и вопроса нет - на одну. Другой вариант - сделать лендинг на субдомене/другом домене и оптимизировать его под один из вариантов ключа, а на основном сайте оставить оптимизацию под базовый более частотный ключ. И продвигать два сайта. Пример такого решения: промосайты по "раскрутка сайтов" у некоторых контор по продвижению на субдомене promo.* - основной сайт оптимизируется под "продвижение сайтов".

В целом же по всем вопросам хочет услышать понимание от кандидата в оптимизаторы, что он понимает несколько простых вещей:
- сначала делаем самое простое и быстрое к внедрению, стараемся не уходить в дрочерство на нюансы-детали и перфекционизм на старте работы с проектом,
- терминология в поисковом продвижении, как и любой молодой отрасли, может плавать,
- интент решает,
- выдача не статична, любые разборы на основании выдачи дают слепок, верный на момент снятия и завтра ситуация может измениться,
- догматизация любых методик вредна и сказывается на качестве проработки проекта.

Продолжение следует.

--------------

На 12й поток моих курсов, стартующие в среду 9 ноября, осталось два свободных места. По коду rubobabl будет скидка 5000р. В среду цена станет максимальной, а потом продажи закроются, так как курс уже стартует. Регистрироваться и оплачивать по ссылке: http://seohowto.ru/course/

понедельник, 16 мая 2016 г.

Вариант проверки запроса на геозависимость одним запросом

Подсветка топонима по запросу без него является признаком геозависимости. Но что делать если топоним содержится в тексте запроса. Раньше считалось, что запросы с топонимом все геонезависимые, но это не так. Есть запросы вроде "купить квартиру в москва сити", которые являются вполне себе геозависимыми. Как их корректно проверить?

Традиционно проверяют сравнением по двум и более регионам. Но что, если хочется сэкономить на лимитах и получить результат в один запрос. Задача становится не такой уж и тривиальной.

На самом деле все просто. Исходим из того, что топоним для геозависимого запроса подсвечивается в любом регионе. Так что нам нужно просто поймать его при смещении региона, которого в виде топонима нет в запросе.


Но вы устанете крутить выдачу, чтобы найти по такому запросу топоним Тула. Надо ужать выдачу до тульских сайтов. Используем документированный оператор cat: и смещение до привязки к нужному региону. И видим, что этот запрос ГЗ.


Ну и проверим на точно узнаваемых ГЗ и ГНЗ.

ГНЗ

ГЗ

ГЗ

ГНЗ

Для массовых проверок надо выбрать регион, который не попадет в запрос как топоним (контекстная проверка), но будет показывать достаточную выборку.

Слабое место такой проверки - не факт, что длины полученной по запросу выдачи хватит, чтобы нужный топоним оказался в сниппетах. Но вот Тула нашлась даже по борщам.

Пользуйтесь на здоровье. И удачи в работе с поиском.

вторник, 20 января 2015 г.

Внутренняя оптимизация страницы сайта

Продолжаем лекции по самостоятельному продвижению сайтов. Все статьи про то как продвинуть сайт своими руками, находятся по этой ссылке.

Начальные условия

Перед внутренней оптимизацией у вас из семантического ядра должна быть выделена группа ключей, которой вы считаете релевантной (подходящей, дающей ответ на запрос) выбранную страницу. При этом важно помнить, что одной странице может быть сопоставлено несколько ключей, но каждому ключу должна отвечать только одна страница.

Если ключей в ядре несколько, то отсортируйте их по точной частоте, измеренной в Wordstat. Наиболее частотные ключи пойдут в заголовки страницы. Менее частотные войдут только в текст.

Точное и частичное вхождение ключа на странице

Стоит разделять для себя точное вхождение в текст, неточное и частичное. Точным считается включение ключа на странице в той же словоформе, что и в семантическом ядре. Это не всегда возможно по правилам русского языка. Поэтому допустимо неточное вхождение: изменение числа, падежа.

Частичным вхождением считается, если ключ разделяется в пределах одного пассажа (предложения) другими словами.

Если слова из ключа будут в блоках на странице включены в разные пассажи, то ранжирование по этим ключам будет производиться по остаточному принципу - когда исчерпаются все точные и частичные вхождения. Это относится ко всем блокам на странице: TITLE, H1, текст статьи.

Оптимизация TITLE

Наиболее частотный ключ включаем в тэг TITLE как можно ближе к левому краю.

Если ключей в группе много, то можно усилить вес некоторых из них частичным вхождением в TITLE.

Пример:
Гостиницы в Томске: цены, фото, отзывы
Данила Козловский, актер: фото, фильмография, роли, биография

Дополнительные слова в TITLE размывают вес ключа, но могут усилить кликабельность сниппета на выдаче. Поэтому часто имеет смысл для управления сниппетом добавлять в TITLE название бренда, телефон и/или мотиватор.

Пример:
Купить пластиковые окна со скидкой 50%
Купить телевизор в М-Видео

Если ключ подразумевает варианты с топонимом, не следует этого упускать. Например, "ремонт квартир в Нижнем Новгороде" более частотный ключ, чем просто "ремонт квартир" в регионе Нижний Новгород.

Пример:
Выкопать котлован под фундамент в Рязани

Следите за тем, чтобы TITLE на разных страницах не повторялись. Для магазинов можно формировать TITLE с помощью формул, передавая их программисту для обновления тэгов на всех карточках товаров сразу.

Пример:
Купить (товар) по цене (цена) в интернет-магазине Пупкин
где (товар) и (цена) подставляются из данных карточки

Оптимизация DESCRIPTION

Description, по общепринятому мнению, не участвует в расчете ранжирования, но может влиять на вид сниппета. При некоторых условиях метатэг Description подставляется в сниппет. Обсудим наиболее простые варианты.

Если ключ есть в Description, то вероятность того, что текст из него попадет в сниппет в Google достаточно высока. В Яндексе ситуация существенно отличается.

Отсутствие текста на странице. В случае, если страница безтекстовая: например, на ней фотографии или листинг карточек товара, то Description может попадать в сниппет.

Если Description содержит нужный ключ, а текст - нет, то вероятность попадания метатэга в сниппет увеличивается.

Полезная ссылка по управлению сниппетами на сайте: доклад Станислава Поломаря на IBC-2014.

В дескрипшн также для наполнения принято включать то, что по разным причинам не могло войти в тайтл. Это может быть торговая марка или бренд, телефон, адрес, время работы.

Пример:
TITLE: Пластиковые окна в Пензе
DESCRIPTION: Производство пластиковых окон с 2005г. Быстро, надежно, качественно. Телефон такой-то.

Следите за тем, чтобы DESCRIPTION не повторялся на сайте. Это может быть одной из причин для плохого ранжирования. Для интернет-магазинов обычно используются формулы для составления текста метатэга, чтобы исключить повторения в нем.

Оптимизация KEYWORDS

Метатэг Кейвордс в ранжировании не участвует, поэтому оптимизировать его смысла нет. Принято оставлять его пустым. Некоторые оптимизаторы перечисляют в этом тэге ключи для страницы, но это все равно как подсказать конкурентам ключи, по которым вы продвигаетесь.

Оптимизация заголовка статьи (H1)

Сегодня выделение заголовка тэгом H1 не является догмой, а только рекомендацией. В большинстве случаев поиск корректно определяет, что является заголовком статьи. И все же большинством оптимизаторов настойчиво рекомендуется использовать этот тэг для более быстрого распознавания поиском важных блоков на странице.

Традиционно в H1 ставится наиболее частотный, но при этом в корректной словоформе ключ. Не забывайте, что текст на странице призван не только разместить нужные ключи на странице - его качество влияет на поведенческие характеристики на странице. Если пользователь будет убегать со страницы, едва ее открыв, то никакие включения ключей не позволят вам занять достойное место в топе.

Оптимизация текста статьи

Текст на странице можно разделить на его начало и остальную часть. Начало в некоторых источниках называется превью. Превью участвует в ранжировании с большим коэффициентом нежели остальная часть текста.

Основной ключ для страницы, или ключ, который не вошел по каким-то причинам в TITLE или заголовок статьи, желательно для увеличения веса разместить в первом предложении в тексте на странице. Побочный эффект в яндексе - это повышение вероятности включения данного фрагмента текста в сниппет.

Что касается плотности ключей, то на сегодня считается достаточным однократного точного вхождения ключа на странице и одного частичного. Однако, в некоторых случаях имеет смысл плотность постепенно наращивать, проверяя на каждую итерацию изменение позиций, так как легко перегнуть палку и уйти в переспам.

Бессмысленное жирнение и иное выделение ключей - метод, ушедший в прошлое и один из признаков возможного переспама на странице.

Объем текста зависит от целей текста, но обычно считается достаточным в рамках от 1 до 3.5тыс.знаков. Большие статьи имеет смысл дробить на более мелкие, так как вес фраз будет падать к концу текста.

Разделяйте абзацы пустыми строками.

Большие тексты имеет смысл делить на блоки, разбивать картинками, списками и таблицами. Во-первых, это позволит осмысленно выделять нужные ключи (через включение в H2, жирнение названий таблиц, заголовков списков, подписей к картинкам). Во-вторых, такое разбиение облегчает чтение текста и увеличивает процент пользователей, которые дойдут до конца страницы - т.е. работает на улучшение поведенческих факторов, связанных со страницей.

Если ваша деятельность подразумевает наличие каких-то цифровых характеристик или оценок, стоит их включать в текст. Т.е., к примеру, наличие цены на странице обычно идет на пользу сайту.

среда, 19 ноября 2014 г.

Как составить семантическое ядро сайта: Курс 7-из-10

Семантическим ядром сайта принято называть набор запросов к поисковой системе сопоставляемый (релевантных) сайту. Говоря проще, если ваш сайт о продаже ботинок, то в семантическое ядро для него войдут фразы "купить ботинки", "продажа ботинок", "магазин ботинок" и т.д. Поиск фраз для семантического ядра называют подбором ключевых фраз. Составление семантического ядра занимает продолжительное время, опирается на анализ частотности и аналитику, позволяющую объединять фразы в группы. Последнее называется кластеризацией ключевых фраз. Однако, приступим к инструкции.

1. Программа для составления семантического ядра.

Собирать ключевые фраз можно и руками, но это длительный и сложный процесс, который лучше возложить на программы и сервисы.

Key Collector - самая популярная программа в российском интернете для сбора ключевых фраз. Она платная, но стоимость ее невелика, цена на ноябрь 2014г. - 1500 рублей разово навсегда. Существует упрощенная бесплатная версия данной программы, выпускаемая тем же производителем под названием Словоеб. Минусом данного софта является необходимость при больших объемах парсинга подключаться к сервисам антикапчи, поэтому по факту десктопный парсинг лишь условно бесплатный, посколько с наращиванием объемов работы вы переходите на постоянную покупку лимитов в антигейте или аналогичных сервисах по разгадыванию капчи.

Топвизор, сервис "Ядро" - популярный сервис по сбору позиций предлагает облачный сбор фраз. Под облачным понимается то, что вам не придется напрягать собственный компьютер - сервис соберет фразы по вашим затравкам самостоятельно и затем сообщит о конце работы. Минусы данного сервиса в необходимости оплачивать каждую найденную фразу. Впрочем, цена такой работы невелика - почти всегда меньше, если посчитать потраченное время на десктопный парсинг кей-коллектором по расценкам труда оптимизатора.

Базы Пастухова. Крупнейший публичный архив русскоязычных фраз - на сегодня база предлагает 1млрд. ключевых фраз, собранных из открытых источников. Быстрый поиск, широкие возможности. К минусам стоит отнести относительно высокую стоимость - порядка 300 долларов с учетом акций, необходимость иметь 50Гб свободного места на диске, а также большое количество мусорных фраз с нулевой частотностью. Для профессионалов Базы Пастухова могут стать серьезным помощником, но начинающим или владельцам одного-двух проектов я бы ее рекомендовать не стал.

Тем, кто ищет большего количества ключевых фраз, для кого сбор семантического ядра превратился в работу или манию, советую также обратить внимание на следующие сервисы. Часть из них позволит вам, в частности, выявить ключевые фразы конкурентов!

http://ru.semrush.com/
http://advse.ru/
http://keywordtool.io/ru
http://spywords.ru/
http://prodvigator.ua/
https://www.megaindex.ru/?tab=siteAnalyze

2. Поиск (подбор) ключевых фраз. Ключевые фразы конкурентов.

Основных методов сбора семантического ядра извне два: парсинг баз ключевых фраз по затравкам (основным ключевым фразам для вашего проекта) и парсинг ваших конкурентов. Начнем с последнего, как наиболее легкого и понятного варианта.

Ключевые фразы конкурентов собирают тоже двумя методами. Первый - с помощью сервисов, ссылки на которые приведены выше. Второй - открываем сайт и собираем заголовки разделов в Н1. Это настолько просто, что с этим справится даже человек, который никогда не работал с оптимизацией сайтов.

ключевые фразы конкурентов

Что касается сервисов по поиску ключей конкурентов, то основной минус работы с ними, это то, что они нередко показывают только самые популярные ключи, которые вам и так зачастую известны. Хотя это и не повод от них отказываться - а вдруг мелькнет что-то интересное!

ключевые фразы конкурента

Поиск ключевых фраз по затравкам означает, что вам эти затравки уже известны. Затравками служат фразы из 1-2-3 слов традиционные для вашей тематики. Если вы занимаетесь установкой пластиковых окон, то ваши затравки это "пластиковые окна", "окна пвх".

Покажем, как работает подбор ключевых фраз на примере сервиса wordstat.yandex.ru.

как составить семантическое ядро сайта

Собрав наиболее частотные фразы, мы продолжаем расширять наше ядро, собирая новые результаты по фразам из предыдущих результатов. Не забываем при этом откидывать фразы, которые вам неинтересны! Т.е. если на вашем сайте нет видео, то не стоит брать в базу запрос "пластиковые окна видео". Кроме того, сам смысл запроса подсказывает, что пользователь по такому запросу вряд ли будет заказывать окна. Так что, если вы не планируете делать инфоблог для своего корпоративного сайта по теме пластиковых окон, то ключевую фразу про видео стоит откинуть. Как стоит откинуть и запрос со "своими руками", а также "почему", несмотря на их высокую частотность.

подбор семантического ядра

И так далее, пока частотность в колонке с цифрами не перестанет быть для нас неинтересной - величину этого параметра для прекращения парсинга каждый определяет для себя сам.

Разумеется, что собранное таким образом семантическое ядро не будет обладать достаточной полнотой, так как вы собрали только самые очевидные ключевые фразы. Менее очевидные можно собрать иными методами. Например, вы можете искать полезные для вас фразы в правой колонке вордстата.

сбор семантического ядра через правую колонку wordstat

Или набрать фразы из подсказок поисковых систем (собрать их массово по затравкам можно с помощью вышеперечисленных сервисов, например Топвизора).

подбор ключевых фраз в подсказках яндекса

Еще можно много интересного найти в собственной статистике. Бонусами работы со своей статистикой в части сбора ключевых фраз является то, что данные фразы уже находятся в видимой части поисковой выдачи, раз по ним фиксируются переходы. И вам нужно просто дожать эти фразы до топ-10. Есть и другой плюс - в своей статистике попадаются фразы, у которых нет частотности по вордстату, но есть реальная посещаемость! Это тоже метрика для определения ценности фразы, чтобы в будущем распределить на нее часть бюджета на продвижение.

поиск ключевых фраз в стастистике сайта

Есть и другие способы поиска ключевых фраз: открытая статистика конкурентов, генерация фраз, событийные фразы, фразы из википедии и справочников, парсинг открытого эфира и др. Не останавливайтесь в поиске ключевых фраз, помните, что wordstat Яндекса - самый очевидный источник, который используют все. Хотя, конечно, в некоторых нишах из скольких источников не собирай, все равно семантическое ядро будет очень ограниченным, а основной траффик из поиска будет идти всего по десятку-двум фраз, за которые и придется бороться.

3. Частотность ключевых фраз.

Прежде чем приступить к работе с ключами, принято фильтровать их по частотности. В качестве основной метрики выступает здесь частотность по сервису wordstat.yandex.ru. Проверять фразы следует по точной частотности в нужном вам регионе. Традиционно такую проверку делают с помощью программы Key Collector, хотя, конечно, можно выполнить ее и руками.

проверка частотности ключевых фраз

Фразы, имеющие нулевую частоту, обычно откидывают. Я же призвал бы откладывать их в конец очереди по отработке. Частотность - постоянно меняющаяся метрика, и через какое-то время вроде бы нулевая фраза, вполне возможно, покажет ненулевые переходы с поиска.

Отдельно стоит отложить фразы, доказавшие свою состоятельность живыми переходами с поиска - по установленной на вашем сайте статистике. Нулевая частотность по вордстату ни о чем для них не говорит.

Ходит много мнений по поводу того, до какой частоты стоит оставлять фразы. Мое мнение - обрезка хвоста должна быть связана не с частотой фраз, а вашими возможностями по оптимизации сайта. Если вы не можете сделать 1000 разделов в меню. Если вы не можете оптимизировать страницу более чем под 20 ключей. Если вы не можете купить более 300 ссылок в месяц. То это и накладывает ограничение на объем фраз в работе. Если можете отработать все фразы - отрабатывайте все.

4. Кластеризация, группировка ключевых фраз.

Идеальной ситуацией для нас было бы, если каждой фразе из семантического ядра сопоставлялась отдельная страница на сайте. К сожалению, это совсем нереальная ситуация для корпоративного сайта, и чуть менее реальная для инфосайтов и интернет-магазинов. Сайт с таким распределением ключевых фраз будет больше похож на дорвей, сайт-обманку для поиска. А мы же за честную оптимизацию сайта!

Поэтому фразы приходится группировать. Выделим отдельно группировку по синонимам - синонимам с точки зрения поиска, но не всегда русского языка! Фразы, которые поиск считает обозначением одного и того же, обязательно объединяем в одну группу.

генератор bosch
генератор бош

Также объединяем в одну группу переколдовку запроса с одними и теми же словами.

бесплатное продвижение сайта
продвижение сайта бесплатно

Дальше - сложнее. Приходится объединять фразы по смыслу, но не всегда ясно, как это сделать лучше. Т.е. разделить ремонт квартир и ремонт сантехники в разные группы вы сможете без подсказки, но решить, нужно ли объединять ремонт квартир и евроремонт, уже не так легко и очевидно.

Если у вас уже есть проиндексированный полностью сайт, а даже если нет - можно настроить поиск в Яндексе по сайту, и с помощью Кей Коллектора получить релевантные страницы для всех фраз. Затем просто объединить фразы в группы по совпадению релевантной страницы. Это неидеальный способ, и вам придется вносить правки в получившиеся группы, но это лучше, чем начинать с нуля.

Другой способ, стремительно набирающий популярность - это сравнение выдачи в поиске по фразам. Если находятся фразы, где выдача до какой-то степени совпадает (от 3 до 10 сайтов одинаковы там и там), то их можно объединить в одну группу. Отличаются - разносим в разные группы. Понятно, что руками применить такой способ можно только к спорным частным ситуациям.

кластеризация по выдаче, группировка по выдаче

выдача в поиске / группировка по выдаче

выдача в поиске / кластеризация по выдаче

Выдача на 1 и 3 скрине частично совпадает, а вот на 2 скрине существенно отличается, поэтому эту фразу лучше вынести в отдельную группу.

К сожалению, этот способ тоже не панацея - в нишах с малым числом игроков (до 30-ти) кластеризация по выдаче будет показывать плохой результат, и остается надежда только на свою голову и руки.

Сервисы, предлагающие кластеризацию по выдаче:
http://www.analytics.rush-agency.ru/
http://stoolz.ru/
http://seo-case.com/
http://semparser.ru/

На выходе у вас должен получиться набор групп, объединяющих от 1 до 20-30 ключевых фраз. Вот эти группы вы и будете использовать для модификации структуры вашего сайта.

5. Определение релевантных страниц.

Следующий шаг в работе с ключами - это увязка семантического ядра со структурой сайта. Типичная ошибка оптимизатора: попытка связать только существующие материалы на сайте с собранными ключевыми фразами. Это работа, обреченная на провал, так как сильно зависит от качества самого сайта. Если сайт делался с любовью, с опорой на реальные запросы пользователей, то он взлетит в топе, а если нет - то в топ ему не попасть.

Таким образом, нужно строить сайт от семантического ядра, а не семантику от сайта, как бы странно это не звучало.

Загоняем собранные ключи в Кей Коллектор и получаем релевантные страницы. Затем вручную пересматриваем данные страницы и определяем - дают ли они ответ на данный запрос или нет. Если да, то присваиваем данный адрес как целевой данному ключу или группе ключевых фраз. Если нет, то оставляем клетку в экселе пустой, помечая, что необходимо создать новую страницу под данный запрос.

На выходе получаем таблицу в экселе примерно следующего вида. В студии мы используем более сложный вариант, а вы можете создать свою модификацию такой карты релевантности.

карта релевантности / релевантные страницы

Теперь самое время заполнить поля для тэгов к странице. Это покажет, есть ли вхождения ключей в наиболее значимых местах страницы - покажет ваши упущения в оптимизации сайта. Для несуществующих страниц мы можем цветом выделить желательный адрес ЧПУ и желательные тэги.

Закончив работу с картой релевантности, самое время приступить к внутренней оптимизации сайта. Но это уже тема для следующей лекции.

-----

Это лекция из сокращенной бесплатной версии курса по самостоятельному поисковому продвижению для владельцев сайтов и начинающих оптимизаторов. Опыт показывает, что предлагаемых в курсе мер достаточно для вывода в топ 7 из 10 корпоративных или информационных сайтов.

Предварительная запись на полный курс по самостоятельному продвижению сайтов.

вторник, 18 ноября 2014 г.

Аудит сайта самостоятельно: Курс 7-из-10

Владельцы сайтов часто ищут возможность сделать бесплатный аудит сайта онлайн. Но бесплатно в автоматических сервисах они могут получить только анализ основных параметров сайта и выявить часть ошибок, например, ссылки на 404 страницы. На самом деле, ничего сложного в поверхностном аудите сайта нет и выполнить его самостоятельно, своими руками может практически любой владелец сайта. Итак, приступим.

1. Инструменты анализа сайта.

Для анализа нам потребуется несколько простых инструментов: парсер сайта и парсер параметров сайта. На сегодня на рынке существует множество продуктов, я же, когда не требуется какой-то глубокой аналитики, предпочитаю простые и бесплатные варианты.

Netpeak Spider - легкая в управлении и бесплатная программа. Скачать ее можно на сайте компании. От вас потребуется только регистрация на свой емайл.

инструменты анализа сайта: netpeak spider

Нетпик Спайдер позволяет быстро и легко выявить дубли страниц, наличие ссылок на 404 страницы. Достаточно только ввести адрес своего сайта и нажать кнопку "Пуск". Спустя некоторое время - необязательно ждать конца сканирования, можно просто нажать "Стоп" - вы во вкладке "Ошибки" сможете увидеть наиболее очевидные проблемы вашего сайта. Чтобы выяснить, откуда сканер нашел у вас страницу с 404 ответом, нажмите правой клавишей на ошибочной странице и выберите вариант "Ссылки на эту страницу". Теперь вы знаете, где стоят ссылки на страницы, которых нет, и можете убрать их.

RDS bar - плагин к браузеру для определения параметров сайта. Установить его можно либо из магазина приложений к браузеру, или зайдя на сайт компании-производителя.

инструменты анализа сайта: rds bar

РДС бар показывает множество полезной информации, но вам для анализа потребуется не так уж и много. В частности можно быстро сравнить индексацию в Яндекс и Гугл, если она существенно отличается, то у вашего сайта, скорей всего, проблемы с дублями и битыми страницами. Также через RDS легко попасть на сервисы по поиску внешних ссылок, посмотреть, как выглядит ваш robots.txt и выяснить другую полезную информацию о собственном сайте.

Если у вас еще не подключены Яндекс.Метрика и Google Analytics, самое время это сделать. Для этого потребуется регистрация в сервисах и размещение в шаблоне сайта кода счетчика. По традиции код счетчика ставят в нижней части - это гарантирует, что учтены будут только полные загрузки страницы. Почему ставить сразу две системы? На сегодня и Яндекс, и Гугл скрывают поисковые запросы, по которым пользователи перешли на сайт. Чтобы эта информация хотя бы частично была вам известна, потребуется установка кода счетчика от каждой из систем. Дополнительным плюсом от использования аналитики будет в будущем возможность ретаргетинга в рекламных системах: вы сможете показывать рекламу тем, кто посещал ваш сайт.

Дополнительно я бы рекомендовал установку счетчика от Liveinternet.ru - ради удобных для глаза неопытного пользователя отчетов.

2. Анализ посетителей и посещаемости сайта.

Если счетчики от Я.Метрики и Гугл Аналитикс ранее не были установлены, то выполнить этот анализ вы не сможете. Вам придется, как минимум, несколько недель подождать, пока накопится статистика посещаемости.

Проверяем показатели.

Глубина просмотра или число просмотров к числу посетителей. Чем больше, тем лучше. Для корпоративных сайтов нормальным будет соотношение выше 3. Для интернет-магазинов - от 10. Логика проста и опирается на типовой путь пользователя по сайту. На корпоративном сайте пользователь интересуется конкретной услугой и заканчивает путь просмотром контактов. Для интернет-магазинов характерен длительный выбор, сравнение, переход в корзину и оформление заказа. Для инфосайтов, созданных ради посещаемости из поиска, тоже желательно повышать этот показатель (обычно у таких сайтов он равен 1.0-1.2) - это позволит приблизиться к показателям для популярных журналов и избежать проблем с индексацией и ранжированием. Если данный показатель ниже средних значений, необходима работа со структурой сайта и перелинковкой.

Показатель отказов. Процент посетителей, которые покинули вашу страницу после первого просмотра. В Яндексе данный показатель измеряется несколько иначе: в него входит процент посетителей, которые покинули сайт быстрее, чем через 15 секунд. В гугле показатель показывает процент тех, кто ограничился одной страницей, поэтому одностраничники в гугле будут всегда иметь показатель отказов, равный 100%.

Время на сайте. Параметр, говорящий, сколько человек провел времени на сайте. Для большей достоверности стоит делить его на число просмотренных страниц. Если в этом случае время становится достаточным только для того, чтобы мельком взглянуть на страницу - у вашего сайта слишком велика доля случайной посещаемости.

анализ посещаемости сайта: глубина просмотра, показатель отказов, время на сайте

Точки входа. У каждого сайта есть страницы, которые агрегируют основную входящую посещаемость. Выявление таких страниц позволит прояснить ситуацию с теми страницами, которые планировались как точки входа, но так ими и не стали. Пример: на сайте "муж на час" есть страница по услуге "ремонт сантехники", но среди точек входа такая страница не числится - значит, есть проблемы с релевантностью запросу.

Динамика посещаемости с поиска. Один из любимых графиков всех оптимизаторов. Если ваш сайт не показывает положительной динамики длительное время, значит, вы залипли, достигли максимума возможностей своего сайта в части поисковой оптимизации. Дальше нужно или дожимать по позициям, или менять структуру, или менять стратегию.

Карта кликов. Показывает какие пункты меню, ссылки и кнопки востребованы больше других. Это позволяет экспериментировать с инфоблоками, добиваясь максимальной кликабельности по ссылкам, а также выявить точки на сайте, которые кажутся посетителям интерактивными, но таковыми по факту не являются: например, иллюстрации к тексту нередко кажутся пользователям переходом в портфолио. Почему бы в таком случае (при наличии кликов в такое изображение) не сделать картинку действительно переходом в портфолио?

анализ посетителей сайта: карта кликов


3. Анализ позиций сайта.

Для анализа позиций вам потребуется сервис измерения позиций. Их достаточно много: serprating.ru. Я предпочитаю пользоваться сервисом Topvisor.ru - дешево, быстро, есть дополнительный сервис по сбору ключей. Вы можете выбрать любой другой.

Чтобы измерять позиции, надо сначала их собрать. Если вы не занимались сбором ключей ранее, то или дождитесь лекции по сбору ключей, или поступите проще: возьмите основные ключи для своего сайта, соберите со своего сайта заголовки пунктов меню, ведущих на разделы. Проверьте собранное на точную частоту в wordstat.yandex.ru, затем проверяйте позиции сайта для ключей, которые имеют ненулевую частотность.

анализ позиций сайта: проверка частотности


Оптимально настроить две группы по своему сайту: контрольные ключи (30-100 штук), которые вы будете проверять каждый апдейт для отслеживания динамики. И полное семантическое ядро, которое будете проверять раз в месяц или реже, чтобы не тратить большое количество средств на это.

4. Анализ контента (текста) сайта.

Проверить текст можно и нужно по нескольким показателям: уникальность, водность, наличие синонимов и топонимов, наличие связанных фраз.

Уникальность проверяется сегодня на множестве сервисов, одними из самых популярных являются Адвего Плагиатус и проверка на сервисе text.ru. К проверке уникальности надо относиться следующим образом: разделять для себя копирование текстов из другого источника и невозможность уникализации, например, при описании товаров, услуг, каких-то технологических процессов. Если копирование чужих текстов является ошибкой, то попытка добиться 100% уникальности при работе с текстами для товаров обречена на провал и существенно ничего для вас не изменит при продвижении сайтов. На сегодня поиск неплохо умеет распознавать какого вида контент перед ним и не относить неуникальность описаний товаров к пессимизирующим факторам для оценки сайта.

Для проверки "водности" текста никаких популярных сервисов нет. Но даже поверхностного анализа достаточно, чтобы понять, что текст раздут и вряд ли будет относиться поиском к качественным. Количественной характеристикой для определения водности текста будет, например, среднее число слов в предложении. Если этот параметр выше 5-7 слов для текста, ориентированного на продажи - он водный. Если это текст из технического описания, то длина должна быть выше 5-7 слов. Другим параметром может служить избыточное употребление прилагательных, наречий и других частей речи, ничего не добавляющих к смыслу текста, но делающих его больше. Еще одним негативным фактором может стать отсутствие или низкая плотность терминов, характерных для данной ниши. Подводя итог, хороший текст для корпоративного сайта должен состоять из коротких предложений, содержать специфичные термины и при этом вызывать желание дочитать его до конца.

Выявить возможные синонимы и топонимы для написания в тексте можно с помощью подсветки. Введите свою фразу в поиск и соберите фразы, которые выделены жирным. Если в ваших текстах этих фраз нет, то, вероятно, вы что-то упускаете.

анализ контента и текста сайта: работа с подсветкой

Связанные фразы - это фразы, которые не входят в семантическое ядро, но сопровождают тексты по вашим ключевым запросам. Например, для запроса "фотоаппарат" связанным будет слово "объектив". Как выявлять такие фразы, мы поговорим в одной из следующих лекций.

5. Анализ работы, скорости сайта.

Для изучения скорости работы сайта есть отдельный отчет в Я.Метрике. Если ваш сайт грузится дольше 400-700мс, то у вас могут быть проблемы с индексацией и ранжированием.

анализ работы, скорости сайта


6. Анализ внешних ссылок сайта.

Внешние ссылки принято анализировать с помощью сторонних сервисов, которые собирают информацию о ссылках со всего интернета и предоставляют вам выборку по вашему сайту. Понятно, что изучить весь интернет эти сервисы не могут, поэтому не могут и похвастаться полнотой своей информации. Однако, с чем-то работать все равно нужно, так что просто держите в голове, что, во-первых, информация о ссылочном в таких сервисах запаздывает на 2-3 месяца, а, во-вторых, найденное число ссылок можно смело умножать на два, а то и на три.

Так как два наиболее полных сервиса платные, мы воспользуемся бесплатным вариантом для поверхностного анализа ссылок - Linkpad.ru.

анализ внешних ссылок сайта

График динамики прироста ссылочного говорит нам о том, как покупались/проставлялись ссылки для исследуемого проекта. В идеале мы должны видеть постоянный прирост. Если мы видим быстрый выход на максимальное значение и потом длительный баланс на этом уровне - мы видим классическое ссылочное продвижение через агрегатор или биржу арендных ссылок.

анализ внешних ссылок сайта: динамика роста ссылочного

Здесь на графике ссылочное моего блога. Видно, что число ссылок растет от месяца к месяцу.

анализ внешних ссылок сайта: стагнация роста ссылочного

А это коммерческое продвижение одного из московских сайтов. Видны и ссылочный взрыв, и насыщение. Будьте уверены, поиск видит это не хуже нас с вами.

Еще один важный анализ ссылок - это распределение по анкорам. Не секрет, что для имитации естественности, на проект должно вести множество так называемых безанкорных ссылок. Выявить - так это или нет с вашим проектом, можно просмотрев эти анкоры.

анализ внешних ссылок сайта: анализ анкоров

Приведенный скрин из Линкпада нам особо ничего не говорит. Чтобы выяснить полную картину, надо выкачать всю базу ссылок и сгруппировать их по тексту анкора, чтобы высчитать долю каждого в общей массе. Безанкорных и брендовых анкоров, несовпадающих с ключами из ядра, должно быть более половины, а лучше - от 70% от общего числа.

7. Анализ юзабилити сайта.

Коммерческим факторам уделяется все больше внимания в работе по продвижению сайта. Проиллюстрируем, о чем речь.

анализ юзабилити сайта: телефон на сайте

Наличие телефона в верхней части сайта.

анализ юзабилити сайта: акции и скидки на сайте

Скидки и акции в видимой части сайта.

анализ юзабилити сайта: витрина на сайте

Наличие понятной и удобной витрины/каталога.

анализ юзабилити сайта: контакты и адрес на сайте

Контакты в нижней части сайта. Наличие большого количества способов связи с компанией.

анализ юзабилити сайта: форма обратной связи

Вызов замерщика/установщика. Форма обратной связи.

анализ юзабилити сайта: калькулятор на сайте

Калькуляторы и иной полезный интерактив на сайте.

анализ юзабилити сайта: онлайн-чат, онлайн-консультант

Онлайн-помощник. Но только если с обратной стороны действительно кто-то есть.

Туда же еще относим наличие видео, графического материала, карты проезда, адреса, юридических реквизитов, наличие информации о сертификации, лицензировании, информация об офисе, сотрудниках и т.д., и т.п. Если ничего из этого нет, то должны возникать вопросы по доверию к такой компании.

-----

На этом позволю себе закончить данную статью. Здесь не охвачено еще много моментов, нет анализов тэгов, верстки, сниппетов и многого другого. Но описанного уже достаточно, чтобы начать думать, что не так с вашим сайтом. В следующей лекции мы разберемся, как быстро и легко собрать и группировать ключи для вашего сайта.

-----

Это лекция из сокращенной бесплатной версии курса по самостоятельному поисковому продвижению для владельцев сайтов и начинающих оптимизаторов. Опыт показывает, что предлагаемых в курсе мер достаточно для вывода в топ 7 из 10 корпоративных или информационных сайтов.

Предварительная запись на полный курс по самостоятельному продвижению сайтов.

Популярные сообщения

Эту страницу: Twitter Facebook Favorites More