Как начать пользоваться школой!

Интересно? Полезно?
Подпишись на обновления в блоге одним кликом!
Реклама на блоге
Начинаем знакомство с лучших постов
Бронирование гостиниц
Продвижение сайтов


Rambler's Top100
Рейтинг блогов

Powered by  MyPagerank.Net
Яндекс цитирования

Моя аська: 155ноль54семь9 (всегда invisible)
Мой скайп: remarka.reklama
Мой емайл: masterxbablorub@gmail.com

Видеоканал Дмитрия Шахова

Лекции по созданию и продвижению сайтов и многое другое

Большая инструкция по заработку на СДЛ

Полное руководство от А до Я для тех, кто хочет зарабатывать на хороших сайтах.

Как создать свой бизнес?

Большая инструкция для всех, кто решил окунуться в мир предпринимательства.

Показаны сообщения с ярлыком seo-аналитика. Показать все сообщения
Показаны сообщения с ярлыком seo-аналитика. Показать все сообщения

четверг, 10 декабря 2015 г.

Ловец ботов, версия 2.0

Я веду небольшое число клиентов сам. Это исключительно многостраничные проекты. Одна из проблем таких проектов - нет, не семантика - отсутствие индекса на посадочных. Решается эта проблема построением внутри движка сайта программного комплекса по максимизации индекса - ловца ботов. Но если привычного ловца немного допилить, то можно выжимать из него немного больше, чем просто повышение индекса на сайте.

Усовершенствованный ловец позволит вам:
- автоматически повышать индексацию проекта до максимума от возможного,
- выявлять трэш, который надо удалить или закрыть от поиска,
- выявлять страницы, которые в индексе, но без поискового траффика длительное время и отправлять их на доработку.

Кликабельно!

Для обслуживания такого комплекса вам практически не нужен сеошник, достаточно редактора. Сроки разработки по приведенной схеме, в среднем, от 4 до 9 месяцев. Пользуйтесь на здоровье!

Конечно, на схеме нет нюансов, но опытный сеошник разберется, а владельцы сайтов - обращайтесь, попробую помочь в рамках оказания услуги консалтинга.

четверг, 16 июля 2015 г.

100% способ снять фильтр Минусинск за месяц

Просто снимите все арендные ссылки!

Простите, если кому-то поломал возможность описать кейс на пять экранов. Кстати, если способ все же не поможет, то придется снять еще и анкорную статику. И после снятия надо дождаться реиндексации донорских страниц. Или ускорить ее.

вторник, 16 июня 2015 г.

О возрастании качества поиска в современный период

Траффик с одного дорвея помесячно. Он просто самый успешный из пачки.


Т.е. июнь обещает быть не хуже мая. По остальным дорам из пачки траффик пожиже, но суммарно картинка та же по динамике.

Дорвеи в коммерческой тематике. На акцепторе (куда льется траф) это никак не сказывается. Траффик, конечно, говенный, но лиды проскакивают. Учитывая цену дорвеев и нулевые текущие вложения, лиды, считай, дармовые.

Впрочем, речь больше о том, что дорвеи не то, что не умирают, а стали приносить больше трафа с марта. В коммерческой тематике, Карл. Что наводит на мысль, что нормальных сайтов стало сильно поменьше, если выбор поиска падает на дорвеи старше полугода.

В жопу SEO, агрегаторы и дорвеи - наше счастливое поисковое будущее! Шучу, конечно, но в каждой шутке только доля шутки.

вторник, 9 июня 2015 г.

Крауд-маркетинг и мифы с ним связанные

Сегодня про крауд не говорит только ленивый.


Однако, я помню время, когда это называлось работой по простановке социальных сигналов. Особой веры в работу этих методов ни тогда, ни сейчас не было. Но это не помешало мне в феврале 2014 года на AllinTop сделать доклад по применению крауда к сети наших туристических сайтов.

Тогда мне еще показалось, что в этой методике есть смысл, и стоит ее масштабировать с помощью биржи. Биржа умерла, не родившись - масштабирование в крауде сильно зависит от добросовестности и опыта постера, но идеи крауда как методики по замене ссылочного до сих пор блуждают в народе.

Да что там. Я даже несколько раз рассказал, как выстроить собственную качественную ферму на паре вебинаров. И некоторые не только ее построили, но и превосходно используют.

Какие же в итоге результаты? Это помесячный график траффика от отзывов из трех наиболее крупных источников. Крауд применялся в работе с лета 2012 года. Это часть работы контент-менеджера. В месяц отыскивается около 30-50 подходящих источников, куда можно добавить отзывы на тему. И часть отзывов удаляется, сколь бы доверенно они не звучали.


Т.е. крауд далеко не самая масштабируемая история, но пару тысяч переходов в месяц можно выжимать из него. В первую очередь, конечно, надо продуктивно работать с основными поставщиками траффика - агрегаторами и соцсетями, где вы можете качать свой профиль непрерывно.

Что касается разовых источников, то их стоит разделять на более-менее регулярные - это городские и тематические форумы, на которых можно завести постоянный профиль и спамить с него. И на "может мне повезет" разовые источники, где ваш отзыв, скорей всего, будет удален. Число этих источников тоже невелико, но разовые еще и сложно искать. Отчасти помогает Google Alerts, но не все сразу попадает в индекс гугла. Траффик с обоих видов таких источников имеет пик и падение. Где-то все растягивается на месяцы, где-то траффик прекращается уже через неделю.


Позиции? Индексация? Да о чем вы! Крауд не способен в чистом виде влиять на позиции. Влияние его опосредованное - через поведенческие хостовые факторы.


Если откинуть фактор сезонности, видим на графике выше, что траффик в гугле повышается с течением времени. А вот в Яндексе никаких значимых изменений нет. Чтобы эти изменения были видны более ярко, нужен очень агрессивный крауд на сотни сигналов, причем с примесью авторитетных профилей. В чистом и естественном виде - это как слону дробина - слишком мало можно сделать постов. Исключение: вы генерируете инфоповоды сами.

И вот здесь возникает ловушка для крауда в чистом виде. В кристально чистом виде крауд - это имитация социальной активности вокруг проекта по существующим инфоповодам. К сожалению, число таких инфоповодов в любой нише ограничено, а в некоторых ничтожно мало. В итоге результаты крауда малозначительны и не могут быть (в отличие от спама по соцсетям, например) даже предположительной заменой ссылочному. Ну, не сделаете вы много соцсигналов, если их некуда ставить. А 20-30-50 сигналов в месяц большого искажения, которое можно приписать крауду, не внесут.

Спам по соцсетям (в твиттер, например), в отличие от крауда, пока работает на наращивание поискового траффика. Он увеличивает число страниц в индексе, привлекает ботов на страницы, способствует росту НЧ и через него запросного индекса. Спам может стать началом большого пути и активно используется почти всеми студиями. Крауд же влияет только на гугл и то слабо.

Но если вывернуть крауд наизнанку и начать генерировать инфоповоды самостоятельно, то крауд превращается в контент-маркетинг.


И при контент-маркетинге крауд становится его частью, контролирующе-сопровождающей частью. Краудом уже не создают отзывы, а поддерживают возникающие естественным порядком, что на порядки легче. И входят страницы, созданные под инфоповод, в поиск намного лучше. И траффик на них сохраняется намного дольше, чем от отзывов при классическом крауде.

И вот возникает вопрос. А надо ли так упираться в крауд, если с точки зрения трудозатрат проще, масштабнее и быстрее генерировать инфоповоды и поддерживать естественные соцсигналы с помощью крауд-технологий? И стоит ли развивать бизнес, если он не способен генерировать инфоповоды?

В данный момент я далек от восхваления контент-маркетинга, как методики продвижения сайтов. На мой взгляд у него много недостатков: исчерпаемость поводов, наличие проблем с захватом ВЧ, длительный срок до результата, риски пограничных технологий с раздуванием индекса, неприменимость во множестве ниш. Кроме того, генерация инфоповода не должна быть обязательна связана с каким-то документом на сайте. Это может быть статья на другом источнике со ссылкой на корпоративный сайт.

У меня другой вопрос. Не кажется ли вам крауд слишком мелкой возней в том виде, в котором его сейчас преподносят - в отрыве от генерации инфоповодов? Лично мне - кажется. Хотя крауд мы используем для низкочастотников, пока гугл на него реагирует, но не более. Крауд - ничему не замена и не панацея. Это так, костылик для отработки отдельных проблем на сайте. Перестаньте делать из него убийцу ссылок!

четверг, 4 июня 2015 г.

Использование языка запросов Яндекса в практических целях

Для тех кто не знал. Или знал, но забыл.

1) Какие документы переиндексировались после изменений можно узнать запросом с помощью недокументированного оператора idate.


idate позволяет ограничить набор документов теми, которые обновили дату индексации, date убирает документы, которые впервые попали в индекс (новые документы). Разница дает документы, которые были, но переиндексировались.

2) Смотрим выдачу без СПЕКТРа, так как СПЕКТРальные места занимаются по отдельному алгоритму ранжирования. Полезно для оценки конкуренции, например.


Для просмотра без СПЕКТРа достаточно добавить в конец запроса собаку @.

3) Подсветка без синонимов. Подсветка - это еще не синонимы. Точнее, не только синонимы, но и аналог LSI в Яндексе. Поэтому надо для себя эти две вещи разделять в подготовке ТЗ для копирайтеров. Синонимы хорошо использовать, как замену вхождений, остальная подсветка идет для доработки текста ради повышения его качества.


Выдача с синонимами. Добавляем в адресную строку &nosyn=1 и получаем без синонимов.


Пример того, что остается, когда вычеркнуты синонимы.


Переносим синонимы в отдельный список и работаем над ТЗ копирайтеру.

4) Проверка на аффилиат. Удивительно, как много людей не знает о том, как это делать. Аффилиат - позапросный алгоритм, накладывающий ограничение на вывод двух сайтов в одной выдаче. Т.е. по одним запросам ваши сайты могут иметь аффилиат, а по другим нет.

Когда у вас несколько сайтов в смежных нишах, вы хотя бы в курсе, что на них может быть наложен аффилиат и можете контролировать это параллельным съемом позиций по продвигаемым запросам. Однако, поиск может наложить аффилиат на несколько сайтов ошибочно. Обычно это происходит, когда сайты пересекаются по адресной или хостовой информации, реже - по донорам.

Вот так выглядит выдача с аффилиатом по двум сайтам.


Шестое место занимает один из двух сайтов. Но если мы его исключим из выдачи, то получим второй сайт на восьмом месте. Но распределение мест здесь не обязательно такое (что склеенный ниже). Иногда склеенный сайт значительно выше, чем тот, что на выдаче и это прям беда-беда, так как аффилиат не снимается без доказательств, что это разные юрлица и/или торговые марки.


В менее очевидных случаях, когда непонятно, на какой сайт склеили ваш, приходится последовательно перебирать сайты один за другим, пока не найдете тот, кто послужил причиной вылета вашего сайта из поиска. Тогда уже пишем письмо платонам на расклейку. Расклейка занимает после ответа платонов примерно от 3 до 7 недель. Не факт, что позиции вернутся к изначальным, кстати.

5) Проверка на склейку по сниппетам. Часто ошибочно за аффилиат признается склейка по сниппетам - исключение сайтов из выдачи за схожий контент. Для склейки необязательно, чтобы ваш сниппет полностью совпадал с чужим. Есть алгоритм, который вычисляет степень схожести и производит исключение. Выглядит действие данного алгоритма как пропадание сайта из выдачи.

Чтобы проверить наличие склейки, добавляем в конец адресной строки запроса &rd=0


Если сайт после такого запроса возвращается в выдачу, то на нем склейка по сниппетам, а не аффилиат. С каким сайтом произошла склейка, выявляется так же методом последовательного исключения сайтов из выдачи, как и в п.4). Находим, добиваемся различий в сниппете, иногда и в контенте сайта. После этого пишем платонам. Расклейка занимает также от 3 до 7 недель после положительного ответа об ошибке.

6) Проверка на то, проиндексировало ссылку с уникальным анкором - по тому, попал ли анкор в анкор-лист по проекту.

Эту проверку спалил Сергей Людкевич относительно недавно, но не поясняя практическое применение. Работает она так.


Ограничиваем выборку оператором inlink, а внутри нее отбираем по конкретному урлу. Если к этому урлу фраза попадает в анкор-лист, то выдача будет непустой. Можем считать, что поиск проиндексировал ссылку с таким анкором и как-то ее в ранжировании учитывает.

Ну, и в конце хак по бесплатной проверке индексации у сайтов с числом страниц от ста тысяч в индексе. Понятно, что проверка через операторы запросов упрется в количество лимитов или будет стоить значительных денег в антикапче. Но можно сократить число проверок до подозрительных кластеров, если правильно сделать адресную структуру.

Панель вебмастера показывает число страниц в индексе с точностью до папки. Бьем структуру так, чтобы число документов, закрытое в адресе /metkoy в ЧПУ было нам точно известно (по карте или по внутренним счетчикам материалов). Т.е. допустим, есть новости. Закрываем их /newslist/ - точно знаем, что новостей у нас 1240 штук. В панели вебмастера смотрим число в индексе, сверяемся - принимаем решение о полной проверке, если число реальное и в индексе сильно отличается.

Можно так раздробить структуру при желании, что выявить кластер с проблемной индексацией не составит труда даже беглым взглядом.

Удачи в продвижении ваших сайтов!

Заказать продвижение: http://remarka.info/
Самому научиться продвигать: http://seohowto.ru/course/

среда, 11 марта 2015 г.

Еще раз по поводу отключения ссылочного в Яндексе

Из нескольких конференций нам известно о двух методиках проверки отключения ссылочного в Yandex. А если быть более точным, то один вариант предложен Сергеем Людкевичем, а второй - Дмитрием Севальневым. Особых отличий между ними нет, поэтому тезисно пройдемся по ним.

Составляется некая конструкция в запросе к яндексу. Если эта конструкция показывает наличие сайтов с СНСС в выдаче по Москве - то ссылочное по этому запросу работает. Если конструкция наличия таких сайтов не выявляет по Москве, но выявляет в другом регионе, то значит, ссылочное не работает. При этом должно соблюдаться еще два условия: должна быть сохраненная копия и это не должна быть быстровыдача (наличие в урл сохраненки &scr=FT).

Примеры есть по ссылкам в презентациях.

Ок. Берем запрос "офисная мебель". Запрос отключенный по обеим методикам. По крайней мере, все сервисы говорят так, да и ручной проверкой в топ500 не находится удовлетворительный сниппет с СНСС. А вот при переключении региона (меняем &lr=213 на &lr=47) такой сайт находится.


Ладно. Пусть так. Но попробуем взглянуть на это под другим углом и составить вот такой запрос. В выдаче попадается три сайта. Один с СНСС. Ок.


Теперь чуточку изменим запрос в кавычках.


Т.е. если фразы нет в документе или анкор-листе, то яндекс ничего не находит, выдавая "Точного совпадения не нашлось". Ок. Значит, если фраза как она есть внутри кавычек, выдается без надписи "Точного совпадения не нашлось" и ее нет в документе в точном виде, то поиск находит ее в анкор-листе. Т.е. как минимум, поиск учитывает фразу из анкор-листа для прохождения через кворум. Или, чем черт не шутит, даже в ранжировании.

Еще пример с длинным анкором. Так сайт находится.


А после исправления запроса, уже нет.


Распространяем гипотезу на отключенный запрос.


Сузим до одного урла.


Проверим, что словоформы не влияют на выбор поиска в верхнем случае, и он действительно использует фразу как она есть из анкор-листа для ранжирования.



И убедимся, что по словоформе, которая есть на странице она находится. Но это уже так, для успокоения души.


Теперь начинайте искать ошибки в рассуждениях. Или придется признать, что что-то не так в методике проверки отключения. Да и вообще с отключением ссылок что-то не так.

четверг, 5 марта 2015 г.

301 редирект и его влияние на позиции

Доклады на конференциях сделаны, можно раскрыть информацию в паблик.

В начале октября я решил провести эксперимент с 301 редиректом над группой своих сайтов. Сайты были выбраны похожие и с одинаковыми проблемами в поиске.

  • 7 сайтов с 301 на новые домены
  • 14 сайтов без редиректа
  • 1 непродленный домен
  • 1 новый домен со старым контентом

Все эти сайты имели и имеют

  • Единый общий дизайн/шаблон
  • Общие проблемы с ранжированием (низкое качество – сателлитный фильтр с лета 2012г., каскад панда-пингвин)
  • Одинаковые и одновременные методы продвижения на все сайты: изменение контента, сниппетов, работа с ПФ
  • Контент не менялся, шаблоны не менялись - не менялось ничего, кроме домена. Адресация тоже была сохранена

Начало эксперимента – вторая половина октября 2014г. Никаких ускорений, писем платонам не применялось. Хотелось посмотреть на естественное поведение в поиске.

Конечно, хотелось бы выборку побольше, но где найти столько проблемных сайтов? Поэтому количество я подменил длительностью. Эксперимент продлился почти 4 месяца. За это время какие-то моменты, которые казались вначале ободряющими, стали не такими приятными.

1) Выпадение сайтов из выдачи гугла.

Тут все просто и быстро. Все сайты показали одинаковую динамику, исчезнув из выдачи за считанные недели. На графиках отложена по вертикали средняя позиция по отслеживаемым запросам, по горизонтали - даты чекинга.





Графики отложены с 10 ноября, надо накинуть еще неделю-две назад, так как не сразу стал отслеживать ситуацию в гугле - банально не выставил регион в топвизоре для гугла.

2) Выпадение из выдачи в Яндексе.

Здесь картина поинтереснее. Только считанные сайты пропали из выдачи. Основное же количество продолжает появляться в топ100 до сих пор, хотя уже пошел пятый месяц.





Хуже того, некоторые сайты даже показывают рост относительно начального падения после редиректа. Были даже случаи возврата в топ10. И как апофеоз данной проблемы - у нас есть сайт, который уже три года на 301, но присутствует в выдаче по ряду запросов, а два года он провисел в топ3 по частотному запросу без СНСС. На чем основано ранжирование таких сайтов в Яндексе столь длительное время после 301 - для меня загадка, но это вполне себе объясняет дальнейший вывод о том, что Яндекс не передает все факторы по редиректу.

3) Вхождение сайтов в выдачу поиска.

Оба поисковика показали одинаковый результат - все новые сайты вошли в выдачу за 2-3 недели.



4) Смена сайтов в выдаче Google.



Скрины кликабельны. Интерес представляет даже не скорость, с какой новый сайт подменяет старый на выдаче. А то, что в гугле очень быстро на новом сайте наступает стабилизация. Отдельные позиции могут показывать несколько отличную динамику - это мы увидим в сравнении выдачи по отдельным запросам. Но в среднем гугл практически сразу выходит на некоторый средний уровень и дальше флуктуирует по позициям вдоль него.

Общий итог: сайты меняются в выдаче Google за 2-3 недели, реже - позже.

5) Смена сайтов в выдаче Yandex.




Без дополнительных комментариев видно, что смена в выдаче занимает больше времени. И некоторое время средняя позиция гуляет. Или если построить медиану, то, в принципе, можно сказать, что стабильность вроде есть, но флуктуативность выше чем в гугле.

Общий вывод: смена доменов на выдаче происходит за 4-7 недель.

6) Позиции в Google на новых доменах.

Разные цвета - позиции по разным запросам.



Большинство новых доменов вернулось на те же позиции, что были на старом сайте. На некоторых фиксировался скачок в начале, но потом следовал откат до примерно тех же позиций, что были на старом домене. Получить заметное улучшение позиций не получилось ни на одном домене в эксперименте.

7) Позиции в Yandex на новых доменах.

Возврат к позициям на старом домене (сайт был в топ10)

 +20 к позициям на старом домене

+70 к позициям на старом домене

+20 к позициям на старом домене

+70 к позициям на старом домене

По яндексу везде либо в плюс, либо к тем же позициям.

Резюме

Google передает при склейке 301 большую часть свойств, связанных с доменом

Яндекс дисконтирует часть факторов, связанных с доменом при склейке: судя по росту позиций – негативных! На сегодня достигнутый результат остается стабильным.

Дополнительный бонус редиректа в перераспределении релевантности на сайтах с залипшей релевантностью.

На контрольной группе в период эксперимента улучшений не замечено. Либо хуже, либо также.

Где домен был сменен без редиректа: старый не продлен, а на новый просто повешен старый сайт - сначала было хорошее вхождение, похожее на бонус новичка, но потом последовал откат.

Я озвучивал гипотезу по снятию бана за накрутку ПФ через 301. Экспериментально она не подтвердилась. Для снятия у тех, кто проводил, потребовалось кроме 301 делать еще и смену адресации и смену контента.

понедельник, 2 марта 2015 г.

Распределение анкоров в ссылочном профиле сайтов

Изучил с помощью мегаиндекса (они недавно анонсировали 100% охват по бэкам в рунете) несколько сайтов, которые не продвигаются искусственно. То, что это так - мне известно из первых рук. В то же время это сайты с тысячами обратных ссылок и посещаемостью в десятки и сотни тысяч уников в сутки.

Распределение по анкорам на сайтах с естественным ссылочным профилем.






Безанкорными в мегаиндексе называются ссылки в виде адреса сайта или его отдельных страниц. Т.е. "тут", "там" и "здесь" входят в сумму по однословным анкорам. Заметим, что доля анкоров в виде URL нигде не превышает 10%, а чаще всего в районе 5-7%. Доля однословных анкоров колеблется от 40 до 55% - там где эта доля минимальна, брендовым является двусловник. Доля мегадлинных анкоров весьма велика. И этот факт тоже не стоит игнорировать.

Посмотрим теперь, как это распределение выглядит на сайтах с коммерческим продвижением.





Безанкорных почти нет. Однословников в четыре раза меньше. На двух и трехсловники приходится от 45 до 70%.

Картинки от ниши практически не меняются. Разница только если брендовый запрос состоит не из одного слова, а из двух-трех.

Выводы просты. Для имитации естественного ссылочного профиля ставить адрес сайта в ссылку не так уж и обязательно. А вот однословных анкоров должно быть сравнительно много по отношению к двух, трех и большим числом слов, если брендовый/витальный для вас запрос не из двух слов и более. Вот только нужно ли так геморроиться, если все перечисленные выше сайты с коммерческим продвижением находятся в топе по вк-запросам?

Есть в мегаиндексе еще интересное распределение по тИЦам. Так вот. У всех сайтов в топе, независимо от того, естественный профиль или накрученный - доля тИЦ 0-20 от 50% до 80%.

Поиграться бесплатно со своим ссылочным профилем можно по ссылке. Кстати, по ссылке как раз случай, когда витальные и брендовые запросы из двух-трех слов.

Популярные сообщения

Эту страницу: Twitter Facebook Favorites More