Мёртвый блог живого человека

SEO-оптимизация, манимейкинг, веб-разработка

Отсеивание ссылок в Sape

Недавно я активно занялся работой с Sape. Покупаю очень много дешевых ссылок с минимальными пузомерками, и естественно среди них 98% говна. Хорошо, если ссылок было-бы 10-20 в день — можно и руками прочекать. Но мне приходится разбирать пару сотен ссылок в день, а это уже утомительно.

Немного поработав, я начал задумываться о том, как-бы эффективней отсеивать весь мусор(читай ГС), который сотнями приходит в заявки. Я прочитал на эту тему порядочно статей, пошарил по форумам, хорошенько подумал головой и в итоге выработал свою схему отсеивания ссылок в SAPE.

По шагам я расскажу как выбираю хорошие сайты и как отсеиваю мусор.



Инструменты.
Для этой работы конечно-же браузер Firefox с замечательным плагином «Вебмастер SAPE». Без него никуда — это основа. У кого нет, ставим браузер и качаем для него плагин.

Плагин нужно немного настроить, как это сделать напишу в следующей статье.

Шаг 1. Проверка наличия сайта в индексе Яндекс.

Первым делом я проверяю сайт на наличие в индексе Яндекса. Тут-же пересчитывается кол-во страниц в индексе обеих ПС. Сайты, которых нет в индексе отмечаются галочками автоматически и я сразу-же от них отказываюсь.

Важный момент отказываться от сайтов сразу-же после каждой проверки, а не проводить сначала несколько проверок, а потом отказаться. Благодаря этому экономится довольно много времени. Допустим у меня есть 200 заявок, делаю первую проверку, которая идёт достаточно долго и сразу выкидываю около 25% ссылок. Вторую проверку я буду проводить уже не на 200 сайтах, а на ~150, что в четверть быстрее. Стоит ли говорить, что третья и четвертая проверки будут уже раза в 2-3 быстрей.

Шаг 2. Отсеиваем сайты с малом количеством страниц в индексе.

Этот пункт требует настройки плагина «Вебмастер SAPE».
Жму кнопяру «Отметить сайты с количеством страниц меньше заданных пределов» и выкидываю очередную порцию навоза.

Следует сказать, что выкидываются сайты на которых меньше 50 страниц в индексе и сайты, на которых количество страниц в индексе обеих ПС различаются больше чем в 10 раз.

Так-же, подозрительной выглядит большая разница в кол-ве страниц у разных ПС. Если разница большая, я захожу на сайт и просматриваю его, ГС тут-же идут в GBL. Но это может быть какой-нибудь нормальный каталог, соц. сеть или форум. Тут когда как, иногда оставляю, иногда на автомате в треш летят.

Шаг 3. Проверка проиндексированности страницы в Яндекс.

Тут всё точно так-же, убираю непроиндексированные Яндексом страницы. Можно проверить кэш страницы в Яндексе с помощью соответствующей кнопки(YC), дополнительная проверка не будет лишней, но довольно часто я её игнорирую :)

Шаг 4. Проверка проиндексированности страниц в Google.

Далее я переключаюсь на Google и проверяю проиндексированность страницы в этой поисковой системе.

Не нужно думать, что хватить проиндексированности в одной ПС. То, что сайта или страницы нету в одной из поисковых систем уже знак задуматься, так что я смело выкидываю нафиг такой сайт.

Шаг 5. Проверяем количество внешних ссылок.

И опять пользуюсь одной из волшебных кнопок и проверяю количество внешних ссылок. Если внешних ссылок на 1-2 больше, чем заявлено, я забиваю на это болт — один фиг, на сайте ещё появятся ссылки, главное чтобы ссылок черезчур много не было.

Волшебный плагин помог отсеить практически весь огородный кампост, но осталось ещё чуть-чуть. Теперь мне на помощь приходят руки, мозги и сервис seogadget.ru, помогающий массово проверить кол-во проиндексированных страниц у сайта.

Шаг 6. Проверка сайтов руками.
Окидываю взглядом список сайтов и сразу отмечаю ссылки с запредельным кол-вом страниц(обычно больше 5000-10000).

Шаг 7. Проверка количества страниц в индексе обеих ПС.
Ну вот, у меня остался нормально выглядящий список сайтов. Теперь я тупо копирую все ссылки и забиваю на seogadget.ru/sepages, чтобы проверить ещё раз кол-во проиндексированных страниц(сеогаджету я почему-то больше доверяю, чем плагину). Отсюда уже делаю выводы. Довольно часто плагин показывает в Яндексе много страниц, а в Гугле мало, вот проверка с помощью сеогаджета помогает внести ясность.

Шаг 8. Проверка сайта на ГС.
Ну и последним шагом остаётся беглый просмотр оставшихся в списке сайтов. Захожу на сайт, гляжу на страницу, на которой будет размещена ссылка и на весь сайт в целом, если ГС то сразу в GBL, если нормальный то всё круто.

В общем всё вот как-то так. Это не так уж и муторно и долго, всё занимает считанные минуты. Главное тщательно отбирать, ведь ссылки закупаются на долго.



Спонсор: Много ли ты городов знаешь ? Много где бываешь ? А Благовещенск знаешь ? Чудный город, кстати.

Оставить комментарий

Подтвердите, что Вы не бот — выберите человечка с поднятой рукой:

Комментарии

  1. Самое муторное, это разумеется проверка в ручную. Сам давно работал с лиекс. И покупал и продавал. Так он мне и природнился, а с САПОЙ западло разбираться. Один раз не получилось — больше не заходил. Если только цены сравнить, хотя сейчас я ссылки не покупаю, а если и буду покупать, то только вручную, через контакты с админом

    VA:F [1.9.22_1171]
    0
  2. К сожалению эта проверка не гарантирует того, что проставленная ссылка будет служить долго верой и правдой. С каждым апом из индекса вылетает огромное число страниц и соответственно ссылок. Поэтому проставленные сылки нужно регулярно проверять на адекватноть.

    VA:F [1.9.22_1171]
    0
  3. Говна реально дофига, у меня и с 200-300 не всегда удается отобрать более менее нормальные сайтики

    VA:F [1.9.22_1171]
    0
  4. файервокс...когда уже хоть кто-то для оперы подобное сделает

    VA:F [1.9.22_1171]
    +1
  5. А я еще смотрю чтобы в индексе яндекса и гугла было одинаковое количество страниц, разница 10-20%

    VA:F [1.9.22_1171]
    0


Подпишись и будь вкурсе всех новых тем на блоге — узнаешь много нового!