Недавно я активно занялся работой с Sape. Покупаю очень много дешевых ссылок с минимальными пузомерками, и естественно среди них 98% говна. Хорошо, если ссылок было-бы 10-20 в день — можно и руками прочекать. Но мне приходится разбирать пару сотен ссылок в день, а это уже утомительно.
Немного поработав, я начал задумываться о том, как-бы эффективней отсеивать весь мусор(читай ГС), который сотнями приходит в заявки. Я прочитал на эту тему порядочно статей, пошарил по форумам, хорошенько подумал головой и в итоге выработал свою схему отсеивания ссылок в SAPE.
По шагам я расскажу как выбираю хорошие сайты и как отсеиваю мусор.
Инструменты.
Для этой работы конечно-же браузер Firefox с замечательным плагином «Вебмастер SAPE». Без него никуда — это основа. У кого нет, ставим браузер и качаем для него плагин.
Плагин нужно немного настроить, как это сделать напишу в следующей статье.
Шаг 1. Проверка наличия сайта в индексе Яндекс.
Первым делом я проверяю сайт на наличие в индексе Яндекса. Тут-же пересчитывается кол-во страниц в индексе обеих ПС. Сайты, которых нет в индексе отмечаются галочками автоматически и я сразу-же от них отказываюсь.
Важный момент отказываться от сайтов сразу-же после каждой проверки, а не проводить сначала несколько проверок, а потом отказаться. Благодаря этому экономится довольно много времени. Допустим у меня есть 200 заявок, делаю первую проверку, которая идёт достаточно долго и сразу выкидываю около 25% ссылок. Вторую проверку я буду проводить уже не на 200 сайтах, а на ~150, что в четверть быстрее. Стоит ли говорить, что третья и четвертая проверки будут уже раза в 2-3 быстрей.
Шаг 2. Отсеиваем сайты с малом количеством страниц в индексе.
Этот пункт требует настройки плагина «Вебмастер SAPE».
Жму кнопяру «Отметить сайты с количеством страниц меньше заданных пределов» и выкидываю очередную порцию навоза.
Следует сказать, что выкидываются сайты на которых меньше 50 страниц в индексе и сайты, на которых количество страниц в индексе обеих ПС различаются больше чем в 10 раз.
Так-же, подозрительной выглядит большая разница в кол-ве страниц у разных ПС. Если разница большая, я захожу на сайт и просматриваю его, ГС тут-же идут в GBL. Но это может быть какой-нибудь нормальный каталог, соц. сеть или форум. Тут когда как, иногда оставляю, иногда на автомате в треш летят.
Шаг 3. Проверка проиндексированности страницы в Яндекс.
Тут всё точно так-же, убираю непроиндексированные Яндексом страницы. Можно проверить кэш страницы в Яндексе с помощью соответствующей кнопки(YC), дополнительная проверка не будет лишней, но довольно часто я её игнорирую 🙂
Шаг 4. Проверка проиндексированности страниц в Google.
Далее я переключаюсь на Google и проверяю проиндексированность страницы в этой поисковой системе.
Не нужно думать, что хватить проиндексированности в одной ПС. То, что сайта или страницы нету в одной из поисковых систем уже знак задуматься, так что я смело выкидываю нафиг такой сайт.
Шаг 5. Проверяем количество внешних ссылок.
И опять пользуюсь одной из волшебных кнопок и проверяю количество внешних ссылок. Если внешних ссылок на 1-2 больше, чем заявлено, я забиваю на это болт — один фиг, на сайте ещё появятся ссылки, главное чтобы ссылок черезчур много не было.
Волшебный плагин помог отсеить практически весь огородный кампост, но осталось ещё чуть-чуть. Теперь мне на помощь приходят руки, мозги и сервис seogadget.ru, помогающий массово проверить кол-во проиндексированных страниц у сайта.
Шаг 6. Проверка сайтов руками.
Окидываю взглядом список сайтов и сразу отмечаю ссылки с запредельным кол-вом страниц(обычно больше 5000-10000).
Шаг 7. Проверка количества страниц в индексе обеих ПС.
Ну вот, у меня остался нормально выглядящий список сайтов. Теперь я тупо копирую все ссылки и забиваю на seogadget.ru/sepages, чтобы проверить ещё раз кол-во проиндексированных страниц(сеогаджету я почему-то больше доверяю, чем плагину). Отсюда уже делаю выводы. Довольно часто плагин показывает в Яндексе много страниц, а в Гугле мало, вот проверка с помощью сеогаджета помогает внести ясность.
Шаг 8. Проверка сайта на ГС.
Ну и последним шагом остаётся беглый просмотр оставшихся в списке сайтов. Захожу на сайт, гляжу на страницу, на которой будет размещена ссылка и на весь сайт в целом, если ГС то сразу в GBL, если нормальный то всё круто.
В общем всё вот как-то так. Это не так уж и муторно и долго, всё занимает считанные минуты. Главное тщательно отбирать, ведь ссылки закупаются на долго.
5 комментариев на «“Отсеивание ссылок в Sape”»
Самое муторное, это разумеется проверка в ручную. Сам давно работал с лиекс. И покупал и продавал. Так он мне и природнился, а с САПОЙ западло разбираться. Один раз не получилось — больше не заходил. Если только цены сравнить, хотя сейчас я ссылки не покупаю, а если и буду покупать, то только вручную, через контакты с админом
К сожалению эта проверка не гарантирует того, что проставленная ссылка будет служить долго верой и правдой. С каждым апом из индекса вылетает огромное число страниц и соответственно ссылок. Поэтому проставленные сылки нужно регулярно проверять на адекватноть.
Говна реально дофига, у меня и с 200-300 не всегда удается отобрать более менее нормальные сайтики
файервокс….когда уже хоть кто-то для оперы подобное сделает
А я еще смотрю чтобы в индексе яндекса и гугла было одинаковое количество страниц, разница 10-20%