Seokot vs Яндекс (Раунд первый)
Автор: adminАпр 7
Итак, продолжаю прошлый пост “завязку боя“. Сначала посмотрим на врага исторически.
Термин - “Яндекс” представляет оригинальный гибрид, ни в русском ни в английском языке ничего не обозначающий.
Елена Колмановская, главный редактор Яндекса, поясняет, что придумал это слово отец-основоположник нашего поиска, ныне технический директор компании “Yandex”, Илья Сегалович. “Яndex” означает “Языковой index”.
Другое толкование предлагает Аркадий Волож, генеральный директор компании:
“Это название “Яндекс” - придумал Илья Сегалович (главный разработчик “Яндекса”) по аналогии с продуктами Unix (например, YACC - Yet Another C Compiler). А мне понравилась русская транскрипция. “Яндекс” означает “языковый индекс”: буква “я” - очень русская буква. Это индексирование с русской спецификой. А потом придумалось много других объяснений, например: I - это “я” по-русски. Есть еще вариант: ЯНЬдекс и ИНЬдекс - инь-янь. Исследования на эту тему продолжаются.”
Итак, вступление не о чем. А теперь к делу.
Поскольку наше единственное оружие в борьбе с ним - мозги, причем верхние, их то и пришлось подключить.
Передо мной появилась задача - “какие ссылки покупать, чтобы был максимальный эффект в выдаче?”. Раньше я ставил перед собой задачу - определить человечность сайта на автомате. Но человечность, как оказалась стала скоростью индексации, и с выдачей она никак не связана. Продолжая анализировать xml yandex, пришел к следующему незамысловатому скрипту. Причем в двух вариациях, которые и предлагаю вам потестить.
1) Задумка первого скрипта проста - подняться в выдаче yandex, за счет покупки релевантных ссылок. Я решил взять выдачу в разрезе конкретного запроса. Например: мы хотим продвинуться по слову “ссылка”. Для этого скрипт выдирает из Яндекса n-сотен сайтов, которые находятся там по запросу “ссылка”. Далее копируем этот список в вашу любимую биржу в белый список сайтов, и скупаем с этих сайтов ссылки (если сайты вообще найдутся в бирже). Теоретически, в результате эти сайты должны быть более релевантны в нужном нам запросе, что позволит подняться в выдаче. Протестировать скрипт можете здесь: скрипт прокачки выдачи.
2) Аналогично получился скрипт, который в теории должен установить тематику в разрезе конкретного запроса в Yandex, с целью поднятия ТИЦ (тематического индекса цитирования). Скрипт основан на параметре - число страниц на сайте релевантных запросу. Ситуация почти аналогична: ваш сайт есть в индексе по запросу “ссылка”. Вводите этот запрос в мой скрипт, он выдает вам список сайтов по этому запросу, но справа от каждого сайта указывает число: сколько страниц на сайте тематичны этому запросу. Чем больше страниц, тем больше вероятность что сайт тематичен вам в целом. Далее таже схема - вносите сайты в white list на бирже и скупаете по ним все что есть. Протестировать скрипт можете здесь: скрипт прокачки ТИЦ
Буду рад услышать ваши теоретические предположения по эффективности обоих скриптов. Мне же не охото покупать ссылки по стандартным схемам - “много дешево и сердито” или “мало дорого и наугад”. Охото иметь хоть какую-то связь покупки и оценку результативности.
Оба экспериментальных скрипта будут в дальнейшем внедрены в проект linkfeedator, и для тестов будут работать всего два-три дня. Они также имеют ограничения по 1000 запросов в сутки.
А теперь немного о других блоггерах:
Во-первых, это новый для меня человек SeoFly. Это вторая девшука, интересующаяся seo и интернет-жизнью. (Первая была Seoblondinka, о ней далее). Парни, скоро нас потеснят в нашем поприще=) Девушки начинают мыслить логически и в том же направлении:) Огромное им за это уважение.
Во-вторых, старый знакомый Mark, размышляет о бидах, и хочет попытаться зарабатывать на контексте зарубежом. Я считаю это мудрое направление в плане дохода с контекста, если есть соответствующие знания в английском. Хотя я уже пару лет параллельно работаю в службе поддержки иностранцев по нашему программному продукту, и неплохо владею английским, но суваться в их seo - мне страшновато. В любом случае удачи!!! У кого есть цель, то ее добъется, если захочет.
И конечно же не могу не упомянуть боевую подругу seoblondinkу. Это наверное единственная девушка, которая является полноценным интернет-бомжом в хорошем смысле:) Она также публикует финстриптизы, анализирует свое продвижение и пишет о результатах своей деятельности. Чисто мне интересно взглянуть на все, что мы делаем, с женской точки зрения, и поэтому с удовольствием читаю ее.
Дабы не засорять блог, об остальных напишу в следующем посте.
Вообщем жду апа выдачи яндекса, чтобы написать о первых результатах битвы.
Усиленно читают у меня в блоге:
27 коммент.
Пишет ЮС | дата: 7 апреля 2009 в 22:07
Не перестаю убеждаться как глубоко можно копать!
Не поверишь, на счёт подбора тематики для - пользуюсь этим с декабря прошлого года. Только приходилось довольствоваться агресом и без кол-ва страниц с упоминанием (только в такие моменты задумываешься о том, что надо было учить php) $)!
На счёт интеграции в линкфидатор. Есть предложение прикрутить этот скрипт так:
1) при анализе скупленных сайтов анализировать есть ли этот сайт в первых 20 страницах по кею продвигаемой темы либо анкора. Да, время много, зато эффективно.
2) продумать алгоритм подсчёта коэффициента релевантности на основе кол-ва страниц сайта содержащих запрос и/или нахождение на страницах сайта анкора вообще. + анализ вхождения в title и тэги форматирования….тогда эффективность взлетит.
3) в слепую говорить трудно, не юзая самого линкфидатора, но судя по тому, что я видел на скринах…всё должно сложиться и уложиться в имеющийся продукт;)
А при доведении продукта до ума, я бы на твоём месте обратился в sape с вопросом о расширении api хотя бы до уровня ЛФ. Хоть они там и зажрались, и модерацию ведут неделю, но, думаю, коллективное письмо вполне может их пошевелить.
Пишет SEOblondinka | дата: 7 апреля 2009 в 22:31
Кот, а почему жирным не выделишь слово яндекс?
Так вроде бы лучше для выдачи? не?
Пишет SEOblondinka | дата: 7 апреля 2009 в 22:37
Ой, только сейчас дочитала пост до конца..
Спасибо за приятные слова! (*смущенный смайлик*)
@}-,-’-
Пишет бомж | дата: 7 апреля 2009 в 22:39
вроде лучше, я бы точно выделил стронгами
Пишет admin | дата: 7 апреля 2009 в 23:32
ЮС:
>Не поверишь, на счёт подбора тематики для - пользуюсь этим с декабря прошлого года. Только приходилось довольствоваться агресом и без кол-ва страниц с упоминанием (только в такие моменты задумываешься о том, что надо было учить php) $)!
Как я могу не поверить)) Думаю эта тема давно в обороте. И возможно я лишь дошел до нее с опозданием, как еще до одной грани сеошника) А php учить всем не имеет смысла. Думаю большинству проще будет заплатить n долларов и пользоваться готовым, чем самому учить язык. Главное осознавать каким продуктом пользоваться=)
>1) при анализе скупленных сайтов анализировать есть ли этот сайт в первых 20 страницах по кею продвигаемой темы либо анкора. Да, время много, зато эффективно.
Это абсолютно не проблема=) Даже скажу, что очень просто реализовать. Проблема лишь в ограничениях яндекса, по колличеству запросов. Придется иметь либо несколько ip адресов на сервере, либо пользоваться продуктом в локале с динамическим ip. Хотя в итоге, если осознать что более 50% купленных ссылок уйдут в пессимизацию, думаю проще купить несколько ip по средней цене 30р за штуку.
>2) продумать алгоритм подсчёта коэффициента релевантности на основе кол-ва страниц сайта содержащих запрос и/или нахождение на страницах сайта анкора вообще. + анализ вхождения в title и тэги форматирования….тогда эффективность взлетит.
Вот это уже сложно. Я предпочитаю анализировать более глобальные параметры, содержащие в себе остальные В частности “пассажы” яндекса. Они содержат главное - и title и тэги форматирования. По отдельности эти параметры пусты - например сайт написал на странице в title слово “ссылка”, и эта страница одна, и этого нет в пассаже, то сайт г-но, с моей точки зрения.
>3) в слепую говорить трудно, не юзая самого линкфидатора, но судя по тому, что я видел на скринах…всё должно сложиться и уложиться в имеющийся продукт;)
Шифровать его zend-ом или ion-cubom, чтобы выдать для триальных тестов, я не вижу смысла, по крайней мере пока. Сейчас покупка лицензии на шифрование себя не окупит. Слишком я низкую цену выставил на продукт на данный момент.
>А при доведении продукта до ума, я бы на твоём месте обратился в sape с вопросом о расширении api хотя бы до уровня ЛФ. Хоть они там и зажрались, и модерацию ведут неделю, но, думаю, коллективное письмо вполне может их пошевелить.
Я понимаю, что linkfeed сильно остает от sape. Но недавно я получил доступ к базе Linkfeed и имею все данные о каждом сайте участвующем в нем. Можно постараться подключиться к sape (я понимаю что там аудитория намнооогооо больше), но нужна поддержка. Меня одного никто не послушает. Нужна конкретная бомбежка их саппорта.
Seoblondinka, сразу повыделял пару раз)) Незачто. Мне очень приятно что тут не только мужская аудитория)
Пишет Eugene | дата: 8 апреля 2009 в 12:07
Есть мысль, что просто оценивать количество страниц с сайта которые “релеванты” ключу - мало. По-хорошему еще стоит считать соотношение всех страниц в индексе Я к количеству страниц сайта, которые “релевантны”.
Потому как для сайта с 10к страниц в индексе 100 “релевантных” гораздо “меньше”, чем 100 “релевантных” у сайта с 200 страниц в индексе.
Но это отдельно что-то типа http://yandex.ru/yandsearch?text=rhost%3D%22ru.bdbd.*%22%7Crhost%3D%22ru.bdbd.www.*%22&stpar2=%2Fh0%2Ftm26%2Fs1&stpar4=%2Fs1 для каждого сайта делать… XML не напасешься
С другой стороны - 5-7 сек между запросами, эмуляция браузера с куками - и в день десятки тысяч запросов делаю без напряга. Есть еще go.mail.ru…
Пишет Eugene | дата: 8 апреля 2009 в 12:09
А , еще есть мнение, что Яшка таки оценивает кластеры документов, а не сайт целиком…
Вот как выбрав “релевантный” сайт покупать ссылки в “релевантной” его части - вопрос хороший. В Избранное на биржах страницы не добавишь… Или добавишь?
Пишет seokot | дата: 8 апреля 2009 в 18:52
Eugene, пока я сомневаюсь что яндекс делит сайт на кластеры. Думаю он смотрит на сайт “в различных разрезах”. Деление на кластеры довольно ресурсоемко и не особо нужно. Хотя хз.
Пишет Eugene | дата: 8 апреля 2009 в 19:00
А чего мой комментарий предыдущий не показывает? Я там про соотношение страниц писал…
Причем, второй раз запостить не дало - уже типа такое постил.
Пишет admin | дата: 8 апреля 2009 в 19:57
Тебя за ссылку akismet забанил. Щас опубликовал.
Я только седня об этом размышлял, думал как удобнее реализовать.
Вот только насколько это эффектно? Придется опять эксперементировать..
Кстати Eugene, ты понял до конца параметр doccount? Он ведь не совпадает с числом страниц на сайте соответствующим запросу.. Хотя в описание сказано вроде это.
Пишет Eugene | дата: 8 апреля 2009 в 21:21
Ну, насколько эффективно - не знаю.
Я такую методику юзаю для расставления ссылок в статьях - беру ключевики, сайт требуемый, и для каждого ключа нахожу “подходящие” страницы с сайта. Потом линки в статьях расставляю (с учетом морфологии ). Работает
А doccount да, что-то странное возвращает.
И вобще, был бы ты в аське - мы бы давно уже горы свернули
Пишет admin | дата: 8 апреля 2009 в 21:37
Скажи свой UIN, я щас в аське. Поставил personally for you)) Насчет гор думаю это малореально, но две головы все-таки лучше))
Пишет SEOblondinka | дата: 10 апреля 2009 в 0:54
Кот, грят сегодня Анадырь включили.. И чтото я не вижу твоего 24 места.. виду тридцатое в Африке, а в моем региеоне тебя даже в сотне нет… Как то так.. ЧТо делать?
Пишет ЮС | дата: 10 апреля 2009 в 1:07
да….после вступления анадыря необходимо пересмотреть еще раз все факторы включенные в скрипты и линкфидатор!
Пишет kv | дата: 10 апреля 2009 в 21:46
Анадырь - это круто! Почуствовал уже сёдня. Сайты СДЛ, на которых стал продавать ссылки, просели. Сайты СДЛ, продвигаемые покупными ссылками - просели… Увеличился трафик на ГС.. , ну те, которые не в бане.. странно. Куча страниц в ГС ушла из индекса…
А может погордится немного за Яндекс?
Пишет kv | дата: 10 апреля 2009 в 22:04
..и вообще, сегодня какой-то странный день, Гугл показывал количество “упоминающих ссылку” на один из сайтов около 500, сегодня стал показывать 112! причем где-то 50 из них с каталога reggun
..У них у всех чето сёня крышняк сдувает похоже…
Пишет Серега | дата: 11 апреля 2009 в 15:39
Мда , тут все там умно написано , не буду даже соваться в эту тему ))
А чего скрипт будет работать пару дней всего ?
Пишет admin | дата: 12 апреля 2009 в 23:39
SEOblondinka, будем думать что делать)) Нужно время
ЮС, обязательно( Тут уже всю концепцию ссылочного seo надо пересматривать.
kv, насчет гугла не заметил. Да и не особо следил. А вот на яшке толи просел, толи нет - сейчас не могу толком разобраться.
Серега, ну пока еще не отрубил. Я его для тестинга выставлял и мысли выслушать.
Пишет О бомжах, целях и яндексе вкуче | SeoKot - вся правда о поисковиках | дата: 8 июня 2009 в 11:05
[...] php скрипт анализ сайта в яндексе [...]
Пишет Возможны ли конкуренты у Sape? | SeoKot - вся правда о поисковиках | дата: 30 июня 2009 в 15:13
[...] php Скрипт анализа сайта [...]
Пишет Первая лаба по поднятию тиц, или обкатка linkfeed | SeoKot - вся правда о поисковиках | дата: 14 июля 2009 в 12:04
[...] анализ сайта php скрипт [...]
Пишет Яндекс против сеошников | SeoKot - вся правда о поисковиках | дата: 15 июля 2009 в 1:18
[...] PHP скрипт анализ ссылок [...]
Пишет Формула для вычисления Тиц | SeoKot - вся правда о поисковиках | дата: 17 июля 2009 в 19:29
[...] скрипт определения позиций yandex php ограничение 1000 [...]
Пишет Тиц очень зависит от Тиц | SeoKot - вся правда о поисковиках | дата: 14 августа 2009 в 7:48
[...] АНАЛИЗ ССЫЛКИ В php [...]
Пишет Интернет-доходы за октябрь | SeoKot - вся правда о поисковиках | дата: 14 августа 2009 в 15:30
[...] PHP скрипт определения позиций сайта по запросу в поиск [...]
Пишет На каком блогосервисе поселиться?:) | SeoKot - вся правда о поисковиках | дата: 17 августа 2009 в 17:52
[...] подсчет анкоров на странице [...]
Пишет Инструкция для мазохиста как попасть в бан яши | SeoKot - вся правда о поисковиках | дата: 20 сентября 2009 в 21:25
[...] Скрипт выдачи яндекса [...]