Архив рубрики ‘ yandex ’

Не могу об этом не написать.
Предыстория такова: я создал персонажа, которого обучил отвечать как любимый многими Платоша (Он представляет собой службу поддержки яндекса). Поговорить о своих проблемах с сайтами в реальном времени вы можете здесь: Платон Щукин.

Показав его народу на форумах серча и linkfeed-а, я получил кучу пожеланий ему и ответов.
Часть вы можете почитать на серче в разделе яндекса. Я ржу целый день:) Искуственный интеллект выдает поразительные вещи.
Сейчас опубликую самую смешную переписку на мой взгляд) Не знаю кто автор, но я реально валялся под сталом.

Read the rest of this entry

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong
Честно сказать, я был очень удивлен, когда увидел сколько человек решило поддержать мою военную компанию против яндекса, (начало: “Яндекс объявил войну мне, а я ему“). у моего блога откуда-то появились 90 с лишним читателей, и теперь я вхожу в 5000 популярных блогов по версии яндекса. Спасибо за помощь и внимание.
А теперь по делу, вот история результатов продвижения (по Московской выдаче):
1) яндекс: 71->55->32->30->28->24->9 (передо мной теперь сайт Лебедева..)
2) Яндекс: 80->37->36->25->12->12->12 (никак не получается двинутся дальше)
3) yandex: 60->39->37->17->17->8->8 (передо мной Википедия..)
В апдейт выдачи 17-го числа не было абсолютно никаких подвижек. Продвижение шло с помощью покупных ссылок на Linkfeed, блогуна и обмена постовыми. При этом почти в 2 раза выросла посещаемость блога, и получено столько ощущений, особенно в апдейты:)
Буду стараться двигаться дальше. Может кто-нибудь даст советы, исходя из своего опыта?
А теперь немного о моем проекте Linkfeedator, местном анти-яндексе. Кстати он тоже продвигается по тем же схемам, только по слову Linkfeed, и уже в двацатке, как в google, так и в yandex.
Многим не нравился прошлый дизайн, и я сменил его на более на более презентабельный.
Было:
Стало:
Ну как вам такое изменение?:)
А теперь новость для тех кто думает отложить покупку “на потом”: Linkfeedator будет интегрирован с sape(!), но и это еще не все - также он будет работать с биржами setlinks и xap.
Цена на продукт вырастет, примерно, в 3-4 раза.

И на закуску - я заметил, что у меня довольно много времени уходит на модерацию ссылок, которые покупают на моих площадках. В следующем посте ждите утилитку anti-seopult, которую можно будет повесить в крон сервера, и она автоматически будет проверять заявки, отсеивать с нехорошими анкорами и одобрять нормальные. Помимо этого я решил добавить в нее функцию проверки сайтов, на которые мы ссылаемся. А то бывает анкор “недвижимость”, а на обратной стороне находится xxx.

Ну яндекс держись;)

Усиленно читают у меня в блоге:

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong
Как и обещал Садовский, к нам пришло полное веселье. Не долго мне удалось поиграть в войнушки, как яндекс поставил шах и мат в этой игровой партии. И обозвал он свой мат “анадырем“.
Правда “анадырь” получился не таким каким его обещали нам, а с брибамбасами. В частности в него внедрели элементы разрабатываемого “Арзамаса“. Если мне не изменяет память, именно в арзамасе хотели внедрить полный геотаргетинг поиска.. Что-то они поторопились. Не буду сейчас рассказывать про особенности анадыря, так как сам пока их не знаю.

Итак, почему я решил что моя партия проигранна? Да потому что я не могу теперь биться вслепую. Хитрый Яндекс лишил нас классических средств анализа продвижения, и отслеживания позиций. С какого-то перепугу блог Аллы Пугачевой стал выше по позициям чем мой блог.. при этом мой блог теперь хорошо доступен в выдаче для Африки.. Полный ппц.  Мне теперь что, сто раз написать надо, что я из России, чтобы тупой робот это понял?? И я не могу привязать себя к определенному региону, так как это не имеет смысла..
Поскольку в сео-мире начался бедлам, я вижу три пути дальнейшего развития:
1) Пытаться осваивать новые алгоритмы яндекса, поскольку все мы теперь тут новички, и ни у кого нет приоритетов! Любой мега-сеошник сейчас такой же ноль в прокачке выдачи, как и любой школьник заказавший прокачку в сеопульте.  Вариант прокачки выдачи сейчас крайне не стабилен, и не уверен в его стабильности в дальнейшем, так как начнется дальнейшее подкручивание роликов-за-шариков:)

2) Классическая непостижимая тема - изучение формулы ТИЦ. Опять же тут никогда не было стабильности, и врятли она будет. Но эта тема имеет место быть. К тому же в ней не так важна стабильность. Тиц падает, а цены растут, так что рынок очень конкурентноспособный и интересный. Но… исследовать тиц - это все равно, что завязать себе глаза и биться об забор месяц, и все время думать “сколько сантиметров будет у меня шишка”. А потом открыть глаза и удивится почему шишки уже нет. Вот блин - оказывается уже прошла, пока бился:)

3) Это направление основано на первой мысли любого школьника загнавшего сайт в сапу - чем больше сайтов я нафигачу, тем богаче я буду. Отчасти в этих мыслях есть логика.
Но обычный человек не может создавать тучу сайтов, так как это очень муторно и доход копеечный. Но! Этот доход стабильный, если мы избегаем бана и вылета из выдачи.

Я не могу отказаться ни от одного пути, так как в каждом есть свой смысл. Но поразмыслив первые два пути я буду развивать в своем проекте Linkfeedator (кстати на днях будет второй релиз).

А третий путь меня сейчас интересует больше всего. Поскольку, если подойти к этой теме с умом, то из нее можно многое выжать. В частности, я буду развивать пока приватный проект “Parazit“, который основывается на самоорганизующихся структурах.
На практике система Parazit должна сама порождать новые сайты, без всякого участия вебмастера.
Возьму простой пример: Минус и минус = плюс. Таким образом если система автоматически соберет контент с десятка тематических сайтов, обработает его должным образом и выберет себе дизайн, то получится новый сайт. При этом робот сам должен заниматся обновлением и вычислять некоторые сеопараметры получившихся сайтов (как минимум плотность ключевых слов, и сверять уникальность с оригиналом). Вот это мне кажется очень интересная задачка.
А вы чем думаете заниматься далее? Строгать буратинок, или работать на партнерки?:)

Read the rest of this entry

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

Итак, продолжаю прошлый пост “завязку боя“. Сначала посмотрим на врага исторически.
Термин - “Яндекс” представляет оригинальный гибрид, ни в русском ни в английском языке ничего не обозначающий.
Елена Колмановская, главный редактор Яндекса, поясняет, что придумал это слово  отец-основоположник нашего поиска, ныне технический директор компании “Yandex”, Илья Сегалович. “Яndex” означает “Языковой index”.
Другое толкование предлагает Аркадий Волож, генеральный директор компании:
“Это название “Яндекс” - придумал Илья Сегалович (главный разработчик “Яндекса”) по аналогии с продуктами Unix (например, YACC - Yet Another C Compiler). А мне понравилась русская транскрипция. “Яндекс” означает “языковый индекс”: буква “я” - очень русская буква. Это индексирование с русской спецификой. А потом придумалось много других объяснений, например: I - это “я” по-русски. Есть еще вариант: ЯНЬдекс и ИНЬдекс - инь-янь. Исследования на эту тему продолжаются.”

Итак, вступление не о чем. А теперь к делу.
Поскольку наше единственное оружие в борьбе с ним - мозги, причем верхние, их то и пришлось подключить.
Передо мной появилась задача - “какие ссылки покупать, чтобы был максимальный эффект в выдаче?”. Раньше я ставил перед собой задачу - определить человечность сайта на автомате. Но человечность, как оказалась стала скоростью индексации, и с выдачей она никак не связана. Продолжая анализировать xml yandex, пришел к следующему незамысловатому скрипту. Причем в двух вариациях, которые и предлагаю вам потестить.

1) Задумка первого скрипта проста - подняться в выдаче yandex, за счет покупки релевантных ссылок. Я решил взять выдачу в разрезе конкретного запроса. Например: мы хотим продвинуться по слову “ссылка”. Для этого скрипт выдирает из Яндекса n-сотен сайтов, которые находятся там по запросу “ссылка”. Далее копируем этот список в вашу любимую биржу в белый список сайтов, и скупаем с этих сайтов ссылки (если сайты вообще найдутся в бирже). Теоретически, в результате эти сайты должны быть более релевантны в нужном нам запросе, что позволит подняться в выдаче. Протестировать скрипт можете здесь: скрипт прокачки выдачи.

2) Аналогично получился скрипт, который в теории должен установить тематику в разрезе конкретного запроса в Yandex,  с целью поднятия ТИЦ (тематического индекса цитирования). Скрипт основан на параметре - число страниц на сайте релевантных запросу. Ситуация почти аналогична: ваш сайт есть в индексе по запросу “ссылка”. Вводите этот запрос в мой скрипт, он выдает вам список сайтов по этому запросу, но справа от каждого сайта указывает число: сколько страниц на сайте тематичны этому запросу. Чем больше страниц, тем больше вероятность что сайт тематичен вам в целом. Далее таже схема - вносите сайты в white list на бирже и скупаете по ним все что есть. Протестировать скрипт можете здесь: скрипт прокачки ТИЦ

Буду рад услышать ваши теоретические предположения по эффективности обоих скриптов. Мне же не охото покупать ссылки по стандартным схемам - “много дешево и сердито” или “мало дорого и наугад”. Охото иметь хоть какую-то связь покупки и оценку результативности.

Оба экспериментальных скрипта будут в дальнейшем внедрены в проект linkfeedator, и для тестов будут работать всего два-три дня. Они также имеют ограничения по 1000 запросов в сутки.

Read the rest of this entry

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

После событий бана в прошлом посте, решил в открытую повоевать с яндексом.
Где-то месяц назад я начал в шутку бомбить запрос “яндекс“. Вот результат на сегодняшний день:

Seokot vs Yandex
Как видите по рисунку это 24 место. А шел к нему я с двухсотой позиции и мониторил потихоньку. Если наш любимый поисковик не поставил никаких фильтров по этому высокочастотному запросу (судя по директу 1218998 показов в месяц), то думаю задача выйти в десятку вполне реальная.
Сейчас увеличу свой боевой арсенал, и разработаю план.
Последующий план бомбежки:
  • Сильнее увеличивать ссылочное путем закупки ссылок
  • Писать больше постов на данную тематику
  • Вообще начать писать посты почаще
  • Бомбить ссылочным не только главную, но и тематические внутряки
  • Подключить блогун с его г-повстовыми
Также просьба - всем кому не лень, напишите постовой на меня с анкором “Яндекс” и любым текстом. Конечно не за просто так, и я в ответ поставлю ссылку на вас;)
Хоть это и звучит все очень смешно, но не только же яшке над нами угарать со своими шарико-заролико работающими алгоримами.
Посмотрим что получится из этого бреда.

Усиленно читают у меня в блоге:

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

Эх, жил себе не тужил. Рубил капусту на сапе, но пришел злой яндекс и разнес мои сайты вдребезги.
Вот сволочь думаю=)
Поскольку это мой первый бан сайтов, то я был в шоке.
А теперь предыстория:
4 mfs сайта были сделаны на одном ip (на нем больше не было других сайтов). Все сайты имели один шаблон, только менял картинку в шапке и цветовую гамму в стилях, чтобы на человеческий взгляд они все-таки были разными. Каждый сайт имел по сто уникальных статей, но контент уже не обновлялся месяца 4. Пузомерки сайтов прокачивались покупными ссылками. Внутренней перелинковки не было.
Что наделал яндекс:
Вчера заметил, что на одном из сайтов осталось 0 страниц в индексе. Ну думаю пофиг - не так уж и нужен мне был этот сайт.  А сегодня похоже яндекс решил забанить весь ip. Причины бана мне пока непонятны. Ссылок не особо много было продано. Одно радует - все сайты успели себя окупить в раз 5.
Вот щас думаю стоит ли пытатся вывести их из бана или оставить как есть?
Read the rest of this entry

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

В теме указан вопрос, который волнует множество сеошников, пытающихся среди тысячи купленных или полученных ссылок, найти нормальные. В основном тематика нужна для прокачки Тиц, но мало кто понимает что же такое тематичность ресурса для Яндекса.
Стандартное мышление начинающего сеошника - “если сайт о недвижимости ссылается на сайте о недвижимости, то это тематика”. Это мышление очень глупо. А еще есть такой стандарт - купить тысячу гамноссылок и получить тиц 10-20. Это же бред полный… Хоть кто-нибудь осознает, что больше чем 90% из купленных тысячи ссылок передадут вес равный примерно 0.001 тиц, если не меньше. А есть такие ссылки, которые передадут коронную еденицу (Я до сих пор верю, что максимальная передача веса - это еденица). Так как же их найти?
Вспомним откуда появилась тематика. Изначально она создавалась для яндекс-каталога (да и тиц тоже). Но поскольку она работает и для обычных сайтов, то нужно использовать теже алгоритмы, которые используются в Яке.
Итак, привожу простой пример неосознанной тематичности - сайт “зоопарк из москвы” ссылается на сайт “недвижимости в москве”. Это ведь тоже тематика! Только региональная. А для получения региональной тематики достаточно создать у себя страницу контактов, прописать свой телефон с кодом города, и еще желательно поставить яндекс карту.  Потом просто производите региональный поиск ссылок и ищите аналогичные вам. Эти ссылки будут передавать больший вес, чем другие.
Вообщем тематичность довольно обширный параметр для яндекса. Он делится на 6 фасетов - Тема, Регион, Жанр, Источник информации, Адресат информации, Сектор экономики. Read the rest of this entry

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

Исследуя выдачу яндекса (yandex xml), я нашел одну очень значимую деталь - яндекс знает о всех СДЛ сайтах!
На основе этих знаний я написал скрипт, который говорит к какой категории относится тот или иной сайт, и какая к нему трастовость. С очень высокой точностью этот скрипт определил все мои СДЛ сайты, и гавносайты! Я просто в шоке от таких результатов. Если есть время, перейдите по ссылке ниже и потестите мой скрипт. Возможно он ошибется:) Но если так решил яндекс, то врятли это простая ошибка.

Проверить сайт на СДЛность

В любом случае буду рад почитать ваши комментарии о его точности.
В целом я пошел дальше и приделал этот скрипт к моему linkfeed-клиенту, и на основе него купил кучку ссылок с СДЛ сайтов с запредельной трастовостью. Не знаю есть ли разница в передачи тиц от них, по сравнению с ГС, но попробовать стоит. Так что это мой новый эксперимент.

P.S. Скрипт за сутки может проанализировать до 1000 сайтов. Если он начал глючить, значит колличество запросов к яндексу в этот день у меня закончилось.

Усиленно читают у меня в блоге:

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

Читая многих “супер-пупер-мега сеошников”, я нигде не встречал хоть какие-то намеки на поисковый механизм яндекса. Они любят писать, о том куда потратили пару лямов и какую крутую тачку купили. Вот только кому это интересно? Поэтому их давно нет в моей ленте.
Последнею неделю занимался анализом выдачи яндекса (делал программные интерфейсы на основе поиска яндекса), и подчерпнул некоторые интересные данные, о которых раньше не знал, или знал частично.
1) Самый интересный момент. Робот яндекса при индексации вашей страницы, делит ее на “пасажи”, то есть это некоторый аналог предложений. Но яндекс почему-то подчеркивает, что пассаж — это одно предложение, особенно если оно не слишком длинное.  На основе пассажей строится выдача. Т.е. если вы задали запрос “тиц яндекса”, то яндекс сначала найдет пассажи в которых встречаются оба слова, а остальные нам и неинтересны:)
Кроме этого добавлю, что пассажи бывают двух типов - обычные, и найденные по ссылке. Второй вариант думаю объяснять не надо.

Проверенная информация о пассажах:
Сколько бы релевантных пассажей не было на странице, title+единтсвенный пассаж в выдаче всегда будут выше чем даже 10 релевантных пассажей, но без нужного title. Title имеет максимальный приоритет.
Если вы спросили в поиске слово “яндекс”, то слова “яндексу” и “в яндексе” будут абсолютно идентичны по силе релеватности (подробности во втором пункте).

Предположение по поводу пассажей:

На основе пассажей определяется уникальность документа. Скорее всего механизм яндекса проверяет % соотношение пассажей, из всего этого вывод - перемешивать предложения бессмысленно. Уникальности вы этим не добьетесь.

2) Существует несколько типов словесных соответствий запросу.  Это phrase - буквальное соответствие (скорее всего имеются ввиду падежи), strict - точное соответствие (найдены все слова), all - все остальное (наверняка частичное вхождение слов из запроса)

3) Яндекс зачем-то имеет информацию о колличестве страниц с одного сайта соответствующих запросу (и называет это статистическими данными). Но на выдачу это никак не влияет. Мой сайт находится на первом месте в выдаче и имеет в этом параметре значение 4096, воторой сайт имеет значение 1.  Для чего эти данные тогда? Не врубился. Но отсюда вывод, что сайт может иметь абсолютное несоответствие тем на страницах. То есть одну страницу вы можете прокачивать текстами про то, как сделать молоко, а на другой писать про seo. Каждая страница будет равна в потенциале попасть в топ.

На сегодня все. Буду продолжать изучать механизмы поиска яндекса.

P.S. Начал делать свой сайт http://linkfeedator.ru для своего биржевого клиента. Конечно дизайнер из меня никакущий, но надеюсь навигация и содержание будут понятны. Сейчас сделал главную страницу:) Оцените пожалуйста, как вам оно?

Усиленно читают у меня в блоге:

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong
Мой бубен

Мой бубен

Чето задумался немного, а какое будущее у бирж ссылок? Только наивный будет думать, что яндекс не знает сайты, которые продают ссылки. Даже если я, ради спортивного интереса, смог за час написать скрипт, который выдрал всю информацию обо всех всех сайтах участвующих в биржах sape и linkfeed, то что уж говорить о работниках яндекса?:)
Даже последний баран может зарегиться в бирже и в интерфейсе оптимизатора найти все сайты:)

Другое дело, что яндекс пока нас не трогает, только малость пессимизирует:)
Так что закупайте новые бубны, и стучите в них как можно больше. Я себе уже прикупил:)

А теперь хотел рассказать об одной замеченной мной детале. Все говорят от апах тица и апах выдачи. Но анализируя ссылочную статистику, я заметил еще показатель - ссылочный апдейт. Он тоже довольно нестабилен.
Смотрите следующие графики:
Read the rest of this entry

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong
Яндекс.Метрика