Приветствую всех!
Ужас, я не писал уже больше полмесяца. Работы было очень много. Сейчас наша фирма готовится к релизу idoblog 2.0 (компонент для joomla 1.5, для построения социальных сообществ типа хабр+жж+я.ру), и надеюсь скоро закончится разработка Linkfeedator 2 (анализатор купленных ссылок для популярных бирж).
Вот как раз о нем я хотел бы поговорить, и спросить совета.
Столкнулся с такой проблем - очень легко попасть в шары (линфидатор начнет ходить по сети бесплатно). Хотя я крайне не рекомендовал бы качать такую версию, потому что в ней может быть код, который заберет ваши пароли от аккаунтов бирж. Но врятли кто меня послушает, так что вижу два выхода:

1) Зашифровать коды продукта с помощью ioncube. Но в этом случае две проблемы - клиент может ставиться в локалке на денвер у человека, который имеет динамический ip. В этом случае я не могу сказать - “работай только с определенного ip-адреса”. А если даже заставлю ставить клиент только на сервера, то народ начнет сомневаться, что я сам не краду пароли. Ведь код зашифрован и проверить невозможно.

2) Часть функций linkfeedator будут работать через мой сервер, И я буду вести статистику по заходам с различных ip и под какими логинами заходят. Под логинами тут подразумеваю логин/пароль от оффсайта компонента. Но тут опять минус - линкфидатор позиционировался как автономный клиент, который дает почуствовать независимость от различных сервисов.

Что же делать, я пока не знаю. Может у кого-нибудь есть идеи, как защитить мой продукт?

Усиленно читают у меня в блоге:

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong
Честно сказать, я был очень удивлен, когда увидел сколько человек решило поддержать мою военную компанию против яндекса, (начало: “Яндекс объявил войну мне, а я ему“). у моего блога откуда-то появились 90 с лишним читателей, и теперь я вхожу в 5000 популярных блогов по версии яндекса. Спасибо за помощь и внимание.
А теперь по делу, вот история результатов продвижения (по Московской выдаче):
1) яндекс: 71->55->32->30->28->24->9 (передо мной теперь сайт Лебедева..)
2) Яндекс: 80->37->36->25->12->12->12 (никак не получается двинутся дальше)
3) yandex: 60->39->37->17->17->8->8 (передо мной Википедия..)
В апдейт выдачи 17-го числа не было абсолютно никаких подвижек. Продвижение шло с помощью покупных ссылок на Linkfeed, блогуна и обмена постовыми. При этом почти в 2 раза выросла посещаемость блога, и получено столько ощущений, особенно в апдейты:)
Буду стараться двигаться дальше. Может кто-нибудь даст советы, исходя из своего опыта?
А теперь немного о моем проекте Linkfeedator, местном анти-яндексе. Кстати он тоже продвигается по тем же схемам, только по слову Linkfeed, и уже в двацатке, как в google, так и в yandex.
Многим не нравился прошлый дизайн, и я сменил его на более на более презентабельный.
Было:
Стало:
Ну как вам такое изменение?:)
А теперь новость для тех кто думает отложить покупку “на потом”: Linkfeedator будет интегрирован с sape(!), но и это еще не все - также он будет работать с биржами setlinks и xap.
Цена на продукт вырастет, примерно, в 3-4 раза.

И на закуску - я заметил, что у меня довольно много времени уходит на модерацию ссылок, которые покупают на моих площадках. В следующем посте ждите утилитку anti-seopult, которую можно будет повесить в крон сервера, и она автоматически будет проверять заявки, отсеивать с нехорошими анкорами и одобрять нормальные. Помимо этого я решил добавить в нее функцию проверки сайтов, на которые мы ссылаемся. А то бывает анкор “недвижимость”, а на обратной стороне находится xxx.

Ну яндекс держись;)

Усиленно читают у меня в блоге:

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

Итак, продолжаю прошлый пост “завязку боя“. Сначала посмотрим на врага исторически.
Термин - “Яндекс” представляет оригинальный гибрид, ни в русском ни в английском языке ничего не обозначающий.
Елена Колмановская, главный редактор Яндекса, поясняет, что придумал это слово  отец-основоположник нашего поиска, ныне технический директор компании “Yandex”, Илья Сегалович. “Яndex” означает “Языковой index”.
Другое толкование предлагает Аркадий Волож, генеральный директор компании:
“Это название “Яндекс” - придумал Илья Сегалович (главный разработчик “Яндекса”) по аналогии с продуктами Unix (например, YACC - Yet Another C Compiler). А мне понравилась русская транскрипция. “Яндекс” означает “языковый индекс”: буква “я” - очень русская буква. Это индексирование с русской спецификой. А потом придумалось много других объяснений, например: I - это “я” по-русски. Есть еще вариант: ЯНЬдекс и ИНЬдекс - инь-янь. Исследования на эту тему продолжаются.”

Итак, вступление не о чем. А теперь к делу.
Поскольку наше единственное оружие в борьбе с ним - мозги, причем верхние, их то и пришлось подключить.
Передо мной появилась задача - “какие ссылки покупать, чтобы был максимальный эффект в выдаче?”. Раньше я ставил перед собой задачу - определить человечность сайта на автомате. Но человечность, как оказалась стала скоростью индексации, и с выдачей она никак не связана. Продолжая анализировать xml yandex, пришел к следующему незамысловатому скрипту. Причем в двух вариациях, которые и предлагаю вам потестить.

1) Задумка первого скрипта проста - подняться в выдаче yandex, за счет покупки релевантных ссылок. Я решил взять выдачу в разрезе конкретного запроса. Например: мы хотим продвинуться по слову “ссылка”. Для этого скрипт выдирает из Яндекса n-сотен сайтов, которые находятся там по запросу “ссылка”. Далее копируем этот список в вашу любимую биржу в белый список сайтов, и скупаем с этих сайтов ссылки (если сайты вообще найдутся в бирже). Теоретически, в результате эти сайты должны быть более релевантны в нужном нам запросе, что позволит подняться в выдаче. Протестировать скрипт можете здесь: скрипт прокачки выдачи.

2) Аналогично получился скрипт, который в теории должен установить тематику в разрезе конкретного запроса в Yandex,  с целью поднятия ТИЦ (тематического индекса цитирования). Скрипт основан на параметре - число страниц на сайте релевантных запросу. Ситуация почти аналогична: ваш сайт есть в индексе по запросу “ссылка”. Вводите этот запрос в мой скрипт, он выдает вам список сайтов по этому запросу, но справа от каждого сайта указывает число: сколько страниц на сайте тематичны этому запросу. Чем больше страниц, тем больше вероятность что сайт тематичен вам в целом. Далее таже схема - вносите сайты в white list на бирже и скупаете по ним все что есть. Протестировать скрипт можете здесь: скрипт прокачки ТИЦ

Буду рад услышать ваши теоретические предположения по эффективности обоих скриптов. Мне же не охото покупать ссылки по стандартным схемам - “много дешево и сердито” или “мало дорого и наугад”. Охото иметь хоть какую-то связь покупки и оценку результативности.

Оба экспериментальных скрипта будут в дальнейшем внедрены в проект linkfeedator, и для тестов будут работать всего два-три дня. Они также имеют ограничения по 1000 запросов в сутки.

Read the rest of this entry

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong

Запуск Linkfeedator

Итак, наконец-то вчера дописал код сайта http://linkfeedator.ru,  и сделал нормальную инсталляцию к моему биржевому клиенту. Короче, начал продажы:)

Для тех, кто еще в танке - linkfeedator - это клиент к бирже linkfeed, написанный на php, который частично позволяет автоматизировать работу оптимизатора методом автоматического анализа купленных ссылок. (В отличии от сеопульта я считаю, что работу нельзя оптимизировать полностью.)
Основные фишки клиента:
- проверка yap, yal, и построение графиков на их основе. На основе yal определяется среднее время индексации ссылки. (эти данные нужны, потому что я слабо доверяю скрипту проверки через firefox. Он очень часто ошибается. Linkfeedator делает прямые запросы на yandex, не пользуясь сторонними поисковиками.)
- проверка на СДЛность, немного мифический параметр, в большинстве случаев влияет на скорость индексации ссылок. Также позволяет обнаружить абсолютные ГС.
- Оценка контента - выводит в % колличество контента. Позволяет на автомате обнаружить страницы регистрации, страницы с фотографиями и вообще страницы с малым колличеством контента.
- Накопительная база данных о сайтах. (Для новокупленных ссылок вы будете знать что они из себя представляют из прошлого опыта.)
- Возможность делать метки для сайтов. Бывает очень нужно пометить, что это хороший сайт, а этот никакой, и в чем его прелести. Вообщем у всех своя специфика работы. Также возможность пользоваться моими метками.
- Расширенная работа с черными списками. Введен параметр Light Black List.
- Построение различных графиков. В том числе график позволяющий оценить суммарное падение тиц для купленных ссылок. Очень полезно бывает узнать почему у вас вычли тиц. Как раз тут частичный ответ.

Также люди с серча посоветовали добавить обнаружение различных фильтров яндекса, и сказали как это сделать. В скором времени реализую.

Также на сайте прикрутил партнерскую программу - получаете 30% от стоимости продажы+клиент получает автоматом скидку 5% при переходе по вашей ссылке.:) Если у вас тематический блог, про продвижение сайтов, и соответствующая аудитория, то вполне вероятны клиенты. Продукт еще не рекламировался, так что для всех он будет в новинку.
Пока я доволен - за первый день,  у меня два клиента:)
Буду продолжать развитие.
Welcome.

Усиленно читают у меня в блоге:

Google BookmarksDiggdel.icio.usTechnoratiYahoo My WebNews2.ruБобрДобр.ruMemori.ruМоёМесто.ruMister Wong
Яндекс.Метрика