Альтернативный метод создания небанящихся сайтов (сателлитов)

5 Декабря 2011 21:34

статья с маула

5 Декабря 2011 23:09

сколько у тебя там в запасе методов та? скоро не сосчитать будет

6 Декабря 2011 09:54

:)

6 Декабря 2011 10:25

Юрий Тубальцев (464164)
Есть вопрос по описанному методу наполнения информацией: а нет опасности что наполняя сайт таким образом, статья при публикации уже окажется неуникальной? Просто я столкнулся стакой ситуацией на этом проекте, когда одна статья через задания предлагается нескольким вебмастерам, и кто первый опубликовал - тот и в дамках !

6 Декабря 2011 10:30

Дмитрий Федоров (142906)
>кто первый опубликовал - тот и в дамках
Это не совсем правильно, у кого первее проиндексируют эту статью тот и выиграл.

6 Декабря 2011 10:36

Roberto Патисонович (481919)
Да, Вы правы, но сути это не меняет.

6 Декабря 2011 11:05

Дмитрий Федоров (142906)
статья при публикации уже окажется неуникальной?

Если в прогу textkit вы закидываете уникальный текст он таким и остаётся.Прога просто разбивает его на статьи и вы можете назначить время публикации ваших статей,как все сразу так и по одной статье на год вперёд.

7 Декабря 2011 05:39

Не хочу вдаваться в подробности по некоторым пунктам, самое главное, что статья была отписана 2009 году, а к нашему времени- алгоритмы индексации уже несколько раз поменялись и дополнились.

PS. размещение копипастов, тоже имеет место привести под фильтр и обязательно приведёт.

7 Декабря 2011 08:17

хм... на мауле еще и не то прочитать можно... )))... но это не есть истина в последней инстанции...

5 Декабря 2011 21:33

Пролог

Как говорил один мой знакомый, лучший способ избавиться от неприятностей – это в них не попадать. И с этим нельзя не согласиться. Как в интернете, так и в реальной жизни нас на каждом углу подстерегают проблеммы и только тот, кто правильно мыслит и сохраняет голову холодной в них попадает реже. По этому уже написаны целые философские трактаты, но на самом деле всё просто: надо сначала думать – а потом делать. Мастер неделями проектирует деталь и только потом завод ставит её на конвейер, потому, что спроектировав неправлильно один макет – не получатся и все остальные дифференцируемые от него детали. Создание сайтов – это тоже своеобразный конвейер. Особенно, когда люди работают над сотнями проектов. Стандартная мысль начинающего сателлитчика: надо брать массовостью. Пока одни будут баниться – другие будут закрывать дыру. Это первая ошибка: неправильный подход к делу.

Определение 1: не жалейте времени. 100 сайтов, сделанные за 100 дней будут существенно отличаться от 100 сайтов, сделанных за 10 дней.

А можно сделать так: просто не попадать под фильтры и баны. Звучит глупо? Не думаю. Сейчас мы с вами в корне перевернём стратегию массового создания сайтов, чтобы не попадать под фильтры и иметь стабильный доход.

Везде важна психология и рассудительность. Понятно, что в основном сети сателлитов делаются под сапу и лиекс. Вы уже видели на многих форумах и сообществах выражения типа : за сапу банят. А я отвечу: банят за «глупую» сапу. Но не за умную. Хотя об этом чуть ниже.

Определение 2. Продажа ссылок будет жить еще долго, так, как структура интернета и поисковых систем основана на ссылочном ранжировании.

Яндекс умеет распознавать покупные ссылки, но не делает из этого погромов.
Выдержка из доклада Яндекса в Мадриде:
Цитата
Платные ссылки действительно влияют на рейтинги в индексах поисковиков, но не считаются спамом, поскольку встречаются в основном на вполне приличных страницах наряду с другими полезными ссылками и часто указывают на ценные коммерческие сайты. Создание платных ссылок вручную — сложная и кропотливая работа, поэтому неудивительно, что в них действительно содержатся актуальные сведения о целевом сайте. Тем не менее, умение выявлять платные ссылки значительно повышает эффективность рейтингов поисковых машин.
Для проверки алгоритма идентификации платных ссылок мы использовали две тестовых выборки. Первая включает в себя около 1700 полезных естественных ссылок и 1850 платных ссылок, отобранных вручную методом случайной выборки (точность алгоритма оценивалась только по естественным ссылкам). Мы смогли идентифицировать ссылки, принадлежащие одному сервису обмена ссылками, и получили таким образом подборку платных ссылок, которую использовали в качестве второго тестового образца. Из 300 миллионов ссылок, присутствующих в нашем графе, алгоритм идентифицировал как платные 50 миллионов ссылок (17 %).

В результате тестирования было установлено, что точность описанных алгоритмов достигает 94 %, а эффективность — 97 %.
Идентификация платных ссылок позволяет оценивать релевантность ссылок для коммерческих и некоммерческих запросов независимо друг от друга. В первом случае, платные ссылки учитываются при вычислении коммерческого рейтинга, а во втором — игнорируются. Это делает формулу вычисления рейтингов более эффективной и повышает качество поиска, нейтрализуя влияние чрезмерной оптимизации на некоммерческие поисковые запросы и делая результаты поиска более разнообразными.
Надеюсь, все теперь поняли, что, размещенный на вашем сайте код ссылочной биржи никак не влияет на страницы в индексе! Другое дело, неправильная методика продажи ссылок может выступить киллером ресурса-донора. В дальнейшем мы с вами будем пользоваться Основным правиломнепоподания в бан.

Основное правило: смотрите на сайт глазами робота.

Теперь о нашумевшем АГС-17. Этот фильтр, как вы знаете, существует уже давно, но в последнне время заметно активизировался. Сносятся дубликаты страниц, различные теги и календари. И уже многи в панике от данных инструментов отказались.

Определение 3: меньше слушайте других, подумайте сами: то же облако тегов позиционируется как дополнительное меню и даже сам Яндекс использует его у себя на блогах.я.ру. Значит банят не за само облако тегов, а за его неправильную структуру.

АГС в меньшей степени зацепил возрастные домены.

Это важно: сайт с «возрастом» имеет больший авторитет в глазах Яндекса, нежели недельный сайт, залетевший в индекс. У меня сайты на доменах, которым 8 мес и выше живут безбедно, при низком качестве исполнения. Выводим теорему №1.

Цитата
Теорема №1. Сайты, как вино – они должны «отстояться».

Доказательство: Создаем сайт, заливаем на хостинг, вбиваем в индекс, не вешаем коды бирж, и забываем о нём на 2-3 месяца, при этом ежедневно автоматически обновляя его (*).

*как автоматически обновлять сайт описано ниже.

Робот также смотрит на количество страниц на сайте. Создание сайтов с «классическим набором» 100-250 страниц уже не прокатит. Минимальное количество страниц должно быть 300+, чтобы не привлекать к себе внимания робота и по этому аспекту. Лично у меня ни одни многостраничный сайт под АГС не попал, в том числе варезники и киношники на копипасте.

Определение 4: Яндекс любит многостраничные сайты, часто «закрывая» глаза на копипаст и т.д. Правильно сделанные варезники банятся Яндексом крайне редко.

Если рассматривать АГС и «шаблонность», то прямых доказательсв по бану за использование шаблонного дизайна нету. Чтобы это доказать, воспользуемся нашим основным правилом:

Я могу предположить, что далеко не все люди, которые занимаются сайтами, могут еще и уметь верстать и рисовать. На сайте главное контент а не его подача.

Не надо бояться шаблонов – просто желательно их чуток переделывать: хотя бы на шапке лого нарисовать. Понятно, что яндекс этого не видит, но сайт принимает «сдльность». Однако делать 30 и больше сайтов на одном шаблоне – глупо. За это легко и в бан попасть.

Итак, на данный момент мы имеем следующее: для создания множества сайтов надо выделить и множество времени, сайты за сапу не банятся, чтобы повысить «авторитетность» сайта нужно дать ему отстояться, ежедневное обновление сайта покажет роботу, что он имеет дело с чистым СДЛом, шаблоны в сайтостроении, облако тегов, календарь – вещи обыденные, количество страниц на сайте напрямую влияет на «непоподание» его под фильтр.

Сейчас перейдем к технической части.

Часть 1. Выбор CMS.

Dle, Wordpress, Drupal, Joomla, Php-nuke, Slaed, Maxsite CMS, Zebrum… Список можно продолжать бесконечно. Для сайтостроения выбирайте прежде всего удобную для вас систему. Яндекс не забанит ваш сайт только из-за того, что он сделан на Wordpress или Dle, так, как на этих же движках живут сотни и тысячи отличных проектов. Лично я использую Dle за его легкость в обращении, низкое «давление» на сервер, СДЛьный вид, большое количество бесплатных шаблонов. Wordpress тоже хорошо и с ним вы тоже можете работать. Но пример создания «правильного» для робота Яндекса сайта (см Основное правило) буду делать именно на DataLifeEngine.

Часть 2. Контент.

Отнеситесь к этому серьёзно. Для создания «правильных» сайтов ни в коем случае не используйте синонимайз. Это перечеркивает все наши СДЛьные (с т. зрения робота) порывы. Понятно, что для сотни сайтов по 300+ страниц копирайта и рерайта не напасёшься. Выход один – скан. Чистый и без крокозябликов. Проверьте его вручную, удалите переносы и мусор – и у вас получится контент, ничем не отличающийся от копирайта. Если уникальность по Адвего составляет 70% и выше – используйте смело. Робот не забанит сайт за такой контент .

Часть 3. Выбор доменного имени.

Если делаете сайты для прибыли – конечно используйте .ru. На них, как показывает тенденция, всё раскупается быстрее. Тем не менее, не стоит «забивать» и на gTLD и экзотику. У меня 2 сайта в .in и .bz приносят прибыль, а первому даже присвоен регион – Минск. Однако не рекомендую использовать домены 3 уровня и .cn. Это будет просто пустой тратой вашего времени.

Часть 4. Подготовка контента, картинки.

Ни в коем случает не делайте все посты одинакового размера. Если есть маленький завершенный очерк в 50 символов – публикуйте его, если есть большая статья – разбейте на подстатьи и придумайте каждой хороший заголовок. Так делают на всех СДЛ-сайтах, так будем делать и мы. Картинки не являются обязательным критерием, но, подобрав хотя бы к парочке постов (особенно тех, что будут выводиться на главной) тематические картинки – вы даёте роботу понять – перед ним хороший качественный сайт.

Часть 5. Публикация и автоматическое наполнение в течении 2-3 месяцев.

Давайте подумаем, как делаются Гсы обычно? Сделали всё сразу, закинули,ап-два и в индексе уже все страницы, которые потом вылетают. Очевидно не только роботу, но и ребёнку, что перед нами – «неправильный» сайт.

Определение 6: публикуя новости в «будущими» датами, вы, на «период ожидания 2-3 мес» делаете исскуственное наполнение сайта. В Dle, как и в Wordpress, новость, у которой стоит дата послезавтра – будет автоматически снятой с базы данных и выведеной на главную именно послезавтра. Если раскидать , к примеру, 100 постов на наш срок ожидания, получим:

Цитата
100 постов / 90 дней = 1.1 пост каждый день.

Понимаете? С точки зрения робота вы ведёте сайт каждый день, наполняете его уникальным контентом, а не закидываете сразу в индекс всё. Сайт, у которого домен зарегистрирован 4 дня назад, а сегодня уже на нём 300 страниц – посыл роботу яндекса: забань меня!

Часть 6. Структура шаблона, теги, календарь,сайдбар.

Если сайтов много – структуру желательно менять, а не делать всё однообразно. Я обычно делаю так:

Так, как мы наполняем сайт не единовременно – у нас будет календарь на несколько месяцев заполненым. К каждой статье добавляйте 1-2 тега, но не больше – и выводите их в сайдбаре. Код сапы будем выводить именно в колонке, но не в футере. Сделаем закос под «друзья сайта». А друзей в футер не кидают обычно, правда ? Футер подойдет для счетчиков LI и top100 или top.mail.ru – кому что нравится. Ссылку на каталог Liex можете ставить прямо в меню, но это уже после 2-3 месяцев простоя.

Часть 7. Автоматизация процесса.

В наше время автоматизировать процесс создания сайтов несложно. Но это не значит, что не придётся работать руками. Именно сайты, сделанные тупо программами и вылетают в первую очередь. Но мы же делаем СДЛы (см. Основное правило). Лично я использую программу TextKit и сервис econv.ru. Они помогают в пакетной публикации и расставлении автометок с датами. Всё остальное - только вручную. Но если у вас есть деньги на textkit – советую купить. А сервисом econv.ru может воспользоваться почти каждый, хоть он и платный.

Часть 8. Дом для наших сайтов.

Сейчас поговорим о хостинге. Хостинг – очень важная часть, на которую стоит обратить пристальное внимание. Лично я использую разные хостинги, обычно работающие на Российских серверах. Это и teli.ru, eu-host.ru. Цены там низкие – а качество и условия хорошие. Также есть аккаунт с сайтами на infobox.ru. На одном аккаунте не держите больше 20 сайтов. Ip-адреса лучше брать под каждый сайт в отдельности (тариф на инфобокс), но бытующее мнение о бане за один ip можете отметать: у хостеров на одном ip-адресе висят тысячи самых различных сайтов. Вы думаете, в Яндексе это не понимают? Всё понимают.

Часть9. Устанавливаем сайт и заводим будильник на 2 месяца.

Итак, мы прошлись по основным пунктам и теперь можем запускать сайт на 2-3 месяца в свободное плавание. У нас каждый день будут обновляться уникальные новости, возраст домена будет расти, количество страниц тоже. После установки прогоним сайт по соцзакладкам, дабы придать ему индексацию и всё. Яндексу просто не к чему будет прикопаться, а это нам с вами и нужно!

Цитата
Прошло несколько месяцев……………

В один прекрасный день смотрим на календарь и вспомнаем, что у нас же есть сайты, которые, подобно хорошему вину, выдержали свой срок и теперь могут порадовать новыми денежками. Именно теперь мы можем начинать накачивать тИЦ, или закупать под них ссылки. Уже сейчас можно ставить коды бирж не боясь за это неприятных санкций. Формулу в сапе ставьте примерно 5-4-4. Это и есть «золотая середина».

Внимание!!! Ни один из сайтов, сделанных по данной методике, не попал под фильтры и не был забанен.
Последние сообщения:
Мы в социальных сетях!