Что бывает когда в блоге долго не пишут

Если не обновлять систематически проект, который вы ведете он рискует попасть под фильтр. Поисковые машины судя по этому признаку полагают, что блог или сайт заброшен, поэтому не место ему в поисковой выдаче.

Что делать если сайт попал под такой фильтр?

1. Обновить эллементы дизайна на сайте.

2. Внедрить последние новшества на сайт, например добавить микроразметку schema.org.

3. Заказать или написать побольше контента.

Так уж устроено все в Интернете – человек ищет информацию, так называемый контент. Поисковики его находят исходя из запроса пользователя в дебрях своей поисковой базы сайтов, которые постоянно обновляются.

Соответственно логично и предположить, что контент (статьи, фото, видео и т.д.) решает основную задачу стоящую перед пользователем в поиске, необходимой ему информации.

Насколько популярен контент и насколько этот контент виден в поисковой выдаче это другой вопрос, но начинается все с контента – это факт.

Именно поэтому не стоит пренебрегать наполнением своего сайта полезными, для пользователей интернета, статьями и другими материалами. И если ваши статьи будут действительно полезными, со временем они станут и популярными. А популярная статья имеет больше шансов на попытку ответить на запрос пользователя, шанс что ею поделятся с друзьями или просто оставят статью в закладках. Все это и есть те сигналы которые говорят о популярности материалов издателя.

Видимо и сигнал о том насколько давно публиковалась последний раз статья на сайте в действительности очень важен для поискового алгоритма.

На данный момент есть сайт у которого наблюдаются такие проблемы, а именно статьи не добавлялись более 4 месяцев, как собственно и не закупались ссылки. После очередного апдейта Яндекса (13.05.2014), сайт откланился и ушел из выдачи. Вместо положенных 80-100 человек с Яндекса теперь максимум 10 уников в день.

Если удастся вырулить из под фильтра описанными выше 3 пунктами с удовольствием опишу результаты и затраченное на это время.

Яндекс и покупные ссылки в транзакционных запросах

С конца 2013 года многие форумы пестрили сообщениями об отказе Яндекса с начала 2014 в своих поисковых алгоритмах от ссылочного влияния на  транзакционные запросы (запросы смысл которых подразумевает покупательную способность посетителя, т.е. желание посетителя приобрести определенный товар или услугу) в Московском регионе. Далее, как обещали такие нововведения коснутся и другие регионы России.

Т.е. смысл заявления представителей компании Яндекс в том, что можно отказываться от агрессивных методов продвижения коммерческих ресурсов. Например, этот сигнал был отправлен в первую очередь тем кто сильно увлекается продвижением клиентских проектов в ссылочных агрегаторах, таких как Rookee, seopult.ru и т.д.

Яндекс vs Ссылочный профиль
Яндекс vs Ссылочный профиль

Так уж сложилось, что не многим ранее (примерно за месяц) был запущен новый проект  и поскольку конкуренция в тематике есть, а двинуть надо все это максимально быстро, был куплен “узконишевый” домен и запущен “агрессивный” метод продвижения, пресловутым seopult.ru. (Далее предполагается развивать другой домен (брэнд), с большим спектром услуг). Проект этот представляет услуги (ниша в строительстве), компания из Москвы, контакты на сайте московские. Совокупный бюджет в сеопульте – 10 000 руб.

Первый же апдейт Яндекса в 2014 году очень приятно меня удивил, в списке продвигаемых запросов порядка 30% транзакционные. При этом стабильно росли все запросы из числа продвигаемых. И Яндекс и Google, Google рос быстрее, но Яндекс не сильно отставал.

Далее, как это иногда бывает, проект не финансировался некоторое время и от ссылок пришлось отказаться. Прошел еще один апдейт и снова проект запустился, так вот за это время все оставалось как и до всех этих слухов.

Т.е. проект в сеопульте остановился, следующий апдейт и произошел откат позиций вниз, финансирование появилось и проект запустился вновь. Сегодня я вижу снова рост, правда прошло около 3 недель с момента последнего запуска компании, но все работает как и прежде. Ссылки, их количество и качество влияют на транзакционные запросы в Москве на 15.02.2014 ОДНОЗНАЧНО!

Как видно из скрина  – позиции растут очень не плохо, если вдруг, что-то резко поменяется по проекту, обязательно отпишусь.

Важное о безанкорных ссылках

Что представляют собой безанкорные ссылки

Не только многие новички в мире SEO, но и некоторые оптимизаторы со стажем порой задаются вопросом – что такое безанкорная ссылка, и для чего она нужна? Прежде чем ответить на этот вопрос, нужно понять, какие два основных вида ссылок бывают вообще.

О ссылках
Что такое безанкорная ссылка

1. Анкорные. Представляют собой ссылки, облаченные в текст (ключевые слова).

Применяется не только для увеличения ссылочной массы, но и для выделения ключевиков на странице и ее продвижения по конкретным КС.

Примеры: “Строительство домов”, “Продвижение сайта”.

2. Безанкорные. Ссылки, в которых нет КС, обычные линки, представляющий собой чистый URL, картинку, или гиперссылку с текстом «тут», «читать», «здесь» и т.п.

Пример: “http://ren50.ru/vazhnoe-o-bezankornyx-ssylkax/”

Как используются безанкорные ссылки

Поскольку различные виды ссылок активно используются оптимизаторами, важно отметить то, как можно использовать безанкорные ссылки в увеличении ссылочной массы ресурса. Поисковые системы с каждым днем начинают все больше ценить естественность, и именно это позволяет безанкорным ссылкам эффективно участвовать в наращивании тИЦ и PR сайта.

Если ссылку с анкором Яндекс или Google с высокой долей вероятности пометит как «купленную», что явно не поспособствует повышению позиций страницы и сайта в целом, то ссылка без анкора выглядит в глазах поисковиков более естественной, что является несомненным плюсом. В целом, можно сделать вывод, что безанкорные ссылки более предпочтительны.

Однако это вовсе не значит, что следует отказаться от ссылок анкорных и полностью перейти на безанкорные. Оптимальным будет гармоничное сочетание и тех, и других. SEO – это настоящее искусство, и порекомендовать конкретное соотношение ссылок анкорных и безанкорных, конечно, будет довольно сложно. Можно лишь сказать следующее – при грамотном комбинировании различных методов вы сможете добиться хороших успехов в деле создания и продвижения своего сайта.

Какие ссылки лучше использовать

Мои наблюдения за стремительно меняющимся сектором “продвижения в Интернет”, подсказывают мне, что не менее половины вхождений должны быть безанкорными, это если сайт у вас информационный.

Если же вы продвигаете коммерческий сайт и рассчитываете попасть в “топ” поисковиков в транзакционной  его части, рекомендую вообще снизить количество анкорных ссылок до 25% и менее.

Такая политика будет сбивать с толку поисковые машины, и представлять ваш ссылочный вес как естественный )

Какая ПС индексирует ссылку с ЖЖ быстрее

Сегодня меня очень сильно удивил Яндекс, очень быстрая скорость индексации ссылок с комментариев (чужих блогов livejournal) на главную страницу своего блога в  ЖЖ – менее суток .

Не ожидая ничего подобного от Яндекса  ушел смотреть результаты прокачки моего блога  ЖЖ – http://ren50at.livejournal.com/, в Google.

Результат:

  • за сутки в Google ничего не появилось
  • за сутки в Яндекс Вебмастер появилось приблизительно 80% обратных ссылок

Откровенно говоря такого не ждал даже от Google не то, что от Яндекса. Это наблюдение наводит на мысли о некоторой любви Яндекс к livejournal. А думается так от того, что далеко не все ссылки появляются в панели вебмастера за сутки, по моим наблюдениям такое вообще редко бывает.

Из этого наблюдения тихо появляется желание устроить эксперимент с блогами в ЖЖ. Кто бы, что ни говорил, но проверять все нужно самому, именно поэтому буду дальше в ритме прокачивать блог в  livejournal с целью не тратя не копейки, бесплатными ссылками нарастить:

  • PR до 3
  • ТИЦ до 20

Как прокачать свой блог в ЖЖ?

Первое, что приходит в голову – это комментировать в свободное время блоги в ЖЖ на интересные для себя темы.

Второе – наращивать количество единомышленников в ЖЖ с целью взаимовыгодного сотрудничества.

Крутая, трастовая ссылка без денег – это нормально!

( 1 результаты 1,5 месяца спустя здесь – эксперимент с блогом ЖЖ)

По поводу livejournal человеческими словами..

в последнее время складывается очень приятное впечатление, по ходу на сегодняшний день это единственная в своем роде социальная сеть с таким количеством наворотов как для личных нужд, так и для PR акций компаний. Как видим в ЖЖ все чаще стало маячить политикой, но читателей ЖЖ как видно это не смущает, что хорошо конечно. Адекватные люди со здравым рассудком думаю чаще встречаются в livejournal, нежели в других соц. медиа, хотя это не утверждение – приходите и Вы в livejournal!

Пессимизация сайта в поисковых машинах и её последствия

Вначале 2003г. в сети сотрудники поисковой системы Rambler впервые упомянули такое понятие как «пессимизация» сайта. Прошло уже немало времени, но проблема стремительного понижения позиции сайта или исчезновение его из первой страницы выдачи поисковой системы все также актуальна и в настоящее время, более того этот вопрос набирает популярность вместе с развитием алгоритмов поисковых систем.

Специалисты в области оптимизации сайтов, как и прежде не перестают искать методы как бы ни попасть в немилость поисковика. Использование допустимых методов оптимизации избавит ресурс от карательных санкций со стороны поисковика. Под понятием «пессимизация» интернет-ресурса подразумевается потеря ресурсом лидирующего места в выдаче поисковика при выявлении использования недопустимых способов оптимизации, или иных недопустимых действий, связанных с оптимизацией сайта.

Специалисты поисковых систем, применяя такие санкции к ресурсам, стремятся избавить лидирующие позиции поисковой выдачи от «накрученных» серыми и черными методами продвижения сайта ресурсов, и тем самым помочь пользователю. Они стремятся сделать выдачу ПС более релевантной и максимально быстро отвечать на запросы пользователей.

«Пессимизация» интернет-ресурса проходит по определенной схеме. Сначала определенная программа (алгоритм) поисковика просматривает страницы находящиеся в индексе (выдаче ПС). После чего, если была обнаружена чрезмерно оптимизированная страница (принимая во внимание как внутренние, так и внешние факторы) ей устанавливают особый коэффициент, который оказывает негативное влияние на ранжирование.

“Дабы не попасть в немилость поисковых машин лучше вооружится актуальными знаниями, часть из них можно почерпнуть в материале: комплексное продвижение интернет-ресурса

Бывают случаи, когда специалисты поисковика изучают страницы вручную. Это происходит, если поступают жалобы от пользователей о том, что некоторый ресурс нарушил условия оптимизации, например сайт из выдачи ПС совершенно не отвечает запросу пользователя или еще хуже на таком сайте есть «вирус» или другой «вредоносный код».

Если нарушения выявляются, то сайт пессимизируется. За какие нарушения поисковик накажет ресурс? Самая распространенная причина, из-за которой сайт понижается в рейтинге, это размещение ссылок на специальных ресурсах. Такие ресурсы еще называют «линкопомойками».

Их используют, что бы повысить рейтинг ресурса, только не грамотные вебмастера. Так же позиция вашего ресурса будет страдать, если на ресурсе выявлен заимствованный (ворованный) контент. Яндекс успешно применяет специальный метод поиска. Он выявляет страницу, на которой находится скопированный текст и она убирается из индекса. Впоследствии, её можно найти лишь по запросу, в котором должен быть расположен длинный фрагмент этого текста, причем точный и без исправлений. Такие страницы будут стоять ниже страниц, на которых находится оригинальный текст, если будут вообще в индексе.

“Так же очень важно понимать в какой поисковой системе планируется продвижение, если в качестве приоритетной ПС, Вы выбираете www.google.ru , вам может пригодится статья на тему: раскрутка сайта в google “

Присутствие некачественных ссылок может послужить поводом к пессимизации ресурса. Эти ссылки могут появиться при отсутствии опыта работы со специализированными биржами ссылок, типа seopult и sape. Еще ресурс будет удален из выдачи, если на нем размещены материалы, запрещенные законом.

Как определить, что сайт пессимизировали?

Ресурс длительный период находился на лидирующих местах в выдаче поисковика, после чего резко выпадает из первой сотни, а так же если тИЦ снизился до нуля – это указывает на применение санкций поисковой системы. Понижение позиций сайта в выдаче бывает не сильно большим, и составлять всего 15-25 мест. Это может еще произойти и при обновлении алгоритма поисковой системы. В таком случае, не паникуйте, а проанализируйте динамику позиций сайта за определенное время и изменений алгоритмов работы поисковика.

Что сделать, что бы вернуть лидирующие позиции сайта? Определите причины понижения рейтинга вашего ресурса и попытайтесь ликвидировать их. Это можно сделать в процессе проведения досконального исследования сайта, которое вы можете заказать у специалистов. Проверить качество оптимизации и ссылки, которые применяете для «раскручивания» своего творения. Если ресурс совсем исчезает из выдачи или занимает самую низкую позицию, можно обратиться в службу технической поддержки поисковой системы. Отправьте письмо, в котором укажите проблему. Через некоторое время придет ответ, что было выявлено нарушение правил поисковой системы.

Исправьте все нарушения и напишите письмо об этом. При одобрении ваших действий ресурс вернут на свое место в выдаче в соответствии его релевантностью (точность ответа на запрос пользователя), относительно алгоритма конкретной поисковой системы. Если этого не произойдет, повторите предложенные действия еще раз.

Не желаете, что бы ресурс попал под пессимизацию, создавайте сайт его для людей. Специалисты ПС постоянно усовершенствуют алгоритмы поисковой системы.

Применяя незаконные методы оптимизации, невозможно не попасть под пессимизацию, это лишь вопрос времени. Сделайте ресурс интересным для посетителей, и вы избежите проблем с поисковой системой и «пессимизацией» вашего сайта.

8 шагов – комплексного продвижения сайта или интернет-ресурса

Осуществляя анализ ряда ресурсов различающихся тематик, натыкаешься на факт того, что большое число компаний и оптимизаторов собственные ресурсы раскручивают посредством приобретения ссылок в биржах ссылок типа «SAPE», или более автоматизированной системе seopult.ru, на что расходуются громадные финансовые средства. Стоит отметить, что делается это все без какой-либо предварительной подготовки. В данной статье постараемся рассмотреть череду мер, связанных с комплексной оптимизацией ресурса в поисковиках, без использования финансов.

1. Оптимизация сайта с точки зрения его исполнения ( внутренняя оптимизация сайта )

Необходимо, чтобы ресурс был разработан для пользования людьми и обладал уникальным содержимым. Не стоит отбрасывать в сторону внутреннюю перелинковку, качественное исполнение семантического ядра и доскональную отработку тегов, которые оказывают непосредственное влияние на процесс оптимизации, в число которых входят H1..h2..h4, title, meta-теги и прочие. Код ресурса должен быть минимальным по объему и заточен под поисковых роботов. Обязательно присутствие html-карты. Здесь же sitemap.xml и robots.txt, этот файл должен быть оформлен надлежащим образом. Подробнее о принципах внутренней оптимизации сайта вы можете почитать в статье:  оптимизация интернет-магазина , она писалась под задачи оптимизации именно интернет-магазина, но описаный в ней принцип применим в любых форматах и таматиках интернет-ресурсов. О внешней оптимизации сайта писалась эта статья: внешняя оптимизация сайта . Возвращаясь к статье хотелось бы добавить, что качественнаю характеристику контента можно проверить, например сервисом PR-CY, magaindex.ru, seolib.ru, на данный момент есть множество подобных сервисов.

2. Каталоги ресурсов.

Да, как это ни странно, но именно каталоги. Нет смысла использовать allsubmitter, базу, состоящую из 20 тысяч каталогов и по ним впустую прогонять сайт. Нужно самостоятельно отобрать 100-500 топовых каталогов и вручную по ним сделать прогон. Естественно, силы у всех разные, поэтому и количество отобранных каталогов может розниться в каждом индивидуальном случае. Стоит отметить, что каталоги частенько банятся, так что нельзя их забывать.
PS: В настоящее время довольно актуальной является тематика прогона ресурса по каталогам, относящимся к буржунету. На этот момент стоит обратить свое внимание, так как там нет «nofollow», а показатели (CY, PR) по отношению к Рунету, просто сногсшибательные.

3. Рейтинги.

Отбираем некоторое число рейтингов по тематике, соответствующей вашей, наделенных высокими показателями. И добавляем туда свои ресурсы.

4. Закладки социальные.

Находим список dofollow социальных закладок, после добавляем в него страницы собственного ресурса. Закладки могут быть, как «буржуйскими», так и русскими. Добавлять я рекомендую внутренние страницы.
PS: Страницы в закладки добавляются последовательно, не более трех-пяти в неделю.

5. Форумы.

Находимо несколько форумов по соответствующей теме и с внушительной активностью, в них общаемся, предварительно зарегистрировавшись на ресурсе и прописав свой сайт в профайле по возможности. Естественно, не стоит при общении забывать относительно ссылок на собственные сайты.

PS: Большого веса от ссылок получить не получится, но вот обзавестись множеством пользователей, вполне реально. Главное не допустить спама, а общаться реально.

6. Блоги.

В Рунете блоги развиваются подобно снежному кому, и у множества из них имеется такой параметр, как «dofollow». Огромное количество блогов имеют атрибут «nofolow» – это значит, что ссылки с таких блогов не передают ссылочного веса. Здесь также не стоит отбрасывать в сторону спам, именно он стал причиной такого явления как атрибут «nofollow». Необходимо уважительно относится к чужому труду и не стоит тупо спамить, ваши комментарии в блогах должны быть осмысленными. Стоит для себя найти интересные посты и оставить грамотные комментарии.

PS: Многие вебмастера в настоящее время блоги вообще в расчет не берут, я думаю это проявление отсутствия времени или банальная лень, в любом случае, если у вас есть время и отсутствует финансирование, этот метод может стать сильным оружием в ваших руках, особенно этот инструмент должен быть интересен начинающим SEO-специалистам.

7. Статьи.

В настоящее время – это в реальности является весьма эффективной методикой продвижения своего ресурса. Можно размещать свои статьи с ссылками ведущими на ваш сайт или покупать ссылки в уже прошедших индексацию статьях на ресурсах, их можно найти например в тематичной бирже gogetlinks.

8. SAPE, seopult

И только теперь стоит рассмотреть вопрос приобретения ссылок. В нынешнее время этот вариант становится воплощением настоящего искусства, потому как делать это нужно с особенной осторожностью, поисковики могут наказывать за присутствие плохой ссылочной группы в ссылочном профиле, именно поэтому пользоваться подобными биржами стоит исключительно для наращивания ТИЦ, реальных результатов с помощью этого инструмента добиваются не многие. Стоит внимание обратить на тот факт, что приобретение ссылок сегодня стало менее эффективным.

PS: К приобретению ссылок стоит подходить основательно, на основании чего, перед вложением финансов, изучите информацию, связанную с применением SAPE, seopult, и ознакомьтесь, какие из ссылок приобретать разумнее.…Этот пост является небольшим руководством оптимизации ресурса. В некоторых ситуациях вложение финансов вообще можно обойти. Наиболее подробно каждую отдельную позицию описывать смысла не имеется, так как всю информацию по ним можно легко найти в Сети. Статья может оказаться полезной для начинающих и, хотелось бы надеяться, для состоявшихся уже оптимизаторов.

Такой процесс, как продвижение сайта, является фактически бесконечным и забывать про него не стоит. Регулярно знакомьтесь со свежей информацией, связанной с продвижением, а также проводите анализ сайтов конкурентов и своих собственных.

Удачи, друзья!

Продвижение сайта по низкочастотным ключевым словам

Эффективным методом привлечения целевых клиентов на ваш сайт является продвижение сайта по низкочастотным запросам. Большим плюсом данного способа является то, что повлиять на позиции в поисковиках гораздо проще в отношение тех ключевых слов, к которым пользователи Интернета обращаются реже, так как «высокочастотные» запросы выбиваются приличными инвестициями.

В случае с «низкочастнотниками», в отличие от конкурентных запросов, не нужно каждый месяц платить за покупку ссылок. Данный момент является очень важным на начальном этапе, когда сайт еще не приносит столько прибыли, чтобы возместить затраты на него. Либо если бюджет на продвижение своего ресурса в Интернет у Вас ограничен.

Выбирать низкочастотные запросы необходимо так, чтобы они наиболее соответствовали предлагаемым вами товарам либо услугам. При правильном выборе запросов, конверсия целевых посетителей вашего сайта непосредственно в клиентов будет очень высокой.

Необходимо как можно точнее оптимизировать заголовки ваших страниц под выбранные «низкочастотники», это поможет увеличить количество обращений именно к вашему сайту из поиска при прочих равных позициях с конкурентами. Могу посоветовать использовать в заголовках цифры и эмоциональные слова с умеренным тоном. Тратьте как можно больше времени на «внутриоптимизационную» составляющую при продвижение сайта, в последующем это может принести дополнительные преимущества, если Вы решите продвигать в поисковиках свою страницу по более высокочастотным запросам. Нужно также обратить внимание на заголовки в тексте, имеются ввиду теги <h2>,<h3> и т.д.

Однако главное не перестараться – страница не должна быть переоптимизирована, чем больше естественности тем лучше.

Можно начать продвижение с помощью каталогов статей, социальных закладок, сервисов рекламы в блогах, прекрасно подойдут живые профили социальных сетей, теперь активность в ней как и везде идет в зачет ресурсу, хотя и официальных упоминаний пока не встречается. При этом используйте анкоры, которые будут идентичны выбранным низкочастотным запросам. Если необходимо более 20 -30 ссылок, можно разнообразить список анкоров близкими по содержанию текстами, для того, чтобы не попасть под фильтр поисковых систем.

Большое количество небольших по размеру запросов даст довольно большое количество посетителей. 2-3 десятка низкочастотных запросов может привлечь, в общем, большее количество посетителей сайта, чем только один высокочастотный.

Продвижение сайта с помощью низкочастотных запросов

Естественно, продвижение сайта по низкочастотным запросам не заменяет совсем продвижение по высокочастотникам, а лишь его дополняет, либо еще лучше – второе помогает первому ).

Однако и одного низкочастотника вполне может быть достаточно, для того, чтобы непосредственно ваш сайт стал зарабатывать для вас деньги и перестал быть всего лишь онлайн – визиткой.

3 фактора в пользу продвижения сайта статьями

Со всей уверенностью метод продвижения сайта текстовым контентом можно назвать самым надежным и перспективным, учитывая многочисленность всех его преимуществ перед другими средствами раскрутки посредством ссылок. Таким образом, например, его возникновение стало первопричиной заметного спада популярности бирж ссылок в кругу оптимизаторов. Однако давайте более углубленно рассмотрим продвижение сайта при помощи статей, и все те пункты в особенности, благодаря которым его использование получило столь массовый характер.

Раскрутка веб-сайта статьями подразумевает наращивание внешних показателей посредством упоминания своих ссылок в размещаемых материалах по различным ресурсам. Так, ссылки приобретают в полной мере естественный характер, и со стороны посетителей никаких абсолютно подозрений в рекламе не вызывают, также они учитываются поисковыми системами со всем вниманием.

Сказать подобного нельзя о получившем ранее особую востребованность способе продвижения посредством ссылок, когда все линки помещались в отдельных блоках, «разбросанных» по странице, или были заключены в отдельном разделе сайта «Партнеры», буквально испещренного всевозможными ссылками какой угодно направленности. В рядах пользователей всемирной паутины, само собой, такой метод воспринят с особым восторгом не был, а его отдача при анализе поисковиками оказывалась либо вообще нулевой, либо минимальной.

Нельзя не отметить тот факт, что для владельцев площадок, которые размещают статьи, данный метод оказывает исключительно положительное влияние. Так как этот метод – более безопасный способ заработка, в сравнении с указанием «голых» ссылок, чрезмерное количество которых могло в худшем случае привести к утере доверия среди поисковых систем и снижению показателей PR и ТИЦ. Дополнительный контент к тому же также оказывает влияние на репутацию ресурса исключительно положительным образом.

Для реализации продвижения сайта посредством статей, Вам необходимо, в первую очередь, обзавестись достаточным количеством материала, причем качественного и уникального, если Вы желаете не только купить ссылку, но при этом еще и привлечь посетителя. За основу Вы можете взять размещенную на своем сайте информацию и провести ее многократный рерайтинг, или заказать выполнение работы копирайтерам. Затем Вам нужно будет отыскать площадки, в решении этой задачи Вам помогут биржи статей. При выборе следует руководствоваться продолжительностью существования Интернет-ресурса, его посещаемостью, внешними показателями, ведь большей частью именно от них Ваш поисковый успех и зависит.

Три фактора в пользу метода «продвижение сайта статьями»

  • минимальное количество исходящих ссылок из тела статьи, и ведут они как правило, только на Ваш ресурс, если конечно вы не прокачиваете одной статьей «сателит» и основной сайт одновременно
  • уникальное и тематическое «окружение» (текст до и после анкора ссылки) ссылки, что очень нравится поисковым машинам
  • эта техника только набирает обороты, при правильном подходе и достаточном количестве статистических материалов для анализа, Вы имеете возможность разработать свою схему продвижения сайтов буду рад, если потом поделитесь, отвечу взаимностью )

Бесплатный совет дня:

Публикуйте переписанные статьи с вашего сайта на тематических ресурсах и покупайте ссылки на эти статьи (НЕ на вашем ресурсе), в данном случае эффект от такой схемы продвижения увеличивается в среднем на 10-30%

Продвижение сайта в поисковой системе Гугл

Для того чтобы продвинуть свой сайт или блог в поисковой системе www.google.ru необходимо выполнить простые рекомендации, которые перечисление ниже.

Не надо быть вундеркиндом, трудоголиком или даже инвестором, чтобы все это сделать. Главное три фактора

  • упорство
  • терпение
  • желание развиваться

Еще до того, как будет выбираться доменное имя, нужно написать много уникальных статей, которых хватит ну как минимум на 80 – 100 страниц сайта. Именно 100 страниц отличного текста.

«Как вы лодку назовете, так она и поплывет» – говорил один персонаж мультика. Доменное имя нужно подбирать очень тщательно – именно по нему с самого начала будут искать поисковые роботы, а люди запоминать. Его должны легко запоминать. Отличным примером может служить сайт vkontakte.ru, они заплатили неприлично большую сумму за доменное имя vk.com. Чем короче доменное имя, тем легче его записать и запомнить, прочитать или произносить.

Простой дизайн сайта будет самым правильным решением. Все довольно просто: обычные слова вперемешку с HTML тегами уже будут нагружать сайт. Любой браузер, от самого простого до наисложнейшего должен распознать, прочитать и показать в самом лучшем виде страницы сайта. HTML 4.0 уже лучше не использовать, оптимальный вариант HTML5. Не нужно вставлять Javascript, Java и Flash. Поисковые роботы недолюбливают Javascript, это оправдано в редких случаях.

Сайт должен быть построен в четкой логической последовательности, директории должны содержать необходимые ключевые слова, по которым будут находить сайт. Структура сайта должна быть продуманной заранее. Можно конечно все просто поместить в корень сайта, и при использования такого метода, можно добиться неплохих результатов в Google.com. Все заголовки должны быть простые и понятные, четко стоять на своих местах. Не надо например заголовок “Новости” помещать в тег <h3>,<h2> или тем более в <h1>. Чем все проще, тем лучше – один из основных принципов Гугла.

” Кстати не давно в моем блоге  ren50.ru была опубликована статья на тему: раскрутка сайта по нч (низко частотным) запросам , очень советую ознакомится. Есть мнение, что из 100% поисковых запросов – 80% это, так называемые НЧ (низкочастотные) запросы пользователей “

Скорость загрузки играет громадную роль. Минимальная задержка при открытии сайта – все, пользователь переключится на другой сайт. А если задержка составляет 3 – 5 секунд, то на такой сайт практически не будут заходить.

При выборе размера страниц нужно опять придерживаться правила Google.com: меньший размер – лучший результат. Получается 20, хорошо, но 10 будет намного лучше. Оптимальным вариантом будет размер от 5 до 10 кб. Большинство людей не любят огромные тексты – они всегда спешат, на все не хватает времени. Поисковые роботы тоже любят простоту и лаконичность. Очень важно знать, что большое количество пользователей интернета пользуется медленным, нет, очень и очень медленным модемным соединением. Выделите немного времени и пересмотрите несколько сайтов с поиска гугла. Львиная доля составит страницы до 10 кб, хотя конечно тяжелых страниц там будет тоже определенное количество.

На одной странице достаточно текста на 200 – 500 слов. Меньше – не красиво, больше очень сложно читать. В сети есть блог по оптимизации сайта – не будем называть его здесь, посвященный оптимизации сайта и многим другим смежным темам. Там пока дочитаешь статью до конца, забываешь, что было в начале.

Есть старые, проверенные правила и законы оптимизации – плотность и размещение. Ключевые слова обязательно должны быть в заголовке (title), описании (description), желательно присутствовать ключевых слов в урле. В тексте можно и нужно их помечать жирным, курсивом и постараться довести их количество в среднем до 5%, в зависимости от темы. Очень важно использовать в тексте «околотематические» ключевики, они безусловно могут помочь тексту с релевантностью, т.е. с соответствием поисковому запросу пользователя поисковой машини «google.com».  Предложения должны быть простыми и понятными. Не должно быть орфографических ошибок.

На некоторых страницах необходимо разместить 2 – 3 ссылки на сайты , которые считаются экспертными в теме запроса. Обязательно использовать ключевое слово в тексте ссылке, это очень важно.

Важным моментом так же, является внутренняя перелинковка. Все, абсолютно все внутренние страницы должны быть наполнены большим количеством внутренних ссылок. Если страница о ремонте потолка, то на страницы ремонта стен и пола должны быть размещены соответствующие ссылки. Это позволит распределить PR (pagerank – основной критерий оценки сайта Гуглом) равномерно по всем страницам. Лучше, если 100 страниц привлечет 100 посетителей, чем 1 страницу посетят 100 человек. В случае большой популярности одной страницы, в нее нужно внедрить ссылки на другие страницы сайта, и таким образом подтянуть PR других страниц, это имеет силу в случае, если Вы не добиваетесь продвижения одной, конкретной страницы.

После выполнения этих рекомендаций сайт можно размещать в сети. Нужно обязательно сделать его удобным для поискового паука. По глубине, любая страница обязательно должна содержать ссылки не больше второго уровня вложенности. Желательно, что бы все ссылки вели к корню сайта. Меню пользователя, которое есть на каждой странице, должно ссылаться к главным, корневым страницам.

Сайт можно выкладывать для всеобщего доступа, только когда он будет полностью завершен. Намного хуже будет, если пользователи увидят незавершенный сайт, чем вообще его не увидят.

Теперь нужно добавить главную страницу сайта в Google.com, AltaVista, Fast, WiseNet (Teoma), HotBot и DirectHit. После этого настал самый сложный момент – можно забыть про существование сайта на 4-6 месяцев. Это нужно, для проектов с «белыми стратегиями продвижения». В остальных случаях можно не ждать и наращивать «ссылочную массу» сразу. Особенно быстро это можно сделать с помощью систем типа seopul.ru + использование низкочастотных запросов. С гуглом это еще работает.

Для актуального исследования статистки по входящим запросам и точки входа на сайт нужно поставить отличный logger/tracker – счетчик посещений. Самым популярным, и в принципе отлично работающим считается счетчик http://www.liveinternet.ru .

Необходимо следить за поисковыми роботами. При индексации страниц сайта, у них могут появится некоторые трудности. Зарегистрируетесь в Вебмастере Гугла – там будет хорошо видно, где и какие проблемы у поискового паука.

Все статьи на сайте должны быть сгруппированы по директориям. Если на сайте есть статьи, например по кулинарии, то все статьи – блюда из мяса, должны бить в директории “Мясные блюда”.

Уделить внимание ссылкам. Нужно посмотреть свой сайт по ключевым словам в ODP (каталог Google.com). Сначала нужно добавить сайт в другие каталоги, только потом добавлять в Google.com.

По всему интернету нужно искать места, где можно размещать ссылки на свой сайт. Можно и нужно обмениваться ссылками с другими сайтами.

Нужно постоянно наполнять сайт новыми статьями. По одной странице в день и люди придут на сайт.

С обратными ссылками нужно вести себя поосторожней. Когда делают предложение по обмену ссылками, не надо спешить. Необходимо проверить PR сайта и его позицию в поиске Google.com. Сайт должен подходить по теме – пауки Гугла на это обращают внимание. Иногда внешняя ссылка может навредить сайту.

Постоянно просматривать статистику. Через один, два месяца будет уже видно, где сайт полюбили. Следует проанализировать ключевые слова, по которым заходят на сайт. Возможно, будут встречаться интересные комбинации. В таком случае нужно обязательно добавить страничку, которая будет прекрасно отвечать таким запросам. Если сайт об пошиве изделий из кожи, а человек пришел по запросу “кожаный чехол для телефона”, то текст нужно изменить и добавить с учетом “чехол” и “для телефона” – это намного лучше чем кожаные изделия. Поисковики подскажут все, просто нужно учесть их советы.

Актуальные новости. Успех порождает успех. Нужно постараться всегда оставаться на передовых позициях, на тематических ресурсах.

Нужно обзавестись новыми, и активно поддерживать дружбу со старыми друзьями. Постоянно общаться в форумах, где можно попросить и тебе всегда помогут советом. На форумах можно договориться о взаимном обмене ссылками. Друзья всегда помогут добрым советом по оптимизации, поделятся опытом как они раскручивали свой сайт. Расскажут о своих ошибках.

Нужно постоянно писать. Гугл очень любит новый контент. Всего одна страничка вдень, на которую нужно потратить максимум один час. За месяц будет тридцать новых статей. Очень скоро вдохновение будет приходить очень часто, и в самых неожиданных местах. Нужно записывать, ну хотя бы «тезисно». А то пока доберетесь до клавиатуры, уже все слова забудутся и муза улетит. Только – только появится вдохновение – срочно начинать работать. При вдохновении за один час можно сделать то, что без вдохновения пришлось бы делать 5-6 часов. Не верится? Нужно просто проанализировать свою роботу, которою делали с вдохновением и без, и вы зразу согласитесь.

Через 6 месяцев сайт непременно нужно проверить. Все ли страницы проиндексировали поисковые роботы. Если нет, то нужно обязательно все проанализировать и выяснить, что не так. Возможно нужно будет обратиться за аудитом сайта к более опытным вебмастерам.

Каждые день нужно добавлять новую уникальную страницу с ключевыми словами. Для облегчения поиска ключевых слов просто нужно попросить совет у Яндекса – перейти на страничку http://wordstat.yandex.ru/  где прекрасно видно частоту запросов многочисленных посетителей этого поисковика эту информацию можно смело использовать при продвижение сайта в Гугл.

Если заниматься своим сайтом 2 – 3 часа в день, то через один год сайт из ста страниц вырастет до 400. А 400 страниц – это сила. Такое количество страниц дает огромную возможность для хорошего плотного расположения ключевых слов, от которых зависит популярность сайта. Люди ищут в сети информацию по словам и фразам. А на сайте на 400 страниц этих слов и фраз будет огромное количество, и Google.com обязательно это заметит.

Если придерживаться этих простых принципов, практически любой сайт можно сделать успешным. Каждые день на такой сайт из поисковиков будет приходить от нескольких сотен до нескольких тысяч человек. Так получится направленный трафик, которым можно будет легко управлять и монетизировать.

Теперь продвигайте свои ресурсы под google.ru смело!

Фильтры Яндекса – список известных фильтров

Многими web-мастерами частенько игнорируется тот факт, что задача поисковиков заключается не в обеспечении ресурсам высокого показателя выдачи и предоставлении внушительного трафика, а в получении пользователями релевантных и качественных поисковых результатов. На основании опыта, можно уверенно утверждать, что частенько эти задачи не совпадают. Далее вебмастера удивляются – откуда пессимизация сайта и её последствия?

Системы поиска, в частности поисковая система “Яндекс” обладают большим числом различных критериев фильтрации ресурсов, вследствие чего множество сайтов, даже сделанных действительно для людей, причем сделанных качественно, не оказываются на лидирующих позициях выдачи, а бывает и совсем из нее исключаются. Не давно в блоге ren50.ru появилась статья “оптимизация интернет-ресурса – 25 советов“, прочитав ее вы можете перестраховаться и не делать ошибок свойственных большинству оптимизаторов  и приводящих к попаданию под фильтры ПС.

К большому сожалению, стоит констатировать факт, что множество фильтров от совершенства очень далеки, на основании чего под их воздействие попадают довольно-таки релевантные ресурсы, разработанные именно для людей, и которые, как может изначально показаться, не обладают приемами, запрещенными поисковиками.

Основополагающим фильтром является бан, а именно полное удаление ресурса из индекса. Обобщенная теоретическая причина заключается в нарушении поисковой лицензии например яндекса или гугла. В действительности же причины бывают самые различные, и не все из них можно определить «невооруженным» глазом. Осложняется ситуация тем, что не существует каких-либо определенных правил, в то время как служба поддержки весьма нечасто выдает советы и совсем никогда не объясняет настоящих причин, приведших к наложению бана.

Наиболее распространенной и вероятной причиной может быть спам поисковый. В основополагающем числе случаев поисковый спам обосновывается перенасыщенностью страниц ресурса «ключами». Происходит подобное и целенаправленно, и вследствие недостатка опыта. Имеется давнее заблуждение, на основании которого, чем более значим показатель плотности «ключей», тем лучше должны быть у сайта позиции. Стоит заметить, что данное утверждение потеряло свою актуальность несколько лет назад. Мало того, что ныне она не является актуальной, так она еще и непоправимо вредна.

В былые времена широко применялся прием, при котором мета-теги наполнялись ключевыми фразами или словами. Среди них встречались те, которые к тематике проекта не имели никакого отношения вообще, но были весьма популярными. К таковым можно отнести такие слова, как порно, секс и прочие. На этом основании влияние мета-тегов на результаты поиса было сведено к минимуму.

Итого, наиболее распространенные способы оптимизации, принимаемые Яндексом за спам и, как следствие, приводящие к получению сайтом бана:

  • Элементарная перенасыщенность контента ключевыми фразами и словами. Наиболее часто это получается умышленно, когда человек пишет текст, он целенаправленно подсчитывает плотность и вставляет «ключи». В итоге плотность получается вполне приемлемой, но текст фактически не читается. В некоторых случаях, автор проекта увлекается тематикой и непроизвольно текст перенасыщает ключевыми фразами. На этом-то основании, просто необходимо после того, как текст написан, его основательно вычитать, причем вслух. Стоит отметить, что нет необходимости проверять плотность «ключей» всевозможными сервисами, так как данный показатель является неинформативным. Между тем, имеются и в настоящее время такие мастера, которые полагают, что плотность «ключей» в тексте на уровне 5 процентов, обеспечивает ресурсу попадания в топ выдачи.
  • Выставление на страницах ресурса списка «ключей», что особо актуально было в былые времена. В настоящее время многие осознали бесполезность и негативное влияние подобного действа. По своему обыкновению данные списки находят место в нижней части сайта, причем цветом близким цвету фона, или вообще не отличимым от него. И, естественно, ситуацию только усугубляет. Имеются такие «продвинутые» web-мастера, которые их размещают над заголовками и шапкой сайта, полагая (снова крайне заблуждаясь), что высота расположения ключей влияет на эффект продвижения. Как следствие — бан. Другая категория мастеров применяет современные методики верстки и «ключи» размещают в div-ax. Кто-то в невидимых зонах (display:none) или же со смещением за пределы видимости экрана. Но вот проблема, робот рассматривает непосредственно сам страничный код, из которого ключевики спрятать не получится. На этом основании — снова бан.
  • Выставление списка запросов поиска. По своему обыкновению часто пишут так: «к нам на сайт можно зайти вот по этим запросам» или же «данная страница в яндексе находится по таким запросам». В данном случае имеет место классика поискового спама, а делать так категорически воспрещается! Имеются движки, позволяющие осуществлять подобное весьма просто. Они отслеживают переходы с систем поиска и в автоматическом режиме выводят запросы, по которым на сайте оказываются посетители. Эта функция должна быть отключена. В крайней ситуации, от индексации данные блоки стоит закрывать, а их ссылки блокировать от переходов поисковиками.
  • Перенасыщенность ключевых слов в атрибутах и тегов (meta description, meta keywords, alt, h1-h6, title). Стоит вспомнить, что счастье не в количестве, а скорее наоборот, излишки приводят к бану.
  • Присутствие на ресурсе страниц, разработанных целенаправленно с целью продвижения и не наделенных полезной информацией, а, кроме того, множества страниц с перенаправлением на прочие ресурсы.
  • Присутствие любых скрытых текстовых данных, в которых могут содержаться ссылки, созданных не для комфортности и удобства пользователей, а для возможности осуществления манипуляций с результатами выдачи поисковых машин.

Бан определяется полным выпадением ресурса из выдачи поиска. Между тем, далеко не всегда подобная ситуация являет собой бан. Случается, что сайт вылетает вследствие проблем хостинга, в результате далеких от совершенства алгоритмов самого яндекса или некорректного кода. При выпадении сайта из выдачи, необходимо выждать 2-3 обновления, и, если сайт не появился, обратиться в службу поддержки поисковика Яндекс с вопросом относительно выяснения возможных причин.

Если же в ответе будет сказано про нарушения, нужно их устранить и вновь обратиться к ним. Во множестве случаев данные нарушения неочевидны даже для web-мастера, в результате чего переписка может оказаться длительной. В случае особого везения, служба поддержки может намекнуть относительно конкретной причины или прямо указать на возымевшие место нарушения. В противной ситуации придется тщательно и досконально проводить анализ ресурса, к чему стоит привлечь специалистов со стороны.

В былые времена, бан яндекса, от обычного выпадения отличался довольно-таки просто. Нужно было добавить ресурс в addurl яндекса, после чего следовала ошибка. В настоящее время данная процедура потеряла актуальность, так как все без исключения сайты добавляются сюда безошибочно.

Следующий по популярности и опасности можно выделить в яндексе фильтр АГС, который может в некоторых случаях расшифровываться в виде — АнтиГовноСайт. Основным симптомом является то, что в индексе сохраняется не более 10 страниц. В это же время служба поддержки говорит, что их алгоритмы решили не включать в поиск данный сайт. Только после развития сайта, он может быть возвращен в выдачу. Данный ответ можно получить даже после замены сайта, когда робот его новую версию и не посещал. На этом основании нужно в Support слать сообщения настойчиво и часто, без эмоций разъясняя возникшую ситуацию.

Основной критерий, на который реагирует этот фильтр, это дублирование содержимого внутри ресурса. Фактически все пользующиеся популярностью движки формируют страницы с идентичным контентом, к которому могут относится страницы разбиения по годам, месяцам и дням, страницы тегов, страницы с анонсами определенных статей, которые содержат части текстов статей и прочее. Естественно, более логично было бы исключить одни дубли, а основное содержимое оставить, но, скорее всего, для Яндекса проще убрать сайт целиком, а не заниматься анализом содержимого и структуры.

Прочие причины:

  • Ресурс, который состоит полностью из неуникального содержимого, может оказаться объектом внимания АГС, в том случае, если никакого пользовательского интереса на сайте нет.
  • «Бредовый контент» — автоматический перевод или рерайт, плохого качества синонимайз или генерированные тексты. Подобные сайты в короткое время оказываются под действием фильтра. Кроме того, фильтр может «обратить внимание» на ресурсы, содержащие безграмотное содержимое.
  • Малый объем или же полное отсутствие на страницах сайта содержимого. Между тем, тот сайт, который полностью составлен фотоснимками или видеороликами совсем может не индексироваться.
  • Сайт, создан который для реализации рекламной продукции. В том случае, когда web-мастер не особо утруждается на дизайн сайта, то имеется полная гарантия попадания сайта под АГС.
  • Ресурс, сформированный одними только «продажными» статьями. Имеется мнение, что реализация ссылок для сайта смертельна, тогда как реализация пространства под статьи безвредна. В реальности же все с точностью до наоборот. Недостойные статьи скорее убивают ресурс, нежели реализация ссылок, являющаяся вообще безопасной.

Имеется большое число заблуждений и мифов относительно АГС. В частности, если:

  • сайт прогоняется одновременно по нескольким каталогам;
  • ссылок реализовано больше, чем на сайте имеется страниц;
  • ресурс нечасто обновляется;
  • сайт наделен малой посещаемостью;
  • ресурс разработан на основании шаблона;
  • на одном IP или хостинге «лежит» большое число говносайтов и прочее.

Заблуждения и мифы о поисковых фильтрах “Яндекс” и “Google”

Обойти АГС весьма проблематично. В большинстве случаев проще заменить домен. Имеется возможность попытаться удалить все имеющиеся дубли, удостовериться в уникальности контента, и в случае определения неуникальных участков — заменить их уникальными текстами. Можно ресурс наполнить новыми статьями или поменять структуру.

Пессимизация — отключение ранжирования ссылок для определенного ресурса. Естественные и приобретенные ссылки перестают функционировать, что приводит к резкому падению позиций. По своему обыкновению падение осуществляется на сотни пунктов, тогда как колебания на десятки пунктов могут не обосновываться наложением на сайт санкций. Все страницы в выдаче остаются и находятся в поиске, но на лидирующие позиции сайт продвинуть не представляется возможным, так как не действует влияние ранжирования ссылок.

Основополагающая причина заключена в наличии на ресурсе «помоек ссылок», или же каталогов ссылок, которые для людей не предназначаются, а размещены только для осуществления манипуляций выдачи. Стоит отметить, что период немодерируемых ссылочных каталогов минул в лета, но в былые времена пессимизация многих подкашивала.
При регистрации ресурса в каталогах, никак нельзя у себя размещать обратные баннеры или ссылки на данные каталоги. Особого толка они не дадут, тогда как шанс встрять перед процессом пессимизации вполне ощутим. Вполне возможно попасть под пессимизацию вследствие внушительного количества ссылок продажного типа — не целесообразно их размещать больше 4-5 на одной странице.

Достаточно часто ресурсы пессимизируют из-за размещения излишне навязчивой и надоедливой рекламы. В частности, большое количество тизеров или всплывающих окон на страницах. При пессимизации ТИЦ может быть просто обнулен.
Можно предположить, что сменить пессимизацию, призван такой фильтр, как «Ты последний», что обусловлено невозможностью дать четкие разграничения этих фильтров.

Фильтр под названием «Ты последний» идентичен Supplemental results в Google. Из поиска ресурс исчезает, при этом будучи проиндексирован. Найти его в поиске можно исключительно по уникальным текстовым фразам, а также по запросу, который содержит адрес самого сайта, он может не занимать лидирующие места. Поддержка Яндекса в таком случае даст ответ, что ранжирование прошло нормально, на основании имеющейся релевантности.

По отношению к ресурсу отключается воздействие статического веса (включая внутреннюю перелинковку) и ранжирование ссылок. Подробнее о принципе внутренней перелинковки страниц сайта, вы можете почитать перейдя по ссылке. Опыт показывает, что главная причина попадания по фильтр определяется наличием на сайте не уникального контента, предназначается который только для заработка денег. Стоит отметить, что под фильтрацией «Ты последний» оказаться может и сам первоисточник, с которого была скопирована основная доля текстов. В данной ситуации возникает необходимость менять статьи, которые по чьей-то милости стали неуникальными, или же принуждать нерадивых web-мастеров уничтожать копии.

Обойти его можно только полностью поменяв сайт, дизайн, структуру и прочее.

Аффилиатов фильтр. Под его действием может оказаться несколько ресурсов, которые принадлежат одной фирме, и посвящены которые единой тематической направленности. По мнению Яндекса, на лидирующих позициях может находиться один сайт определенной компании, что, скорее всего, правильно. Кроме того, в результате некорректной деятельности данного фильтра с первых позиций могут выпасть все ресурсы компании, причем без исключения. Аффилиатов фильтр действует и по отношению к контекстной рекламе, директа — здесь тоже отслеживается реклама аффилиированных ресурсов.

Идентично фильтрам яндекса, фильтр аффилиатов довольно часто совершает ошибки — определенные компании могут занять собственными ресурсами все топовые позиции, а в некоторых случаях происходит «склеивание» ресурсов, принадлежащих абсолютно разным организациям.

В настоящее время не представляется возможным отлавливать ресурсы одной компании ни по структуре, ни по дизайну. Сейчас web-мастера стали умными и просчитывают данные факторы. На единой cms можно разработать несколько различных по своей структуре ресурсов. И это, не говоря про данные whois, предназначенные для доменов — множество web-мастеров их разрабатывают разными даже тогда, когда ресурсы не связаны между собой.

Под его действием оказываются партнерские сайты, разработанные для переопределения трафика на партнерки или магазины. Выявить аффилиатов можно на основании семантических ядер ресурсов. При необходимости продвинуть на лидирующие позиции несколько ресурсов, разрабатывать их следует максимально различными:

  • IP, whois;
  • различные структуры, дизайн, cms;
  • различающиеся контактные данные;
  • максимально различными сделать семантические ядра, за исключением ключевых запросов;
  • между сайтами не должно быть взаимных ссылок.

К великому сожалению, в настоящее время нет точных методик определения данного фильтра, так как неизвестным остается алгоритм, на основании которого он функционирует. Все только на уровне догадок!

«Ты спамный». Никаких официальных данных относительно его существования не имеется, хотя его проявления были определены и классифицированы. Действует он не в отношении всего домена или сайта, а только для определенной страницы по определенному запросу. Заместо оптимизированной под конкретный запрос страницы, появляется другая, значительно менее релевантная.

Предположительно, разработан он для противостояния «портянкам» — длинным текстам, которые насыщены «ключами», созданными целенаправленно для продвижения некоторых страниц. Их польза для людей являлась минимальной. В качестве варианта проверки попадания под действие фильтра «ты спамный», можно ввести в строку поиска определенный запрос с модифицированной словоформой. Если же в самом поиске необходимая страница будет выдана, значит, на нее действует фильтр.

Также возможно яндексом осуществить поиск по собственному ресурсу — если по рассматриваемому запросу страница не будет в первых рядах, значит, скорее всего, на нее наложили фильтр.

Из-под данного фильтра выйти сложно. Необходимо полностью переработать текст и привести в норму насыщенность «ключа». Переписанный текст должен быть создан для людей и уменьшиться в объеме. Вполне вероятно, что далее необходимо будет изменить страницу и, естественно, ее адрес.

В некоторых случаях выделяется разновидность данного фильтра, накладываемого за переспам анкор-листа, от чего можно избавиться посредством его разбавления. Вероятно, при действии фильтра происходит учет внутренних (спам страницы) и внешних (переспам анкор-листа) факторов.

Непот-фильтр. Его действие заключается в обнулении веса ссылок с ресурса. Причина возникновения: внушительное число обменных или же продажных ссылок.

Фильтр ресурсов для взрослых. Как становится понятно из самого названия, может быть наложен на ресурсы порнографического или эротического содержания. Стоит отметить, что присутствие столь специфического материала определяется не только по самому контенту, но и в рекламных блоках, а в особенности в тизерах.

В следствие присутствия подобных тизеров, даже приличный ресурс может оказаться под фильтром. В данном случае имеет смысл с большей серьезностью подходить к той рекламе, которая размещается на сайте. Между тем, в практике имелись ситуации, когда данный фильтр накладывался на ресурс, за присутствующие на нем статьи относительно секса, написанные в психологическом или медицинском ключе.

Существует большое число заблуждений и мифов, относительно фильтрации яндекса.
В частности, бытует такое мнение, что при наращивании ресурсом ссылочной массы, он непременно оказывается в бане. Очень просто метод борьбы с конкурентами получается. Но, к великой радости, за это ресурсы не фильтруют и не банят. Также не существует фильтра за редирект посредством java-script — естественно, если ресурс не был специально разработан для перенаправления трафика.

Многие полагают, что неуникальные тексты не проходят индексацию или же сайты их содержащие сразу оказываются в бане. Но в данном случае стоит ознакомиться с выдачей, где основополагающее число ресурсов не имеет уникального содержимого.