Фильтры Яндекса – список известных фильтров

Многими web-мастерами частенько игнорируется тот факт, что задача поисковиков заключается не в обеспечении ресурсам высокого показателя выдачи и предоставлении внушительного трафика, а в получении пользователями релевантных и качественных поисковых результатов. На основании опыта, можно уверенно утверждать, что частенько эти задачи не совпадают. Далее вебмастера удивляются – откуда пессимизация сайта и её последствия?

Системы поиска, в частности поисковая система “Яндекс” обладают большим числом различных критериев фильтрации ресурсов, вследствие чего множество сайтов, даже сделанных действительно для людей, причем сделанных качественно, не оказываются на лидирующих позициях выдачи, а бывает и совсем из нее исключаются. Не давно в блоге ren50.ru появилась статья “оптимизация интернет-ресурса – 25 советов“, прочитав ее вы можете перестраховаться и не делать ошибок свойственных большинству оптимизаторов  и приводящих к попаданию под фильтры ПС.

К большому сожалению, стоит констатировать факт, что множество фильтров от совершенства очень далеки, на основании чего под их воздействие попадают довольно-таки релевантные ресурсы, разработанные именно для людей, и которые, как может изначально показаться, не обладают приемами, запрещенными поисковиками.

Основополагающим фильтром является бан, а именно полное удаление ресурса из индекса. Обобщенная теоретическая причина заключается в нарушении поисковой лицензии например яндекса или гугла. В действительности же причины бывают самые различные, и не все из них можно определить «невооруженным» глазом. Осложняется ситуация тем, что не существует каких-либо определенных правил, в то время как служба поддержки весьма нечасто выдает советы и совсем никогда не объясняет настоящих причин, приведших к наложению бана.

Наиболее распространенной и вероятной причиной может быть спам поисковый. В основополагающем числе случаев поисковый спам обосновывается перенасыщенностью страниц ресурса «ключами». Происходит подобное и целенаправленно, и вследствие недостатка опыта. Имеется давнее заблуждение, на основании которого, чем более значим показатель плотности «ключей», тем лучше должны быть у сайта позиции. Стоит заметить, что данное утверждение потеряло свою актуальность несколько лет назад. Мало того, что ныне она не является актуальной, так она еще и непоправимо вредна.

В былые времена широко применялся прием, при котором мета-теги наполнялись ключевыми фразами или словами. Среди них встречались те, которые к тематике проекта не имели никакого отношения вообще, но были весьма популярными. К таковым можно отнести такие слова, как порно, секс и прочие. На этом основании влияние мета-тегов на результаты поиса было сведено к минимуму.

Итого, наиболее распространенные способы оптимизации, принимаемые Яндексом за спам и, как следствие, приводящие к получению сайтом бана:

  • Элементарная перенасыщенность контента ключевыми фразами и словами. Наиболее часто это получается умышленно, когда человек пишет текст, он целенаправленно подсчитывает плотность и вставляет «ключи». В итоге плотность получается вполне приемлемой, но текст фактически не читается. В некоторых случаях, автор проекта увлекается тематикой и непроизвольно текст перенасыщает ключевыми фразами. На этом-то основании, просто необходимо после того, как текст написан, его основательно вычитать, причем вслух. Стоит отметить, что нет необходимости проверять плотность «ключей» всевозможными сервисами, так как данный показатель является неинформативным. Между тем, имеются и в настоящее время такие мастера, которые полагают, что плотность «ключей» в тексте на уровне 5 процентов, обеспечивает ресурсу попадания в топ выдачи.
  • Выставление на страницах ресурса списка «ключей», что особо актуально было в былые времена. В настоящее время многие осознали бесполезность и негативное влияние подобного действа. По своему обыкновению данные списки находят место в нижней части сайта, причем цветом близким цвету фона, или вообще не отличимым от него. И, естественно, ситуацию только усугубляет. Имеются такие «продвинутые» web-мастера, которые их размещают над заголовками и шапкой сайта, полагая (снова крайне заблуждаясь), что высота расположения ключей влияет на эффект продвижения. Как следствие — бан. Другая категория мастеров применяет современные методики верстки и «ключи» размещают в div-ax. Кто-то в невидимых зонах (display:none) или же со смещением за пределы видимости экрана. Но вот проблема, робот рассматривает непосредственно сам страничный код, из которого ключевики спрятать не получится. На этом основании — снова бан.
  • Выставление списка запросов поиска. По своему обыкновению часто пишут так: «к нам на сайт можно зайти вот по этим запросам» или же «данная страница в яндексе находится по таким запросам». В данном случае имеет место классика поискового спама, а делать так категорически воспрещается! Имеются движки, позволяющие осуществлять подобное весьма просто. Они отслеживают переходы с систем поиска и в автоматическом режиме выводят запросы, по которым на сайте оказываются посетители. Эта функция должна быть отключена. В крайней ситуации, от индексации данные блоки стоит закрывать, а их ссылки блокировать от переходов поисковиками.
  • Перенасыщенность ключевых слов в атрибутах и тегов (meta description, meta keywords, alt, h1-h6, title). Стоит вспомнить, что счастье не в количестве, а скорее наоборот, излишки приводят к бану.
  • Присутствие на ресурсе страниц, разработанных целенаправленно с целью продвижения и не наделенных полезной информацией, а, кроме того, множества страниц с перенаправлением на прочие ресурсы.
  • Присутствие любых скрытых текстовых данных, в которых могут содержаться ссылки, созданных не для комфортности и удобства пользователей, а для возможности осуществления манипуляций с результатами выдачи поисковых машин.

Бан определяется полным выпадением ресурса из выдачи поиска. Между тем, далеко не всегда подобная ситуация являет собой бан. Случается, что сайт вылетает вследствие проблем хостинга, в результате далеких от совершенства алгоритмов самого яндекса или некорректного кода. При выпадении сайта из выдачи, необходимо выждать 2-3 обновления, и, если сайт не появился, обратиться в службу поддержки поисковика Яндекс с вопросом относительно выяснения возможных причин.

Если же в ответе будет сказано про нарушения, нужно их устранить и вновь обратиться к ним. Во множестве случаев данные нарушения неочевидны даже для web-мастера, в результате чего переписка может оказаться длительной. В случае особого везения, служба поддержки может намекнуть относительно конкретной причины или прямо указать на возымевшие место нарушения. В противной ситуации придется тщательно и досконально проводить анализ ресурса, к чему стоит привлечь специалистов со стороны.

В былые времена, бан яндекса, от обычного выпадения отличался довольно-таки просто. Нужно было добавить ресурс в addurl яндекса, после чего следовала ошибка. В настоящее время данная процедура потеряла актуальность, так как все без исключения сайты добавляются сюда безошибочно.

Следующий по популярности и опасности можно выделить в яндексе фильтр АГС, который может в некоторых случаях расшифровываться в виде — АнтиГовноСайт. Основным симптомом является то, что в индексе сохраняется не более 10 страниц. В это же время служба поддержки говорит, что их алгоритмы решили не включать в поиск данный сайт. Только после развития сайта, он может быть возвращен в выдачу. Данный ответ можно получить даже после замены сайта, когда робот его новую версию и не посещал. На этом основании нужно в Support слать сообщения настойчиво и часто, без эмоций разъясняя возникшую ситуацию.

Основной критерий, на который реагирует этот фильтр, это дублирование содержимого внутри ресурса. Фактически все пользующиеся популярностью движки формируют страницы с идентичным контентом, к которому могут относится страницы разбиения по годам, месяцам и дням, страницы тегов, страницы с анонсами определенных статей, которые содержат части текстов статей и прочее. Естественно, более логично было бы исключить одни дубли, а основное содержимое оставить, но, скорее всего, для Яндекса проще убрать сайт целиком, а не заниматься анализом содержимого и структуры.

Прочие причины:

  • Ресурс, который состоит полностью из неуникального содержимого, может оказаться объектом внимания АГС, в том случае, если никакого пользовательского интереса на сайте нет.
  • «Бредовый контент» — автоматический перевод или рерайт, плохого качества синонимайз или генерированные тексты. Подобные сайты в короткое время оказываются под действием фильтра. Кроме того, фильтр может «обратить внимание» на ресурсы, содержащие безграмотное содержимое.
  • Малый объем или же полное отсутствие на страницах сайта содержимого. Между тем, тот сайт, который полностью составлен фотоснимками или видеороликами совсем может не индексироваться.
  • Сайт, создан который для реализации рекламной продукции. В том случае, когда web-мастер не особо утруждается на дизайн сайта, то имеется полная гарантия попадания сайта под АГС.
  • Ресурс, сформированный одними только «продажными» статьями. Имеется мнение, что реализация ссылок для сайта смертельна, тогда как реализация пространства под статьи безвредна. В реальности же все с точностью до наоборот. Недостойные статьи скорее убивают ресурс, нежели реализация ссылок, являющаяся вообще безопасной.

Имеется большое число заблуждений и мифов относительно АГС. В частности, если:

  • сайт прогоняется одновременно по нескольким каталогам;
  • ссылок реализовано больше, чем на сайте имеется страниц;
  • ресурс нечасто обновляется;
  • сайт наделен малой посещаемостью;
  • ресурс разработан на основании шаблона;
  • на одном IP или хостинге «лежит» большое число говносайтов и прочее.

Заблуждения и мифы о поисковых фильтрах “Яндекс” и “Google”

Обойти АГС весьма проблематично. В большинстве случаев проще заменить домен. Имеется возможность попытаться удалить все имеющиеся дубли, удостовериться в уникальности контента, и в случае определения неуникальных участков — заменить их уникальными текстами. Можно ресурс наполнить новыми статьями или поменять структуру.

Пессимизация — отключение ранжирования ссылок для определенного ресурса. Естественные и приобретенные ссылки перестают функционировать, что приводит к резкому падению позиций. По своему обыкновению падение осуществляется на сотни пунктов, тогда как колебания на десятки пунктов могут не обосновываться наложением на сайт санкций. Все страницы в выдаче остаются и находятся в поиске, но на лидирующие позиции сайт продвинуть не представляется возможным, так как не действует влияние ранжирования ссылок.

Основополагающая причина заключена в наличии на ресурсе «помоек ссылок», или же каталогов ссылок, которые для людей не предназначаются, а размещены только для осуществления манипуляций выдачи. Стоит отметить, что период немодерируемых ссылочных каталогов минул в лета, но в былые времена пессимизация многих подкашивала.
При регистрации ресурса в каталогах, никак нельзя у себя размещать обратные баннеры или ссылки на данные каталоги. Особого толка они не дадут, тогда как шанс встрять перед процессом пессимизации вполне ощутим. Вполне возможно попасть под пессимизацию вследствие внушительного количества ссылок продажного типа — не целесообразно их размещать больше 4-5 на одной странице.

Достаточно часто ресурсы пессимизируют из-за размещения излишне навязчивой и надоедливой рекламы. В частности, большое количество тизеров или всплывающих окон на страницах. При пессимизации ТИЦ может быть просто обнулен.
Можно предположить, что сменить пессимизацию, призван такой фильтр, как «Ты последний», что обусловлено невозможностью дать четкие разграничения этих фильтров.

Фильтр под названием «Ты последний» идентичен Supplemental results в Google. Из поиска ресурс исчезает, при этом будучи проиндексирован. Найти его в поиске можно исключительно по уникальным текстовым фразам, а также по запросу, который содержит адрес самого сайта, он может не занимать лидирующие места. Поддержка Яндекса в таком случае даст ответ, что ранжирование прошло нормально, на основании имеющейся релевантности.

По отношению к ресурсу отключается воздействие статического веса (включая внутреннюю перелинковку) и ранжирование ссылок. Подробнее о принципе внутренней перелинковки страниц сайта, вы можете почитать перейдя по ссылке. Опыт показывает, что главная причина попадания по фильтр определяется наличием на сайте не уникального контента, предназначается который только для заработка денег. Стоит отметить, что под фильтрацией «Ты последний» оказаться может и сам первоисточник, с которого была скопирована основная доля текстов. В данной ситуации возникает необходимость менять статьи, которые по чьей-то милости стали неуникальными, или же принуждать нерадивых web-мастеров уничтожать копии.

Обойти его можно только полностью поменяв сайт, дизайн, структуру и прочее.

Аффилиатов фильтр. Под его действием может оказаться несколько ресурсов, которые принадлежат одной фирме, и посвящены которые единой тематической направленности. По мнению Яндекса, на лидирующих позициях может находиться один сайт определенной компании, что, скорее всего, правильно. Кроме того, в результате некорректной деятельности данного фильтра с первых позиций могут выпасть все ресурсы компании, причем без исключения. Аффилиатов фильтр действует и по отношению к контекстной рекламе, директа — здесь тоже отслеживается реклама аффилиированных ресурсов.

Идентично фильтрам яндекса, фильтр аффилиатов довольно часто совершает ошибки — определенные компании могут занять собственными ресурсами все топовые позиции, а в некоторых случаях происходит «склеивание» ресурсов, принадлежащих абсолютно разным организациям.

В настоящее время не представляется возможным отлавливать ресурсы одной компании ни по структуре, ни по дизайну. Сейчас web-мастера стали умными и просчитывают данные факторы. На единой cms можно разработать несколько различных по своей структуре ресурсов. И это, не говоря про данные whois, предназначенные для доменов — множество web-мастеров их разрабатывают разными даже тогда, когда ресурсы не связаны между собой.

Под его действием оказываются партнерские сайты, разработанные для переопределения трафика на партнерки или магазины. Выявить аффилиатов можно на основании семантических ядер ресурсов. При необходимости продвинуть на лидирующие позиции несколько ресурсов, разрабатывать их следует максимально различными:

  • IP, whois;
  • различные структуры, дизайн, cms;
  • различающиеся контактные данные;
  • максимально различными сделать семантические ядра, за исключением ключевых запросов;
  • между сайтами не должно быть взаимных ссылок.

К великому сожалению, в настоящее время нет точных методик определения данного фильтра, так как неизвестным остается алгоритм, на основании которого он функционирует. Все только на уровне догадок!

«Ты спамный». Никаких официальных данных относительно его существования не имеется, хотя его проявления были определены и классифицированы. Действует он не в отношении всего домена или сайта, а только для определенной страницы по определенному запросу. Заместо оптимизированной под конкретный запрос страницы, появляется другая, значительно менее релевантная.

Предположительно, разработан он для противостояния «портянкам» — длинным текстам, которые насыщены «ключами», созданными целенаправленно для продвижения некоторых страниц. Их польза для людей являлась минимальной. В качестве варианта проверки попадания под действие фильтра «ты спамный», можно ввести в строку поиска определенный запрос с модифицированной словоформой. Если же в самом поиске необходимая страница будет выдана, значит, на нее действует фильтр.

Также возможно яндексом осуществить поиск по собственному ресурсу — если по рассматриваемому запросу страница не будет в первых рядах, значит, скорее всего, на нее наложили фильтр.

Из-под данного фильтра выйти сложно. Необходимо полностью переработать текст и привести в норму насыщенность «ключа». Переписанный текст должен быть создан для людей и уменьшиться в объеме. Вполне вероятно, что далее необходимо будет изменить страницу и, естественно, ее адрес.

В некоторых случаях выделяется разновидность данного фильтра, накладываемого за переспам анкор-листа, от чего можно избавиться посредством его разбавления. Вероятно, при действии фильтра происходит учет внутренних (спам страницы) и внешних (переспам анкор-листа) факторов.

Непот-фильтр. Его действие заключается в обнулении веса ссылок с ресурса. Причина возникновения: внушительное число обменных или же продажных ссылок.

Фильтр ресурсов для взрослых. Как становится понятно из самого названия, может быть наложен на ресурсы порнографического или эротического содержания. Стоит отметить, что присутствие столь специфического материала определяется не только по самому контенту, но и в рекламных блоках, а в особенности в тизерах.

В следствие присутствия подобных тизеров, даже приличный ресурс может оказаться под фильтром. В данном случае имеет смысл с большей серьезностью подходить к той рекламе, которая размещается на сайте. Между тем, в практике имелись ситуации, когда данный фильтр накладывался на ресурс, за присутствующие на нем статьи относительно секса, написанные в психологическом или медицинском ключе.

Существует большое число заблуждений и мифов, относительно фильтрации яндекса.
В частности, бытует такое мнение, что при наращивании ресурсом ссылочной массы, он непременно оказывается в бане. Очень просто метод борьбы с конкурентами получается. Но, к великой радости, за это ресурсы не фильтруют и не банят. Также не существует фильтра за редирект посредством java-script — естественно, если ресурс не был специально разработан для перенаправления трафика.

Многие полагают, что неуникальные тексты не проходят индексацию или же сайты их содержащие сразу оказываются в бане. Но в данном случае стоит ознакомиться с выдачей, где основополагающее число ресурсов не имеет уникального содержимого.

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Мой Мир
Опубликовать в Одноклассники
Опубликовать в Яндекс