lexcode lexcode создание, продвижение
и доработка сайтов
Phone +7 999 800 75 22 email admin@lexcode.ru

Главная / Все новости / Ранжирование сайтов: новые и с...

Ранжирование сайтов: новые и старые алгоритмы

Поисковые машины постоянно трудятся над улучшением качества Всемирной паутины. Сотрудники аналитических отделов «Гугла» и «Яндекса» ищут новые способы эффективного просева веб-площадок в выдаче. Заняты они этим для того, чтобы пользователи могли с лёгкостью отыскивать нужный контент.

Так, весной 2011 года веб-мастеров привела в шок новая политика «Гугла» под именем «Панда». Она провозгласила пессимизацию копипастовых и низкокачественных интернет-ресурсов. Спустя год к её жёстким требованиям присоединилась фильтрация «Пингвин». Яндекс разработал свои алгоритмы: несколько серий АГС, «Минусинск» и других.

Избыток рекламы и ссылочной массы — враг оптимизации

Последние несколько лет Платон Щукин со своими конкурентами из «Гугла» объявили настоящий террор плохим ссылкам. На карантин и в темницу отправились сайты, содержащие «битые» линки и seo-ссылки. В число последних попали площадки с неестественными и нетематическими анкорами. Понизились в выдаче и ресурсы, именуемые линкфармами. Такое название придумали для сайтов, интенсивно ссылающихся друг на друга.

Под пессимизацию также попали веб-проекты, изобилующие рекламой. А всяким дорвеям и сайтам с клоакингом был подписан заочный смертный приговор. Аналитики «Яндекса» понизили в поиске площадки, раздражающие пользователей кликандерами и попандерами. Удалить таковых незадачливому веб-сёрфингисту не удаётся. Напротив, при нажатии на крестик они перебрасывают малоосведомлённых пользователей на сторонние ресурсы. Однако назойливые площадки с кликандерами отфильтрованы пока что не все. Но аналитики из «Яндекса» предупреждают, что наказание для таковых нарушителей законов Всемирной паутины неизбежно.

Техническая оптимизация не теряет актуальности

Законопослушных веб-мастеров не так волнует проблема попасть под фильтр, как вывести свою площадку в первую десятку. Для них всё более актуальной задачей становится грамотное оформление мета-тегов и создание правильного кода. Не уходит с первого плана проблема качественной внутренней перелинковки. Грамотное выполнение такой задачи избавляет хозяина ресурса от кражи контента и повышает его ранжирование. Улучшению позиций в выдаче также помогут плагины, ускоряющие загрузку страниц веб-ресурса.

О необходимости robots.txt и создания человекопонятных урлов известно всем. Но не все знают о беде, которая происходит по причине ранней монетизации веб-ресурса. Поэтому развешивать рекламные блоки на своём ресурсе желательно без спешки. Сделать это лучше, когда площадка наберёт не менее 300 уникальных посетителей в сутки.

Следует напомнить и об оптимизированном, но в то же время релевантном и цепляющем написании тайтлов, дескрипшенов и заголовков. Для сайта всегда необходимо подбирать привлекательные тематические изображения. И перед загрузкой их переименовывать ключевыми словами на латинице.

Для ускорения индексации страниц и повышения их в выдаче ПС специалисты настоятельно рекомендуют создать карту (оглавление) сайта и опцию «Хлебные крошки». Для удобства пользователей желательно иметь кнопки кросспостинга (социальных сетей) и окошко для комментариев. Причём для отправления реплик на сайт регистрацию лучше заменить вводом электронной почты и капчи. Очень полезно оснастить веб-ресурс функцией RSS и регулярно выкладывать новые публикации.

Следуя таким правилам, можно гарантированно избежать попадания под фильтр. А регулярно знакомясь с новыми требованиями Яндекса и следуя этим руководствам — вывести свой сайт наверх поисковой выдачи.

Поделиться:

29.01.2017

#seo #продвижение #раскрутка

Комментарии к статье:

К данной статье нет ни одного комментария