Ранжирование сайтов: новые и старые алгоритмы
Поисковые машины постоянно трудятся над улучшением качества Всемирной паутины. Сотрудники аналитических отделов «Гугла» и «Яндекса» ищут новые способы эффективного просева веб-площадок в выдаче. Заняты они этим для того, чтобы пользователи могли с лёгкостью отыскивать нужный контент.
Так, весной 2011 года веб-мастеров привела в шок новая политика «Гугла» под именем «Панда». Она провозгласила пессимизацию копипастовых и низкокачественных интернет-ресурсов. Спустя год к её жёстким требованиям присоединилась фильтрация «Пингвин». Яндекс разработал свои алгоритмы: несколько серий АГС, «Минусинск» и других.
Избыток рекламы и ссылочной массы — враг оптимизации
Последние несколько лет Платон Щукин со своими конкурентами из «Гугла» объявили настоящий террор плохим ссылкам. На карантин и в темницу отправились сайты, содержащие «битые» линки и seo-ссылки. В число последних попали площадки с неестественными и нетематическими анкорами. Понизились в выдаче и ресурсы, именуемые линкфармами. Такое название придумали для сайтов, интенсивно ссылающихся друг на друга.
Под пессимизацию также попали веб-проекты, изобилующие рекламой. А всяким дорвеям и сайтам с клоакингом был подписан заочный смертный приговор. Аналитики «Яндекса» понизили в поиске площадки, раздражающие пользователей кликандерами и попандерами. Удалить таковых незадачливому веб-сёрфингисту не удаётся. Напротив, при нажатии на крестик они перебрасывают малоосведомлённых пользователей на сторонние ресурсы. Однако назойливые площадки с кликандерами отфильтрованы пока что не все. Но аналитики из «Яндекса» предупреждают, что наказание для таковых нарушителей законов Всемирной паутины неизбежно.
Техническая оптимизация не теряет актуальности
Законопослушных веб-мастеров не так волнует проблема попасть под фильтр, как вывести свою площадку в первую десятку. Для них всё более актуальной задачей становится грамотное оформление мета-тегов и создание правильного кода. Не уходит с первого плана проблема качественной внутренней перелинковки. Грамотное выполнение такой задачи избавляет хозяина ресурса от кражи контента и повышает его ранжирование. Улучшению позиций в выдаче также помогут плагины, ускоряющие загрузку страниц веб-ресурса.
О необходимости robots.txt и создания человекопонятных урлов известно всем. Но не все знают о беде, которая происходит по причине ранней монетизации веб-ресурса. Поэтому развешивать рекламные блоки на своём ресурсе желательно без спешки. Сделать это лучше, когда площадка наберёт не менее 300 уникальных посетителей в сутки.
Следует напомнить и об оптимизированном, но в то же время релевантном и цепляющем написании тайтлов, дескрипшенов и заголовков. Для сайта всегда необходимо подбирать привлекательные тематические изображения. И перед загрузкой их переименовывать ключевыми словами на латинице.
Для ускорения индексации страниц и повышения их в выдаче ПС специалисты настоятельно рекомендуют создать карту (оглавление) сайта и опцию «Хлебные крошки». Для удобства пользователей желательно иметь кнопки кросспостинга (социальных сетей) и окошко для комментариев. Причём для отправления реплик на сайт регистрацию лучше заменить вводом электронной почты и капчи. Очень полезно оснастить веб-ресурс функцией RSS и регулярно выкладывать новые публикации.
Следуя таким правилам, можно гарантированно избежать попадания под фильтр. А регулярно знакомясь с новыми требованиями Яндекса и следуя этим руководствам — вывести свой сайт наверх поисковой выдачи.
Комментарии к статье:
К данной статье нет ни одного комментария