Причины выпадения сайта из индексаОтсутствие страниц сайта в индексах поисковых машин равносильно ситуации, когда магазин на складе имеет много всего разного, а на витринах ассортимент маленький. Люди не находят нужного продукта и разочарованные уходят.

Что дальше? Человек идет искать другой магазин с ассортиментом побогаче. В результате торговая точка теряет не только текущую прибыль, но и будущую. Зачем бы покупатель стал возвращаться в магазин, где ничего нельзя приобрести? Нынче потребитель избалован изобилием.

Еще одна неприятность выпадения страниц из индекса – когда пропадают страницы на сторонних площадках с размещенной рекламой. Деньги за рекламную кампанию снимаются регулярно, а показов-то и не было.

Поэтому полезно наладить мониторинг наличия сайта в индексе и наметить профилактические мероприятия.

Нестабильный хостинг

Не гонялся бы ты, поп, за дешевизной. Стремление сэкономить на хостинг-тарифе – плохая идея для бизнеса. Особенно что касается интернет-магазинов. Происходит примерно так. Поисковый робот в назначенный срок приходит просканировать сайт на предмет изменений и дополнений.

Робот видит, что некоторых страниц нет и делает вывод, что веб-мастер их удалил с сайта за ненадобностью. И тогда бессмысленный компьютерный алгоритм делает аналогичную операцию с индексом – удаляет отсутствующие страницы.

Когда еще страницы вновь станут доступны и сколько времени пройдет до следующей индексации?

Ошибочные настройки доступа

Порядок и сроки обхода сайта поисковыми роботами подробно прописываются в файлах robots.txt. В процессе редактирования или оптимизации веб-мастер может случайно или ошибочно указать неверные параметры. Настроить слишком редкую индексацию. Или совсем запретить индексировать полезные элементы сайта.

Поисковый робот – всего лишь алгоритм и строго выполняет только то, что и записано в командном файле.

Некоторые горе-системы управления сайтами автоматически генерируют запреты на индексацию посадочных страниц сайта или ссылок.

Дублирования разного рода

Одна из задач поисковой машины – оптимизация расхода аппаратных ресурсов. Поэтому при обнаружении одинакового контента, одинаковых страниц и том подобных вещей дубли склеиваются и произвольно назначается канонический образец. Часто основной становится совсем не та страница, что требуется веб-мастеру. При необходимости в сохранении дублей необходимо обозначать HTML-тегами каноническую страницу.

Поисковые фильтры

Сегодня имеется очень много причин, за что поисковый компьютер может посчитать сайт недостойным к показу пользователям. Все эти причины частично зафиксированы в фильтрующих алгоритмах, частично определяются человеческим фактором асессоров поисковой компании. Достоверно об этих причинах наложения поискового пенальти ничего не известно, потому что и не сообщается. Из практического опыта оптимизации можно сделать некоторые выводы о причинах исключения веб-страницы из индекса.

  • Низкая уникальность контента. 
  • Синонимизированный текст. 
  • Низкая информационная полезность содержания страницы. Как это определяет компьютер? Простым сравнением с эталонными образцами качества в базах поисковой машины. 
  • Недостаточное количество текстового контента на странице. Это фактор скорее относится к сайтам информационных тематик. Поскольку трудно ожидать много текста на страницах интернет-магазина или сайта фотогалереи, видеоканала. 
  • Отсутствие четкой структуры и форматирования текста, включая сопровождение графическими и медиа элементами контента.

Относительно новая причина выбрасывания сайта из индекса – плохие поведенческие факторы – высокий процент отказов, короткие сессии, мало просмотров страниц, нелогичные передвижения пользователя по странице. плохие поведенческие факторы – высокий процент отказов, короткие сессии, мало просмотров страниц, нелогичные передвижения пользователя по странице.

Плохие ПФ – это скорее следствие других недоработок на сайте.

  1. Сайт неудобен для пользователя – слабое юзабилити. 
  2. Слишком много навязчивой рекламы, особенно всплывающих окон, которые почти всегда приводят к уходу пользователя с сайта. 
  3. Непонятная навигация и структура сайта. 
  4. Неправильный дизайн шаблона страницы. 
  5. Неграмотная внутренняя перелинковка.


Все это вместе делает сайт непригодным для комфортного использования, поэтому пользователи вынуждены уходить, даже при наличии качественного содержания.

Злоумышленные действия, DDoS и хакерские атаки.

Теперь факторы внешнего воздействия. Это могут быть происки конкурентов, вирусное заражение, даже случайные вещи. Сайт может быть взломан и в страницы внедрен вредоносный код. Поисковая машина своими антивирусами отслеживает такие угрозы и запрещает сайт к показу.

DDoS приводит к обрушению сервера и поисковые роботы не могут опять же попасть на сайт, как и никто не может.

Иногда конкуренты, чтобы выбить соперника из поисковой гонки, взламываются движок и публикуют на страницах тысячи ссылок самого негодного качества. Естественно, поисковая машина немедленно на это отреагирует фильтрацией.

Рассказать друзьям

Добавить комментарий


Защитный код
Обновить

Комментарии   

# Guest 04.02.2015 23:01
Комментарий был удален администратором