Отсутствие страниц сайта в индексах поисковых машин равносильно ситуации, когда магазин на складе имеет много всего разного, а на витринах ассортимент маленький. Люди не находят нужного продукта и разочарованные уходят.
Что дальше? Человек идет искать другой магазин с ассортиментом побогаче. В результате торговая точка теряет не только текущую прибыль, но и будущую. Зачем бы покупатель стал возвращаться в магазин, где ничего нельзя приобрести? Нынче потребитель избалован изобилием.
Еще одна неприятность выпадения страниц из индекса – когда пропадают страницы на сторонних площадках с размещенной рекламой. Деньги за рекламную кампанию снимаются регулярно, а показов-то и не было.
Поэтому полезно наладить мониторинг наличия сайта в индексе и наметить профилактические мероприятия.
Нестабильный хостинг
Не гонялся бы ты, поп, за дешевизной. Стремление сэкономить на хостинг-тарифе – плохая идея для бизнеса. Особенно что касается интернет-магазинов. Происходит примерно так. Поисковый робот в назначенный срок приходит просканировать сайт на предмет изменений и дополнений.
Робот видит, что некоторых страниц нет и делает вывод, что веб-мастер их удалил с сайта за ненадобностью. И тогда бессмысленный компьютерный алгоритм делает аналогичную операцию с индексом – удаляет отсутствующие страницы.
Когда еще страницы вновь станут доступны и сколько времени пройдет до следующей индексации?
Ошибочные настройки доступа
Порядок и сроки обхода сайта поисковыми роботами подробно прописываются в файлах robots.txt. В процессе редактирования или оптимизации веб-мастер может случайно или ошибочно указать неверные параметры. Настроить слишком редкую индексацию. Или совсем запретить индексировать полезные элементы сайта.
Поисковый робот – всего лишь алгоритм и строго выполняет только то, что и записано в командном файле.
Некоторые горе-системы управления сайтами автоматически генерируют запреты на индексацию посадочных страниц сайта или ссылок.
Дублирования разного рода
Одна из задач поисковой машины – оптимизация расхода аппаратных ресурсов. Поэтому при обнаружении одинакового контента, одинаковых страниц и том подобных вещей дубли склеиваются и произвольно назначается канонический образец. Часто основной становится совсем не та страница, что требуется веб-мастеру. При необходимости в сохранении дублей необходимо обозначать HTML-тегами каноническую страницу.
Поисковые фильтры
Сегодня имеется очень много причин, за что поисковый компьютер может посчитать сайт недостойным к показу пользователям. Все эти причины частично зафиксированы в фильтрующих алгоритмах, частично определяются человеческим фактором асессоров поисковой компании. Достоверно об этих причинах наложения поискового пенальти ничего не известно, потому что и не сообщается. Из практического опыта оптимизации можно сделать некоторые выводы о причинах исключения веб-страницы из индекса.
- Низкая уникальность контента.
- Синонимизированный текст.
- Низкая информационная полезность содержания страницы. Как это определяет компьютер? Простым сравнением с эталонными образцами качества в базах поисковой машины.
- Недостаточное количество текстового контента на странице. Это фактор скорее относится к сайтам информационных тематик. Поскольку трудно ожидать много текста на страницах интернет-магазина или сайта фотогалереи, видеоканала.
- Отсутствие четкой структуры и форматирования текста, включая сопровождение графическими и медиа элементами контента.
Относительно новая причина выбрасывания сайта из индекса – плохие поведенческие факторы – высокий процент отказов, короткие сессии, мало просмотров страниц, нелогичные передвижения пользователя по странице. плохие поведенческие факторы – высокий процент отказов, короткие сессии, мало просмотров страниц, нелогичные передвижения пользователя по странице.
Плохие ПФ – это скорее следствие других недоработок на сайте.
- Сайт неудобен для пользователя – слабое юзабилити.
- Слишком много навязчивой рекламы, особенно всплывающих окон, которые почти всегда приводят к уходу пользователя с сайта.
- Непонятная навигация и структура сайта.
- Неправильный дизайн шаблона страницы.
- Неграмотная внутренняя перелинковка.
Все это вместе делает сайт непригодным для комфортного использования, поэтому пользователи вынуждены уходить, даже при наличии качественного содержания.
Злоумышленные действия, DDoS и хакерские атаки.
Теперь факторы внешнего воздействия. Это могут быть происки конкурентов, вирусное заражение, даже случайные вещи. Сайт может быть взломан и в страницы внедрен вредоносный код. Поисковая машина своими антивирусами отслеживает такие угрозы и запрещает сайт к показу.
DDoS приводит к обрушению сервера и поисковые роботы не могут опять же попасть на сайт, как и никто не может.
Иногда конкуренты, чтобы выбить соперника из поисковой гонки, взламываются движок и публикуют на страницах тысячи ссылок самого негодного качества. Естественно, поисковая машина немедленно на это отреагирует фильтрацией.
Комментарии