Введение
Задача любого сайта — привлекать трафик. И очень больно смотреть на то, как он резко падает. Особенно, если никаких кардинальных ошибок вы не совершали. Трафик — вещь довольно хрупкая и крайне привередливая. Он может упасть даже на идеально оптимизированных сайтах, которые работают без сбоев на протяжении долгого времени. И произойти это может по многим причинам. 11 самых распространенных и важных — разберем далее.
Изменения на сайте
Понятно, что все изменения на сайте проводятся с благими целями: улучшить контент, сделать интерфейс удобнее и т.д. И многие изменения могут оказаться действительно нужными и полезными для пользователей. Чего не скажешь о поисковых системах.
Поисковики придирчиво относятся к любым изменениям на сайте. И если им что-то «не понравится» — ждите беды. А точнее — падения трафика. Чаще всего это происходит в случаях, когда:
- Полностью удаляются страницы, которые привлекали трафик;
- Серьезно изменяется навигация между разделами;
- Меняется URL-адрес одной или нескольких страниц;
- В статьях прописывается слишком много новых ссылок.
Поэтому если вы недавно проводили модернизацию сайта, после которой упал трафик, то скорее всего дело именно в этих изменениях. Предпринимать никаких кардинальных попыток по восстановлению позиций сайта не нужно. Здесь все зависит от поисковых систем — они должны снова проиндексировать измененные страницы. Уйти на это может от пары дней до нескольких недель. Вам остается только ждать. Если поисковик проигнорирует измененную страницу и не проиндексирует ее, в таком случае следует обращаться к seo специалистам.
Директивы в файле robots
Следующая причина просадки трафика по Яндексу и Гуглу кроется в директивах robots.txt. Остановимся тут подробнее.
Robots.txt — это файл, в котором содержится «инструкция» для поисковиков. Именно по этим директивам поисковый бот определяет, какие страницы можно сканировать, а какие нельзя. Допускается сценарий, при котором бот Google может проигнорировать страницу и не сканировать ее в принципе, если сервер сайта ответит технической ошибкой на запрос «robots». При этом Google может точно также спокойно проигнорировать важность какой-то страницы, которая здесь обозначена. Поэтому многие seo-специалисты (в частности, начинающие) просто игнорируют файл.
Важно: Файл robots.txt должен быть размещен в корневом каталоге сайта в формате обычного текстового документа. Как пример: https://au-agency.ru/robots.txt.
Работать с robots.txt нужно! В противном случае можно заработать немало проблем. Так, если файл с директивами будет недоступен, то алгоритмы поисковика могут просто отказаться от сканирования сайта. Полное отсутствие такого файла приведет к тонне мусора в индексе. А вот ошибки в нем могут стать причиной и резкого падения трафика, и недоверия к сайту со стороны хоста, и других малоприятных проблем.
Так что если у вас упала посещаемость после изменений в файле роботс, перепроверьте его корректность. Кроме проверки самих ошибок, обязательно убедитесь в том, что вы используете все базовые директивы для оптимизации:
- User-agent (главная директива, определяет, для каких именно роботов составлены следующие инструкции: YandexBot, Googlebot, Bingbot и т.д.);
- Disallow (закрывает отдельные страницы, файлы и разделы, которые не нуждаются в индексации);
- Allow (разрешает индексацию определенных страниц, условно необязательная директива, т.к. поисковики по умолчанию индексируют все доступные страницы);
- Host (задает адрес основного зеркала сайта);
- Sitemap (содержит базовые данные о том, как построен контент на сайте);
- Crawl-delay (позволяет установить время в секундах между индексацией предыдущей страницы и обработкой следующей, используется для уменьшения нагрузки на сайт);
- Clean param (здесь прописываются те данные и страницы, которые не меняют содержание самого сайта).
Из личного опыта: если меняете директивы, обязательно прописывайте для них комментарии — через «#». Текст после этого символа поисковики не обрабатывают. Зато он окажет вам неплохую помощь, когда вы через время вернетесь к robots и попытаетесь вспомнить, какие именно файлы вы корректировали.
Скорость загрузки страницы
Поисковикам, по сути, неважно как быстро загружаются ваши страницы, но скорость их загрузки влияет на общее здоровье сайта. Происходит это по следующему принципу:
- Страница начинает загружаться медленнее;
- Поведение пользователей на сайте меняется;
- Поисковые алгоритмы получают тревожный сигнал.
В конечном итоге от загрузки страниц зависят их позиции в поисковой выдаче. И если происходит проседание трафика, проверьте, насколько быстро загружаются все разделы.
Совет: Проверить скорость загрузки сайтов можно бесплатно. Например, через сервис Google PageSpeed Insights или Pingdom Tools.
Базовые принципы ускорения загрузки страниц заключаются в том, чтобы убрать с них все лишнее: неиспользуемый код, строки, пробелы, комментарии, блоки и т.д. Постарайтесь оптимизировать все переменные до более лаконичного уровня. И не забывайте про мобильную версию. Именно в ней чаще всего встречаются проблемы со скоростью загрузки.
Обновление алгоритмов ранжирования
Поисковые алгоритмы постоянно меняются. Так, в 2018 году практически на всех медицинских ресурсах резко упал трафик с Гугла. Причиной стало то, что поисковик сделал резкий «поворот» в сторону достоверности и экспертности контента. С похожей ситуацией столкнулись сайты финансовой, бизнес и азартной тематики в 2019 году.
Из последних изменений алгоритмов (за 2021-2023 гг) можно выделить следующие:
- Product Reviews Update 2021. Google стал более требовательным к текстовым обзорам и отзывам. Страницы с исчерпывающими отзывами ранжируются лучше (особенно хорошо, если в материале есть анализ продукта, мнение эксперта, объективная оценка плюсов и минусов).
- Core Update + Spam Update 2021. Повысилась значимость UX страниц, контента, его уникальности и пользы. Поисковики стали применять жесткие санкции в отношении тех, кто привлекает читателей обманным путем (шокирующие фразы в заголовках, преувеличения и т.д.).
- LCP, FID и CLS 2022. Показатели удобства страниц анализируются тщательнее. Ранжирование страниц для ПК и мобильных устройств происходит по отдельности.
Логично, что если вы не обновляли свой сайт с 2020 года, то причиной падения трафика может быть его банальное несоответствие текущим алгоритмам. Поэтому старайтесь регулярно обновлять страницы. Чтобы они полностью соответствовали актуальным требованиям поисковиков, следите за всеми их обновлениями. Очень удобно информация представлена в Блоге Центра Google Поиска. Здесь анонсируются все ближайшие масштабные обновления алгоритмов, что позволяет своевременно к ним подготовиться.
Фильтры
У каждой поисковой системы есть свой набор фильтров, по которым она отсеивает сайты из поисковой выдачи. Фильтр — это алгоритм, который определяет, использует сайт «черные» методы улучшения своих позиций или нет. Если да — на сайт накладываются санкции, из-за которых он может выпасть из поисковой выдачи примерно на 2-3 месяца. Как итог — низкая посещаемость.
Причины просадки трафика в Яндекс и Google из-за санкций разные. К основным фильтрам Яндекса относятся:
- SEO тексты, перенасыщенные ключевыми словами и не несущие никакой пользы для посетителей;
- Реклама, спам, опасные файлы, нежелательные программы;
- Размещение Seo-ссылок внутри страниц сайта;
- Скрытый текст, созданный для обмана поисковых систем;
- Полное копирование чужого ресурса или его отдельных страниц.
Ключевыми фильтрами в Google являются:
- Penguin (размещение платных ссылок на сторонних ресурсах);
- Panda (публикация неуникального контента, спама, информации, которая не представляет пользы для читателей);
- Humming-bird (фильтр анализирует текст без ключевых слов, если он некачественный и бесполезный — санкции);
- Mobile-friendly (анализирует мобильную версию, и, если она оптимизирована плохо или отсутствует вовсе, позиции сайта снижаются).
Проверить сайт на наличие фильтров от Яндекса можно через его Вебмастер. Если трафик упал в Гугл, используйте его сервис — Google Search Console. С фильтрами работать несложно.
Проблема фильтров в том, что после их наложения многие сайты уже не могут вернуть топовые позиции. Особенно это касается серьезных санкций (за спам, сомнительные ссылки и т.д.). Поэтому лучший способ борьбы с фильтрами — это изначальное использование безопасных методов оптимизации.
Вирусы
Вирусы опасны для сайта ничуть не меньше санкций поисковых систем. Во-первых, они уменьшают количество посещений: при наличии опасности пользователю предоставляется соответствующее предупреждение. Обходят его редко. Во-вторых, из-за наличия угроз лояльность посетителей снижается, что тоже сказывается на позициях не лучшим образом. Ну и в-третьих, трафик и позиция сайта в Яндексе и Google падают, т.к. поисковики просто добавляют зараженный вирусами ресурс в черный список и исключают его из ранжирования.
Восстановление позиций сайта при его заражении вирусными файлами происходит в два этапа:
- Удалите все вирусы с сайта;
- Отправьте сайт на повторную проверку и индексацию.
Для проверки сайта на наличие вирусов используйте онлайн-сканеры: 2IP.ru, Rescan.pro, Sucuri или облачные антивирусы. Воспользоваться можно и «Безопасным просмотром» от Google.
Обновление сайта
Причиной проседания трафика из Гугл и Яндекс может стать обновление сайта. Здесь палка о двух концах. С одной стороны — обновлять контент важно и нужно. Поисковые алгоритмы воспринимают частое обновление информации как признак того, что данный ресурс полезен и актуален для пользователей. С другой стороны — если обновлять контент неправильно, можно столкнуться с падением трафика из Google или Яндекс. Поэтому при обновлении сайта руководствуйтесь следующими правилами:
- Старайтесь использовать новые ключевые слова и не перегружать ими текст;
- Не забывайте обновлять фотографии, видео и другой медиа-контент, т.к. он тоже принимает участие в ранжировании;
- Обновляйте контент на странице регулярно, причем не просто добавляя парочку новых слов, а делая его в разы информативнее и полезнее для посетителей;
- Активно ведите блог компании, чтобы публиковать в нем полезный и оптимизированный материал.
Если сайт долго не будет обновляться, его позиции в поисковике начнут постепенно снижаться.
На фото пример плохого Seo текста, перегруженного ключевыми словами, что может стать причиной потери позиций
Конкуренты
Тягаться с топовыми лидерами отрасли в ранжировании не просто. Например, небольшому магазину одежды в Москве будет трудно справиться с конкуренцией, которую создают та же Lamoda, WB или другие гиганты отрасли. Такое «окружение» может стать основополагающей причиной просадки трафика.
Конечно, обогнать Ozon в выдаче будет трудно. Но улучшить свои позиции и обойти менее серьезных конкурентов — реально. Для этого действуйте по 3-м базовым принципам:
- Лучше чем у конкурентов. Проведите тщательный анализ конкурентных сайтов, возьмите себе на заметку их преимущества и постарайтесь выгодно переиграть недостатки.
- Новые ключевые слова. Проанализируйте ключи, по которым ранжируются конкуренты, и внедрите на свой сайт те, которые вы еще не используете. Часто такая работа включает изменение метаданных и даже архитектуры сайта. Но результат того стоит.
- Польза и экспертность для пользователей. Даже если вы продаете легкие летние сарафаны, не забывайте про пользу для потенциального клиента. Реальные отзывы покупателей, советы по подбору размера, рекомендации стилистов — все это хорошо скажется на ранжировании.
А вот прибегать к «черным» методам обхода конкурентов не рекомендуем. Во-первых, они дадут лишь временный результат и хороший сайт сможет быстро от них оправиться. Во-вторых, любые «черные методы» могут обернуться против вас. Ну и в-третьих, в ответ на такое поведение конкурент может направить аналогичные действия в вашу сторону. И тут уже оправиться будет куда труднее.
Пример анализа конкурентов для SEO
Технические ошибки
Если на определенной странице сильно упал трафик из Яндекса или Гугла, имеет смысл проверить ее на технические ошибки. Они могут быть незаметны на первый взгляд. При этом даже из-за небольшого сбоя сайт может упасть в выдаче Яндекса или Google. Чаще всего это происходит по следующим причинам:
- Появление дублей страниц (ведет к снижению релевантности);
- Заражение вирусами (подробнее о проблеме говорили ранее);
- Технические неполадки на стороне хостинга (приводит к недоступности самого сайта и невозможности его корректной индексации);
- Некорректная работа редиректов (если 301-й или 302-й редирект «отвалился», падения трафика просто не избежать);
- Изменения на сайте (чаще всего резкий скачок за один день в Гугле или Яндексе происходит из-за неправильного изменения мета-тегов, url-адреса, контента).
Первый совет — регулярно проверяйте сайт самостоятельно как пользователь. Просто открывайте постепенно все основные страницы и следите за тем, чтобы они отображались корректно. Уже при таком анализе можно выявить основные технические проблемы. Их самые распространенные идентификаторы:
- 300 — сервер отправляет пользователю не тот запрос, который ему необходим;
- 404 — страница отсутствует по данному адресу (может быть перемещена или удалена);
- 401 — нет доступа к странице (открывается только после авторизации пользователя);
- 500 (и другие коды, начинающиеся с цифры «5») — проблемы на стороне хостинга.
Проверить сайт на наличие технических ошибок можно через сторонние сервисы. Наиболее популярные и эффективные: Screaming Frog, Sitechecker Crawler, Ahrefs и т.д.
Поведенческие факторы
Чтобы сайт хорошо ранжировался, недостаточно наполнить его полезным, уникальным контентом и полностью проработать все возможные ошибки. Важно еще уделять внимание поведенческим факторам.
Интересно: Поведенческие факторы — характеристики, по которым отслеживается поведение пользователей на сайте.
Поисковые алгоритмы при ранжировании обязательно учитывают поведенческие факторы. Разберем на примере:
- Пользователь открывает страницу из выдачи поисковика, быстро ее пролистывает и закрывает, не находя ответа на свой вопрос;
- Аналогичное действие повторяется другими посетителями многократно;
- Алгоритмы поисковой системы воспринимают подобные действия как признак того, что сайт не удовлетворяет запросам пользователей.
Результат стандартный — нет трафика с Гугла или Яндекса.
И напротив: если пользователи много времени проводят на сайте и производят там какие-то действия (покупка, заказ, лайк и т.д.), сайт воспринимается поисковыми алгоритмами как полезный и выводится в ТОП лучше.
Если у вас упали позиции в Яндексе или Google, начните комплексно работать с поведенческими факторами:
- Увеличьте время пользователя на сайте. Самый лучший способ добиться этого — создание полезного контента. Каждая страница должна максимально отвечать на запрос пользователя и быть актуальной для него.
- Улучшите глубину просмотра. Например, с помощью перелинковки и публикации смежного полезного контента.
- Увеличьте количество действий пользователя на странице. Работать с данным параметром необходимо коммерческим страницам. Добавьте полезные блоки для взаимодействия: форма обратной связи, кнопки заказа, блоки с дополнительной информацией и т.д.
При работе с поведенческими факторами важно уменьшить количество отказов. Яндекс определяет их по времени пребывания на сайте (хорошо — более 15 секунд) и количеству просмотренных страниц (хорошо — больше 1-й страницы). Google определяет отказ всего по одному запросу. Если пользователь зашел на сайт и тут же вышел, алгоритмы идентифицируют такое действие как отказ.
Ошибки покрытия
На общее ранжирование всего сайта влияет индексация каждой отдельной страницы. Поэтому одна из причин, по которой может падать органический трафик в Яндексе и Гугле — это отсутствие индексации страниц.
Важно: Даже если системой было успешно проиндексировано тысячи страниц, трафика может быть ноль — из-за отсутствия индексации всего пары разделов сайта.
Страницы могут выпасть из индекса из-за:
- Низкого качества контента или его неуникальности. Помните, что страница должна соответствовать фильтрам Panda от Гугл и АГС от Яндекса. Если у вас резко упал трафик сайта с Гугл или Яндекс после изменений на странице, возможно, вы выполнили их против установленных требований.
- Переоптимизации. Не увлекайтесь оптимизацией страниц. Оптимизировать контент нужно. Но делать это необходимо осторожно.
- Некачественной ссылочной массы. Страница может выпасть из индекса еще и по причине обратных ссылок низкого качества. Происходит это при их дешевой накрутке.
- Смены URL. При изменении адреса его старое значение выпадает из индекса. На восстановление обновленного адреса могут уйти месяцы. Чтобы ускорить данный процесс, используйте 301 редирект — для перевода пользователей и алгоритмов со старого адреса на новый.
- Аффилированности. Выпадение страницы из индекса может произойти из-за его признания аффилиатом. Определяются такие ресурсы по ряду признаков (например, одинаковые контактные данные).
- Ненадежности хостинга. Если на странице часто возникает ошибка 404, то алгоритмы просто уберут ее из выдачи. Часто такая проблема возникает по вине хостинг-провайдеров.
Поэтому если у вас нет трафика на странице товара, контента или продукта из Google или Яндекса, убедитесь, что она индексируется в принципе. Сделать это можно через Яндекс.Вебмастер или Google Search Console. В первом случае изучите разницу между индексируемыми и не индексируемыми страницами в разделе «Индексирование». Ее слишком большое значение является тревожным сигналом. В Google Search Console же изучить все проблемные страницы можно в разделе «Покрытие».
Заключение
Причин, почему может упасть органический трафик из поисковых систем, множество. Проанализировать все за один день нереально. Но выше представлены наиболее распространенные причины проблем с ранжированием. Начав работать с ними постепенно, вы сможете уже в ближайшее время найти проблемные места на своем сайте, устранить их и восстановить нормальный трафик.