Как проверка поддержки JavaScript в BotBlocker выявляет ботов

Человеческие пользователи заходят на сайт через браузеры с включённым JavaScript. Многие парсеры, скрапер-боты и низкосортные автоматизаторы JavaScript не запускают. Облако BotBlocker использует этот факт, выполняя лёгкую проверку поддержки JavaScript и блокируя ботов без ущерба для пользователей.

Почему проверка JavaScript эффективна

Люди взаимодействуют с элементами, созданными JavaScript: анимациями, формами, загрузками в фоне. Эти сценарии не выполняются на ботах. Проверка отключённого JavaScript позволяет:

  • Отсеять порядка 80 % простых скриптов
  • Снизить нагрузку на сервер
  • Минимизировать влияние на интерфейс пользователей

Как работает механика проверки

BotBlocker вставляет небольшую JavaScript-заготовку на этапе загрузки страницы:

  1. Браузер получает мини-скрипт, который отправляет скрытый запрос или ставит куку.
  2. Если скрипт отработал, поддержка подтверждается.
  3. Если нет — трафик помечается как подозрительный.

Проверка происходит до полной загрузки WordPress, что предотвращает дальнейшую обработку запросов ботами.

Без влияния на пользователя

Проверка плавная и бесшовная. Если скрипт не выполнен, для пользователя абсолютно никто ничего не заметит — только активируется защита (например, капча при необходимости). Для легитимных посетителей это незаметно.

Администратор сайта сам выбирает реакцию: блокировка, капча или пассивный мониторинг.

Преимущества проверки JavaScript

  • Значительно снижает загрузку сервера от автоматов
  • Прекращает вредоносный трафик ещё до загрузки страницы
  • Минимум ложных срабатываний — живые пользователи проходят сразу

Один клиент отметил: после включения проверки бот-активность снизилась на 65%. Это освободило ресурсы для настоящих пользователей и снизило расходы на хостинг.

BotBlocker Pro фильтрует ботов на ранних этапах, не мешая настоящим пользователям, улучшая производительность сайта без сложных настроек.

Какие боты не проходят проверку

Большинство автоматических инструментов работает по простой схеме: они делают запрос к странице, получают HTML и сразу разбирают его содержимое. Никакого браузера, никакого рендеринга, никакой обработки скриптов. Именно поэтому такие инструменты не могут выполнить даже простейший сценарий на стороне клиента.

Под действие проверки попадают:

  • Простые HTTP-сканеры. Они забирают страницы без рендеринга и не выполняют никакой клиентской логики.
  • Устаревшие парсеры. Инструменты, написанные под старые стандарты, часто не имеют встроенного движка для выполнения скриптов.
  • Боты перебора паролей и форм. Они нацелены на конкретные адреса и не открывают страницы через браузер.
  • Автоматические регистраторы аккаунтов. Большинство таких скриптов не эмулирует настоящий браузер и не проходит клиентские проверки.

По данным отчёта Imperva о плохих ботах за 2024 год, более половины бот-трафика в интернете приходится на простые автоматические сценарии, которые не используют полноценный браузерный стек. Именно эту категорию и отсекает проверка на уровне клиентского выполнения.

Как это влияет на производительность сайта

Когда бот-запросы обрабатываются сервером в полном объёме, ресурсы тратятся впустую: процессорное время, память, подключения к базе данных. Сайт начинает медленнее отвечать настоящим пользователям, растут расходы на хостинг, в пиковые моменты возможны сбои.

Когда ботов отсекают на раннем этапе, до полной загрузки приложения, нагрузка падает. Сервер перестаёт тратить ресурсы на обработку заведомо бесполезных запросов. Страницы загружаются быстрее, время отклика снижается, а это напрямую влияет на позиции в поиске. Google прямо указывает, что скорость загрузки страниц учитывается при ранжировании.

Настройка реакции на подозрительный трафик

После того как запрос помечен как подозрительный, BotBlocker предлагает несколько вариантов действий. Администратор выбирает нужный в зависимости от типа сайта и уровня допустимого риска.

  • Жёсткая блокировка. Запрос отклоняется сразу, посетитель получает страницу отказа.
  • Капча. Подозрительный посетитель получает задание, которое подтверждает, что перед системой живой человек.
  • Пассивный мониторинг. Запросы пропускаются, но фиксируются в журнале для последующего анализа.

Такой подход позволяет не перекрывать доступ в тех случаях, когда нужна осторожность. Например, если часть легитимных пользователей пользуется нестандартными браузерами или корпоративными прокси-серверами, пассивный режим даёт возможность сначала проанализировать трафик, а уже потом принять решение о блокировке.

Совместимость с поисковыми роботами

Один из частых вопросов: не пострадает ли индексация сайта? Поисковые роботы Google, Bing и других крупных систем идентифицируются по User-Agent и IP-адресам из официально опубликованных диапазонов. BotBlocker учитывает это и не применяет жёсткую блокировку к верифицированным поисковым краулерам. Сайт остаётся доступным для индексации, а защита работает против тех, кто не является ни пользователем, ни официальным роботом.

Режим инкогнито

Выявление блокировщиков рекламы