Script PHP gratuito e de código aberto (GNU GPL v3) com serviços de processamento na nuvem (API, modelo SaaS) para proteger sites contra bots maliciosos: evita manipulação de fatores comportamentais, reduz a carga do servidor e protege contra spam, tentativas de invasão, ataques de força bruta, varredura de vulnerabilidades, scraping (parsing), servidores proxy e roubo de conteúdo.
Amigável para SEO — seguro para indexação e ranqueamento nos buscadores. Amigável para UX — não atrapalha os visitantes e permite remover CAPTCHAs dos formulários.
O Antibot Cloud não é um produto gerado por IA nem fruto de um vibe coding sem alma. Há mais de 8 anos, pessoas reais o constroem, aprimoram e mantêm — colocando não só conhecimento e experiência, mas também o coração.
1 domínio com subdomínios
Verificações de bots ilimitadas
Proteção de fatores comportamentais
10 dias de teste gratuito
Suporte personalizado por e-mail
Suporte personalizado pelo Telegram
Suporte personalizado pelo WhatsApp
Domínios protegidos ilimitados
Verificações de bots ilimitadas
Proteção de fatores comportamentais
Sem período de teste
Suporte personalizado por e-mail
Suporte personalizado pelo Telegram
Suporte personalizado pelo WhatsApp
O script Antibot (GNU GPL v3) com verificações locais e regras de filtragem locais é disponibilizado gratuitamente, sem restrições ou condições adicionais. Algumas funcionalidades do painel de administração na nuvem não estão incluídas.
Por padrão, não protege o site contra bots comportamentais (de navegador).
Sem suporte personalizado — apenas ajuda da comunidade (fóruns e grupos no Telegram).
Você mesmo cria as regras de filtragem local por país, cidade, fuso horário, PTR, ASNum, ASName, User-Agent, idioma do navegador, sub-redes ou endereços IPv4 e IPv6 individuais, referrer e outros parâmetros.
Usuários reais passam pela verificação automática e chegam ao site em 1 a 3 segundos. A maioria dos visitantes é verificada automaticamente, sem precisar fazer nada. Se o sistema detectar um visitante suspeito, ele precisará confirmar que não é um robô — clicando em um botão ou resolvendo um CAPTCHA rápido.
O visitante é verificado apenas uma vez. Depois disso, enquanto os cookies estiverem salvos e o User-Agent ou IP não mudarem — o que raramente acontece —, o Antibot não solicitará uma nova verificação.
Os robôs de indexação dos buscadores (Googlebot, Bingbot etc.) acessam o site sem verificações extras e não "enxergam" o script Antibot em ação. A autenticidade deles é verificada pelo esquema "IP-PTR-IP" — robôs falsos não passam na verificação e são bloqueados.
Você pode liberar os bots que precisa nas regras — você decide quem passa e quem é bloqueado. Exemplos de bots úteis: PageSpeed Insights/Lighthouse, bots de pré-visualização de links (Telegram, Facebook, X) e outras redes sociais, leitores de RSS/feed...
Para filtrar o tráfego, você pode definir regras personalizadas — permitir ou bloquear o acesso por país e cidade, fuso horário, PTR, ASNum/ASName, User-Agent, idioma do navegador, IP, referrer e outros parâmetros de fingerprint.
Bots de spam localizam automaticamente formulários de contato, comentários, fóruns, cadastros e outros campos de entrada para enviar spam em massa, links de phishing e conteúdo malicioso. Isso entope bancos de dados e caixas de e-mail, prejudica a reputação do domínio, piora a qualidade do conteúdo e aumenta a carga no servidor.
Bots hackers varrem o site automaticamente em busca de vulnerabilidades, procuram painéis de administração e caminhos comuns, tentam quebrar senhas por força bruta e explorar falhas de XSS, injeção de SQL, upload de arquivos e outros pontos fracos. As consequências incluem injeção de código malicioso e redirecionamentos, substituição de páginas, spam de SEO oculto, vazamentos de dados, quedas no ranqueamento e inclusão em listas negras. O Antibot bloqueia esses ataques logo na entrada, filtra requisições suspeitas e reduz o risco de invasão.
Scraping é a coleta e cópia automatizada do conteúdo de um site usando bots. Sites de doorway e proxy criam páginas duplicadas, o que reduz a originalidade do conteúdo nos buscadores e aumenta a carga no servidor. Além de copiar textos e imagens, os scrapers frequentemente extraem dados de catálogos — preços, páginas de produtos, links, contatos, e-mails e outras informações públicas — para usá-los em recursos de terceiros ou em disparos de e-mail.
Bots comportamentais se disfarçam de visitantes comuns e imitam ações "reais" no site — visualizações de páginas, rolagem, cliques e navegação. Com frequência usam navegadores antidetecção, proxy ou VPN e falsificam o fingerprint do navegador para burlar filtros simples. O resultado: dados de analytics distorcidos, queda de CTR e taxa de conversão, desperdício de verba publicitária (fraude de cliques), aumento da taxa de rejeição e piora das métricas comportamentais.
Requisitos de software: PHP 5.6 - 8.5.2, Extensões PHP (classes): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Baixe o instalador (script antibot_installer.php) na sua conta. Minha conta.
Envie o instalador para o seu site (via SFTP) e acesse-o no navegador por um endereço como https://seu-site/antibot_installer.php
Inclua o Antibot nos scripts necessários ou no seu CMS. Formas de integração.
Se tiver dificuldades, consulte a documentação (ela responde 95% das dúvidas mais comuns) ou solicite a instalação e configuração profissional pelo suporte (pago ou gratuito). Documentação. Solicitar instalação e configuração.