Script PHP gratuit open source (GNU GPL v3) et services cloud de traitement de données (API, modèle SaaS) pour protéger les sites web contre les robots malveillants : prévient la manipulation des facteurs comportementaux, réduit la charge serveur et protège contre le spam, les tentatives de piratage, les attaques par force brute et l'analyse de vulnérabilités, le scraping (parsing), les serveurs proxy et le vol de contenu.
Compatible SEO – sans danger pour l'indexation et le référencement naturel. Respectueux de l'expérience utilisateur – n'interfère pas avec les vrais visiteurs et permet de supprimer les CAPTCHA des formulaires.
Antibot Cloud n'est pas un produit généré par l'IA ni le résultat d'un codage sans âme. Depuis plus de 8 ans, de vraies personnes le construisent, l'améliorent et le maintiennent en y investissant non seulement leurs connaissances et leur expérience, mais aussi leur passion.
1 domaine avec sous-domaines
Vérifications de robots illimitées
Protection des facteurs comportementaux
Période d'essai de 10 jours
Assistance personnalisée par e-mail
Assistance personnalisée par Telegram
Assistance personnalisée par WhatsApp
Domaines protégés illimités
Vérifications de robots illimitées
Protection des facteurs comportementaux
Sans période d'essai
Assistance personnalisée par e-mail
Assistance personnalisée par Telegram
Assistance personnalisée par WhatsApp
Le script Antibot (GNU GPL v3) avec vérifications locales et règles de filtrage locales est mis à disposition gratuitement, sans restriction ni condition supplémentaire. Certaines fonctionnalités du panneau d'administration cloud ne sont pas incluses.
Par défaut, ne protège pas le site contre les robots comportementaux (de navigateur).
Pas d'assistance personnalisée – aide communautaire uniquement (forums, groupes Telegram).
Vous créez vous-même les règles de filtrage locales selon le pays, la ville, le fuseau horaire, le PTR, l'ASNum, l'ASName, le User-Agent, la langue du navigateur, les sous-réseaux ou les adresses IPv4 et IPv6 individuelles, le référent et d'autres paramètres.
Les vrais utilisateurs passent une vérification automatique et accèdent au site en 1 à 3 secondes. La plupart des visiteurs sont validés automatiquement, sans aucune action requise. Si le système détecte un visiteur suspect, celui-ci devra confirmer qu'il n'est pas un robot – en appuyant sur un bouton ou en complétant un CAPTCHA rapide.
Un visiteur n'est vérifié qu'une seule fois. Ensuite, tant que les cookies sont conservés et que le User-Agent ou l'adresse IP ne changent pas (ce qui est rare), Antibot ne demandera pas de nouvelle vérification.
Les robots d'exploration des moteurs de recherche (Googlebot, Bingbot, Yandexbot, etc.) accèdent au site sans vérification supplémentaire et ne « voient » pas le script Antibot en action. Leur authenticité est vérifiée par le schéma « IP-PTR-IP » – les faux « robots de recherche » échoueront à la vérification et seront bloqués.
Vous pouvez autoriser les robots dont vous avez besoin via les règles – c'est vous qui décidez qui laisser passer et qui bloquer. Exemples de robots utiles : PageSpeed Insights/Lighthouse, robots d'aperçu de liens (Telegram, Facebook, X) et autres réseaux sociaux, lecteurs RSS/flux...
Pour filtrer le trafic, vous pouvez définir des règles personnalisées – autoriser ou refuser l'accès selon le pays et la ville, le fuseau horaire, le PTR, l'ASNum/ASName, le User-Agent, la langue du navigateur, l'adresse IP, le référent et d'autres paramètres d'empreinte numérique.
Les robots spam repèrent automatiquement les formulaires de contact, les commentaires, les forums, les pages d'inscription et autres champs de saisie pour y envoyer massivement du spam, des liens de phishing et du contenu malveillant. Cela engorge les bases de données et les boîtes mail, nuit à la réputation du domaine, dégrade la qualité du contenu et surcharge le serveur.
Les robots pirates analysent automatiquement le site à la recherche de failles, cherchent les panneaux d'administration et les chemins courants, tentent de forcer les mots de passe et essaient d'exploiter les failles XSS, les injections SQL, les téléchargements de fichiers et autres points vulnérables. Les conséquences peuvent être l'injection de code malveillant et de redirections, la substitution de pages, le spam SEO caché, des fuites de données, une chute du classement et une mise sur liste noire. Antibot bloque ces attaques dès le point d'entrée, filtre les requêtes suspectes et réduit considérablement le risque de piratage.
Le scraping consiste à collecter et copier automatiquement le contenu d'un site web à l'aide de robots. Les sites doorway et les sites proxy créent des pages dupliquées, ce qui réduit l'unicité du contenu dans les moteurs de recherche et surcharge le serveur. En plus de copier textes et images, les scrapers extraient souvent des données de catalogues – prix, fiches produits, liens, coordonnées, adresses e-mail et autres informations publiques – pour les réutiliser sur des ressources tierces ou dans des campagnes d'envoi.
Les robots comportementaux se font passer pour des visiteurs ordinaires et imitent de « vraies » actions sur le site – consultations de pages, défilement, clics et navigation. Ils utilisent souvent des navigateurs antidetect et des proxys/VPN, et falsifient l'empreinte du navigateur pour contourner les filtres basiques. Il en résulte une distorsion des données analytiques, une baisse du taux de clics et du taux de conversion, un gaspillage des budgets publicitaires (fraude au clic), une hausse du taux de rebond et une dégradation des métriques comportementales.
Prérequis logiciels : PHP 5.6 - 8.5.2, Extensions PHP (classes) : SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Téléchargez le programme d'installation (le script antibot_installer.php) depuis votre espace client. Espace client.
Uploadez le programme d'installation sur votre site (via SFTP) et exécutez-le dans le navigateur à une adresse du type https://votre-site/antibot_installer.php
Intégrez Antibot dans les scripts concernés ou dans votre CMS. Méthodes d'intégration.
En cas de difficulté, consultez la section documentation (elle répond à 95 % des questions courantes) ou commandez une installation et une configuration professionnelles auprès du support (payant ou gratuit). Documentation. Commander l'installation et la configuration.