Antibot Cloud

Protection universelle de site web contre les robots : Antibot, antispam et pare-feu pour les sites WordPress et PHP. Installation et configuration rapides.

Nous protégeons les sites web depuis 2017.

Qu'est-ce qu'Antibot Cloud ?

Script PHP gratuit open source (GNU GPL v3) et services cloud de traitement de données (API, modèle SaaS) pour protéger les sites web contre les robots malveillants : prévient la manipulation des facteurs comportementaux, réduit la charge serveur et protège contre le spam, les tentatives de piratage, les attaques par force brute et l'analyse de vulnérabilités, le scraping (parsing), les serveurs proxy et le vol de contenu.

Compatible SEO – sans danger pour l'indexation et le référencement naturel. Respectueux de l'expérience utilisateur – n'interfère pas avec les vrais visiteurs et permet de supprimer les CAPTCHA des formulaires.

Antibot Cloud n'est pas un produit généré par l'IA ni le résultat d'un codage sans âme. Depuis plus de 8 ans, de vraies personnes le construisent, l'améliorent et le maintiennent en y investissant non seulement leurs connaissances et leur expérience, mais aussi leur passion.

Nos offres

ONE

$10 par mois

1 domaine avec sous-domaines

Vérifications de robots illimitées

Protection des facteurs comportementaux

Période d'essai de 10 jours

Assistance personnalisée par e-mail

Assistance personnalisée par Telegram

Assistance personnalisée par WhatsApp

S'inscrire

UNLIMITED

$1800 par an

Domaines protégés illimités

Vérifications de robots illimitées

Protection des facteurs comportementaux

Sans période d'essai

Assistance personnalisée par e-mail

Assistance personnalisée par Telegram

Assistance personnalisée par WhatsApp

S'inscrire

FREE

Le script Antibot (GNU GPL v3) avec vérifications locales et règles de filtrage locales est mis à disposition gratuitement, sans restriction ni condition supplémentaire. Certaines fonctionnalités du panneau d'administration cloud ne sont pas incluses.

Par défaut, ne protège pas le site contre les robots comportementaux (de navigateur).

Pas d'assistance personnalisée – aide communautaire uniquement (forums, groupes Telegram).

Vous créez vous-même les règles de filtrage locales selon le pays, la ville, le fuseau horaire, le PTR, l'ASNum, l'ASName, le User-Agent, la langue du navigateur, les sous-réseaux ou les adresses IPv4 et IPv6 individuelles, le référent et d'autres paramètres.

Comment fonctionne Antibot Cloud ?

Autorise l'accès

Vrais utilisateurs

Les vrais utilisateurs passent une vérification automatique et accèdent au site en 1 à 3 secondes. La plupart des visiteurs sont validés automatiquement, sans aucune action requise. Si le système détecte un visiteur suspect, celui-ci devra confirmer qu'il n'est pas un robot – en appuyant sur un bouton ou en complétant un CAPTCHA rapide.

Un visiteur n'est vérifié qu'une seule fois. Ensuite, tant que les cookies sont conservés et que le User-Agent ou l'adresse IP ne changent pas (ce qui est rare), Antibot ne demandera pas de nouvelle vérification.

Robots des moteurs de recherche

Les robots d'exploration des moteurs de recherche (Googlebot, Bingbot, Yandexbot, etc.) accèdent au site sans vérification supplémentaire et ne « voient » pas le script Antibot en action. Leur authenticité est vérifiée par le schéma « IP-PTR-IP » – les faux « robots de recherche » échoueront à la vérification et seront bloqués.

Robots utiles

Vous pouvez autoriser les robots dont vous avez besoin via les règles – c'est vous qui décidez qui laisser passer et qui bloquer. Exemples de robots utiles : PageSpeed Insights/Lighthouse, robots d'aperçu de liens (Telegram, Facebook, X) et autres réseaux sociaux, lecteurs RSS/flux...

Règles personnalisées

Pour filtrer le trafic, vous pouvez définir des règles personnalisées – autoriser ou refuser l'accès selon le pays et la ville, le fuseau horaire, le PTR, l'ASNum/ASName, le User-Agent, la langue du navigateur, l'adresse IP, le référent et d'autres paramètres d'empreinte numérique.

Bloque l'accès

Spam

Les robots spam repèrent automatiquement les formulaires de contact, les commentaires, les forums, les pages d'inscription et autres champs de saisie pour y envoyer massivement du spam, des liens de phishing et du contenu malveillant. Cela engorge les bases de données et les boîtes mail, nuit à la réputation du domaine, dégrade la qualité du contenu et surcharge le serveur.

Tentatives de piratage

Les robots pirates analysent automatiquement le site à la recherche de failles, cherchent les panneaux d'administration et les chemins courants, tentent de forcer les mots de passe et essaient d'exploiter les failles XSS, les injections SQL, les téléchargements de fichiers et autres points vulnérables. Les conséquences peuvent être l'injection de code malveillant et de redirections, la substitution de pages, le spam SEO caché, des fuites de données, une chute du classement et une mise sur liste noire. Antibot bloque ces attaques dès le point d'entrée, filtre les requêtes suspectes et réduit considérablement le risque de piratage.

Scraping

Le scraping consiste à collecter et copier automatiquement le contenu d'un site web à l'aide de robots. Les sites doorway et les sites proxy créent des pages dupliquées, ce qui réduit l'unicité du contenu dans les moteurs de recherche et surcharge le serveur. En plus de copier textes et images, les scrapers extraient souvent des données de catalogues – prix, fiches produits, liens, coordonnées, adresses e-mail et autres informations publiques – pour les réutiliser sur des ressources tierces ou dans des campagnes d'envoi.

Robots comportementaux et navigateurs antidetect

Les robots comportementaux se font passer pour des visiteurs ordinaires et imitent de « vraies » actions sur le site – consultations de pages, défilement, clics et navigation. Ils utilisent souvent des navigateurs antidetect et des proxys/VPN, et falsifient l'empreinte du navigateur pour contourner les filtres basiques. Il en résulte une distorsion des données analytiques, une baisse du taux de clics et du taux de conversion, un gaspillage des budgets publicitaires (fraude au clic), une hausse du taux de rebond et une dégradation des métriques comportementales.

Guide d'installation d'Antibot

Prérequis logiciels : PHP 5.6 - 8.5.2, Extensions PHP (classes) : SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.

Téléchargez le programme d'installation (le script antibot_installer.php) depuis votre espace client. Espace client.

Uploadez le programme d'installation sur votre site (via SFTP) et exécutez-le dans le navigateur à une adresse du type https://votre-site/antibot_installer.php

Intégrez Antibot dans les scripts concernés ou dans votre CMS. Méthodes d'intégration.

En cas de difficulté, consultez la section documentation (elle répond à 95 % des questions courantes) ou commandez une installation et une configuration professionnelles auprès du support (payant ou gratuit). Documentation. Commander l'installation et la configuration.