Script PHP gratuito open source (GNU GPL v3) e servizi cloud di elaborazione dati (API, modello SaaS) per proteggere i siti web dai bot dannosi: previene la manipolazione dei fattori comportamentali, riduce il carico del server e protegge da spam, tentativi di hacking, attacchi brute-force e scansione delle vulnerabilità, scraping (parsing), server proxy e furto di contenuti.
SEO-friendly – sicuro per l'indicizzazione e la promozione sui motori di ricerca. Rispettoso dell'esperienza utente – non interferisce con i visitatori reali e consente di rimuovere i CAPTCHA dai moduli.
Antibot Cloud non è un prodotto generato dall'intelligenza artificiale né il risultato di un vibe coding privo di anima. Da oltre 8 anni viene costruito, migliorato e mantenuto da persone reali che ci mettono non solo le loro conoscenze ed esperienza, ma anche il cuore.
1 dominio con sottodomini
Controlli bot illimitati
Protezione dei fattori comportamentali
Periodo di prova di 10 giorni
Assistenza personalizzata via e-mail
Assistenza personalizzata via Telegram
Assistenza personalizzata via WhatsApp
Domini protetti illimitati
Controlli bot illimitati
Protezione dei fattori comportamentali
Senza periodo di prova
Assistenza personalizzata via e-mail
Assistenza personalizzata via Telegram
Assistenza personalizzata via WhatsApp
Lo script Antibot (GNU GPL v3) con controlli locali e regole di filtraggio locali è fornito gratuitamente, senza limitazioni o condizioni aggiuntive. Alcune funzionalità del pannello di amministrazione cloud non sono incluse.
Per impostazione predefinita, non protegge il sito dai bot comportamentali (browser).
Nessuna assistenza personalizzata – solo supporto della community (forum, gruppi Telegram).
Crei tu stesso le regole di filtraggio locali in base a paese, città, fuso orario, PTR, ASNum, ASName, User-Agent, lingua del browser, sottoreti o singoli indirizzi IPv4 e IPv6, referrer e altri parametri.
Gli utenti reali superano un controllo automatico e raggiungono il sito in 1–3 secondi. La maggior parte dei visitatori viene verificata automaticamente senza alcuna azione richiesta. Se il sistema rileva un visitatore come sospetto, dovrà confermare di non essere un robot premendo un pulsante o completando un breve CAPTCHA.
Il visitatore viene controllato una sola volta. Dopodiché, finché i cookie sono salvati e User-Agent o IP non cambiano (cosa che accade raramente), Antibot non richiederà un nuovo controllo.
I crawler dei motori di ricerca (Googlebot, Bingbot, Yandexbot, ecc.) accedono al sito senza controlli aggiuntivi e non «vedono» lo script Antibot in azione. La loro autenticità è verificata tramite lo schema «IP-PTR-IP» – i falsi «bot di ricerca» non supereranno il controllo e verranno bloccati.
Puoi autorizzare i bot di cui hai bisogno tramite le regole – sei tu a decidere chi far passare e chi bloccare. Esempi di bot utili: PageSpeed Insights/Lighthouse, bot di anteprima link (Telegram, Facebook, X) e altri social network, lettori RSS/Feed...
Per filtrare il traffico puoi impostare regole personalizzate – consentire o negare l'accesso in base a paese e città, fuso orario, PTR, ASNum/ASName, User-Agent, lingua del browser, indirizzo IP, referrer e altri parametri di impronta digitale.
I bot spam trovano automaticamente moduli di contatto, commenti, forum, pagine di registrazione e altri campi di input per inviare spam di massa, link di phishing e contenuti dannosi. Questo intasa database e caselle e-mail, danneggia la reputazione del dominio, peggiora la qualità dei contenuti e aumenta il carico del server.
I bot hacker scansionano automaticamente il sito alla ricerca di vulnerabilità, cercano pannelli di amministrazione e percorsi comuni, tentano di forzare le password con brute-force e provano a sfruttare XSS, SQL injection, caricamenti di file e altri punti deboli. Le conseguenze includono iniezione di codice malevolo e redirect, sostituzione di pagine, spam SEO nascosto, fughe di dati, cali di posizionamento e inserimento in blacklist. Antibot blocca questi attacchi al punto d'ingresso, filtra le richieste sospette e riduce il rischio di hacking.
Lo scraping è la raccolta e la copia automatizzata di contenuti da un sito web tramite bot. I siti doorway e i proxy creano pagine duplicate che riducono l'unicità dei contenuti nei motori di ricerca e aggiungono carico extra al server. Oltre a copiare testi e immagini, gli scraper estraggono spesso dati di catalogo – prezzi, schede prodotto, link, contatti, e-mail e altre informazioni pubbliche – per utilizzarli su risorse di terze parti o per campagne di mailing.
I bot comportamentali si mascherano da visitatori comuni e imitano azioni «reali» sul sito – visualizzazione di pagine, scorrimento, clic e navigazione. Spesso usano browser antidetect e proxy/VPN, falsificando le impronte digitali del browser per eludere i filtri semplici. Il risultato è una distorsione dell'analisi, un calo di CTR e tassi di conversione, sprechi di budget pubblicitario (click fraud), un aumento del bounce rate e un peggioramento delle metriche comportamentali.
Requisiti software: PHP 5.6 - 8.5.2, Estensioni PHP (classi): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Scarica il programma di installazione (lo script antibot_installer.php) dall'area personale. Area personale.
Carica il programma di installazione sul tuo sito (tramite SFTP) ed eseguilo nel browser all'indirizzo https://tuo-sito/antibot_installer.php
Includi Antibot negli script necessari o nel CMS. Metodi di integrazione.
In caso di difficoltà, consulta la sezione documentazione (risponde al 95% delle domande più frequenti) oppure ordina un'installazione e configurazione professionale tramite il supporto (a pagamento o gratuita). Documentazione. Richiedi installazione e configurazione.