Script PHP gratuit și open-source (GNU GPL v3) cu servicii de procesare în cloud (API, model SaaS) pentru protejarea site-urilor împotriva boților malițioși: previne manipularea factorilor comportamentali, reduce încărcarea serverului și protejează împotriva spamului, tentativelor de hacking, atacurilor brute-force și scanării vulnerabilităților, scraping-ului (parsing), serverelor proxy și furtului de conținut.
Prietenos cu SEO — sigur pentru indexare și promovare în motoarele de căutare. Prietenos cu UX — nu deranjează vizitatorii și permite eliminarea CAPTCHA din formulare.
Antibot Cloud nu este un produs generat de AI și nici rezultatul unui cod scris fără suflet. De peste 8 ani, oameni reali îl construiesc, îl îmbunătățesc și îl întrețin — punând în el nu doar cunoștințe și experiență, ci și suflet.
1 domeniu cu subdomenii
Verificări nelimitate ale boților
Protecția factorilor comportamentali
10 zile de probă gratuită
Asistență personalizată prin e-mail
Asistență personalizată prin Telegram
Asistență personalizată prin WhatsApp
Domenii protejate nelimitat
Verificări nelimitate ale boților
Protecția factorilor comportamentali
Fără perioadă de probă
Asistență personalizată prin e-mail
Asistență personalizată prin Telegram
Asistență personalizată prin WhatsApp
Scriptul Antibot (GNU GPL v3) cu verificări locale și reguli de filtrare locale este oferit gratuit, fără restricții sau condiții suplimentare. Nu include unele funcționalități ale panoului de administrare din cloud.
În mod implicit, nu protejează site-ul împotriva boților comportamentali (de browser).
Fără asistență personalizată — doar ajutor din partea comunității (forumuri, grupuri Telegram).
Îți creezi singur regulile de filtrare locală după țară, oraș, fus orar, PTR, ASNum, ASName, User-Agent, limba browserului, subrețele sau adrese IPv4 și IPv6 individuale, referrer și alți parametri.
Utilizatorii reali trec verificarea automată și ajung pe site în 1–3 secunde. Majoritatea vizitatorilor sunt verificați automat, fără nicio acțiune din partea lor. Dacă sistemul detectează un vizitator ca suspect, acesta va trebui să confirme că nu este un robot — apăsând un buton sau completând un CAPTCHA rapid.
Vizitatorul este verificat o singură dată. Ulterior, atât timp cât cookie-urile sunt păstrate și User-Agent-ul sau IP-ul nu se schimbă — ceea ce se întâmplă rar —, Antibot nu va solicita o nouă verificare.
Roboții de indexare ai motoarelor de căutare (Googlebot, Bingbot etc.) accesează site-ul fără verificări suplimentare și nu „văd" scriptul Antibot în acțiune. Autenticitatea lor este verificată prin schema „IP-PTR-IP" — roboții falși nu trec verificarea și sunt blocați.
Poți permite în reguli boții de care ai nevoie — tu decizi cine trece și cine este blocat. Exemple de boți utili: PageSpeed Insights/Lighthouse, boți de previzualizare a linkurilor (Telegram, Facebook, X) și alte rețele sociale, cititoare RSS/feed...
Pentru filtrarea traficului poți configura reguli personalizate — permite sau blochează accesul după țară și oraș, fus orar, PTR, ASNum/ASName, User-Agent, limba browserului, IP, referrer și alți parametri de fingerprint.
Boții de spam găsesc automat formulare de contact, comentarii, forumuri, pagini de înregistrare și alte câmpuri de introducere a datelor pentru a trimite spam în masă, linkuri de phishing și conținut malițios. Aceasta blochează bazele de date și căsuțele de e-mail, afectează reputația domeniului, scade calitatea conținutului și crește încărcarea serverului.
Boții hackerilor scanează automat site-ul în căutarea vulnerabilităților, caută panouri de administrare și căi comune, încearcă să spargă parole prin forță brută și exploateze breșe XSS, injecții SQL, upload de fișiere și alte puncte slabe. Consecințele includ injectarea de cod malițios și redirecționări, înlocuirea paginilor, spam SEO ascuns, scurgeri de date, scăderi în clasamente și includerea pe liste negre. Antibot blochează astfel de atacuri chiar de la intrare, filtrează cererile suspecte și reduce riscul de hacking.
Scraping-ul înseamnă colectarea și copierea automată a conținutului unui site prin intermediul boților. Site-urile doorway și proxy creează pagini duplicate, ceea ce reduce unicitatea conținutului în motoarele de căutare și adaugă o sarcină suplimentară serverului. Pe lângă copierea textelor și imaginilor, scraperele extrag frecvent date din cataloage — prețuri, pagini de produse, linkuri, contacte, adrese de e-mail și alte informații publice — pentru a le folosi pe resurse terțe sau în campanii de e-mail.
Boții comportamentali se deghizează în vizitatori obișnuiți și imită acțiuni „reale" pe site — vizualizări de pagini, derulare, clicuri și navigare. Recurg adesea la browsere antidetecție, proxy sau VPN și falsifică fingerprint-ul browserului pentru a eluda filtrele simple. Rezultatul: date de analiză distorsionate, scăderea CTR-ului și a ratei de conversie, risipirea bugetului publicitar (fraudă prin clicuri), creșterea ratei de respingere și deteriorarea metricilor comportamentali.
Cerințe software: PHP 5.6 - 8.5.2, Extensii PHP (clase): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Descarcă programul de instalare (scriptul antibot_installer.php) din contul tău. Contul meu.
Încarcă programul de instalare pe site-ul tău (prin SFTP) și rulează-l în browser la o adresă de tipul https://site-ul-tau/antibot_installer.php
Include Antibot în scripturile necesare sau în CMS-ul tău. Metode de integrare.
Dacă întâmpini dificultăți, consultă secțiunea de documentație (răspunde la 95% dintre întrebările frecvente) sau solicită instalare și configurare profesională de la echipa de asistență (contra cost sau gratuit). Documentație. Solicită instalare și configurare.