Tasuta avatud lähtekoodiga PHP-skript (GNU GPL v3) ja pilvandmetöötlusteenused (API, SaaS-mudel) veebisaitide kaitsmiseks pahatahtlike robotite eest: hoiab ära käitumisfaktorite manipuleerimise, vähendab serveri koormust, kaitseb rämpsposti, häkkimiskatsete, jõurünnakute ja haavatavuste skannimise, sisu kraapimise (parsimise), puhverserverite ning sisu varguse eest.
SEO-sõbralik – ohutu indekseerimiseks ja otsingumootori reklaamimiseks. Yandexi jaoks – parandab käitumisfaktoreid ja kaitseb Yandex Metricat. Kasutajasõbralik – ei sega külastajaid, võimaldab eemaldada CAPTCHA-d vormidelt.
Antibot Cloud ei ole AI-genereeritud toode ega hingetu vibe-kodimise tulemus. Seda teenust on üle 8 aasta loonud, arendanud ja hooldanud päris inimesed, kes on sellesse pannud mitte ainult oma teadmised ja kogemused, vaid ka hinge.
1 domeen koos alamdomeenidega
Piiramatu arv robotite kontrolle
Käitumisfaktorite kaitse
Prooviperiood – 10 päeva
Isiklik tugi e-posti teel
Isiklik tugi Telegrami kaudu
Isiklik tugi WhatsAppi kaudu
Piiramatu arv kaitstud domeene
Piiramatu arv robotite kontrolle
Käitumisfaktorite kaitse
Ilma prooviperioodita
Isiklik tugi e-posti teel
Isiklik tugi Telegrami kaudu
Isiklik tugi WhatsAppi kaudu
Antibot-skript (GNU GPL v3) kohaliku kontrollimise ja kohalike filtreerimisreeglitega on saadaval tasuta, ilma piirangute ja lisatingimusteta. Mõned haldustahvli pilvefunktsioonid ei ole kaasatud.
Vaikimisi ei kaitse käitumuslike (brauseri) robotite eest.
Isiklikku tuge ei ole – ainult kogukonnapõhine abi (foorumid, Telegrami grupid).
Loote ise kohalikud filtreerimisreeglid riigi, linna, ajavööndi, PTR, ASNum, ASName, User-Agenti, brauseri keele, alamvõrkude või üksikute IPv4 ja IPv6 aadresside, viitaja ja muude parameetrite alusel.
Päris kasutajad läbivad automaatse kontrolli ja jõuavad saidile 1–3 sekundiga. Enamik külastajaid kinnitatakse automaatselt, ilma mingite toiminguteta. Kui süsteem tuvastab külastaja kahtlasena, peab ta kinnitama, et ei ole robot – vajutama nuppu või läbima kiire CAPTCHA.
Külastajat kontrollitakse üks kord. Edasi, kuni küpsised on salvestatud ja User-Agent ning IP ei muutu (mis juhtub harva), ei küsi Antibot uut kontrolli.
Otsingumootorite indekseerimisrobotid (Googlebot, Bingbot, Yandexbot jt) pääsevad saidile ilma lisakontrollideta ega "näe" Antibot-skripti tööd. Nende autentsust kontrollitakse skeemiga "IP-PTR-IP" – võltsitud "otsingurobotid" kontrolli ei läbi ja blokeeritakse.
Vajalikud robotid saab reeglitega lubada – teie otsustate, keda läbi lasta ja keda blokeerida. Kasulike robotite näited: PageSpeed Insights/Lighthouse, lingi eelvaate robotid (Telegram, Facebook, X) ja muud sotsiaalvõrgustikud, RSS/voo lugerid...
Liikluse filtreerimiseks saate seada kohandatud reegleid – lubada või keelata juurdepääs riigi ja linna, ajavööndi, PTR, ASNum/ASName, User-Agenti, brauseri keele, IP-aadressi, viitaja ja muude sõrmejälgede parameetrite alusel.
Rämpspostirobotid leiavad automaatselt kontaktvormid, kommentaarid, foorumid, registreerumislehed ja muud sisestusväljad, et saata massiliselt reklaami, andmepüügilinke ja pahatahtlikku sisu. See ummistab andmebaase ja postkaste, kahjustab domeeni mainet, halvendab sisu kvaliteeti ja suurendab serveri koormust.
Häkkimisrobotid skannivad automaatselt saiti haavatavuste leidmiseks, otsivad haldustahvleid ja levinud teid, proovivad paroole jõuga murda ning üritavad ära kasutada XSS-i, SQL-süste, failide üleslaadimist ja muid nõrku kohti. Tagajärjed hõlmavad pahatahtliku koodi ja ümbersuunamiste sisestamist, lehtede asendamist, varjatud SEO-rämpsposti, andmelekeid, edetabeli langust ja musta nimekirja kandmist. Antibot blokeerib sellised rünnakud sisenemispunktis, filtreerib kahtlased päringud ja vähendab häkkimise riski.
Kraaping on sisu automaatne kogumine ja kopeerimine veebisaidilt robotite abil. Doorway-saidid ja puhversaidid loovad duplikaatlehti, mis vähendab sisu ainulaadsust otsingus ja lisab serverile lisakoormust. Lisaks teksti ja piltide kopeerimisele võtavad kraapijad sageli kataloogi andmeid – hinnad, tootelehed, lingid, kontaktid, e-posti aadressid ja muu avalik teave –, et kasutada seda kolmandate osapoolte ressurssidel või postitustes.
Käitumuslikud robotid maskeerivad end tavaliste külastajatena ja jäljendavad "päris" toiminguid saidil – lehevaateid, kerimist, klikke ja navigeerimist. Sageli kasutatakse antidetekt-brausereid, puhverservereid/VPN-i ja brauseri sõrmejälgede võltsimist lihtsate filtrite vältimiseks. Selle tulemusena moonutub analüütika, CTR ja konversioonimäärad langevad, reklaamieelarved raisatakse (klikipettus), põrkemäär kasvab ning käitumismetrikad halvenevad.
Tarkvaranõuded: PHP 5.6 - 8.5.2, PHP-laiendused (klassid): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Laadige installer (skript antibot_installer.php) alla kasutaja paneelilt. Kasutaja paneel.
Laadige installer oma saidile üles (SFTP kaudu) ja käivitage see brauseris aadressil https://teie-sait/antibot_installer.php
Ühendage Antibot vajalike skriptide või CMS-iga. Ühendamise viisid.
Kui tekib raskusi – vaadake dokumentatsiooni (see vastab 95% levinud küsimustest) või tellige professionaalne paigaldus ja seadistamine tugiteenuselt (tasuline või tasuta). Dokumentatsioon. Telli paigaldus ja seadistamine.