Antibot Cloud

Universaalne veebisaidi kaitse robotite eest: Antibot, rämpspostivastane kaitse ja tulemüür WordPressi ja PHP-saitide jaoks. Kiire paigaldus ja seadistamine.

Kaitseme veebisaite alates 2017. aastast.

Mis on Antibot Cloud?

Tasuta avatud lähtekoodiga PHP-skript (GNU GPL v3) ja pilvandmetöötlusteenused (API, SaaS-mudel) veebisaitide kaitsmiseks pahatahtlike robotite eest: hoiab ära käitumisfaktorite manipuleerimise, vähendab serveri koormust, kaitseb rämpsposti, häkkimiskatsete, jõurünnakute ja haavatavuste skannimise, sisu kraapimise (parsimise), puhverserverite ning sisu varguse eest.

SEO-sõbralik – ohutu indekseerimiseks ja otsingumootori reklaamimiseks. Yandexi jaoks – parandab käitumisfaktoreid ja kaitseb Yandex Metricat. Kasutajasõbralik – ei sega külastajaid, võimaldab eemaldada CAPTCHA-d vormidelt.

Antibot Cloud ei ole AI-genereeritud toode ega hingetu vibe-kodimise tulemus. Seda teenust on üle 8 aasta loonud, arendanud ja hooldanud päris inimesed, kes on sellesse pannud mitte ainult oma teadmised ja kogemused, vaid ka hinge.

Hinnaplaanid

ONE

$10 kuus

1 domeen koos alamdomeenidega

Piiramatu arv robotite kontrolle

Käitumisfaktorite kaitse

Prooviperiood – 10 päeva

Isiklik tugi e-posti teel

Isiklik tugi Telegrami kaudu

Isiklik tugi WhatsAppi kaudu

Registreeru

UNLIMITED

$1800 aastas

Piiramatu arv kaitstud domeene

Piiramatu arv robotite kontrolle

Käitumisfaktorite kaitse

Ilma prooviperioodita

Isiklik tugi e-posti teel

Isiklik tugi Telegrami kaudu

Isiklik tugi WhatsAppi kaudu

Registreeru

FREE

Antibot-skript (GNU GPL v3) kohaliku kontrollimise ja kohalike filtreerimisreeglitega on saadaval tasuta, ilma piirangute ja lisatingimusteta. Mõned haldustahvli pilvefunktsioonid ei ole kaasatud.

Vaikimisi ei kaitse käitumuslike (brauseri) robotite eest.

Isiklikku tuge ei ole – ainult kogukonnapõhine abi (foorumid, Telegrami grupid).

Loote ise kohalikud filtreerimisreeglid riigi, linna, ajavööndi, PTR, ASNum, ASName, User-Agenti, brauseri keele, alamvõrkude või üksikute IPv4 ja IPv6 aadresside, viitaja ja muude parameetrite alusel.

Kuidas Antibot Cloud töötab?

Lubab juurdepääsu

Päris kasutajad

Päris kasutajad läbivad automaatse kontrolli ja jõuavad saidile 1–3 sekundiga. Enamik külastajaid kinnitatakse automaatselt, ilma mingite toiminguteta. Kui süsteem tuvastab külastaja kahtlasena, peab ta kinnitama, et ei ole robot – vajutama nuppu või läbima kiire CAPTCHA.

Külastajat kontrollitakse üks kord. Edasi, kuni küpsised on salvestatud ja User-Agent ning IP ei muutu (mis juhtub harva), ei küsi Antibot uut kontrolli.

Otsingurobotyid

Otsingumootorite indekseerimisrobotid (Googlebot, Bingbot, Yandexbot jt) pääsevad saidile ilma lisakontrollideta ega "näe" Antibot-skripti tööd. Nende autentsust kontrollitakse skeemiga "IP-PTR-IP" – võltsitud "otsingurobotid" kontrolli ei läbi ja blokeeritakse.

Kasulikud robotid

Vajalikud robotid saab reeglitega lubada – teie otsustate, keda läbi lasta ja keda blokeerida. Kasulike robotite näited: PageSpeed Insights/Lighthouse, lingi eelvaate robotid (Telegram, Facebook, X) ja muud sotsiaalvõrgustikud, RSS/voo lugerid...

Kohandatud reeglid

Liikluse filtreerimiseks saate seada kohandatud reegleid – lubada või keelata juurdepääs riigi ja linna, ajavööndi, PTR, ASNum/ASName, User-Agenti, brauseri keele, IP-aadressi, viitaja ja muude sõrmejälgede parameetrite alusel.

Blokeerib juurdepääsu

Rämpspost

Rämpspostirobotid leiavad automaatselt kontaktvormid, kommentaarid, foorumid, registreerumislehed ja muud sisestusväljad, et saata massiliselt reklaami, andmepüügilinke ja pahatahtlikku sisu. See ummistab andmebaase ja postkaste, kahjustab domeeni mainet, halvendab sisu kvaliteeti ja suurendab serveri koormust.

Häkkimiskatsed

Häkkimisrobotid skannivad automaatselt saiti haavatavuste leidmiseks, otsivad haldustahvleid ja levinud teid, proovivad paroole jõuga murda ning üritavad ära kasutada XSS-i, SQL-süste, failide üleslaadimist ja muid nõrku kohti. Tagajärjed hõlmavad pahatahtliku koodi ja ümbersuunamiste sisestamist, lehtede asendamist, varjatud SEO-rämpsposti, andmelekeid, edetabeli langust ja musta nimekirja kandmist. Antibot blokeerib sellised rünnakud sisenemispunktis, filtreerib kahtlased päringud ja vähendab häkkimise riski.

Kraaping

Kraaping on sisu automaatne kogumine ja kopeerimine veebisaidilt robotite abil. Doorway-saidid ja puhversaidid loovad duplikaatlehti, mis vähendab sisu ainulaadsust otsingus ja lisab serverile lisakoormust. Lisaks teksti ja piltide kopeerimisele võtavad kraapijad sageli kataloogi andmeid – hinnad, tootelehed, lingid, kontaktid, e-posti aadressid ja muu avalik teave –, et kasutada seda kolmandate osapoolte ressurssidel või postitustes.

Käitumuslikud robotid ja antidetekt-brauserid

Käitumuslikud robotid maskeerivad end tavaliste külastajatena ja jäljendavad "päris" toiminguid saidil – lehevaateid, kerimist, klikke ja navigeerimist. Sageli kasutatakse antidetekt-brausereid, puhverservereid/VPN-i ja brauseri sõrmejälgede võltsimist lihtsate filtrite vältimiseks. Selle tulemusena moonutub analüütika, CTR ja konversioonimäärad langevad, reklaamieelarved raisatakse (klikipettus), põrkemäär kasvab ning käitumismetrikad halvenevad.

Antibot-skripti paigaldusjuhend

Tarkvaranõuded: PHP 5.6 - 8.5.2, PHP-laiendused (klassid): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.

Laadige installer (skript antibot_installer.php) alla kasutaja paneelilt. Kasutaja paneel.

Laadige installer oma saidile üles (SFTP kaudu) ja käivitage see brauseris aadressil https://teie-sait/antibot_installer.php

Ühendage Antibot vajalike skriptide või CMS-iga. Ühendamise viisid.

Kui tekib raskusi – vaadake dokumentatsiooni (see vastab 95% levinud küsimustest) või tellige professionaalne paigaldus ja seadistamine tugiteenuselt (tasuline või tasuta). Dokumentatsioon. Telli paigaldus ja seadistamine.