Ingyenes, nyílt forráskódú PHP-szkript (GNU GPL v3) és felhőalapú adatfeldolgozási szolgáltatások (API, SaaS modell) weboldalak védelmére a rosszindulatú botoktól: megakadályozza a viselkedési tényezők manipulálását, csökkenti a szerverre nehezedő terhelést, véd a spam, a hackelési kísérletek, a brute-force támadások és sebezhetőség-vizsgálatok, a scraping (parsing), a proxyszolgáltatók és a tartalomlopás ellen.
SEO-barát – biztonságos az indexelés és a keresőmotoros népszerűsítés szempontjából. Felhasználóbarát – nem akadályozza a valódi látogatókat, és lehetővé teszi a CAPTCHA eltávolítását az űrlapokból.
Az Antibot Cloud nem MI által generált termék, és nem is lelketlen vibe coding eredménye. Több mint 8 éve valódi emberek fejlesztik, finomítják és tartják karban – nemcsak tudásukat és tapasztalataikat fektetik bele, hanem a szívüket is.
1 domain aldomainekkel együtt
Korlátlan bot-ellenőrzés
Viselkedési tényezők védelme
Próbaidőszak – 10 nap
Személyes támogatás e-mailben
Személyes támogatás Telegramon
Személyes támogatás WhatsAppon
Korlátlan számú védett domain
Korlátlan bot-ellenőrzés
Viselkedési tényezők védelme
Próbaidőszak nélkül
Személyes támogatás e-mailben
Személyes támogatás Telegramon
Személyes támogatás WhatsAppon
Az Antibot szkript (GNU GPL v3) helyi ellenőrzésekkel és helyi szűrési szabályokkal ingyenesen elérhető, korlátozások és további feltételek nélkül. A felhőalapú adminisztrációs panel egyes funkciói nem érhetők el.
Alapértelmezés szerint nem nyújt védelmet a viselkedési (böngészőalapú) botok ellen.
Személyes támogatás nem áll rendelkezésre – csak közösségi segítség érhető el (fórumok, Telegram-csoportok).
A helyi szűrési szabályokat Ön maga hozza létre ország, város, időzóna, PTR, ASNum, ASName, User-Agent, böngészőnyelv, alhálózatok vagy egyedi IPv4- és IPv6-címek, referrer és egyéb paraméterek alapján.
A valódi felhasználók átmennek az automatikus ellenőrzésen, és 1–3 másodpercen belül elérik a weboldalt. A legtöbb látogató automatikusan igazolódik, semmilyen beavatkozás nélkül. Ha a rendszer gyanúsnak ítél egy látogatót, meg kell erősítenie, hogy nem robot – egy gomb megnyomásával vagy egy gyors CAPTCHA kitöltésével.
Egy látogatót csak egyszer ellenőriznek. Ezt követően, amíg a sütik mentve vannak és a User-Agent vagy az IP-cím nem változik (ami ritkán fordul elő), az Antibot nem kér újabb ellenőrzést.
A keresőmotorok feltérképező robotjai (Googlebot, Bingbot, Yandexbot stb.) extra ellenőrzés nélkül kapnak hozzáférést, és nem „látják" az Antibot szkriptet működés közben. Hitelességüket az „IP-PTR-IP" séma alapján ellenőrzik – a hamis „keresőrobotok" nem mennek át az ellenőrzésen, és blokkolásra kerülnek.
A szükséges botokat szabályok segítségével engedélyezheti – Ön dönti el, kit enged át és kit blokkol. Hasznos botok példái: PageSpeed Insights/Lighthouse, hivatkozás-előnézeti botok (Telegram, Facebook, X) és más közösségi hálózatok, RSS/hírcsatorna-olvasók...
A forgalom szűréséhez egyéni szabályokat állíthat be – engedélyezheti vagy megtagadhatja a hozzáférést ország és város, időzóna, PTR, ASNum/ASName, User-Agent, böngészőnyelv, IP-cím, referrer és egyéb ujjlenyomat-paraméterek alapján.
A spambotok automatikusan megtalálják a kapcsolatfelvételi űrlapokat, a hozzászólásokat, a fórumokat, a regisztrációs oldalakat és más beviteli mezőket, hogy tömeges spam üzeneteket, adathalász hivatkozásokat és kártékony tartalmakat küldjenek. Ez eltömíti az adatbázisokat és a postafiókokat, árt a domain hírnevének, rontja a tartalom minőségét és növeli a weboldal terhelését.
A hackerbotok automatikusan megvizsgálják a weboldalt sebezhetőségek után kutatva, adminisztrációs paneleket és általánosan használt útvonalakat keresnek, brute-force módszerrel próbálnak jelszavakat feltörni, és megpróbálnak kihasználni XSS-, SQL-injekciós, fájlfeltöltési és egyéb gyenge pontokat. A következmények közé tartozik a kártékony kód és átirányítások befecskendezése, oldalak lecserélése, rejtett SEO-spam, adatszivárgás, rangsorolási visszaesés és feketelistára kerülés. Az Antibot már a belépési pontnál blokkolja az ilyen támadásokat, kiszűri a gyanús kéréseket és csökkenti a hackelés kockázatát.
A scraping weboldal-tartalmak automatizált összegyűjtése és másolása botok segítségével. A doorway- és proxyoldalak duplikált oldalakat hoznak létre, ami csökkenti a tartalom egyediségét a keresőkben és extra terhelést ró a szerverre. A szövegek és képek másolásán túl a scraperek gyakran katalógusadatokat is kinyernek – árakat, termékleírásokat, hivatkozásokat, kapcsolatokat, e-mail-címeket és egyéb nyilvános információkat –, hogy azokat harmadik feles felületeken vagy levelezési kampányokban hasznosítsák.
A viselkedési botok hétköznapi látogatóknak álcázzák magukat, és „valódi" tevékenységeket utánoznak a weboldalon – oldalmegtekintéseket, görgetést, kattintásokat és navigációt. Gyakran antidetect böngészőket, proxy/VPN kapcsolatokat és hamisított böngésző-ujjlenyomatot alkalmaznak az egyszerű szűrők kijátszásához. Ennek eredményeként az analitika torzul, a CTR és a konverziós arány csökken, a hirdetési keretek elúsznak (kattintási csalás), a visszafordulási arány nő, a viselkedési mutatók pedig romlanak.
Szoftverkövetelmények: PHP 5.6 - 8.5.2, PHP-bővítmények (osztályok): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Töltse le a telepítőt (az antibot_installer.php szkriptet) a felhasználói panelről. Felhasználói panel.
Töltse fel a telepítőt weboldalára (SFTP-n keresztül), majd futtassa böngészőben a https://az-ön-oldala/antibot_installer.php-hoz hasonló URL-en.
Illessze be az Antibotot a szükséges szkriptekbe vagy a CMS-be. Integrációs módszerek.
Ha nehézségekbe ütközik, tekintse meg a dokumentációs részt (a leggyakoribb kérdések 95%-ára választ ad), vagy rendeljen professzionális telepítést és beállítást az ügyfélszolgálattól (fizetős vagy ingyenes). Dokumentáció. Telepítés és beállítás megrendelése.