Skript PHP falas me kod të hapur (GNU GPL v3) dhe shërbime cloud për përpunimin e të dhënave (API, model SaaS) për mbrojtjen e faqeve web nga bot-et keqdashës: parandalon manipulimin e faktorëve të sjelljes, redukton ngarkesën e serverit dhe mbron nga spam-i, përpjekjet për hacking, sulmet me forcë brutale dhe skanimi i dobësive, scraping-u (parsing), serverët proxy dhe vjedhja e përmbajtjes.
Miqësor me SEO — i sigurt për indeksim dhe pozicionim në motorët e kërkimit. Miqësor me UX — nuk i shqetëson vizitorët dhe lejon heqjen e CAPTCHA-ve nga format.
Antibot Cloud nuk është produkt i gjeneruar nga inteligjenca artificiale dhe as rezultat i kodimit pa shpirt. Prej më shumë se 8 vitesh, njerëz të vërtetë e ndërtojnë, përmirësojnë dhe mirëmbajnë atë — duke vënë në të jo vetëm njohuritë dhe përvojën e tyre, por edhe zemrën.
1 domen me nëndomenë
Kontrolle të pakufizuara të bot-eve
Mbrojtja e faktorëve të sjelljes
10 ditë provë falas
Mbështetje personale nëpërmjet email-it
Mbështetje personale nëpërmjet Telegram-it
Mbështetje personale nëpërmjet WhatsApp-it
Domene të mbrojtura të pakufizuara
Kontrolle të pakufizuara të bot-eve
Mbrojtja e faktorëve të sjelljes
Pa periudhë prove
Mbështetje personale nëpërmjet email-it
Mbështetje personale nëpërmjet Telegram-it
Mbështetje personale nëpërmjet WhatsApp-it
Skripti Antibot (GNU GPL v3) me kontrolle lokale dhe rregulla lokale filtrimi ofrohet falas pa kufizime apo kushte shtesë. Disa funksionalitete të panelit administrativ cloud nuk përfshihen.
Si parazgjedhje, nuk mbron faqen web nga bot-et e sjelljes (të shfletuesit).
Pa mbështetje personale — vetëm ndihmë nga komuniteti (forume, grupe Telegram).
Rregullat lokale të filtrimit i krijoni vetë sipas vendit, qytetit, brezit orar, PTR, ASNum, ASName, User-Agent, gjuhës së shfletuesit, nënrrjetave ose adresave individuale IPv4 dhe IPv6, referrer-it dhe parametrave të tjerë.
Përdoruesit e vërtetë kalojnë kontrollin automatik dhe arrijnë në faqen web brenda 1–3 sekondave. Shumica e vizitorëve verifikohen automatikisht, pa nevojë për asnjë veprim nga ana e tyre. Nëse sistemi e identifikon një vizitor si të dyshimtë, ai duhet të konfirmojë se nuk është robot — duke shtypur një buton ose duke zgjidhur një CAPTCHA të shpejtë.
Vizitori kontrollohet vetëm një herë. Pas kësaj, për sa kohë cookies janë të ruajtura dhe User-Agent ose IP-ja nuk ndryshojnë — gjë që ndodh rrallë —, Antibot nuk do të kërkojë kontroll të ri.
Bot-et e indeksimit të motorëve të kërkimit (Googlebot, Bingbot etj.) marrin hyrje pa kontrolle shtesë dhe nuk "shohin" skriptin Antibot në veprim. Autenticiteti i tyre verifikohet nëpërmjet skemës "IP-PTR-IP" — bot-et e rremë "të kërkimit" nuk e kalojnë kontrollin dhe bllokohen.
Mund të lejoni bot-et që ju nevojiten në rregulla — ju vendosni kush kalon dhe kush bllokohet. Shembuj të bot-eve të dobishëm: PageSpeed Insights/Lighthouse, bot-et e parapamjes së lidhjeve (Telegram, Facebook, X) dhe rrjete të tjera sociale, lexues RSS/feed...
Për filtrimin e trafikut mund të vendosni rregulla të personalizuara — të lejoni ose refuzoni hyrjen sipas vendit dhe qytetit, brezit orar, PTR, ASNum/ASName, User-Agent, gjuhës së shfletuesit, adresës IP, referrer-it dhe parametrave të tjerë të gjurmës dixhitale.
Bot-et spam gjejnë automatikisht formularët e kontaktit, komentet, forumet, regjistrimet dhe fushat e tjera të hyrjes për të dërguar spam masiv, lidhje phishing dhe përmbajtje keqdashëse. Kjo bllokon bazat e të dhënave dhe kutitë postare, dëmton reputacionin e domenit, ul cilësinë e përmbajtjes dhe rrit ngarkesën e serverit.
Bot-et e hakerëve skanojnë automatikisht faqen web duke kërkuar dobësi, gjejnë panele administrative dhe rrugë të zakonshme, përpiqen të thyejnë fjalëkalime me forcë brutale dhe të shfrytëzojnë gabimet XSS, injeksionet SQL, ngarkimin e skedarëve dhe pikat e tjera të dobëta. Pasojat përfshijnë injektimin e kodit keqdashës dhe ridrejtimeve, zëvendësimin e faqeve, spam-in SEO të fshehur, rrjedhjet e të dhënave, rënien e pozicionimeve dhe përfshirjen në lista të zeza. Antibot i bllokon sulme të tilla që në pikën e hyrjes, filtron kërkesat e dyshimta dhe redukton riskun e hackingut.
Scraping-u është mbledhja dhe kopjimi i automatizuar i përmbajtjes së faqeve web duke përdorur bot-e. Faqet doorway dhe proxy krijojnë faqe të kopjuara, gjë që ul unikalitetin e përmbajtjes në motorët e kërkimit dhe shton ngarkesën shtesë të serverit. Përveç kopjimit të teksteve dhe imazheve, scraperët shpesh nxjerrin të dhëna katalogu — çmime, faqe produktesh, lidhje, kontakte, adresa email dhe informacione të tjera publike — për t'i përdorur në burime të palëve të treta ose për dërgesa masive.
Bot-et e sjelljes maskohen si vizitorë të zakonshëm dhe imitojnë veprime "të vërteta" në faqen web — shikimin e faqeve, lëvizjen, klikimin dhe navigimin. Shpesh përdorin shfletues antidetektues, proxy ose VPN dhe falsifikojnë gjurmën dixhitale të shfletuesit për të anashkaluar filtrat e thjeshtë. Si rezultat, të dhënat analitike shtrembërohen, CTR-i dhe norma e konvertimit bien, buxhetet reklamuese harxhohen kot (mashtrim me klikime), norma e braktisjes rritet dhe metrikat e sjelljes përkeqësohen.
Kërkesat e softuerit: PHP 5.6 - 8.5.2, Shtesë PHP (klasa): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Shkarkoni instaluesin (skriptin antibot_installer.php) nga llogaria juaj. Llogaria ime.
Ngarkoni instaluesin në faqen tuaj web (nëpërmjet SFTP) dhe ekzekutojeni në shfletues në një adresë si https://faqja-juaj/antibot_installer.php
Përfshini Antibot-in në skriptet e nevojshme ose CMS-in tuaj. Mënyrat e integrimit.
Nëse hasni vështirësi, konsultoni seksionin e dokumentacionit (përgjigjet 95% të pyetjeve të zakonshme) ose kërkoni instalim dhe konfigurim profesional nga mbështetja (me pagesë ose falas). Dokumentacion. Porosit instalimin dhe konfigurimin.