Անվճար open-source PHP սկրիպտ (GNU GPL v3) և ամպային տվյալների մշակման ծառայություններ (API, SaaS մոդել)՝ կայքերը վնասակար բոտերից պաշտպանելու համար. կանխում է վարքագծային գործոնների մանիպուլյացիան, նվազեցնում է սերվերի բեռը, պաշտպանում է սպամից, հաքինգի փորձերից, brute-force հարձակումներից և խոցելիությունների սկանավորումից, scraping-ից (parsing), proxy սերվերներից և բովանդակության գողությունից։
SEO-բարեկամ – անվտանգ ինդեքսավորման և որոնողական համակարգերում առաջխաղացման համար։ Օգտատերերի համար հարմարավետ – չի խանգարում իրական այցելուներին, հնարավորություն է տալիս հեռացնել CAPTCHA-ն ձևերից։
Antibot Cloud-ը AI-ի կողմից ստեղծված արտադրանք չէ, ոչ էլ անհոգ vibe coding-ի արդյունք։ 8 տարուց ավելի այն կառուցում, կատարելագործում և պահպանում են իրական մարդիկ, ովքեր դրա մեջ ներդնում են ոչ միայն իրենց գիտելիքներն ու փորձը, այլև իրենց հոգին։
1 դոմեն ենթադոմենների հետ
Անսահմանափակ բոտ-ստուգումներ
Վարքագծային գործոնների պաշտպանություն
Փորձաշրջան – 10 օր
Անձնական աջակցություն էլ. փոստով
Անձնական աջակցություն Telegram-ով
Անձնական աջակցություն WhatsApp-ով
Անսահմանափակ պաշտպանված դոմեններ
Անսահմանափակ բոտ-ստուգումներ
Վարքագծային գործոնների պաշտպանություն
Առանց փորձաշրջանի
Անձնական աջակցություն էլ. փոստով
Անձնական աջակցություն Telegram-ով
Անձնական աջակցություն WhatsApp-ով
Antibot սկրիպտը (GNU GPL v3) տեղական ստուգումներով և տեղական ֆիլտրման կանոններով տրամադրվում է անվճար՝ առանց սահմանափակումների կամ լրացուցիչ պայմանների։ Ամպային ադմին-վահանակի որոշ գործառույթներ ընդգրկված չեն։
Կանխադրված կարգավորումներով չի պաշտպանում կայքը վարքագծային (բրաուզերային) բոտերից։
Անձնական աջակցություն չկա – միայն համայնքի օգնություն (ֆորումներ, Telegram խմբեր)։
Դուք ինքներդ ստեղծում եք տեղական ֆիլտրման կանոններ՝ ըստ երկրի, քաղաքի, ժամային գոտու, PTR-ի, ASNum-ի, ASName-ի, User-Agent-ի, բրաուզերի լեզվի, ենթացանցերի կամ առանձին IPv4 և IPv6 հասցեների, referrer-ի և այլ պարամետրերի։
Իրական օգտատերերն անցնում են ավտոմատ ստուգում և հասնում կայք 1–3 վայրկյանում։ Այցելուների մեծ մասը հաստատվում է ավտոմատ կերպով՝ առանց որևէ գործողության։ Եթե համակարգը կասկածելի է գտնում այցելուին, նա պետք է հաստատի, որ ռոբոտ չէ՝ սեղմելով կոճակ կամ լրացնելով CAPTCHA։
Այցելուն ստուգվում է ընդամենը մեկ անգամ։ Դրանից հետո, քանի դեռ cookie-ները պահպանված են, իսկ User-Agent-ը կամ IP-ն չեն փոխվել (ինչ հազվադեպ է պատահում), Antibot-ը կրկնակի ստուգում չի պահանջի։
Որոնողական համակարգերի crawler բոտերը (Googlebot, Bingbot, Yandexbot և այլն) ստանում են մուտք առանց լրացուցիչ ստուգումների և «չեն տեսնում» Antibot սկրիպտի աշխատանքը։ Դրանց իսկությունը հաստատվում է «IP-PTR-IP» սխեմայով – կեղծ «որոնողական բոտերը» չեն անցնի ստուգումը և կբլոկավորվեն։
Կանոններով կարող եք թույլ տալ ձեզ անհրաժեշտ բոտերին – ինքներդ եք որոշում, թե ում թույլ տալ, ում արգելափակել։ Օգտակար բոտերի օրինակներ. PageSpeed Insights/Lighthouse, հղումների նախադիտման բոտեր (Telegram, Facebook, X) և այլ սոցիալական ցանցեր, RSS/Feed ընթերցիչներ...
Տրաֆիկը ֆիլտրելու համար կարող եք սահմանել անհատական կանոններ – թույլ տալ կամ արգելել մուտքը ըստ երկրի ու քաղաքի, ժամային գոտու, PTR-ի, ASNum/ASName-ի, User-Agent-ի, բրաուզերի լեզվի, IP-ի, referrer-ի և այլ fingerprint պարամետրերի։
Սպամ բոտերն ավտոմատ կերպով գտնում են կայքի կապի ձևերը, մեկնաբանությունները, ֆորումները, գրանցման էջերը և մուտքագրման այլ դաշտեր՝ զանգվածային սպամ, ֆիշինգ հղումներ և վնասակար բովանդակություն ուղարկելու համար։ Սա խցանում է տվյալների բազաները և էլ. փոստը, վնասում դոմենի հեղինակությունը, նվազեցնում բովանդակության որակը և մեծացնում կայքի բեռը։
Հաքեր բոտերն ավտոմատ կերպով սկանավորում են կայքը՝ խոցելիություններ փնտրելու, ադմին-վահանակներ ու տիպիկ ուղիներ հայտնաբերելու, գաղտնաբառեր կոտրելու (brute-force) և XSS, SQL ներարկումների, ֆայլ բեռնելու ու այլ թույլ կողմերը շահագործելու համար։ Հետևանքները ներառում են վնասակար կոդի ու redirect-ների ներարկում, էջերի փոխարինում, թաքնված SEO սպամ, տվյալների արտահոսք, վարկանիշի անկում և սև ցուցակ ընկնելը։ Antibot-ը նման հարձակումներն արգելափակում է ուղղակի մուտքի կետում, ֆիլտրում կասկածելի հարցումները և նվազեցնում հաքինգի ռիսկը։
Scraping-ը կայքի բովանդակության ավտոմատ հավաքածու և պատճենահանում է՝ բոտերի միջոցով։ Doorway և proxy կայքերն ստեղծում են կրկնօրինակ էջեր, ինչն ի թիվ այլնի նվազեցնում է բովանդակության եզակիությունը որոնողական համակարգերում և լրացուցիչ բեռ դնում սերվերի վրա։ Տեքստի ու նկարների պատճենումից բացի, scraper-ները հաճախ հանում են կատալոգային տվյալներ – գներ, ապրանքների էջեր, հղումներ, կոնտակտներ, էլ. փոստ և այլ հանրային տեղեկություններ – դրանք երրորդ կողմի ռեսուրսներում կամ փոստային ուղարկումների համար օգտագործելու նպատակով։
Վարքագծային բոտերը քողարկվում են որպես սովորական այցելուներ և կայքում նմանակում են «իրական» գործողություններ – էջերի դիտում, ոլորում, կտտոց և նավիգացիա։ Հաճախ օգտագործում են antidetect բրաուզերներ, proxy/VPN և բրաուզերի fingerprint-ի կեղծում՝ պարզ ֆիլտրերը շրջանցելու համար։ Արդյունքում աղավաղվում է անալիտիկան, անկում են ապրում CTR-ն ու փոխակերպման ցուցանիշները, գովազդային բյուջեն ծախսվում է ապարդյուն (click fraud), աճում է bounce rate-ը, վատանում են վարքագծային ցուցանիշները։
Ծրագրային պահանջներ. PHP 5.6 - 8.5.2, PHP ընդլայնումներ (դասեր). SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Ներբեռնեք տեղադրիչը (antibot_installer.php սկրիպտը) անձնական կաբինետից։ Անձնական կաբինետ.
Վերբեռնեք տեղադրիչը ձեր կայք (SFTP-ով) և բրաուզերում գործարկեք https://your-site/antibot_installer.php հասցեով։
Ավելացրեք Antibot-ը անհրաժեշտ սկրիպտներում կամ CMS-ում։ Ինտեգրման եղանակներ.
Եթե դժվարություններ ունեք, դիմեք փաստաթղթերի բաժնին (այն պատասխանում է հաճախ տրվող հարցերի 95%-ին) կամ պատվիրեք մասնագիտական տեղադրում ու կարգավորում օժանդակության ծառայությունից (վճարովի կամ անվճար)։ Փաստաթղթեր. Պատվիրել տեղադրում և կարգավորում.