Antibot Cloud

बॉट्स से वेबसाइट की संपूर्ण सुरक्षा: WordPress और PHP वेबसाइटों के लिए Antibot, Antispam और Firewall। त्वरित इंस्टॉलेशन और सेटअप।

2017 से वेबसाइटों की रक्षा करते आ रहे हैं।

Antibot Cloud क्या है?

दुर्भावनापूर्ण बॉट्स से वेबसाइटों को सुरक्षित करने के लिए मुफ़्त ओपन-सोर्स PHP स्क्रिप्ट (GNU GPL v3) और क्लाउड डेटा-प्रोसेसिंग सेवाएँ (API, SaaS मॉडल): व्यवहार संबंधी कारकों की हेरफेर रोकता है, सर्वर लोड घटाता है, और स्पैम, हैकिंग प्रयासों, ब्रूट-फोर्स हमलों और कमज़ोरियों की स्कैनिंग, स्क्रैपिंग (पार्सिंग), प्रॉक्सी सर्वर तथा कॉन्टेंट चोरी से बचाता है।

SEO-अनुकूल – इंडेक्सिंग और सर्च प्रमोशन के लिए पूरी तरह सुरक्षित। उपयोगकर्ता-अनुकूल – असली विज़िटर्स को बाधित नहीं करता, फॉर्म से CAPTCHA हटाने की सुविधा देता है।

Antibot Cloud न तो AI-जनित उत्पाद है और न ही बेजान vibe coding का नतीजा। 8 से अधिक वर्षों से, सच्चे लोग इस सेवा को बना रहे हैं, सुधार रहे हैं और संभाल रहे हैं — अपना ज्ञान और अनुभव ही नहीं, बल्कि दिल भी लगाकर।

मूल्य योजनाएँ

ONE

$10 प्रति माह

1 डोमेन सबडोमेन सहित

असीमित बॉट जाँच

व्यवहार संबंधी कारकों की सुरक्षा

ट्रायल अवधि – 10 दिन

ईमेल द्वारा व्यक्तिगत सहायता

Telegram द्वारा व्यक्तिगत सहायता

WhatsApp द्वारा व्यक्तिगत सहायता

साइन अप करें

UNLIMITED

$1800 प्रति वर्ष

असीमित सुरक्षित डोमेन

असीमित बॉट जाँच

व्यवहार संबंधी कारकों की सुरक्षा

कोई ट्रायल अवधि नहीं

ईमेल द्वारा व्यक्तिगत सहायता

Telegram द्वारा व्यक्तिगत सहायता

WhatsApp द्वारा व्यक्तिगत सहायता

साइन अप करें

FREE

Antibot स्क्रिप्ट (GNU GPL v3) लोकल जाँच और लोकल फ़िल्टरिंग नियमों के साथ बिना किसी सीमा या अतिरिक्त शर्त के निःशुल्क उपलब्ध है। क्लाउड एडमिन पैनल की कुछ सुविधाएँ शामिल नहीं हैं।

डिफ़ॉल्ट रूप से, व्यवहार संबंधी (ब्राउज़र) बॉट्स से सुरक्षा नहीं करता।

व्यक्तिगत सहायता उपलब्ध नहीं — केवल समुदाय की मदद (फ़ोरम, Telegram ग्रुप)।

आप स्वयं देश, शहर, टाइम ज़ोन, PTR, ASNum, ASName, User-Agent, ब्राउज़र भाषा, सबनेट या अलग-अलग IPv4 और IPv6, referrer और अन्य पैरामीटर के आधार पर लोकल फ़िल्टरिंग नियम बनाते हैं।

Antibot Cloud कैसे काम करता है?

एक्सेस देता है

असली उपयोगकर्ता

असली उपयोगकर्ता स्वचालित जाँच पास करते हैं और 1–3 सेकंड में वेबसाइट पर पहुँच जाते हैं। अधिकांश विज़िटर्स बिना किसी कार्रवाई के स्वचालित रूप से सत्यापित हो जाते हैं। यदि सिस्टम किसी विज़िटर को संदिग्ध पाए, तो उसे एक बटन दबाकर या त्वरित CAPTCHA पूरा करके यह पुष्टि करनी होगी कि वह रोबोट नहीं है।

विज़िटर की जाँच केवल एक बार होती है। उसके बाद, जब तक cookies सुरक्षित हैं और User-Agent या IP नहीं बदलते (जो आमतौर पर कम होता है), Antibot दोबारा जाँच नहीं माँगेगा।

सर्च इंजन बॉट्स

सर्च इंजन क्रॉलर बॉट्स (Googlebot, Bingbot, Yandexbot आदि) बिना अतिरिक्त जाँच के एक्सेस पाते हैं और Antibot स्क्रिप्ट को "देख" नहीं पाते। उनकी प्रामाणिकता "IP-PTR-IP" योजना से सत्यापित होती है — नकली "सर्च बॉट्स" जाँच में विफल होकर ब्लॉक हो जाएंगे।

उपयोगी बॉट्स

आप नियमों में ज़रूरी बॉट्स को अनुमति दे सकते हैं — किसे पास करना है और किसे ब्लॉक करना है, यह आप तय करते हैं। उपयोगी बॉट्स के उदाहरण: PageSpeed Insights/Lighthouse, लिंक प्रीव्यू बॉट्स (Telegram, Facebook, X) और अन्य सोशल नेटवर्क, RSS/Feed रीडर...

कस्टम नियम

ट्रैफ़िक फ़िल्टर करने के लिए आप कस्टम नियम सेट कर सकते हैं — देश और शहर, टाइम ज़ोन, PTR, ASNum/ASName, User-Agent, ब्राउज़र भाषा, IP, referrer और अन्य फ़िंगरप्रिंट पैरामीटर के आधार पर एक्सेस दें या रोकें।

एक्सेस रोकता है

स्पैम

स्पैम बॉट्स स्वचालित रूप से कॉन्टैक्ट फॉर्म, टिप्पणियाँ, फ़ोरम, रजिस्ट्रेशन और अन्य इनपुट फ़ील्ड खोजकर बड़े पैमाने पर स्पैम, फ़िशिंग लिंक और दुर्भावनापूर्ण सामग्री भेजते हैं। इससे डेटाबेस और ईमेल भर जाते हैं, डोमेन की प्रतिष्ठा को नुकसान होता है, कॉन्टेंट की गुणवत्ता घटती है और वेबसाइट का लोड बढ़ता है।

हैकिंग प्रयास

हैकर बॉट्स स्वचालित रूप से वेबसाइट में कमज़ोरियाँ खोजते हैं, एडमिन पैनल और सामान्य पथ ढूंढते हैं, पासवर्ड को ब्रूट-फोर्स से तोड़ने की कोशिश करते हैं, और XSS, SQL इंजेक्शन, फ़ाइल अपलोड तथा अन्य कमज़ोर बिंदुओं का फ़ायदा उठाने का प्रयास करते हैं। इसके परिणामों में दुर्भावनापूर्ण कोड और redirect इंजेक्ट करना, पेज बदलना, छिपा हुआ SEO स्पैम, डेटा लीक, रैंकिंग गिरना और ब्लैकलिस्ट होना शामिल है। Antibot ऐसे हमलों को प्रवेश बिंदु पर ही रोकता है, संदिग्ध अनुरोधों को फ़िल्टर करता है और हैकिंग के जोखिम को कम करता है।

स्क्रैपिंग

स्क्रैपिंग बॉट्स का उपयोग करके वेबसाइट की सामग्री को स्वचालित रूप से एकत्र करने और कॉपी करने की प्रक्रिया है। Doorway और प्रॉक्सी साइटें डुप्लीकेट पेज बनाती हैं, जिससे सर्च में कॉन्टेंट की अनन्यता घटती है और सर्वर पर अतिरिक्त भार पड़ता है। टेक्स्ट और छवियाँ कॉपी करने के अलावा, scraper अक्सर कैटलॉग डेटा — कीमतें, उत्पाद पेज, लिंक, संपर्क, ईमेल और अन्य सार्वजनिक जानकारी — निकालते हैं ताकि इसे तृतीय-पक्ष संसाधनों पर या मेलिंग के लिए उपयोग किया जा सके।

व्यवहार बॉट्स और एंटीडिटेक्ट ब्राउज़र

व्यवहार बॉट्स सामान्य विज़िटर्स के रूप में छिपकर वेबसाइट पर "वास्तविक" गतिविधियाँ नकल करते हैं — पेज देखना, स्क्रॉल करना, क्लिक करना और नेविगेट करना। ये अक्सर एंटीडिटेक्ट ब्राउज़र, प्रॉक्सी/VPN और ब्राउज़र फ़िंगरप्रिंट की नकल का उपयोग करके सरल फ़िल्टर को चकमा देते हैं। नतीजतन, analytics विकृत हो जाते हैं, CTR और कन्वर्ज़न दर गिरते हैं, विज्ञापन बजट बर्बाद होता है (क्लिक फ्रॉड), बाउंस रेट बढ़ता है और व्यवहार संबंधी मेट्रिक्स खराब होते हैं।

Antibot इंस्टॉलेशन गाइड

सॉफ़्टवेयर आवश्यकताएँ: PHP 5.6 - 8.5.2, PHP एक्सटेंशन (क्लास): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.

यूज़र पैनल से इंस्टॉलर (antibot_installer.php स्क्रिप्ट) डाउनलोड करें। यूज़र पैनल.

इंस्टॉलर को SFTP के ज़रिए अपनी वेबसाइट पर अपलोड करें और ब्राउज़र में https://your-site/antibot_installer.php जैसे URL पर चलाएँ।

Antibot को ज़रूरी स्क्रिप्ट या CMS में include करें। इंटीग्रेशन के तरीके.

यदि कोई कठिनाई हो, तो दस्तावेज़ीकरण अनुभाग देखें (इसमें 95% सामान्य सवालों के जवाब हैं) या सपोर्ट से पेशेवर इंस्टॉलेशन और सेटअप ऑर्डर करें (भुगतान योग्य या निःशुल्क)। दस्तावेज़ीकरण. इंस्टॉलेशन और सेटअप ऑर्डर करें.