Kostenloses Open-Source-PHP-Skript (GNU GPL v3) und cloudbasierte Datenverarbeitungsdienste (API, SaaS-Modell) zum Schutz von Websites vor schädlichen Bots: verhindert die Manipulation von Verhaltensfaktoren, reduziert die Serverlast, schützt vor Spam, Hackerangriffen, Brute-Force-Angriffen und Schwachstellen-Scans, Scraping (Parsing), Proxy-Servern und Inhaltsdiebstahl.
SEO-freundlich – sicher für die Indexierung und Suchmaschinenoptimierung. UX-freundlich – beeinträchtigt Nutzer nicht und ermöglicht den Verzicht auf CAPTCHAs in Formularen.
Antibot Cloud ist weder ein KI-generiertes Produkt noch das Ergebnis seelenloser Vibe-Coderei. Seit über 8 Jahren wird es von echten Menschen entwickelt, verbessert und gepflegt – mit Fachwissen, Erfahrung und echtem Herzblut.
1 Domain mit Subdomains
Unbegrenzte Bot-Prüfungen
Schutz der Verhaltensfaktoren
Testzeitraum – 10 Tage
Persönlicher Support per E-Mail
Persönlicher Support via Telegram
Persönlicher Support via WhatsApp
Unbegrenzte Anzahl geschützter Domains
Unbegrenzte Bot-Prüfungen
Schutz der Verhaltensfaktoren
Kein Testzeitraum
Persönlicher Support per E-Mail
Persönlicher Support via Telegram
Persönlicher Support via WhatsApp
Antibot script (GNU GPL v3) with local checks and local filtering rules is provided for free without limitations or additional conditions. Some cloud admin panel features are not included. (или: Excludes some cloud admin panel functionality.
Schützt standardmäßig nicht vor verhaltensbasierten (Browser-)Bots.
Kein persönlicher Support – nur Community-Hilfe (Foren, Telegram-Gruppen).
Sie erstellen lokale Filterregeln selbst – nach Land, Stadt, Zeitzone, PTR, ASNum, ASName, User-Agent, Browsersprache, Subnetzen oder einzelnen IPv4- und IPv6-Adressen, Referrer und weiteren Parametern.
Echte Nutzer durchlaufen eine automatische Prüfung und erreichen die Website innerhalb von 1–3 Sekunden. Die meisten Besucher werden automatisch verifiziert, ohne dass eine Aktion erforderlich ist. Erscheint ein Besucher dem System verdächtig, muss er bestätigen, kein Roboter zu sein – per Knopfdruck oder durch ein kurzes CAPTCHA.
Ein Besucher wird nur einmal geprüft. Solange die Cookies gespeichert bleiben und sich User-Agent oder IP nicht ändern (was selten vorkommt), verlangt Antibot keine erneute Prüfung.
Crawler-Bots von Suchmaschinen (Googlebot, Bingbot, Yandexbot usw.) erhalten Zugang ohne zusätzliche Prüfungen und „sehen" das Antibot-Skript nicht in Aktion. Ihre Echtheit wird über das „IP-PTR-IP"-Verfahren verifiziert – gefälschte „Suchbots" bestehen die Prüfung nicht und werden gesperrt.
Erwünschte Bots können Sie in den Regeln gezielt zulassen – Sie entscheiden selbst, wer durchgelassen und wer gesperrt wird. Beispiele für nützliche Bots: PageSpeed Insights/Lighthouse, Link-Vorschau-Bots (Telegram, Facebook, X) und andere soziale Netzwerke, RSS/Feed-Reader...
Zur Verkehrsfilterung können Sie individuelle Regeln festlegen – Zugang erlauben oder verweigern nach Land und Stadt, Zeitzone, PTR, ASNum/ASName, User-Agent, Browsersprache, IP, Referrer und weiteren Fingerprint-Parametern.
Spam-Bots finden automatisch Kontaktformulare, Kommentarfelder, Foren, Registrierungsseiten und andere Eingabefelder, um massenhaft Werbung, Phishing-Links und schädliche Inhalte zu versenden. Das verstopft Datenbanken und Postfächer, schadet der Domain-Reputation, senkt die Inhaltsqualität und erhöht die Serverlast.
Hacker-Bots durchsuchen Websites automatisch nach Schwachstellen, suchen nach Adminbereichen und bekannten Pfaden, probieren Passwörter durch (Brute-Force) und versuchen, XSS, SQL-Injektionen, Datei-Uploads und andere Angriffspunkte auszunutzen. Die Folgen sind Einschleusung von Schadcode und Weiterleitungen, Seitenmanipulation, versteckter SEO-Spam, Datenlecks, Rankingverluste und Einträge auf Sperrlisten. Antibot stoppt solche Angriffe am Eintrittspunkt, filtert verdächtige Anfragen und senkt das Angriffsrisiko erheblich.
Scraping bezeichnet das automatisierte Erfassen und Kopieren von Website-Inhalten durch Bots. Doorway-Seiten und Proxy-Sites erzeugen doppelte Inhalte, was die Einzigartigkeit des Inhalts in Suchmaschinen mindert und den Server unnötig belastet. Neben Text und Bildern extrahieren Scraper häufig Katalogdaten – Preise, Produktseiten, Links, Kontakte, E-Mail-Adressen und andere öffentliche Informationen – um diese auf Drittplattformen oder für Massenversände zu verwenden.
Verhaltens-Bots tarnen sich als normale Besucher und ahmen „echte" Aktionen auf der Website nach – Seitenaufrufe, Scrollen, Klicks und Navigation. Häufig setzen sie Antidetect-Browser und Proxy/VPN ein und fälschen Browser-Fingerprints, um einfache Filter zu umgehen. Die Folgen: verzerrte Analysedaten, sinkende CTR und Conversion-Raten, verschwendete Werbebudgets (Klickbetrug), steigende Absprungraten und verschlechterte Verhaltensmetriken.
Systemvoraussetzungen: PHP 5.6 - 8.5.2, PHP-Erweiterungen (Klassen): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Laden Sie das Installationsskript (antibot_installer.php) aus dem Benutzerbereich herunter. Benutzerbereich.
Laden Sie das Installationsskript per SFTP auf Ihre Website hoch und rufen Sie es im Browser unter einer Adresse wie https://ihre-website/antibot_installer.php auf.
Binden Sie Antibot in die gewünschten Skripte oder Ihr CMS ein. Integrationsmethoden.
Bei Schwierigkeiten lesen Sie bitte den Dokumentationsbereich (dort werden 95 % der häufigsten Fragen beantwortet) oder beauftragen Sie den Support mit einer professionellen Installation und Einrichtung (kostenpflichtig oder kostenlos). Dokumentation. Installation und Einrichtung beauftragen.