Antibot Cloud

Universel botbeskyttelse af hjemmesider: Antibot, Antispam, Firewall til WordPress og PHP-hjemmesider. Hurtig installation og opsætning.

Beskytter hjemmesider siden 2017.

Hvad er Antibot Cloud?

Gratis open source PHP-script (GNU GPL v3) og cloudbaserede databehandlingstjenester (API, SaaS-model) til beskyttelse af hjemmesider mod ondsindede bots: forhindrer manipulation af adfærdsfaktorer, reducerer serverbelastningen, beskytter mod spam, hackerangreb, brute-force-angreb og sårbarhedsscanning, skrabning (parsing), proxyservere og indholdstyveri.

SEO-venlig – sikker for indeksering og søgeoptimering. UX-venlig – generer ikke brugerne og gør det muligt at fjerne CAPTCHA fra formularer.

Antibot Cloud er hverken et AI-genereret produkt eller resultatet af sjælløs vibe coding. I over 8 år er det blevet bygget, forbedret og vedligeholdt af rigtige mennesker, der har lagt ikke kun viden og erfaring i det, men også hjerteblod.

Prisplaner

ONE

$10 pr. måned

1 domæne med underdomæner

Ubegrænsede botkontroller

Beskyttelse af adfærdsfaktorer

Prøveperiode – 10 dage

Personlig support via e-mail

Personlig support via Telegram

Personlig support via WhatsApp

Tilmeld dig

UNLIMITED

$1800 pr. år

Ubegrænsede beskyttede domæner

Ubegrænsede botkontroller

Beskyttelse af adfærdsfaktorer

Ingen prøveperiode

Personlig support via e-mail

Personlig support via Telegram

Personlig support via WhatsApp

Tilmeld dig

FREE

Antibot script (GNU GPL v3) with local checks and local filtering rules is provided for free without limitations or additional conditions. Some cloud admin panel features are not included. (или: Excludes some cloud admin panel functionality.

Beskytter som standard ikke hjemmesiden mod adfærdsmæssige (browser-)bots.

Ingen personlig support – kun hjælp fra fællesskabet (fora, Telegram-grupper).

Du opretter selv lokale filtreringsregler baseret på land, by, tidszone, PTR, ASNum, ASName, User-Agent, browsersprog, undernet eller individuelle IPv4- og IPv6-adresser, referrer og andre parametre.

Hvordan fungerer Antibot Cloud?

Tillader adgang

Rigtige brugere

Rigtige brugere gennemfører en automatisk kontrol og når hjemmesiden på 1–3 sekunder. De fleste besøgende verificeres automatisk uden nogen handling fra deres side. Hvis systemet opdager en besøgende som mistænkelig, skal vedkommende bekræfte, at de ikke er en robot – ved at trykke på en knap eller gennemføre en hurtig CAPTCHA.

En besøgende kontrolleres kun én gang. Derefter, så længe cookies er gemt og User-Agent eller IP ikke ændres (hvilket sjældent sker), vil Antibot ikke bede om en ny kontrol.

Søgemaskinebots

Søgemaskinernes crawlerbots (Googlebot, Bingbot, Yandexbot osv.) får adgang uden ekstra kontroller og "ser" ikke Antibot-scriptet i aktion. Deres ægthed verificeres ved hjælp af "IP-PTR-IP"-metoden – falske "søgebots" vil ikke bestå kontrollen og vil blive blokeret.

Gode bots

Du kan tillade de bots, du har brug for, via reglerne – du bestemmer selv, hvem der slippes igennem, og hvem der blokeres. Eksempler på nyttige bots: PageSpeed Insights/Lighthouse, linkforhåndsvisningsbots (Telegram, Facebook, X) og andre sociale netværk, RSS/Feed-læsere...

Brugerdefinerede regler

Til trafikfiltrering kan du oprette brugerdefinerede regler – tillad eller afvis adgang baseret på land og by, tidszone, PTR, ASNum/ASName, User-Agent, browsersprog, IP, referrer og andre fingerprint-parametre.

Blokerer adgang

Spam

Spambots finder automatisk kontaktformularer, kommentarfelter, fora, registreringsformularer og andre inputfelter på hjemmesiden for at udsende massereklamer, phishinglinks og skadeligt indhold. Det tilstopper databaser og e-mail, skader domænets omdømme, forringer indholdskvaliteten og øger serverbelastningen.

Hackingforsøg

Hackerbots scanner automatisk hjemmesider for sårbarheder, leder efter administrationspaneler og kendte stier, forsøger at gætte adgangskoder (brute-force) og udnytter XSS, SQL-injektioner, filuploads og andre svage punkter. Konsekvenserne er injektion af ondsindet kode og omdirigeringer, sideudskiftning, skjult SEO-spam, datalæk, fald i placeringer og optagelse på sortelister. Antibot stopper sådanne angreb ved indgangen, filtrerer mistænkelige forespørgsler og reducerer hackingrisikoen.

Skrabning

Skrabning er automatisk indsamling og kopiering af hjemmesideindhold ved hjælp af bots. Doorway-sider og proxy-sites skaber dubletindhold, hvilket reducerer indholdets unikhed i søgeresultater og belaster serveren unødigt. Ud over at kopiere tekst og billeder udtrækker skrabere ofte katalogdata – priser, produktsider, links, kontakter, e-mailadresser og andre offentlige oplysninger – for at bruge dem på tredjeparts-ressourcer eller til udsendelser.

Adfærdsbots og antidetektionsbrowsere

Adfærdsbots forklæder sig som almindelige besøgende og efterligner "rigtige" handlinger på hjemmesiden – sidevisninger, rulning, klik og navigation. De anvender ofte antidetektionsbrowsere og proxy/VPN samt forfalsker browser-fingerprints for at omgå simple filtre. Resultatet er forvrænget analytik, faldende CTR og konverteringsrater, spildt annoncebudget (kliksvindel), stigende afvisningsprocent og forværrede adfærdsmæssige faktorer.

Installationsvejledning til Antibot

Softwarekrav: PHP 5.6 - 8.5.2, PHP-udvidelser (klasser): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.

Download installationsprogrammet (scriptet antibot_installer.php) fra brugerpanelet. Brugerpanel.

Upload installationsprogrammet til din hjemmeside (via SFTP) og kør det i browseren via en adresse som https://din-side/antibot_installer.php

Inkluder Antibot i de nødvendige scripts eller dit CMS. Integrationsmetoder.

Hvis du støder på problemer, kan du tjekke dokumentationsafsnittet (som besvarer 95 % af de hyppigste spørgsmål) eller bestille professionel installation og opsætning hos support (betalt eller gratis). Dokumentation. Bestil installation og opsætning.