Gratis open source PHP-script (GNU GPL v3) og cloudbaserede databehandlingstjenester (API, SaaS-model) til beskyttelse af hjemmesider mod ondsindede bots: forhindrer manipulation af adfærdsfaktorer, reducerer serverbelastningen, beskytter mod spam, hackerangreb, brute-force-angreb og sårbarhedsscanning, skrabning (parsing), proxyservere og indholdstyveri.
SEO-venlig – sikker for indeksering og søgeoptimering. UX-venlig – generer ikke brugerne og gør det muligt at fjerne CAPTCHA fra formularer.
Antibot Cloud er hverken et AI-genereret produkt eller resultatet af sjælløs vibe coding. I over 8 år er det blevet bygget, forbedret og vedligeholdt af rigtige mennesker, der har lagt ikke kun viden og erfaring i det, men også hjerteblod.
1 domæne med underdomæner
Ubegrænsede botkontroller
Beskyttelse af adfærdsfaktorer
Prøveperiode – 10 dage
Personlig support via e-mail
Personlig support via Telegram
Personlig support via WhatsApp
Ubegrænsede beskyttede domæner
Ubegrænsede botkontroller
Beskyttelse af adfærdsfaktorer
Ingen prøveperiode
Personlig support via e-mail
Personlig support via Telegram
Personlig support via WhatsApp
Antibot script (GNU GPL v3) with local checks and local filtering rules is provided for free without limitations or additional conditions. Some cloud admin panel features are not included. (или: Excludes some cloud admin panel functionality.
Beskytter som standard ikke hjemmesiden mod adfærdsmæssige (browser-)bots.
Ingen personlig support – kun hjælp fra fællesskabet (fora, Telegram-grupper).
Du opretter selv lokale filtreringsregler baseret på land, by, tidszone, PTR, ASNum, ASName, User-Agent, browsersprog, undernet eller individuelle IPv4- og IPv6-adresser, referrer og andre parametre.
Rigtige brugere gennemfører en automatisk kontrol og når hjemmesiden på 1–3 sekunder. De fleste besøgende verificeres automatisk uden nogen handling fra deres side. Hvis systemet opdager en besøgende som mistænkelig, skal vedkommende bekræfte, at de ikke er en robot – ved at trykke på en knap eller gennemføre en hurtig CAPTCHA.
En besøgende kontrolleres kun én gang. Derefter, så længe cookies er gemt og User-Agent eller IP ikke ændres (hvilket sjældent sker), vil Antibot ikke bede om en ny kontrol.
Søgemaskinernes crawlerbots (Googlebot, Bingbot, Yandexbot osv.) får adgang uden ekstra kontroller og "ser" ikke Antibot-scriptet i aktion. Deres ægthed verificeres ved hjælp af "IP-PTR-IP"-metoden – falske "søgebots" vil ikke bestå kontrollen og vil blive blokeret.
Du kan tillade de bots, du har brug for, via reglerne – du bestemmer selv, hvem der slippes igennem, og hvem der blokeres. Eksempler på nyttige bots: PageSpeed Insights/Lighthouse, linkforhåndsvisningsbots (Telegram, Facebook, X) og andre sociale netværk, RSS/Feed-læsere...
Til trafikfiltrering kan du oprette brugerdefinerede regler – tillad eller afvis adgang baseret på land og by, tidszone, PTR, ASNum/ASName, User-Agent, browsersprog, IP, referrer og andre fingerprint-parametre.
Spambots finder automatisk kontaktformularer, kommentarfelter, fora, registreringsformularer og andre inputfelter på hjemmesiden for at udsende massereklamer, phishinglinks og skadeligt indhold. Det tilstopper databaser og e-mail, skader domænets omdømme, forringer indholdskvaliteten og øger serverbelastningen.
Hackerbots scanner automatisk hjemmesider for sårbarheder, leder efter administrationspaneler og kendte stier, forsøger at gætte adgangskoder (brute-force) og udnytter XSS, SQL-injektioner, filuploads og andre svage punkter. Konsekvenserne er injektion af ondsindet kode og omdirigeringer, sideudskiftning, skjult SEO-spam, datalæk, fald i placeringer og optagelse på sortelister. Antibot stopper sådanne angreb ved indgangen, filtrerer mistænkelige forespørgsler og reducerer hackingrisikoen.
Skrabning er automatisk indsamling og kopiering af hjemmesideindhold ved hjælp af bots. Doorway-sider og proxy-sites skaber dubletindhold, hvilket reducerer indholdets unikhed i søgeresultater og belaster serveren unødigt. Ud over at kopiere tekst og billeder udtrækker skrabere ofte katalogdata – priser, produktsider, links, kontakter, e-mailadresser og andre offentlige oplysninger – for at bruge dem på tredjeparts-ressourcer eller til udsendelser.
Adfærdsbots forklæder sig som almindelige besøgende og efterligner "rigtige" handlinger på hjemmesiden – sidevisninger, rulning, klik og navigation. De anvender ofte antidetektionsbrowsere og proxy/VPN samt forfalsker browser-fingerprints for at omgå simple filtre. Resultatet er forvrænget analytik, faldende CTR og konverteringsrater, spildt annoncebudget (kliksvindel), stigende afvisningsprocent og forværrede adfærdsmæssige faktorer.
Softwarekrav: PHP 5.6 - 8.5.2, PHP-udvidelser (klasser): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Download installationsprogrammet (scriptet antibot_installer.php) fra brugerpanelet. Brugerpanel.
Upload installationsprogrammet til din hjemmeside (via SFTP) og kør det i browseren via en adresse som https://din-side/antibot_installer.php
Inkluder Antibot i de nødvendige scripts eller dit CMS. Integrationsmetoder.
Hvis du støder på problemer, kan du tjekke dokumentationsafsnittet (som besvarer 95 % af de hyppigste spørgsmål) eller bestille professionel installation og opsætning hos support (betalt eller gratis). Dokumentation. Bestil installation og opsætning.