Antibot Cloud

Universell nettstedsbeskyttelse mot roboter: Antibot, Antispam, Brannmur for WordPress- og PHP-nettsteder. Rask installasjon og oppsett.

Beskytter nettsteder siden 2017.

Hva er Antibot Cloud?

Gratis åpen kildekode PHP-skript (GNU GPL v3) og skydatabehandlingstjenester (API, SaaS-modell) for å beskytte nettsteder mot skadelige roboter: forhindrer manipulasjon av atferdsfaktorer, reduserer serverbelastning, beskytter mot søppelpost, hackingforsøk, brute-force-angrep, sårbarhetsskanning, innholdsskraping (parsing), proxy-servere og innholdstyveri.

SEO-vennlig — trygt for indeksering og søkemotoroptimalisering. UX-vennlig — forstyrrer ikke brukerne, lar deg fjerne CAPTCHA fra skjemaer.

Antibot Cloud er verken et AI-generert produkt eller resultatet av sjelsløs koding. I over 8 år har det blitt bygd, forbedret og vedlikeholdt av ekte mennesker som har lagt ned ikke bare kunnskap og erfaring, men også hjertet sitt.

Prisplaner

ONE

$10 per måned

1 domene med underdomener

Ubegrenset botsjekk

Beskyttelse av atferdsfaktorer

10-dagers prøveperiode

Personlig støtte via e-post

Personlig støtte via Telegram

Personlig støtte via WhatsApp

Registrer deg

UNLIMITED

$1800 per år

Ubegrenset antall beskyttede domener

Ubegrenset botsjekk

Beskyttelse av atferdsfaktorer

Ingen prøveperiode

Personlig støtte via e-post

Personlig støtte via Telegram

Personlig støtte via WhatsApp

Registrer deg

FREE

Antibot-skriptet (GNU GPL v3) med lokale sjekker og lokale filtreringsregler leveres gratis uten begrensninger eller tilleggsvilkår. Noen funksjoner i skyens administrasjonspanel er ikke inkludert.

Som standard beskytter det ikke nettstedet mot atferdsbaserte (nettleser-) roboter.

Ingen personlig støtte — kun hjelp fra fellesskapet (forum, Telegram-grupper).

Du oppretter selv lokale filtreringsregler basert på land, by, tidssone, PTR, ASNum, ASName, User-Agent, nettleserspråk, subnett eller individuelle IPv4- og IPv6-adresser, referrer og andre parametere.

Hvordan fungerer Antibot Cloud?

Gir tilgang

Ekte brukere

Ekte brukere passerer en automatisk sjekk og når nettstedet på 1–3 sekunder. De fleste besøkende verifiseres automatisk uten at noen handling kreves. Hvis systemet oppdager en besøkende som mistenkelig, må vedkommende bekrefte at han ikke er en robot — trykke på en knapp eller fullføre en rask CAPTCHA.

En besøkende sjekkes bare én gang. Etter det, så lenge informasjonskapsler er lagret og User-Agent eller IP ikke endres (noe som sjelden skjer), vil Antibot ikke be om en ny sjekk.

Søkemotorroboter

Søkemotorenes indekseringsroboter (Googlebot, Bingbot osv.) får tilgang uten ekstra sjekker og "ser" ikke Antibot-skriptet i aksjon. Ektheten deres verifiseres med «IP-PTR-IP»-ordningen — falske «søkeroboter» vil ikke bestå sjekken og bli blokkert.

Nyttige roboter

Du kan tillate de robotene du trenger i reglene — du bestemmer selv hvem som slippes gjennom og hvem som blokkeres. Eksempler på nyttige roboter: PageSpeed Insights/Lighthouse, lenkeforhåndsvisningsroboter (Telegram, Facebook, X) og andre sosiale nettverk, RSS/feed-lesere...

Egendefinerte regler

For å filtrere trafikk kan du angi egendefinerte regler — tillat eller avslå tilgang basert på land og by, tidssone, PTR, ASNum/ASName, User-Agent, nettleserspråk, IP, referrer og andre fingeravtrykksparametere.

Blokkerer tilgang

Søppelpost

Spamroboter finner automatisk kontaktskjemaer, kommentarfelt, forum, registreringssider og andre inndatafelt for å sende massesøppelpost, phishing-lenker og skadelig innhold. Dette tetter igjen databaser og e-post, skader domenets omdømme, forringer innholdskvaliteten og øker serverbelastningen.

Hackingforsøk

Hackerroboter skanner automatisk et nettsted etter sårbarheter, leter etter administrasjonspaneler og vanlige stier, forsøker å gjette passord med brute force og prøver å utnytte XSS, SQL-injeksjoner, filopplastinger og andre svake punkter. Konsekvensene inkluderer injeksjon av skadelig kode og omdirigeringer, sidebytte, skjult SEO-spam, datalekkasjer, rangfall og svartelisting. Antibot blokkerer slike angrep ved inngangspunktet, filtrerer mistenkelige forespørsler og reduserer risikoen for hacking.

Skraping

Skraping er automatisert innsamling og kopiering av nettstedsinnhold ved hjelp av roboter. Doorway- og proxy-sider lager dupliserte sider, noe som reduserer innholdets unikhet i søk og øker serverbelastningen. I tillegg til å kopiere tekst og bilder henter skrapere ofte ut katalogdata — priser, produktsider, lenker, kontakter, e-postadresser og annen offentlig informasjon — for å bruke det på tredjeparts ressurser eller til utsendelser.

Atferdsroboter og antideteksjonsnettlesere

Atferdsroboter forkleder seg som vanlige besøkende og etterligner «ekte» handlinger på nettstedet — sidevisninger, rulling, klikk og navigasjon. De bruker ofte antideteksjonsnettlesere og proxy/VPN, og forfalsker nettleserfingeravtrykk for å omgå enkle filtre. Resultatet er forvrengt analyse, lavere CTR og konverteringsrater, bortkastet annonsebudsjett (klikksvindel), høyere fluktfrekvens og forverrede atferdsmålinger.

Installasjonsveiledning for Antibot

Programvarekrav: PHP 5.6 - 8.5.2, PHP-utvidelser (klasser): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.

Last ned installasjonsprogrammet (antibot_installer.php-skriptet) fra brukerpanelet. Min konto.

Last opp installasjonsprogrammet til nettstedet ditt (via SFTP) og kjør det i nettleseren på en URL som https://your-site/antibot_installer.php

Inkluder Antibot i de nødvendige skriptene eller CMS-et. Integrasjonsmetoder.

Har du problemer, kan du sjekke dokumentasjonsdelen (den svarer på 95 % av vanlige spørsmål) eller bestille profesjonell installasjon og oppsett fra kundestøtten (betalt eller gratis). Dokumentasjon. Bestill installasjon og oppsett.