Gratis åpen kildekode PHP-skript (GNU GPL v3) og skydatabehandlingstjenester (API, SaaS-modell) for å beskytte nettsteder mot skadelige roboter: forhindrer manipulasjon av atferdsfaktorer, reduserer serverbelastning, beskytter mot søppelpost, hackingforsøk, brute-force-angrep, sårbarhetsskanning, innholdsskraping (parsing), proxy-servere og innholdstyveri.
SEO-vennlig — trygt for indeksering og søkemotoroptimalisering. UX-vennlig — forstyrrer ikke brukerne, lar deg fjerne CAPTCHA fra skjemaer.
Antibot Cloud er verken et AI-generert produkt eller resultatet av sjelsløs koding. I over 8 år har det blitt bygd, forbedret og vedlikeholdt av ekte mennesker som har lagt ned ikke bare kunnskap og erfaring, men også hjertet sitt.
1 domene med underdomener
Ubegrenset botsjekk
Beskyttelse av atferdsfaktorer
10-dagers prøveperiode
Personlig støtte via e-post
Personlig støtte via Telegram
Personlig støtte via WhatsApp
Ubegrenset antall beskyttede domener
Ubegrenset botsjekk
Beskyttelse av atferdsfaktorer
Ingen prøveperiode
Personlig støtte via e-post
Personlig støtte via Telegram
Personlig støtte via WhatsApp
Antibot-skriptet (GNU GPL v3) med lokale sjekker og lokale filtreringsregler leveres gratis uten begrensninger eller tilleggsvilkår. Noen funksjoner i skyens administrasjonspanel er ikke inkludert.
Som standard beskytter det ikke nettstedet mot atferdsbaserte (nettleser-) roboter.
Ingen personlig støtte — kun hjelp fra fellesskapet (forum, Telegram-grupper).
Du oppretter selv lokale filtreringsregler basert på land, by, tidssone, PTR, ASNum, ASName, User-Agent, nettleserspråk, subnett eller individuelle IPv4- og IPv6-adresser, referrer og andre parametere.
Ekte brukere passerer en automatisk sjekk og når nettstedet på 1–3 sekunder. De fleste besøkende verifiseres automatisk uten at noen handling kreves. Hvis systemet oppdager en besøkende som mistenkelig, må vedkommende bekrefte at han ikke er en robot — trykke på en knapp eller fullføre en rask CAPTCHA.
En besøkende sjekkes bare én gang. Etter det, så lenge informasjonskapsler er lagret og User-Agent eller IP ikke endres (noe som sjelden skjer), vil Antibot ikke be om en ny sjekk.
Søkemotorenes indekseringsroboter (Googlebot, Bingbot osv.) får tilgang uten ekstra sjekker og "ser" ikke Antibot-skriptet i aksjon. Ektheten deres verifiseres med «IP-PTR-IP»-ordningen — falske «søkeroboter» vil ikke bestå sjekken og bli blokkert.
Du kan tillate de robotene du trenger i reglene — du bestemmer selv hvem som slippes gjennom og hvem som blokkeres. Eksempler på nyttige roboter: PageSpeed Insights/Lighthouse, lenkeforhåndsvisningsroboter (Telegram, Facebook, X) og andre sosiale nettverk, RSS/feed-lesere...
For å filtrere trafikk kan du angi egendefinerte regler — tillat eller avslå tilgang basert på land og by, tidssone, PTR, ASNum/ASName, User-Agent, nettleserspråk, IP, referrer og andre fingeravtrykksparametere.
Spamroboter finner automatisk kontaktskjemaer, kommentarfelt, forum, registreringssider og andre inndatafelt for å sende massesøppelpost, phishing-lenker og skadelig innhold. Dette tetter igjen databaser og e-post, skader domenets omdømme, forringer innholdskvaliteten og øker serverbelastningen.
Hackerroboter skanner automatisk et nettsted etter sårbarheter, leter etter administrasjonspaneler og vanlige stier, forsøker å gjette passord med brute force og prøver å utnytte XSS, SQL-injeksjoner, filopplastinger og andre svake punkter. Konsekvensene inkluderer injeksjon av skadelig kode og omdirigeringer, sidebytte, skjult SEO-spam, datalekkasjer, rangfall og svartelisting. Antibot blokkerer slike angrep ved inngangspunktet, filtrerer mistenkelige forespørsler og reduserer risikoen for hacking.
Skraping er automatisert innsamling og kopiering av nettstedsinnhold ved hjelp av roboter. Doorway- og proxy-sider lager dupliserte sider, noe som reduserer innholdets unikhet i søk og øker serverbelastningen. I tillegg til å kopiere tekst og bilder henter skrapere ofte ut katalogdata — priser, produktsider, lenker, kontakter, e-postadresser og annen offentlig informasjon — for å bruke det på tredjeparts ressurser eller til utsendelser.
Atferdsroboter forkleder seg som vanlige besøkende og etterligner «ekte» handlinger på nettstedet — sidevisninger, rulling, klikk og navigasjon. De bruker ofte antideteksjonsnettlesere og proxy/VPN, og forfalsker nettleserfingeravtrykk for å omgå enkle filtre. Resultatet er forvrengt analyse, lavere CTR og konverteringsrater, bortkastet annonsebudsjett (klikksvindel), høyere fluktfrekvens og forverrede atferdsmålinger.
Programvarekrav: PHP 5.6 - 8.5.2, PHP-utvidelser (klasser): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Last ned installasjonsprogrammet (antibot_installer.php-skriptet) fra brukerpanelet. Min konto.
Last opp installasjonsprogrammet til nettstedet ditt (via SFTP) og kjør det i nettleseren på en URL som https://your-site/antibot_installer.php
Inkluder Antibot i de nødvendige skriptene eller CMS-et. Integrasjonsmetoder.
Har du problemer, kan du sjekke dokumentasjonsdelen (den svarer på 95 % av vanlige spørsmål) eller bestille profesjonell installasjon og oppsett fra kundestøtten (betalt eller gratis). Dokumentasjon. Bestill installasjon og oppsett.