Antibot Cloud

Heltäckande skydd mot bottar för webbplatser: antibot, antispam och brandvägg för WordPress och PHP. Snabb installation och konfiguration.

Vi skyddar webbplatser sedan 2017.

Vad är Antibot Cloud?

Gratis PHP-skript med öppen källkod (GNU GPL v3) och molnbaserade databehandlingstjänster (API, SaaS-modell) för att skydda webbplatser mot skadliga bottar: förhindrar manipulation av beteendefaktorer, minskar serverbelastningen och skyddar mot skräppost, hackningsförsök, brute force-attacker och sårbarhetsskanning, skrapning (parsning), proxyservrar och innehållsstöld.

SEO-vänligt — säkert för indexering och sökmotoroptimering. UX-vänligt — stör inte besökarna och gör det möjligt att ta bort CAPTCHA från formulär.

Antibot Cloud är varken ett AI-genererat produkt eller resultatet av själslös vibe coding. I över 8 år har riktiga människor byggt, förbättrat och underhållit det — med inte bara kunskap och erfarenhet, utan också hjärta.

Prisplaner

ONE

$10 per månad

1 domän med underdomäner

Obegränsade bottkontroller

Skydd av beteendefaktorer

10 dagars gratis provperiod

Personlig support via e-post

Personlig support via Telegram

Personlig support via WhatsApp

Skapa konto

UNLIMITED

$1800 per år

Obegränsat antal skyddade domäner

Obegränsade bottkontroller

Skydd av beteendefaktorer

Ingen provperiod

Personlig support via e-post

Personlig support via Telegram

Personlig support via WhatsApp

Skapa konto

FREE

Antibot-skriptet (GNU GPL v3) med lokala kontroller och lokala filtreringsregler tillhandahålls gratis utan begränsningar eller ytterligare villkor. Vissa funktioner i molnets adminpanel ingår inte.

Som standard skyddar det inte webbplatsen mot beteendemässiga (webbläsar-)bottar.

Ingen personlig support — enbart hjälp från communityn (forum, Telegram-grupper).

Du skapar själv lokala filtreringsregler baserade på land, stad, tidszon, PTR, ASNum, ASName, User-Agent, webbläsarspråk, undernätverk eller enskilda IPv4- och IPv6-adresser, referrer och andra parametrar.

Hur fungerar Antibot Cloud?

Tillåter åtkomst

Riktiga användare

Riktiga användare passerar den automatiska kontrollen och når webbplatsen på 1–3 sekunder. De flesta besökare verifieras automatiskt utan att behöva göra något. Om systemet bedömer en besökare som misstänkt måste denne bekräfta att de inte är en robot — genom att trycka på en knapp eller lösa en snabb CAPTCHA.

En besökare kontrolleras bara en gång. Därefter, så länge cookies är sparade och User-Agent eller IP-adress inte ändras — vilket sällan sker — kommer Antibot inte att begära en ny kontroll.

Sökmotorrobotar

Sökmotorernas crawlrobotar (Googlebot, Bingbot m.fl.) får åtkomst utan extra kontroller och "ser" inte Antibot-skriptet i aktion. Deras äkthet verifieras med hjälp av "IP-PTR-IP"-schemat — falska "sökmotorrobotar" klarar inte kontrollen och blockeras.

Välkomna bottar

Du kan tillåta de bottar du behöver i reglerna — du bestämmer själv vem som släpps igenom och vem som blockeras. Exempel på användbara bottar: PageSpeed Insights/Lighthouse, förhandsgranskningsbottar för länkar (Telegram, Facebook, X) och andra sociala nätverk, RSS/feed-läsare...

Anpassade regler

För att filtrera trafiken kan du ange anpassade regler — tillåta eller neka åtkomst baserat på land och stad, tidszon, PTR, ASNum/ASName, User-Agent, webbläsarspråk, IP-adress, referrer och andra fingeravtrycksparametrar.

Blockerar åtkomst

Skräppost

Skräppostbottar hittar automatiskt kontaktformulär, kommentarer, forum, registreringar och andra inmatningsfält för att massutskick av skräppost, nätfiskelänkar och skadligt innehåll. Det belastar databaser och e-postlådor, skadar domänens anseende, försämrar innehållskvaliteten och ökar serverbelastningen.

Hackningsförsök

Hackerbottar skannar automatiskt webbplatser efter sårbarheter, letar efter adminpaneler och vanliga sökvägar, försöker knäcka lösenord med brute force och utnyttja brister som XSS, SQL-injektioner, filuppladdningar och andra svaga punkter. Konsekvenserna kan vara injicering av skadlig kod och omdirigeringar, sidbyte, dold SEO-skräppost, dataintrång, tappade rankningar och svartlistning. Antibot blockerar sådana attacker redan vid ingångspunkten, filtrerar misstänkta förfrågningar och minskar risken för intrång.

Skrapning

Skrapning innebär automatiserad insamling och kopiering av webbplatsinnehåll med hjälp av bottar. Doorway- och proxysidor skapar duplicerade sidor, vilket minskar innehållets unikhet i sökmotorerna och ger extra serverbelastning. Förutom att kopiera texter och bilder extraherar skrapare ofta katalogdata — priser, produktsidor, länkar, kontakter, e-postadresser och annan offentlig information — för att använda den på tredjepartsresurser eller i massutskick.

Beteendebottar och antidetektionswebbläsare

Beteendebottar förklär sig som vanliga besökare och imiterar "riktiga" handlingar på webbplatsen — sidvisningar, rullning, klick och navigering. De använder ofta antidetektionswebbläsare, proxy eller VPN och förfalskar webbläsarfingeravtryck för att kringgå enkla filter. Resultatet blir förvrängd analysdata, sjunkande CTR och konverteringsgrad, bortslösade annonskostnader (klickbedrägeri), ökad avvisningsfrekvens och försämrade beteendemätvärden.

Installationsguide för Antibot

Programvarukrav: PHP 5.6 - 8.5.2, PHP-tillägg (klasser): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.

Ladda ned installationsprogrammet (skriptet antibot_installer.php) från ditt konto. Mitt konto.

Ladda upp installationsprogrammet till din webbplats (via SFTP) och kör det i webbläsaren på en adress som https://din-sida/antibot_installer.php

Inkludera Antibot i de nödvändiga skripten eller ditt CMS. Integrationssätt.

Om du stöter på problem kan du titta i dokumentationsavsnittet (det besvarar 95 % av de vanliga frågorna) eller beställa professionell installation och konfiguration från supporten (betald eller gratis). Dokumentation. Beställ installation och konfiguration.