Gratis PHP-skript med öppen källkod (GNU GPL v3) och molnbaserade databehandlingstjänster (API, SaaS-modell) för att skydda webbplatser mot skadliga bottar: förhindrar manipulation av beteendefaktorer, minskar serverbelastningen och skyddar mot skräppost, hackningsförsök, brute force-attacker och sårbarhetsskanning, skrapning (parsning), proxyservrar och innehållsstöld.
SEO-vänligt — säkert för indexering och sökmotoroptimering. UX-vänligt — stör inte besökarna och gör det möjligt att ta bort CAPTCHA från formulär.
Antibot Cloud är varken ett AI-genererat produkt eller resultatet av själslös vibe coding. I över 8 år har riktiga människor byggt, förbättrat och underhållit det — med inte bara kunskap och erfarenhet, utan också hjärta.
1 domän med underdomäner
Obegränsade bottkontroller
Skydd av beteendefaktorer
10 dagars gratis provperiod
Personlig support via e-post
Personlig support via Telegram
Personlig support via WhatsApp
Obegränsat antal skyddade domäner
Obegränsade bottkontroller
Skydd av beteendefaktorer
Ingen provperiod
Personlig support via e-post
Personlig support via Telegram
Personlig support via WhatsApp
Antibot-skriptet (GNU GPL v3) med lokala kontroller och lokala filtreringsregler tillhandahålls gratis utan begränsningar eller ytterligare villkor. Vissa funktioner i molnets adminpanel ingår inte.
Som standard skyddar det inte webbplatsen mot beteendemässiga (webbläsar-)bottar.
Ingen personlig support — enbart hjälp från communityn (forum, Telegram-grupper).
Du skapar själv lokala filtreringsregler baserade på land, stad, tidszon, PTR, ASNum, ASName, User-Agent, webbläsarspråk, undernätverk eller enskilda IPv4- och IPv6-adresser, referrer och andra parametrar.
Riktiga användare passerar den automatiska kontrollen och når webbplatsen på 1–3 sekunder. De flesta besökare verifieras automatiskt utan att behöva göra något. Om systemet bedömer en besökare som misstänkt måste denne bekräfta att de inte är en robot — genom att trycka på en knapp eller lösa en snabb CAPTCHA.
En besökare kontrolleras bara en gång. Därefter, så länge cookies är sparade och User-Agent eller IP-adress inte ändras — vilket sällan sker — kommer Antibot inte att begära en ny kontroll.
Sökmotorernas crawlrobotar (Googlebot, Bingbot m.fl.) får åtkomst utan extra kontroller och "ser" inte Antibot-skriptet i aktion. Deras äkthet verifieras med hjälp av "IP-PTR-IP"-schemat — falska "sökmotorrobotar" klarar inte kontrollen och blockeras.
Du kan tillåta de bottar du behöver i reglerna — du bestämmer själv vem som släpps igenom och vem som blockeras. Exempel på användbara bottar: PageSpeed Insights/Lighthouse, förhandsgranskningsbottar för länkar (Telegram, Facebook, X) och andra sociala nätverk, RSS/feed-läsare...
För att filtrera trafiken kan du ange anpassade regler — tillåta eller neka åtkomst baserat på land och stad, tidszon, PTR, ASNum/ASName, User-Agent, webbläsarspråk, IP-adress, referrer och andra fingeravtrycksparametrar.
Skräppostbottar hittar automatiskt kontaktformulär, kommentarer, forum, registreringar och andra inmatningsfält för att massutskick av skräppost, nätfiskelänkar och skadligt innehåll. Det belastar databaser och e-postlådor, skadar domänens anseende, försämrar innehållskvaliteten och ökar serverbelastningen.
Hackerbottar skannar automatiskt webbplatser efter sårbarheter, letar efter adminpaneler och vanliga sökvägar, försöker knäcka lösenord med brute force och utnyttja brister som XSS, SQL-injektioner, filuppladdningar och andra svaga punkter. Konsekvenserna kan vara injicering av skadlig kod och omdirigeringar, sidbyte, dold SEO-skräppost, dataintrång, tappade rankningar och svartlistning. Antibot blockerar sådana attacker redan vid ingångspunkten, filtrerar misstänkta förfrågningar och minskar risken för intrång.
Skrapning innebär automatiserad insamling och kopiering av webbplatsinnehåll med hjälp av bottar. Doorway- och proxysidor skapar duplicerade sidor, vilket minskar innehållets unikhet i sökmotorerna och ger extra serverbelastning. Förutom att kopiera texter och bilder extraherar skrapare ofta katalogdata — priser, produktsidor, länkar, kontakter, e-postadresser och annan offentlig information — för att använda den på tredjepartsresurser eller i massutskick.
Beteendebottar förklär sig som vanliga besökare och imiterar "riktiga" handlingar på webbplatsen — sidvisningar, rullning, klick och navigering. De använder ofta antidetektionswebbläsare, proxy eller VPN och förfalskar webbläsarfingeravtryck för att kringgå enkla filter. Resultatet blir förvrängd analysdata, sjunkande CTR och konverteringsgrad, bortslösade annonskostnader (klickbedrägeri), ökad avvisningsfrekvens och försämrade beteendemätvärden.
Programvarukrav: PHP 5.6 - 8.5.2, PHP-tillägg (klasser): SQLite3, Mbstring, GMP, ZIP, GD, cURL, OpenSSL.
Ladda ned installationsprogrammet (skriptet antibot_installer.php) från ditt konto. Mitt konto.
Ladda upp installationsprogrammet till din webbplats (via SFTP) och kör det i webbläsaren på en adress som https://din-sida/antibot_installer.php
Inkludera Antibot i de nödvändiga skripten eller ditt CMS. Integrationssätt.
Om du stöter på problem kan du titta i dokumentationsavsnittet (det besvarar 95 % av de vanliga frågorna) eller beställa professionell installation och konfiguration från supporten (betald eller gratis). Dokumentation. Beställ installation och konfiguration.