Sikre ditt WordPress mot brukeragenter og bots

I det siste har det vært mange WordPress-nettsteder som kun er kompromittert på grunn av bots som strekker seg over hele verden! Det er mange plugins der ute som kan beskytte din WordPress baby ved å blokkere disse "roguish" bots!

I denne artikkelen vil du lære en enkel og nyttig metode for adept å konfigurere .htaccess-filen din for å filtrere disse robottene som kan infisere nettstedet ditt og kan spise opp serverressursene dine. Så få din .htaccess-fil klar for redigering!


Trinn 1 Klargjøre koden

Koden består hovedsakelig av botnavn. Jeg har lagt til de mest kjente bots her inne som jeg kan tenke på. Hvis det mangler noe bot, vennligst nev det i kommentarene.

Koden er ganske enkel. Gå videre og kopier koden under og lim den inn i .htaccess-filen din.

 # Bot-blokkering  SetEnvIfNoCase User-Agent ^ $ keep_out SetEnvIfNoCase Bruker-agent (pycurl | casper | cmsworldmap | diavol | dotbot) keep_out SetEnvIfNoCase Bruker-agent (flicky | ia_archiver | jakarta | kmccrew) keep_out SetEnvIfNoCase Bruker-agent (purebot | comodo | feedfinder | planetwork) keep_out  Ordre Tillat, nekt Tillat fra alle Nekt fra env = keep_out  

Trinn 2 Testing av koden

For å se om koden gjør jobben sin, bruker jeg denne nettsiden Bots VS Browsers. Dette nettstedet er et bra sted å simulere disse typer angrep. En gang på deres hjemmeside er alt du trenger å gjøre, velg en bot fra koden, som du nettopp har lagt til din .htaccess-fil, og bruk den som brukeragent. Skriv inn nettadressen til nettstedet ditt og trykk enter. Hvis du ser en "403 feil" betyr dette at koden gjør jobben sin. Hvis ikke, må koden bli ødelagt mens du kopieres til .htaccess-filen din, så prøv igjen.


Trinn 3 Legge til flere bots

Nå er du kjent med koden og hvordan du kan teste den, vi kan legge til flere bots til koden. Du må ha lagt merke til repetisjonen i koden, og ved å bruke samme logikk, kan du legge til et dusin flere roboter som skal blokkeres ved å sette de samme parameterne. Kul huh!

 SetEnvIfNoCase User-Agent (i-IS-evilBOT) keep_out

Som du kan se i koden ovenfor, blokkerer jeg nå "I-IS-evilBOT" (som jeg nettopp har gjort opp). Annet enn det, er navnet på boten ikke saksfølsomt, og du kan legge det til som du vil. Gå til Bots VS Browsers-siden, og denne gangen skriver du inn brukeragenten som jeg nettopp har opprettet, og voila, du vil se at denne brukeragenten som ble lagt til min .htaccess-fil, er også blokkert! Du kan legge til så mange roboter som du vil bli sperret, skilt med et rørkarakter "|"


Konklusjon

Jeg sa i begynnelsen at det er mange plugins som kan gjøre det samme, og du kan unngå denne redigeringen. Men ved å redigere .htaccess-filen manuelt kan du effektivt blokkere dårlige brukeragenter og roboter med bedre effektivitet og bedre ytelse på nettstedet.!