Proteggi il tuo WordPress da agenti e robot

Ultimamente ci sono stati molti siti WordPress compromessi solo grazie ai robot che girano per il world wide web! Ci sono un sacco di plugin là fuori che possono proteggere il tuo bambino WordPress bloccando questi robot "furbi"!

In questo articolo imparerai un metodo semplice e utile per configurare abilmente il tuo file .htaccess per filtrare questi bot che possono infettare il tuo sito Web e possono consumare le risorse del tuo server. Quindi prendi il tuo file .htaccess pronto per la modifica!


Passaggio 1 Preparazione del codice

Il codice consiste principalmente di nomi di bot. Ho aggiunto i bot più famosi qui a cui riesco a pensare. Se manca qualche bot, si prega di menzionarlo nei commenti.

Il codice è piuttosto semplice. Vai avanti e copia il codice qui sotto e incollalo nel tuo file .htaccess.

 # Bot Blocker  SetEnvIfNoCase User-Agent ^ $ keep_out SetEnvIfNoCase User-Agent (pycurl | casper | cmsworldmap | diavol | dotbot) keep_out SetEnvIfNoCase User-Agent (flicky | ia_archiver | jakarta | kmccrew) keep_out SetEnvIfNoCase User-Agent (purebot | comodo | feedfinder | planetwork) tenere fuori  Consenti ordine, Nega Consenti da tutti Nega da env = keep_out  

Passaggio 2 Test del codice

Per vedere se il codice sta facendo il suo lavoro, io uso raccomandare questo sito Web Bot VS Browser. Questo sito web è un buon posto per simulare questi tipi di attacchi. Una volta sul loro sito web tutto ciò che devi fare è selezionare un bot dal codice, che hai appena aggiunto al tuo file .htaccess e usarlo come user agent. Inserisci l'URL del tuo sito e premi invio. Se vedi un "Errore 403" significa che il codice sta facendo il suo lavoro. In caso contrario, il codice deve essere incasinato durante la copia nel file .htaccess, quindi riprova.


Passaggio 3 Aggiunta di più robot

Ora hai familiarità con il codice e come testarlo, possiamo aggiungere più bot al codice. Devi aver notato la ripetizione nel codice e, utilizzando la stessa logica, puoi aggiungere una dozzina di altri robot da bloccare impostando gli stessi parametri. Splendido, no!

 SetEnvIfNoCase User-Agent (i-IS-evilBOT) keep_out

Come puoi vedere nel codice qui sopra, ora sto bloccando "i-IS-evilBOT" (che ho appena inventato). Oltre a questo il nome del bot non è case sensitive e puoi aggiungerlo a tuo piacimento. Vai alla pagina Bots VS Browsers e questa volta inserisci l'user agent che ho appena creato, e voilà, vedrai che questo user agent che è stato aggiunto al mio file .htaccess è anche bloccato! Puoi aggiungere tutti i robot che vuoi vengano separati con un carattere pipe "|"


Conclusione

Ho detto all'inizio che ci sono molti plugin che possono fare la stessa cosa ed è possibile evitare questo editing. Ma modificando manualmente il file .htaccess puoi bloccare in modo efficace i cattivi user-agent e i robot con una migliore efficienza e migliori prestazioni del sito!