Gli spammer hanno l';abilità di sviluppare :overrides: anche per l';aspetto più sicuro del sistema, compresi quelli che non sono facilmente riconosciuti come potenziali bersagli. Il file .htaccess può essere usato per tenere lontani i raccoglitori di e-mail. Questo è considerato molto efficace dal momento che tutti questi mietitori riescono a identificarsi in qualche modo usando i file degli user agent che danno .htaccess la capacità di bloccarli.
Spams Countered di .htaccess
I robot cattivi sono gli spider che sono considerati fare molto più male che bene a un sito come un raccoglitore di e-mail. I ripper del sito sono programmi di navigazione offline che un navigatore può rilasciare su un sito per eseguire la scansione e scaricare ogni sua pagina per la visualizzazione offline. Entrambi i casi comporterebbero un aumento della larghezza di banda e dell';utilizzo delle risorse di un sito fino al punto di bloccare il server del sito. Dato che i bot cattivi in genere ignorano i desideri del proprio file robots.txt, possono essere bannati usando il .htaccess essenzialmente identificando i bot difettosi.
Cos';è .htaccess e Come utilizzare il modulo mod_rewrite PHP Urdu / Hindi
Esiste un utile blocco di codice che può essere inserito nel file .htaccess per bloccare un sacco di noti bot e ripper di siti attualmente esistenti. I bot interessati riceveranno un errore Proibito 403 quando tentano di visualizzare un sito protetto. Ciò di solito si traduce in un notevole risparmio di larghezza di banda e nella riduzione dell';utilizzo delle risorse del server.
Il furto di larghezza di banda o quello che viene comunemente definito hot linking nella comunità Web si riferisce al collegamento diretto a oggetti non HTML che non si trovano sul proprio server come immagini e file CSS. Il server della vittima viene derubato di larghezza di banda e denaro in quanto il perpetratore si diverte a mostrare contenuti senza dover pagare per la consegna.
L';hot linking al proprio server può essere disabilitato con l';uso di .htaccess. Coloro che tenteranno di collegare un';immagine o un file CSS su un sito protetto sono bloccati o hanno offerto un contenuto diverso. Essere bloccati significherebbe solitamente una richiesta fallita sotto forma di immagine rotta mentre un esempio di un contenuto diverso sarebbe l';immagine di un uomo arrabbiato, presumibilmente per inviare un messaggio chiaro ai trasgressori. È necessario che la riscrittura mod sia abilitata sul proprio server in modo che questo aspetto di .htaccess funzioni.
Disabilitando il collegamento a caldo di determinati tipi di file su un sito, sarebbe necessario un codice per il file .htaccess che verrà caricato nella directory radice o in una particolare sottodirectory per localizzare l';effetto su una sola sezione del sito. Un server è in genere impostato per impedire l';elenco delle directory. Se questo non è il caso, il link richiesto deve essere memorizzato nei file .htaccess della directory dell';immagine in modo che nulla in questa directory possa essere elencato.
Il file .htaccess è anche in grado di proteggere in modo affidabile le directory sui siti web. Altre opzioni possono essere utilizzate ma solo .htaccess offre una sicurezza totale. Chiunque desideri entrare nella directory deve conoscere la password e non vengono fornite :backdoor:. La protezione tramite password utilizzando .htaccess richiede l';aggiunta dei link approssimativi al file .htaccess nella directory che si sta cercando di proteggere.
La protezione della password di una directory è una delle funzioni di .htaccess che richiede un po ';più di lavoro rispetto alle altre. Questo perché un file contenente i nomi utente e le password che sono autorizzati ad accedere al sito deve essere creato. È collocato ovunque all';interno del sito Web anche se è consigliabile memorizzarlo al di fuori della web root in modo che non sia possibile accedervi dal web.
Pratiche consigliate per Deter Spam
Evitare la pubblicazione di referenti è un modo per scoraggiare gli spammer. Sarebbe inutile preoccuparsi di inviare richieste di spoofing ai blog quando queste informazioni non sono note. Sfortunatamente, la maggior parte dei blogger crede che essere in grado di fare clic su un link come :siti che mi riferiscono: e simili sia una caratteristica accurata e che non abbia valutato il suo effetto negativo sull';intera blogosfera.
Se la pubblicazione dei referrer è un must, ci dovrebbe essere un supporto integrato per una lista nera di spam di riferimento e includere la pagina in robots.txt. In particolare, dice a Googlebot e ai suoi parenti di non indicizzare la pagina del referrer. In questo modo, gli spammer non sono in grado di ottenere il page rank che cercano. Ciò funzionerebbe comunque solo quando i referrer verranno pubblicati separatamente dai resti del contenuto del sito.
L';uso di rel = :no follow: nega allo stesso modo agli spammer il loro page rank desiderato a livello di link e non solo a livello di pagina usando robots.txt. Tutta la sezione di referrer link del sito Web che collega a siti Web esterni dovrebbe contenere questo attributo. Questo è fatto senza eccezioni in modo da offrire la massima protezione.
Statistiche dei referrer raccolte da immagini beacon caricate tramite documento JavaScript, dichiarazioni di scrittura più affidabili di quelle che i registri del server Web non elaborati contengono. C';è un';opzione per ignorare completamente la sezione del referrer dei log del server di un sito. Un elenco più pulito di referenti può essere raccolto dall';uso delle immagini JavaScript e dei beacon dalle statistiche dei referrer.
L';attuale Master Blacklist File può essere un';arma potente ed efficace contro lo spam. Un programma di analisi dei file di registro che filtra i referrer contro questo elenco può aiutare a sradicare lo spam. La Master Blacklist è un semplice file di testo che può essere scaricato da un sito web o semplicemente rispecchiato. È tutt';altro che perfetto, dal momento che un controllo sul file contro i referenti che ha superato mostra che pochi o nessuno di loro sono stati elencati.
L';idea di combattere lo spam dei commenti sfruttando gli elenchi di black hole basati su DNS potrebbe anche essere utilizzata per individuare altre forme di spam come lo spam di riferimento. La proposta è davvero piuttosto semplice e suggerisce di interrogare l';IP su una blacklist per una richiesta con un referrer. Se l';IP è nella lista nera o ha un punteggio elevato tra una moltitudine di liste nere, dovrebbe essere evitato di elencare l';URL di riferimento in qualsiasi sezione delle statistiche web di un sito. Una volta che un determinato sito è stato identificato come nome host dello spam di riferimento, non è necessario eseguire una query sulla blacklist per qualsiasi IP con lo stesso nome host nella richiesta HTTP..
Esistono varie forme di spam che sono cresciute esponenzialmente insieme alla popolarità dei blog. Ciò è probabilmente dovuto alle pochissime restrizioni imposte a coloro che possono pubblicare un commento. Questo è facilmente sfruttato dagli spammer che sono intenzionati a mettere le loro merci di fronte alla vista della gente. Gli spammer dispongono di strumenti automatizzati su una costante ricerca di blog che possono essere facilmente spammati. Spamming in tutte le sue forme, porta pesanti conseguenze per coloro che cercano di utilizzare Internet e il world wide web in modo produttivo.