Consulente Web Marketing e Consulenza Motori di Ricerca

Web Marketing & Search Engine Consultant

Il Problema delle Penalizzazioni nei Motori di Ricerca

Analizzare e risolvere una penalizzazione: un caso reale che mostra in modo approfondito come si lavora sulle penalizzazioni.
Enrico Madrigrano (in Teleconferenza)

Le Penalizzazioni da motori di ricerca

Bisogna distinguere tra le penalizzazioni algoritmiche – sono fatte in automatico dal motori di ricerca, e quelle manuali applicate da un operatore umano (quality rator).

l controllo delle SERP è attiva da parte di operatori che controllano la qualità dei risultati – altro caso è quello di una “denuncia” di Google da parte di qualcuno che ci vuole molto bene …

L’analisi occasionale dell’operatore è probabilmente combinata ad una azione automatica (flagging di siti che potrebbero presentare delle anomalie)

Come riconoscere una penalizzazione ?

Si scompare per una o più keywords.

Se si è penalizzati il sito non appare nelle SERP per la query con il proprio nome con una query tipo:

nomesito.it a

Bisogna distinguere tra fluttuazioni e penalizzazioni – le nuove pagine indicizzate soffrono di fluttuazioni – anche le pagine che rientrano dopo una penalizzazione.

Per lavorare sulle penalizzazioni:

Query fondamentali site: e linkdomain (su YAHOO!)

leggere il file di LOG per leggere i tempi di risposta del server (caricamento corretto delle pagine) e vedere le attività di spidering

leggere i dati da webmastertools e la cache di google.

Le Penalizzazioni da motori di ricerca – un caso reale

esame di un sito per il posizionamento di un sito ben posizionato per una keyword generica molto competitiva (cucine). Sito indicizzato e presente online dal 2000.

l’analisi del sito ha messo in evidenza l’assenza dalle SERP del sito con il nome – poi una query

site:nomesito.it keyword

compare nelle ultime posizioni

Avuta la conferma della penalizzazione, partendo dalla pagina e dall’HTML si deve cercare se ci sono contenuti duplicati (NOTA DI SANTE: non sono convinto che conenuti duplicati possano portare ad una penalizzazione – uno svantaggio si ma non una penalizzazione … io non parlerei di penalizzazione)

controllato codice HTML, assenza do sovra-ottimizzazione, testo nascosto, link a siti SPAM ((link esterni creano un calo di ranking e non penalizzazione))

Analisi dei back links

Vanno analizzati i link esterni per trovare link dubbi che potrebbero aver scaturita la penalizzazione.

Nel caso specifico l’analisi dei back link può mettere in evidenza il profilo di linking:

Qualità di linking

diversità dei siti che linkano

i tempi in cui vengono generati i link (se vengono tutti in poco tempo da molti siti perché qualcuno ha “diggato” il sito è un bene – se vengono da pochi siti e tutti con lo stesso anchor text.

I link al sito penalizzato sono a centinaia (se non migliaia) da pochi siti che sono presenti nel piedi pagina di un blog di un template. Era stata fatta una operazione sistematica di link in firma in forum e nel piedi pagina di template tutti con la stessa keyword. QUindi 10.000 link da soli 4 o 5 siti e con testo del link con solo 2 varianti (backlinking non naturale – gli utenti non utilizzano tutti le stesse parole). Poi i link sono presenti nelle “aree grigie” del sito – sono appunto il piedi pagina o e firme e poi questi link si sono manifestati ai motori di ricerca in un tempo brevissimo (migliaia di link tutti uguali tra di loro che prendono vita sullo stesso sito nella stessa posizione da tutte le pagine del sito) ed in posizioni “sospette”.

Rimuovere tutti i links e modificando l’anchor text – evitare l’uso della stessa keyword. Si è ampliato il numero di domini da 5 a 30/40. Nel giro di due settimane si son visti i cambiamenti. I risultati si sono viste anche nella ricerca – è tornato nelle SERP per la query del nome del sito.

Il sito era arrivato in 3a paginama poi andato in 7a pagina – il comando site: rivela la presenza di URL duplicate – si stava verificando (adesso – prima non erano presenti) la duplicazione delle URL. Questo può essere dovuto ad errori tecnici di programmazione. Ci sono anche problemi dovuti ad hacking che generano URL inesistenti. In questo caso probabilmente qualcuno stava cercando di violare il sito.

Il comando site: rivela oltre 10.000 pagine contro appena le 600 reali nel sito.

Il sito va ripulito da questi indirizzi duplicati, utilizzando il file robots.txt

Ricapitolando:

  • Capire se c’è penalizzazione
  • analizzare le pagine
  • analizzare backlinks
  • analizzare URL indicizzate
  • monitorare il progresso di posizionamento

Altri articoli miei correlati:

Cosa sono le penalizzazioni nei motori di ricerca ?

Link run of site

Technorati Tags:

, , Convegno GT SEO SEM live blogging