Miti e false verità sui motori di ricerca

Purtroppo nel corso degli ultimi 12 anni si sono diffuse molte false verità sul funzionamento dei motori di ricerca e su ció che serve per poter avere successo nel search marketing. In questa sezione analizzeremo i principali falsi miti e vi spiegheremo la vera storia che si nasconde dietro ad essi.

SEGNALAZIONE AI MOTORI DI RICERCA

Ai tempi del SEO "classico" (alla fine degli anni '90), i motori di ricerca avevano un modulo per segnalare il proprio sito che costituiva parte del processo di ottimizzazione del proprio sito. I proprietari di siti e i webmaster associavano al proprio sito e alle proprie pagine informazioni (questo includeva addirittura le parole chiave per le quali ci si voleva posizionare) e le "inviavano" ai motori, dopo di che il bot le scansionava e includeva le pagine nel proprio indice. Per ovvie ragioni (manipolazione delle informazioni, dover fare affidamento sui webmaster, ecc.) questa pratica non era scalabile cosi che si é passati a motori di ricerca basati puramente sui processi di crawling. Dal 2001, la segnalazione del proprio sito ai motori di ricerca non solo non é più necessaria, ma é anche in teoria inutile. I motori hanno tutti pubblicamente sottolineato che usano solo raramente la loro lista di URL "segnalate", e che il metodo migliore é quello di ottenere link da altri siti, in modo tale da esporre i propri contenuti in modo naturale ai motori.

Si possono ancora vedere le pagine di segnalazione (di Yahoo!, Google, Bing), ma sono un ricordo del passato, e non trovano spazio nel SEO moderno. Se senti la presentazione di un SEO che ti offre di "segnalare il tuo sito", scappa e affidati ad un vero SEO. Anche se i motori usassero il servizio di segnalazione per scansionare il tuo sito, avresti poche probabilità di guadagnare "link juice" a sufficienza per essere incluso nell'indice dei motori e poter per posizionarti in modo competitiva su ricerche specifiche.

Search Engine Assistance

META TAG

Una volta, un po' come per la segnalazione del sito, i meta tag (in particolare il tag meta keyword) rivestivano una grande importanza all'interno del processo di ottimizzazione del proprio sito. Ti bastava inserire le parole chiave per le quali volevi posizionarti e quando gli utenti facevano una ricerca utilizzando quelle parole la tua pagina poteva apparire tra i risultati. Questo processo é diventato spesso una pratica usata per attività di spam cosi che oggi solo Yahoo! tra i principali motori di ricerca tiene ancora in conto il tag meta keyword per l'indicizzazione dei suoi contenuti. Yahoo ! stesso sostiene di non usare questo tag a fini del posizionamento dei risultati, ma solamente per scorprire nuovi contenuti.

"KEYWORD STUFFING" E DENSITA'DI PAROLE CHIAVE

Non c'è da stupirsi che un mito duro a morire nel mondo SEO ruoti attorno al concetto di densità di parole chiave - ottenuta matematicamente dividendo il numero di volte in cui ricorre una parola chiave per il numero totale di parole di una pagina - che sarebbe utilizzata dai motori per determinare la rilevanza e il posizionamento di una pagina e che dovrebbe quindi assorbire tutti gli sforzi SEO. Nonostante questo mito sia stato confutato numerose volte, riesce comunque a sopravvivere come dimostrano i numerosi strumenti SEO costruiti attorno alla presunta importanza della densità delle proprie parole chiave. Non lo é. Ignorala e usa le parole chiave con intelligenza tenendo a mente l'usabilità del sito. Il valore generato dall' aggiungere 10 volte in più la tua parola chiave é di gran lunga inferiore ad un solo link editoriale di qualità ottenuto da un sito che non pensa tu sia uno spammer dei motori.

L'ACQUISTO DI PUBBLICITA' A PAGAMENTO SUI MOTORI AIUTA A MIGLIORARE I PROPRI RISULTATI ORGANICI

Signori e signori tenetevi forte, é il momento della teoria cospirazionista #1 nel mondo SEO - aumentare il proprio investimento nel PPC migliora di conseguenza anche il proprio posizionamento organico (e inversamente, al diminuire del proprio investimento c'è una perdita di posizionamento). In tutte le esperienze che abbiamo avuto o di cui siamo stati testimoni, ciòl non si é mai avverato né é mai stata data una spiegazione credibile sugli effetti del PPC per una variazione dei risultati organici. Google, Yahoo! e Bing separano in maniera netta all'interno delle loro organizzazioni queste due attività proprio per non alimentare nessun dubbio a riguardo. Su Google in particolare, inserizionisti dai budget milionari hanno spesso denunciato come i loro investimenti non siano serviti minimamente ad ottenere un "trattamento speciale" dai motori nè un occhio di riguardo dal team anti spam di Google (il web spam team). Fino a quando la separazione tra le due attività rimarrà netta all'interno di tali organizzazioni, crediamo che questo continuerà a rimanere solamente un mito. Detto questo, abbiamo evidenza empirica di casi in cui l'offerta su parole chiave per le quali si é già ben posizionati a livello organico porti ad un miglioramento del proprio click trough rate organico.

Personalizzazione

La personalizzazione dei risultati sembra influenzare in particolar modo quelle aree di ricerca su cui passiamo molto tempo ed eseguiamo ricerche ripetute. Questo significa che per la maggior parte delle prime ricerche, o ricerche di "scoperta", otterremo sempre risultati standard. E' vero che la personalizzazione può influenzare alcune ricerche in maniera abbastanza netta, ma é anche vero che più del 90% delle ricerche che eseguiamo non ne saranno mai influenzate (questo é quanto sentiamo dire anche da altri SEO). Questo articolo conferma quanto sosteniamo, ovvero che mentre i cambiamenti nei posizionamenti possono essere sostanziali, tali cambiamenti si verificano solo a fronte di un certo volume di ricerche ripetute da un utente su un tema ben specifico.

Link Reciproci

I link reciproci hanno un valore dubbio: sono facili per un algoritmo da scoprire e svalutare. Ricreare la propria versione della directory di Yahoo sul tuo sito non aiuta i tuoi utenti né il SEO del tuo sito.

Non ci preoccupiamo affatto di un link tecnicamente "reciproco", diffidiamo piuttosto di schemi e directory che fanno uso di questa logica per ottenere link, promettendo di procurare benefici al tuo sito restituendoti un link in cambio. Inoltre diffidate di tutti quelli che ti propongono schemi triangolari o quadrangolari di link reciproci tra directory del tipo che dovete linkare loro e loro linkano a voi da un sito terzo - sempre di tentativi di manipolazione si tratta e visto che ci sono cosi tante directory a valore perchè rischiare ?

Lo spam sui motori di ricerca

La pratica dello spam sui motori di ricerca - il creare pagine e schemi finalizzati a migliorare artificialmente il proprio posizionamento o abusare dell'algoritmo che regola il posizionamento dei risultati ricerca - si é sviluppata a partire dalla metà degli anni '90. Con una posta in gioco cosi elevata (ad un certo punto, un nostro collega SEO ha fatto notare come posizionarsi al primo posto per un solo giorno per la ricerca "buy viagra" potesse portare più di $20.000 derivanti da programmi di affiliazione), non c'é tanto da meravigliarsi se la manipolazione dei risultati di ricerca sia un'attività molto popolare sul web. Tuttavia, sta diventando sempre più difficile e, e secondo noi non conviene per almeno due ragioni.

In primo luogo,

I motori di ricerca hanno imparato che gli utenti detestano lo spam. Questo può sembrare un'ovvietà, ma in realtà chi ha studiato il settore delle ricerche sul web da una prospettiva macro sostiene che insieme ai miglioramenti sulla rilevanza delle ricerche, il vantaggio competitivo maggiore che Google ha sviluppato durante questi ultimi 10 anni é stata la sua capacità di controlllare ed eliminare lo spam meglio dei propri competitor. Anche se é difficile asserire che questo ha influenzato la loro cavalcata trionfale verso la conquista della leadership di mercato delle ricerche online in tutto il mondo, é senza dubbio un'attività a cui i maggiori motori di ricerca dedicano molto tempo e risorse - e con centinaia dei più brillanti ingegneri dedicati a combattere questa pratica, noi di SEOmoz sconsigliamo fortemente di adoperare pratiche spam come tattica vincente sul lungo periodo.

In secondo luogo

I motori di ricerca hanno fatto un lavoro considerevole nell'identificare metodologie intelligenti e scalabili per combattbere la manipolazione dei risultati, rendendo molto più difficile aggirare i propri algoritmi. Concetti quali il TrustRank (che l'indice Linkscape di SEOmoz adotta), le visite, l'analisi statistica, i dati storici e molti altri, insieme ad altre implementazioni quali la Google Sandbox, le penalità per le directory, la svalutazione dei link a pagamento, la lotta contro i link presenti nel footer, ecc hanno diminuito drasticamente il valore delle tattiche spam e hanno reso le tattiche cosidette "white hat" (quelle che non violano le linee guida fornite dai motori) molto più attrattive.

Questa guida non intende illustrare tattiche di spam (né quelle che non funzionano più e neppure quelle ancora praticate), ma dato l'alto numero di siti che vengono penalizzati o bannati e sono in cerca di aiuto analizzeremo i vari fattori che i motori di ricerca utilizzano per identificare lo spam ed evitare cosi di avere problemi. Per maggiori informazioni provenienti dai motori di ricerca stessi sullo spam , si vedano le istruzioni di Google per i webmaster, Yle Yahoo!'s Search Content Quality Guidelines & e le Bing's Guidelines for Successful Indexing.

Analisi del livello di spam sulle pagine

I motori di ricerca eseguono analisi sullo spam a livello di singole pagine e di interi siti (domini). Vediamo prima come individuono pratiche manipolatorie a livello di singole URL.

KEYWORD STUFFING

Une delle tecniche più banali di spamming é il "keyword stuffing", che consiste nel ripetere numerose volte le parole o frasi chiavi in una pagina in modo da farla apparire più rilevanti agli occhi dei motori di ricerca. L'intuizione che sta alla base di questa pratica - ovvero che più un termine viene citato su una pagina più é facile per quella pagina posizionarsi in alto nei risultati - é normalmente sbagliata. Studi svolti su migliaia di risultati di ricerca su migliaia di ricerche diverse hanno evidenziato che la ripetizione di parole chiave (o densità di parole chiave) sembra avere un ruolo estremamente limitato nel migliorare il posizionamento di una pagina, oltre ad avere una correlazione molto bassa con le pagine in cima risultati delle ricerche.

Gli algoritimi dei motori di ricerca sono abbastanza sofisticati per eseguire la scansione di una pagina infarcita di parole chiave e riconoscerla come tale. Non si tratta di un compito particolarmente difficile. Potete leggere di più su questa pratica, e il parere di Google stesso a riguardo, in un articolo sul blog del capo del loro team anti web spam - SEO Tip: Avoid Keyword Stuffing.

Santa's Sleigh

Attività di linking con fini manipolatori

Una delle tattiche di spam maggiormente utilizzate é l'acquisizione di link per gonfiare la link popularity del proprio sito e guadagnare visibilità, sfruttando l'importanza di questa metrica per gli algoritmi dei motori. Questa forma di spam é una delle più difficili da combattare per i motori di ricerca in quanto può manifestarsi in mole varianti. Alcune di queste possono essere:

  • Programmi di scambio di link reciproci, dove i diversi siti partecipanti creano delle pagine adhoc che si linkano a vicenda nel tentativo di gonfiare la propria link pupularity. I motori riescono ad individuare e svalutare questi link con facilità poiché rispondono ad una casistica ben definita.
  • Link auto referenziali o "incestuosi", tra cui le "link farm" e i "link network" dove vengono costruiti siti senza valore con il solo obiettivo di fornire link per gonfiare artificialmente la link popularity. I motori combattono questa tipologia di link attraverso tecniche che evidenziano la connessione tra le registrazioni dei siti, le sovrapposizioni tra link e altri elementi in comune.
  • Link a pagamento, pratica che consiste nel comprare link a pagamento da pagine e siti che li mettono a disposizione. Questa pratica evolve a volte nella costruzione di network allargati che fungono da punto d'incontro tra acquirenti e venditori di link. Nonostante i motori si sforzino di bloccare questi network (Google in particolare ha dichiarato guerra a tali network), questi continuano ad essere utili per numerosi acquirenti e venditori (si legga questo articolo sui link a pagamento per saperne di più).
  • L'inserimento di Link su directory di scarsa qualità é un'altra pratica utilizzata da molti siti. Esistono numerose directory a pagamento per soddisfare questa domanda che si pubblicizzano come legittime con vari gradi di successo. Google spesso interviene contro questi siti rimuovendo il PageRank segnato dalla barra degli strumenti (o riducendolo in maniera netta), anche se non lo fa automaticamente in ogni caso.

Ci sono molte altre pratiche volte a manipolare il link building che i motori di ricerca hanno identificato e che, nella maggior parte di casi, sono riusciti a penalizzare grazie a nuovi algoritmi. Dato il continuo emergere di nuovi sisitemi di spam (come questo sistema di link reciproci nascosti scoperta da Conrad Saam, Marketing Manager di Avvo), gli ingegneri dei motori di ricerca continueranno a combatterli con la creazione di nuovi algoritmi ad hoc, intervento umano e le segnalazioni di altri webmaster e SEO

Cloaking

Un principio fondamentale presente nelle linee guida di tutti i motori di ricerca è quello di mostrare ai bot lo stesso contenuto che mostri ai tuoi visitatori. Quando questa linea guida non viene rispettata, i motori la classificano come "cloaking" (da "cloak", nascondere) e fanno in modo che tali pagine non appaiano nei propri risultati. La tecnica del "cloaking" può essere realizzata in moltissimi modi e per diverse ragioni, non solo negative. In alcuni casi, i motori non intervengono su pratiche che si possono tecnicamente considerare di "cloaking", in quanto sono realizzare per migliorare la user experience degli utenti. Per sapere di più sul cloaking e sui diversi livelli di rischio ad esso associato, si veda questo post, White Hat Cloaking, di Rand Fishkin.

Pagine a "scarso valore"

Anche se tecnicamente non é considerato come "web spam", tutti i motori seguono delle linee guida per determinare se una pagina fornisce contenuti unici e a "valore" a coloro che effettuano una ricerca prima di includerla nel proprio indice e farla apparire nei propri risultati. Le pagine che vengono filtrate più spesso sono gli "affiliate content" (pagine il cui contenuto é utilizzato su decine o centinaia di altri siti per promuovere lo stesso prodotto o servizio), contenuti duplicati (pagine il cui contenuto é una copia o é estremamente simile ad altre pagine già presenti nell'indice), e pagine generate dinamicamente che presentano una bassa percentuale di testo unico o di valore (questo si verifica spesso su quelle pagine che descrivono gli stessi prodotti o servizi per ogni area geografica diversa, non segmentando i propri contenuti per ciascuna area). I motori, non amando includere queste pagine nel loro indice, fanno uso di algoritmi che analizzano i contenuti e i link per escludere queste pagine a "scarso valore" dai propri risultati di ricerca.

ANALISI DEL LIVELLO DI SPAM DEL DOMINIO

Oltre a controllare lo spam presente sulle singole pagine, i motori riesonoo ad individuare segnali di spam anche per interi domini o sottodomini. Ovviamente, escludere interi domini é una pratica delicata, ma é sicuramente un'attività più pratica qualora sia richiesta maggiore scalabilità.

ATTIVITA' DI LINKING

Così come con le singole pagine, i motori sono in grado di monitorare la tipologia di link e la qualità dei referral ottenuti da un sito. Siti che perseguono attività di manipolazione come quelle sopra elencate in maniera continuativa e persistente possono subire diminuzioni improvvise del proprio traffico di ricerca o addirittura essere rimossi completamente dall'indice. Potete leggere alcuni esempi del passato nei seguenti articoli – Widgetbait Gone Wild, What Makes a Good Directory and Why Google Penalized Dozens of Bad Ones, Google’s Sandbox Still Exists: Exemplified by Grader.com, and How to Handle a Google Penalty – And, an Example from the Field of Real Estate.

Mythical Creature

Trustworthiness

I siti che hanno ottenuto lo status di siti "trusted" sono spesso trattati in maniera diversa da quelli che non hanno ancora ottenuto tale status. Molti SEO si sono infatti lamentati dell'utilizzo di due pesi e due misure da parti dei motori di ricerca per valutare i brand famosi e i siti particolarmente importanti rispetto ai siti nuovi, e indipendenti. Per i motori di ricerca il concetto di trust ha probabilmente molto a che fare con i link ottenuti dal proprio dominio (si vedano per maggiori informzioni questi video, Using Trust Rank to Guide Your Link Building e How the Link Graph Works). In questo modo, se crei contenuti duplicati di scarsa qualità sul tuo blog e quindi compri numerosi link da directory piene di spam, hai buone possibilità di avere seri problemi di posizionamento. Se invece pubblicassi gli stessi contenuti su una pagina di Wikipedia e quindi facessi puntare la stessa pagina da link su directory spam, questa si posizionerebbe comunque ai primi posti dei risultati di ricerca - tanta é l'importanza del trust e dell' autorevolezza di un dominio.

Il trust di un sito é utilizzato dai motori di ricerca per valutare anche nuovi domini e analizzare le attività sospette di un sito. Se il tuo sito ha ricevuto centinaia di link da fonti editoriali autorevoli come la CNN.com, il corriere.it, e altri siti simili, i motori chiuderanno un occhio sulla presenza di qualche contenuto duplicato e l'ottenimento di qualche link sospetto. Se invece il tuo sito non ha ancora ottenuto nessun link di qualità, gli algoritmi dei motori saranno decisamente più severi.

Il valore dei contenuti

Gli stessi criteri utilizzati per valutare una pagina, quali l'unicità dei contenuti e l'esperienza offerta ai visitatori, si applicano anche ad interi domini. Siti che offrono principalmente contenuti non unici, a scarso valore, rischiano di non potersi posizionare nelle prime posizioni nonostante i principali fattori di ottimizzazione on-page e off-page vengono rispettati. I motori non vogliono infatti infarcire il loro indice con migliaia di copie di siti affiliati a Wikipedia o Amazon, ed é per questo motivo che tramite i loro algoritmi o interventi di moderazione manuale fanno di tutto per evitarlo.

Come si fa a sapere se ti sei comportato male ?

Può essere difficile sapere se il proprio sito o una propria pagina sono stati penalizzati, o se qualche cambiamento negli algoritmi dei motori o sul tuo sito ha impattato negativamente la tua indicizzazione o il posizionamento nei risultati. Prima di pensare di essere penalizzati, fai questi controlli:

Step 1: Esclusioni

Dopo avere escluso la seguente lista di casistiche, seguite il diagramma di flusso seguente per consigli più specifici.

Errori

Presenza di errori sul tuo sito che possono avere inibito o impedito la sua scansione da parte dei motori.

Modifiche

Modifiche al tuo sito o alle tue pagine che possono aver modificato il modo in cui i motori visualizzano i tuoi contenuti (cambi on-page, cambi nella struttura dei link interni, spostamenti dei contenuti, ecc.)

Analogie

Perdita analoga di posizioni da parte di siti con profili di backlink simili - quando i motori aggiornano i propri algoritmi, la loro valutazione dell' importanza dei link può cambiare, causando dei cambiamenti nel posizionamento.

Step 2: Follow Flowchart Flowchart


Nonostante questo diagramma non funzioni per ogni caso specifico, la logica in esso presente ci ha aiutato nell'identificare le penalizzazioni per spam o le penalizzazioni erroneamente ricevute dai motori e distinguerle da semplici cali nei posizionamenti. Questa pagina di Google (e il video di Youtube associato) possono fornire ulteriori informazioni a riguardo.

Come rimuovere le penalizzazioni ricevute

La richiesta di riconsiderazione o re-inclusione nei motori di ricerca é un processo doloroso e spesso inutile. E' inoltre molto raro ottenere un qualsiasi tipo di feedback che ci dica che cosa é successo e perché. Tuttavia é importante sapere cosa fare nel caso si abbia ricevuto una penalizzazione o si sia stati bannati.

Qui di seguito i nostri consigli:

  1. Se non lo hai ancora fatto, registra il tuo sito tramite gli strumenti per webmaster offerti dai motori di (Google, Yahoo!, Bing). La registrazione aumenta il rapporto di fiducia tra il vostro sito e i motori.
  2. ;Assicurati di analizzare nel dettaglio i dati ottenuti dagli strumenti per webmaster, dagli errori di scansione, agli errori riscontrati sui propri server o le segnalazioni di spam. Molto spesso quella che si crede inizialmente essere una penalizzazione, non é altro che un problema di accessibilità dei propri contenuti.
  3. Invia le tue richieste di riconsiderazione/re-inclusione attraverso gli strumenti per webmaster invece che con i moduli di contatto pubblici - questo si riallaccia al discorso di rapporto di fiducia prima descritto, e ti dà maggiori chance di ottenere una risposta.
  4. La confessione completa delle proprie pratiche "illecite" é fondamentale per poter ricevere l'attenzione dei team dei motori. Se avete effettuato spamming, confessate tutto quello che avete fatto - i link che avete ottenuto, come li avete ottenuti, chi ve li ha venduti, ecc. I motori, Google in particolare, vuole sapere tutti i dettagli, in quanto queste informazioni vengono poi utilizzate dai motori per migliorare i loro algoritmi. Se non confessate tutto quanto sarete considerati disonesti, corrotti o semplicemete incorreggibili (e non otterrete mai nessuna risposta da loro).
  1. Aggiustate e rimuovete tutto l'aggiustabile/rimuovibile. Se avete comprato link o ottenuto link spam, cercate di rimuoverli. Se avete fatto un qualche tipo di manipolazione sul vostro sito (avete ottimizzato all'estremo il vostro sistema di link interni, praticato la keyword stuffing, ecc), eliminatela prima di inviare una richiesta.
  2. Preparati ad aspettare - le risposte possono arrivare dopo settimane o addirittura mesi, e la re-inclusione stesssa, qualora avvenga, é un processo particolarmente lungo. Centinaia (forse anche migliaia) di siti sono penalizzati ogni settimana, potete quindi immaginare l'accumulo di lavoro a cui i team di webmaster dei motori devono far fronte.
  3. Se lavorate per un brand particolarmente importante, la re-inclusione può avvenire più rapidamente andando direttamente a parlare alla fonte, ovvero con un rappresentate dei motori di ricerca ad una conferenza o un evento. Gli ingegneri di tutti i motori di ricerca partecipano regolarmente alle conferenze della search industry (SMX, SES, Pubcon, ecc), e il costo di un biglietto può facilmente superare i benefici di essere re-inclusi più velocemente rispetto ad una richiesta standard.

Tenete a mente che rimuovere una penalizzazione non rientra tra i compiti o responsabiltià dei motori di ricerca. A livello legale (o almeno fino ad oggi), i motori hanno sempre avuto il diritto di includere o rimuovere un sito o una pagina per qualsiasi ragione (o anche senza ragione). L'inclusione nel loro indice é un privilegio, non un diritto, bisogna quindi stare attenti a non utilizzare tecniche di cui non si é sicuri o di cui sei scettici- pena, ritrovarsi in una situazione molo spiacevole.

Torna all'inizio

This content was re-published with permission. SEOmoz is not affiliated with this site.
Traduzione autorizzata dalla SEOmoz Beginners's Guide, Capitolo 9 Myths and misconceptions about Search Engines