Solitamente con il termine Ottimizzazione SEO (dall'inglese Search Engine Optimization, tradotto "Ottimizzazione dei motori di ricerca") si designa l'insieme delle tecniche che permettono di migliorare la visibilità di un sito web:
Sottomissione (in inglese submission) che consiste nel far conoscere il sito presso gli motori (strumenti) di ricerca;
Posizionamento (in inglese ranking) che consiste nel posizionare il sito o alcune pagine del sito nella prima pagina dei risultati per alcune parole chiave.
La difficoltà dell'esercizio non sta tanto nella promozione del sito sui i motori di ricerca quanto nella strutturazione del contenuto per essere ben posizionato nei risultati con le parole chiave precedentemente scelte.
In effetti, la maggioranza degli utenti usa i motori di ricerca per trovare delle informazioni e interroga a questo titolo un motore di ricerca attraverso delle parole chiave (in inglese keywords). È quindi essenziale, prima di tutto, preoccuparsi del contenuto proposto per rispondere al meglio alle aspettative degli utenti, e poi, identificare le parole chiave che hanno maggiore possibilità di essere digitate da questi ultimi.
Il termine SERP (Search Engine Result Pages) indica i risultati della ricerca come visualizzati dopo una query. È essenziale capire che i risultati per lo stesso motore di ricerca possono variare a seconda dell'utente, ciò a seconda: delle impostazioni scelte (lingua, numero di risultati per pagina); della località (paese, regione) da cui è stati fatta la richiesta; del terminale (cellulare, tablet, desktop); delle richieste fatte in precedenza dall'utente (a volte); dell'A/B testing per provare diverse visualizzazione. Così, non è raro per un sito scomparire dalle SERP per 24 a 48 ore, poi ricomparire (prima di preoccuparsi meglio aspettare almeno 72 ore prima di preoccuparsi).
Questo significa che si vede il proprio sito in prima posizione nel browser, ciò non può risultare lo stesso per tutti gli utenti. Per ottenere il risultato più vicino possibile a quello che la maggior parte degli utenti vede, si consiglia di disabilitare la cronologia di ricerca, oppure utilizzare la modalità Navigazione anonima del browser.
Le pagine posizionate in prima posizione, ovviamente, ottengono più visite, seguite dalle pagine in seconda posizione, ecc. È lo stesso per le pagine posizionate nella prima pagina e quelle nella seconda pagina. Pertanto, se una pagina è in posizione 11 (quindi nella seconda pagina), è molto interessante provare ad ottimizzarla per provare ad arrivare alla prima pagina e ottenere un significativo aumento di visitatori unici.
L'ottimizzazione è spesso legato alle parole chiave (keywords in inglese), vale a dire le parole usate dagli utenti per fare la ricerca.
Il primo compito è quello di determinare le parole chiave su cui si desidera posizionare le pagine del sito. Le parole chiave che si hanno in mente non sempre corrispondono alle parole chiave utilizzate dagli utenti, in quanto, molto spesso quest'ultimi utilizzano i termini più brevi possibili o fanno degli errori di ortografia.
Ci sono strumenti che permettono di confrontare il volume di ricerca di una parola chiave rispetto ad un'altra e dando suggerimenti, come ad esempio Google Trends, ma ci sono anche siti che permettono di conoscere le parole chiave dei siti concorrenti, come per esempio SEMrush (a pagamento dopo un certo numero di accessi gratis).
In termini di SEO, si distinguono due metodi:
Il SEO White hat (cappello bianco) designa il SEO che rispetta le linee guida dei motori di ricerca per i webmaster, con la speranza di ottenere un'ottimizzazione a lungo termine, stando alle regole del gioco;
Il SEO Black hat (cappello nero), designa il SEO che adotta delle tecniche in contrasto con le linee guida dei motori di ricerca al fine di ottenere un guadagno rapido sulle pagine con un elevato potenziale di monetizzazione, ma con un alto rischio di downgrade. Così, il SEO black hat "gioca" con i motori di ricerca, che adeguano regolarmente i loro algoritmi per identificare e retrocedere i siti che non rispettino le linee guida. Le tecniche come il cloaking o il content spinning sono quindi considerati pericolose e non raccomandate.
Prima di parlare di ottimizzazione, il primo passo è quello di indicare il sito ai principali motori di ricerca, soprattutto Google (perché è il più utilizzato) affinché lo identifichino e lo visitino regolarmente. Per fare questo, ci sono moduli online per aggiungere il proprio sito web:
Aggiungere il proprio sito su Google, Bing e Yahoo.
L'indicizzazione non è necessariamente a pagamento perché i motori di ricerca indicizzano gratuitamente il contenuto dei siti e non è possibile pagare per migliorare la posizione di un sito.
Tuttavia è possibile da una parte acquistare parole chiave sui motori di ricerca, si tratta di un posizionamento pubblicitario (chiamato link sponsorizzato), situato intorno a i cosiddetti risultati di ricerca naturali. Si parla allora di SEM (Search Engine Marketing), al contrario di SEO (Search Engine Optimization).
D'altra parte, l'indicizzazione essendo un concetto ampio, che richiede un sacco di esperienza con molte difficoltà nascoste, è consigliabile per le aziende di rivolgersi a delle agenzie specializzate nel SEO.
L'elemento di riferimento per i motori di ricerca è la pagina web, occorre quindi, durante la progettazione del sito web, considerare la strutturazione delle pagine e gli consigli di seguito per ogni pagina.
In realtà la maggior parte dei webmaster pensano ad ottimizzare correttamente la home page del sito, e dimenticano le altre pagine, tuttavia, di solito sono le altre pagine che contengono i contenuti più interessanti. È quindi imperativo scegliere titoli, URL, meta, ecc., adattati per ogni pagina del sito.
Esistono alcune tecniche di concezione dei siti che permettono di rendere più efficace l'indicizzazione delle pagine:
Un contenuto originale e attraente;
Un titolo ben scelto;
Un URL adatto;
Un corpo del testo leggibile dai motori;
Dei META tag che descrivano precisamente il contenuto della pagina;
Dei link interni ben pensati;
Dei NetLinking di qualità;
Dei Link Nofollow consigliati in alcuni casi;
Degli attributi ALT delle immagini per descrivere il contenuto delle immagini.
I motori di ricerca provano innanzitutto a fornire un servizio di qualità agli utenti dando loro i risultati più pertinenti secondo le loro richieste così, prima di pensare ad ottimizzare il sito, è indispensabile pensare di creare un contenuto sostanzioso ed originale. Un contenuto originale non significa che non sia stato proposto in nessun altro sito, missione quasi impossibile. Invece è possibile elaborare un argomento apportando un "valore aggiunto" approfondendo alcuni aspetti, organizzandolo in maniera originale o mettendo in rapporto alcune informazioni. I social network sono quindi un ottimo modo per promuovere i contenuti e identificare l'interesse che i lettori portano ai contenuti del sito.
D'altra parte, sempre nell'ottica di fornire il miglior contenuto agli utenti, i motori di ricerca accordano importanza all'aggiornamento delle informazioni. Il fatto di aggiornare le pagine del sito permette quindi di aumentare l'indice accordato dal motore al sito o in ogni caso la frequenza di passaggio del crawler.
Il titolo è l'elemento preferito per descrivere in poche parole il contenuto della pagina, ed è soprattutto il primo elemento che l'utente leggerà nella pagina dei risultati del motore di ricerca; è quindi essenziale accordargli un'importanza particolare. Il titolo della pagina è descritto nel header tra i tag <TITLE> e </TITLE>.
Il titolo deve descrivere il più precisamente possibile, in 6 o 7 parole massimo, il contenuto della pagina web e la sua lunghezza totale raccomandata non deve superare la sessantina di caratteri. Infine, si dovrebbe idealmente, se possibile, essere unico nel sito in modo che la pagina non venga considerata come contenuto duplicato.
Il titolo è ancora più importante quanto si tratta dell'informazione che si visualizzerà nei preferiti (Segnalibri) del browser dell'utente, nonché nella cronologia. Dal momento che gli utenti europei leggono da sinistra a destra, si consiglia di posizionare le parole che definiscono più la pagina a sinistra.
Alcuni motori di ricerca danno un'importanza capitale alle parole chiave presenti nella URL, soprattutto le parole chiave presenti nel dominio. Si consiglia dunque di mettere un nome di file adatto, che contenga una o due parole chiave, per tutti i file del sito invece dei nomi generici del tipo pagina1.html, pagina2.html, ecc.
CCM utilizza una tecnica chiamata URL Rewriting che consiste nel scrivere URL leggibili contenenti le chiave del titolo della pagina. Su CCM, un trattino (-) è usato per separare le parole nel titolo.
Per valorizzare al massimo il contenuto di ogni pagina è necessario che questo sia trasparente (in opposizione ai contenuti opachi come in Flash), cioè che comporti un massimo di testo, indicizzabile dai motori di ricerca. Il contenuto della pagina deve essere innanzitutto un contenuto di qualità indirizzato agli utenti, però è possibile migliorarlo assicurandosi che alcune parole chiave siano presenti. I frame sono vivamente sconsigliati dato che impediscono talvolta la buona indicizzazione del sito.
I META Tag sono dei tag non visualizzati da inserire all'inizio del documento HTML per descrivere in dettaglio il documento. Data l'abuso di meta tag contattato in un gran numero di siti web, i motori di ricerca utilizzano meno queste informazioni per l'indicizzazione delle pagine. Così il meta tag "keywords" è stato ufficialmente abbandonato da Google.
i tag Meta descrizione permette di aggiungere una descrizione della pagina senza visualizzarla agli utenti (ad esempio termini al plurale, parole con errori ortografici volontari). Di solito la descrizione (o parte della descrizione) apparirà nella SERP. Si consiglia di utilizzare la codifica HTML per i caratteri speciali e non superare venti parole chiave.
i tag Meta robots ha una particolare importanza perché viene utilizzato per descrivere il comportamento del robot nei confronti della pagina e indicare se la pagina deve essere indicizzata o meno e se il robot è permesso di seguire i link. Per impostazione predefinita, l'assenza del meta tag robots indica che il crawler può indicizzare la pagina e seguire i link in essa contenuti.
Il tag robot può avere i seguenti valori:
Index, follow è il comportamento predefinito, quindi come se non fosse indicato un meta robots;
Noindex, follow, il robot non deve indicizzare la pagina (anche se il robot può tornare regolarmente per vedere se ci sono nuovi link);
Index, nofollow, il robot non deve seguire i link nella pagina (però indicizza la pagina);
Noindex, nofollow, il robot non deve indicizzare la pagina, o seguire i link. Ciò comporta una drastica diminuzione della frequenza di visita alla pagina da robot.
Ecco un esempio di tag robots:
<meta name="robots" content="noindex,nofollow"/>
Da notare anche l'esistenza dei valori seguenti che possono essere combinati con i valori precedenti:
Noarchive, il robot non deve offrire agli utenti la versione cache;
Noodp, il robot non dovrebbe offrire una descrizione di DMOZ (Open Directory Project) per impostazione predefinita.
Si può mirare specificamente il bot d'esplorazione di Google (Googlebot) sostituendo il nome robots da Googlebot (si consiglia di utilizzare il tag standard per rimanere generico):
<meta name="googlebot" content="noindex,nofollow"/>
Nei casi in cui un gran numero di pagine non deve essere indicizzato dai motori di ricerca, è meglio bloccarli tramite il file robots.txt perché in questo caso i bot non perdono tempo a crawlare queste pagine e possono concentrare tutte le loro energie su informazioni utili.
Su CCM le domande nel forum che non hanno ottenuto risposte sono esclusi dai motori di ricerca, ma i bot possono continuare a crawlare le pagine a seguire i link:
<meta name="robots" content="noindex,follow"/>
Dopo un mese, se la domanda non ha ancora ottenuto risposta, il meta tag viene cambiato, in modo che il motore la dimentichi:
<meta name="robots" content="noindex,nofollow"/>
Per dare la massima visibilità possibile a tutte le pagine, si consiglia di stabilire dei link interni tra le pagine per permettere ai bot (detti crawlers) di percorrere la totalità dell'arborescenza del sito. Così può essere interessante creare una pagina che presenti l'architettura del sito e contenga dei puntatori verso tutte le pagine.Ciò significa che la navigazione nel sito (menu principale) dovrebbe essere pensato per dare un accesso effettivo alla pagine con alto potenziale in termini di SEO.
Il termine NetLinking si riferisce al fatto di ottenere link esterni che puntano verso il proprio sito, ciò aumenta il traffico e la reputazione del suo sito, da una parte, e da un'altra perché i motori di ricerca prendono in considerazione il numero e la qualità dei link che puntano ad un sito per caratterizzare il livello di rilevanza (È il caso di Google con il suo indice chiamato PageRank).
Per default, i link sono seguiti dai crawler (senza tag meta robot o nofollow oppure un file robots.txt per impedire l'indicizzazione della pagina). Tuttavia, si può indicare ai bot di ricerca di non seguire alcuni link utilizzando l'attributo nofollow. È particolarmente consigliato se:
Il link è oggetto ad un accordo commerciale (link a pagamento);
Il link viene aggiunto dagli utenti non attendibili in un sito (commenti, valutazioni, forum, ecc.);
Su CCM i link inseriti dagli utenti anonimi o utenti che non hanno partecipato attivamente nella Community (forum di supporto) sono link nofollow. I link inseriti dagli utenti attivi e dagli contribuenti] sono link normali (chiamati "dofollow").
Le immagini del sito sono opache per i motori di ricerca, cioè non sono in grado di indicizzarne il contenuto, è quindi consigliato mettere l'attributo ALT per ogni immagine, ciò permette di descriverne il contenuto. L'attributo ALT è inoltre primordiale per i non vedenti, che navigano con terminali specifici.
Ecco un esempio dell'attributo ALT:
<img src="/immagini/ccm.gif" width="140" height="40" border="0" alt="logo di CCM">
Si consiglia inoltre di inserire un attributo title per visualizzare un tooltip quando l'utente passa il mouse sopra l'immagine.
L'indicizzazione inizia con il crawl (in italiano esplorazione) del sito dai robot dei motori di ricerca. Questi agenti esplorano i siti web alla ricerca di nuove pagine da indicizzare o pagina da aggiornare. Un robot di indicizzazione è un po come un visitatore virtuale: segue i link su un sito per esplorare un numero massimo di pagine. Questi robot possono essere identificati nei log dal header HTTP User-Agent che inviano.
Di seguito gli user-agent dei principali motori di ricerca:
Nome del motore | User-Agent |
---|---|
GoogleBot Mediapartners-Google Googlebot-Image Googlebot-Mobile Google Wireless Transcoder AdsBot-Google |
|
Bing | bingbot MsnBot |
Yahoo | Slurp |
Yandex | Yandex |
Cuil | Twikler |
Pertanto, si consiglia d'incrociare in modo intelligente le pagine con i link interni per consentire ai robot di accedere a un numero massimo di pagine il più rapidamente possibile.
Si può, anzi consigliabile, bloccare le pagine inutili per l'indicizzazione tramite un file robots.txt per consentire ai crawler di dedicare tutte le loro energie a pagine pertinenti. Le pagine duplicate (con, ad esempio, parametri inutili per i robot) o pagine con poco interesse per gli utenti (ad esempio risultati di ricerca interno del sito, ecc.) in genere devono essere bloccate.
Su CCM i risultati del motore di ricerca interno sono esplicitamente esclusi dall'indicizzazione tramite il file robots.txt, in modo da non fornire agli utenti che arrivano tramite un motore di ricerca risultati generati automaticamente, in conformità alle istruzioni di Google.
È importante migliorare i tempi di caricamento delle pagine, utilizzando ad esempio i meccanismi della cache per permettere da un lato di migliorare l'esperienza utente e quindi la soddisfazione dei visitatori e da un'altra parte perché i motori di ricerca considerano sempre di più questi tipi di segnali nel posizionamento delle pagine.
Creare un file Sitemap può dare accesso, ai robot, a tutte le pagine o alle ultime pagine indicizzate.
I motori di ricerca, sempre più, prendono in considerazione i segnali di condivisione sociali nel loro algoritmo. Google Panda il nome dell'algoritmo di google) considera questo criterio per determinare se un sito è di qualità o meno. In altre parole, promuovere la condivisione tramite social network riduce il rischio di Retrocesso da algoritmi come Panda.
Su CCM, le pagine contengono pulsanti di condivisione asincroni in modo da non rallentare il caricamento delle pagine, e dei META OpenGraph og:image per indicare le reti sociali che immagine visualizzare quando un utente condivide un link.
L'ideale è avere un sito disegnato in responsive design perché in questo caso, la pagina indicizzata computer e terminali mobili è la stessa, solo la sua visualizzazione cambia a seconda del dispositivo.
Se la versione mobile del sito è su un dominio o sottodominio separatamente, come è il caso di CCM, basta reindirizzare gli utenti al sito mobile facendo in modo che ogni pagina reindirizzata sta puntando al suo equivalente sul sito mobile. Dobbiamo anche garantire che il crawler Googlebot-Mobile venga identificato come un terminale mobile.
Ove possibile, creare titoli di pagina unici in tutto il sito, perché i motori di ricerca come Google tendono a ignorare i contenuti duplicati ("duplicate content" in inglese), cioè o molte pagine del sito con le stesso titolo o delle pagine del sito il cui contenuto principale c'è sul sito o su altri siti.
Il contenuto duplicato è qualcosa di naturale, anche perché siamo portati a fare delle citazioni o far menzione di testi ufficiali. Tuttavia, una proporzione eccessiva di contenuti duplicati su un sito può portare a una sanzione algoritmica, per cui si consiglia di bloccare tali contenuti tramite un robots.txt o un tag META robots con il valore "noindex".
Quando i motori di ricerca rilevano contenuti duplicati, ne conservano una sola pagina, a seconda dei loro propri algoritmi, ciò che a volte può portare a errori. Pertanto, si consiglia di includere nelle pagine con contenuti duplicati il tag Canonical che punta alla pagina da conservare. Ecco la sintassi:
<link rel="canonical" href="http://tuo-sito/pagina_finale"/>
In generale, si consiglia di inserire nelle pagine del sito un tag canonical con l'URL della pagina corrente. Ciò permette di limitare la perdita a causa di parametri non necessari nell'URL come http://it.ccm.net/forum/?page=1 o http://it.ccm.net/faq/?utm_source=mail. Si utilizza anche per le home page perché a volte Google indicizza il sito nella sua forma http://it.ccm.net/ e http://it.ccm.net/index.php3
Ci sono generalmente due tipi di sanzioni:
Sanzioni manuali, vale a dire il risultato dell'azione umana, seguendo la mancata osservanza delle istruzioni per i webmaster. Può essere link innaturali (link acquistati), contenuto artificiale, reindirizzamento ingannevole, ecc. Le sanzioni in caso di acquisto di link sono comuni e penalizzano il sito che ha venduto i link così come coloro che hanno acquistato. Tali sanzioni vengono levate solo dopo aver risolto il problema (ammesso che si abbia individuato il problema) e fare una richiesta di riesame del sito tramite il modulo apposito. La revisione di un sito web può richiedere diverse settimane e non necessariamente portare ad recupero della posizione o talvolta il recupero è parziale;
Sanzioni algoritmiche, vale a dire, non è il risultato dell'azione umana, ma generalmente di una combinazione di fattori che solo il motore di ricerca conosce. Questo è il caso per esempio di Google panda, l'algoritmo Google ha retrocesso i siti di scarsa qualità. Le sanzioni non possono essere levati solo dopo aver eliminato i "segnali" che portano al retrocesso, all'iterazione del prossimo algoritmo.
L'algoritmo di Google è l'insieme di istruzioni che permettano a Google di dare una pagina di risultati a seguito di una query di ricerca.
Originariamente l'algoritmo si basava esclusivamente sull'analisi dei link tra le pagine web e su un indice assegnato a ogni pagina chiamato PageRank (PR). Il principio è semplice: più una pagina ha dei link in entrata, più il suo PageRank aumenta. Più una pagina ha PageRank, più essa ne distribuisce ai suoi link in uscita. Per estensione, si parla del PageRank di un sito per indicare il PageRank della sua homepage, in quanto questa è di solito la pagina che ha il più alto PageRank di tutte le pagine.
l'algoritmo prende in considerazione un gran numero di segnali aggiuntivi, tra cui (elenco non esaustivo):
Freschezza dell'informazione;
Il fatto di menzionare l'autore;
Il tempo trascorso, il grado di coinvolgimento del lettore;
Le fonti di traffico oltre il SEO e così via.
Google annuncia procedere a circa 500 ottimizzazioni dell'algoritmo per anno, cioè più di un cambiamento al giorno. Pertanto, l'SERP può variare notevolmente a seconda delle modifiche apportate dal team di Google.
Google Caffeine è il nome (code name) dato alla nuova architettura implementata da Google nel mese di agosto 2009 (e costantemente migliorata da allora), il cui obiettivo è un inserimento più veloce di informazioni aggiornate, ciò si traduce in un crawl migliorato e per conseguenza risultati più freschi e più aggiornati nei motori di ricerca.
Panda è il nome (o code name) dato al filtro nel corso del 2011 da Google per combattere i siti di scarsa qualità. L'idea è quella di degradare il posizionamento dei siti il ??cui contenuto è considerato di bassa qualità.
Implementato nel 2012, Google Penguin è un aggiornamento di Google che penalizza i siti i cui SEO è considerato eccessivo. Questo è il caso per esempio dei siti con troppi link provenienti da siti considerati come "spammer". Sembra anche che un abuso di link tra pagine che parlano di argomenti disparati è un fattore che può comportare una sanzione tramite l'algoritmo di Google Penguin.
Un aggiornamento maggiore dell'algoritmo è stato attuato in maggio 2013.
Google Trend: Statistiche di ricerca;
ÜberSuggest - Suggerimenti di parole chiave;
Trova link puntando ad una pagina.
Foto: © Pixabay.