I Segreti dei Motori di Ricerca
Inviato: 26/01/2011, 17:22
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 6
L’importanza dei domini di terzo livello e le sottodirectory (parte 1)
Abbiamo visto l’importanza del nome a dominio per una buona indicizzazione e un buon posizionamento di un sito, ma – come già detto – i siti vengono indicizzati e posizionati per pagine web.
Nei risultati di ricerca di un search engine non sono presenti “siti”, ma “pagine di siti”.
Ogni pagina ha ovviamente un indirizzo web (un URL) differente dall’altra.
Ma come debbono essere compilati questi indirizzi?
Come debbono essere scritti? In questa lezione cercheremo di mostrare come debbono essere scritti questi URL, puntando l’attenzione su un argomento molto importante, ovverosia la differenza fra i sottodomini e le sottodirectory.
Qual è la differenza fra un sottodominio e una sottodirectory?
Una sottodirectory appare così: http://www.nomesito.com/rastrelli.html
Un sottodominio appare così: http://rastrelli.nomesito.com
E’ evidente che un sito che abbia più di una pagina deve avere, oltre alla home page, delle sottodirectory o dei sottodomini in cui inserire il contenuto delle proprie pagine.
Cercheremo di dimostrare che scegliere i sottodomini invece delle sottodirectory è una soluzione migliore e non solo per motivi di ottimizzazione e indicizzazione di un sito.
I sottodomini vengono 'visti' prima
E’ nota l’importanza di avere, nell'URL del sito, delle parole-chiave attinenti con il contenuto della pagina.
Questa premessa è a monte rispetto a qualsiasi considerazione in merito ai sottodomini e alle sottodirectory.
Le pagine di un sito possono essere nominate in qualsiasi maniera, anche con un semplice numero o con un codice, ma si tratta senza dubbio di uno 'spreco' di possibilità, sia in termini di indicizzazione del sito nei motori di ricerca e nelle directory, sia in termini di 'appeal' nei confronti dei navigatori. Se amministrate un market place che offre al pubblico diverse tipologie di prodotti, siete certamente avvantaggiato a inserire il nome del prodotto nell'URL stesso.
La cartella del mio sito che vende rastrelli potrà essere per esempio chiamata http://www.momesito.com/1.html, oppure http://www.nomesito.com/847298242.php, ma senza dubbio è meglio inserire il termine “rastrelli” all'interno dell'URL stesso e questo per due motivi:
In primis, perché i principali motori di ricerca danno un peso alle keyword o keyphrase contenute in un URL: se un URL contiene la keyword che è anche presente nel title e ha una buona keyword density nel corpo della pagina, allora il sito sarà considerato più attinente a quella keyword stessa e potrà essere meglio indicizzato nelle SERP (Search Engine Result Pages). Dobbiamo inoltre considerare anche il fattore 'umano'; un navigatore spesso clicca un risultato di ricerca senza nemmeno leggere l'URL, questo è vero, ma molto spesso l'URL viene letto e chiunque è più propenso a cliccare un URL che contiene la keyword o la keyphrase che interessa piuttosto che un codice o un numero anonimo e privo di significato (che inoltre dà un’idea di ‘meccanicità’ del sito stesso..
Anche in ragione di questa considerazione, possiamo già dire che i sottodomini sono migliori delle sottodirectory.
Poniamo che io stia cercando su un motore di ricerca (o una directory) un sito che vende rastrelli.
L'URL che contiene la keyword rastrelli all'inizio dell'URL sarà preferito a un dominio che la contiene alla fine
http://rastrelli.nomesito.com
http://www.nomesito.com/rastrelli.html
Potete voi stessi verificarlo. Nel primo URL, la keyword “rastrelli” è visibile immediatamente.
Nel secondo caso invece bisogna leggere tutto l'URL per ritrovare la keyword che ci interessa.
Dal momento che i tempi di navigazione delle pagine sono molto rapidi e che in occidente la lettura di una serie di parole avviene da sinistra a destra, è evidente che - tatticamente e strategicamente- è meglio inserire la keyword che ci interessa all'inizio del nome a dominio.
C'è poi un altro motivo che spinge un navigatore, più o meno esperto, a dare maggiore rilievo a un URL in cui la sottocartella sia inserita in un sottodominio piuttosto che in una sottodirectory.
Torniamo all'esempio dell'utente che sta cercando un sito che vende rastrelli on-line.
E’ evidente che il sito migliore in assoluto sarebbe questo:
http://www.rastrelli.com
Poniamo però il caso che questo dominio sia stato già stato acquisito da altri (magari un nostro concorrente).
Qual è il dominio che più si avvicina, cioè che è più simile a quello succitato?
Senza dubbio è http://rastrelli.nomesito.com e non http://www.nomedelsito.com/rastrelli.html.
All'occhio umano, il sottodominio 'contiene' la keyword in oggetto ("rastrelli"), molto più coerentemente, molto più efficacemente che nel secondo caso; in sostanza, è come se la parola-chiave 'facesse' parte del dominio stesso (cosa vera anche tecnicamente) e non fosse una sua 'appendice', come invece accade nella sottodirectory.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 7
L’importanza dei domini di terzo livello e le sottodirectory (parte 2)
L’ ‘indipendenza’ dei sottodomini
Veniamo ora ai motori di ricerca e chiediamoci: "I motori di ricerca danno lo stesso 'peso' a un sottodominio rispetto a una sottodirectory?" La risposta è "No".
Un sottodominio è infatti considerato un URL indipendente dal suo dominio di secondo livello, mentre lo stesso non può dirsi della sottodirectory, che è considerata semplicemente una 'pagina' del sito e ha quindi un 'peso' inferiore.
Per questo motivo, mentre sottoporre dieci sottodirectory dello stesso URL all'attenzione di un motore di ricerca può essere considerato spamdexing (ovverosia un tentativo di essere indicizzati 'oltre' ciò che è considerato giusto dal search engine), è considerato lecito sottoporre dieci sottodomini. E’ ovvio che i sottodomini debbono avere ciascuno un contenuto radicalmente differente dall'altro e dalla home page che li sottende.
Il contenuto di http://rastrelli.nomesito.com dovrà quindi essere differente da http://fiori.nomesito.com.
Anche le directory, una volta verificata la differenza di contenuto, saranno più disposte ad accettare i sottodomini come URL indipendenti rispetto all'URL principale, mentre non considereranno mai indipendente una sottodirectory.
La facilità di memorizzazione dei sottodomini
Spesso le sottodirectory sono più difficili da ricordare dei sottodomini. Anche nel caso in cui la sottodirectory contenga solo la keyword che ci interessa ("rastrelli") e non sia 'confusa' fra codici, numeri, punti di domanda, etc. (come spessissimo accade soprattutto nelle pagine dinamiche), è evidente che le sottodirectory hanno un difetto che non hanno i sottodomini e cioè la difficoltà di fare ricordare l'estensione delle pagine.
Mentre un sottodominio ha l'estensione dell'URL principale, una sottodirectory deve avere un'estensione specifica.
Le estensioni, come ben sapete, possono essere molte: .html, .htm., .php, .asp, .perl, .jsp, etc. Quante volte abbiamo scritto un indirizzo web pensando che la sottodirectory aveva un estensione .html, mentre era .php...
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 8
L’importanza dei domini di terzo livello e le sottodirectory (parte 3)
Utilità dei sottodomini nei siti multilingue
Poniamo poi il caso che amministriate da anni il sito www.nomesito.com e che decidiate di estenderne l’attività anche in altre nazioni oltre a quella originaria (l’Italia).
Se non utilizzate un sistema di IP country filtering, non di facilissima attuazione e comunque costoso, dovrete attivare un nome a dominio per ogni singola nazione (e lingua) di riferimento; il sito francese si chiamerà www.nomesito.fr, il sito tedesco www.nomesito.de, il sito inglese www.nomesito.co.uk e così via.
Ma poniamo che questi nomi a dominio non siano più liberi o che non siano più liberi anche solo uno o solo alcuni di questi nomi a dominio. Che fare? La risposta è semplice: creare dei sottodomini in cui l’estensione sia posta all’inizio dell’URL. Il sito francese si chiamerà dunque http://fr.nomedelsito.com, quello tedesco si chiamerà http://de.nomedelsito.com e così via.
Utilizzando semplicemente dei sottodomini, si aggira l’ostacolo rappresentato dall'impossibilità di comprare dei country domain perché già utilizzati; tenete inoltre conto del fatto che normalmente le estensioni nazionali (.fr, .de, .co.uk, co.jp etc) non possono essere comprate da cittadini o società che non risiedono in quello Stato.
Con i sottodomini, questo problema viene cancellato, oltre a evitare di spendere centinaia di Euro per l’acquisto dei singoli nomi a dominio esteri.
Nessuna difficoltà di realizzazione
Per chi non fosse già sufficientemente esperto nell’amministrazione dell’hosting del proprio nome a dominio, ricordiamo che non è affatto difficile creare dei sottodomini, anche se è leggermente più complesso che creare delle sottodirectory.
Per creare dei sottodomini bisogna intervenire sui DNS (Domain Name Service), ma normalmente i provider che forniscono il servizio di hosting o di housing mettono a disposizione dei propri clienti delle guidelines molto facili per indicare come attivare dei sottodomini; se il vostro provider è estero, ricordatevi di cercare queste indicazioni anche con il nome subdomains, oppure
vanity names
machine names
domain alias
Alcuni provider richiedono un pagamento per l'attivazione di sottodomini, ma il trend più recente è quello di fare pagare un costo di set-up fisso e una tantum o addirittura di non fare pagare affatto questo servizio che - di fatto - non comporta alcun costo aggiuntivo per il provider stesso, se non qualche minuto di lavoro.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 9
La scelta delle parole-chiave del sito (e soprattutto delle pagine del sito)
Quando parliamo di parole-chiave di un sito diciamo una cosa che ha un senso molto più ampio di quello che normalmente si intende.
Pochi studi affrontano questo tema ma ritengo che sia fondamentale per avere successo in fase di indicizzazione e di posizionamento di un sito web.
Non stiamo qui parlando della meta-keywords (che tratteremo più avanti), quanto piuttosto di un insieme di testi (che comprendono anche le meta-keywords) che servono per definire, caratterizzare e quindi pubblicizzare e rendere visibile un sito web.
E’ anche bene distinguere tra sito e ‘pagine’ di un sito.
I motori di ricerca infatti non indicizzano mai dei ‘siti’, ma delle ‘pagine’ di un sito (questo è un concetto che bisogna sempre avere chiaro in mente).. Un sito può essere composto da 3 pagine (anche da una sola pagina) o anche di 10.000 pagine (e anche più) e raramente un sito di centinaia o migliaia di pagine viene indicizzato in tutte le sue pagine.
Quando si costruisce e si pubblica ogni singola pagina di un sito web bisogna essere consapevoli del fatto che questa pagina avrà più possibilità di essere trovata da un utente di un motore di ricerca se ha una sua ‘identità’ e questa identità non è data solo dal titolo della pagina, dai testi che contiene, dalle tag html che la caratterizzano o dal tipo di siti che la linkano, ma è dato da tutto questo insieme di fattori; se tutti questi fattori concorrono nella giusta direzione, la pagina we avrà molte più probabilità di essere indicizzata e ben posizionata nelle SERP (Search Engine Page Results) di un motore.
Mettiamo quindi il caso che stiamo cercando di dare visibilità a un sito di bricolage e che all’interno di questo sito abbiamo pubblicato delle pagine che trattano di giardinaggio.
E’ evidente che queste pagine debbono essere trovate principalmente dagli utenti che sono interessati al giardinaggio (e non al bricolage in genere).
E’ quindi fondamentalmente sbagliato riferirsi a queste pagine come se fossero un’appendice del sito principale (che parla genericamente di bricolage).
Bisogna fare sì che queste pagine siano in qualche modo ‘autonome’ e che quindi vengano considerate come dei siti ‘a sé’.
Proprio per questo è necessario concentrarsi su poche parole-chiave che si considerano fondamentali per il proprio business (anche se si tratta di un business no profit) .
Individuare queste parole-chiave non è affatto difficile: mettiamo che la pagina in oggetto venda rastrelli; è evidente che bisogna concentrare la propria attenzione sulla ‘vendita’ e sul prodotto venduto ‘rastrelli’.
Qualsiasi distrazione da questo focus potrà portare a un calo del posizionamento della pagina stessa dal momento che essa non parla genericamente di bricolage, non parla genericamente di giardinaggio e non parla nemmeno genericamente di rastrelli, ma parla specificamente della vendita di rastrelli online: quindi si identifichino alcune parole-chiave o frasi-chiave che possono essere particolarmente attinenti e poi si proceda a inserirli nei punti più importanti del sito.
Questi punti sono:
1) l’url della pagina; per esempio www.bricolage.com/rastrelli/vendita_rastrelli.html
2) il titolo della pagina; per esempio: vendita rastrelli online, o anche semplicemente. Vendita rastrelli.
3) le META Keyword: vendita rastrelli, rastrelli, vendita rastrelli online, dove comprare rastrelli, comprare rastrelli, rastrelli prezzi scontati etc
4) La META description: vendita di rastrelli online in tutta Italia; rastrelli a prezzi scontati e assistenza online.
5) e soprattutto, il contenuto della pagina stessa, ovverosia le parole e le frasi che sono leggibili dall’utente una volta visualizzata la pagina.
Deve quindi essere cura di chi si dedica alla redazione dei contenuti delle pagine il fare in modo che le key-word e key-phrase principali siano contenuti nel corpo del testo del sito, in una misura che non sia eccessiva, ovverosia che non ecceda la loro naturale presenza in un testo non ‘pensato’ per un motore di ricerca (tornando quindi al tema della ‘naturalezza’ che abbiamo già citato).
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 10
La scelta delle TAG, o meglio delle Meta Tag (parte 1)
I meta tag (o anche le metatag) servono per fornire informazioni supplementari su un una pagina web in una forma standardizzata che solo i motori di ricerca possono leggere, ma che non possono essere viste sa un essere umano durante la visualizzazione da browser; per questo esse sono particolarmente importanti per il posizionamento e l’indicizzazione nei motori di ricerca.
Le meta (le chiameremo così per comodità) fondamentali per l’indicizzazione di un sito in un motore di ricerca sono 3:
Title (titolo)
Keyword (parole-chiave o frasi-chiave)
Description (la descrizione del sito appunto)
Agli albori dell’internet commerciale (diciamo alla fine della prima metà degli anni ’90) le Meta erano di fondamentale importanza per il posizionamento e l’indicizzazione nei motori di ricerca.
In quel periodo, aleggiava una grande fiducia nei confronti dei proprietari dei siti web (che venivano genericamente definiti ‘webmaster’) e si pensava quindi che la descrizione che essi davano del proprio sito fosse la più attinente possibile e fosse quindi la più grande risorsa che un motore di ricerca avesse per cercare di classificare e di posizionare siti e pagine web (a dire la verità, oltre a un discorso di fiducia c’erano poche alternative a questo sistema)..
Le cose però non sono andate come si credeva e poco dopo l’introduzione delle META e la loro canonizzazione nella lettura che ne facevano i motori di ricerca, tanti webmaster cominciarono a ‘ingannare’ i search engine inserendo nelle META (titolo, descrizione e keyword) delle informazioni che non erano affatto attinenti con i contenuti del sito ma che semplicemente erano finalizzate a ottenere il più grande traffico possibile, ovverosia il più grande numero di utenti (soprattutto: nuovi utenti) per poi ‘dirottarli’ su prodotti che nulla avevano a che fare con le suddette META.
Tipici erano i casi di siti che inserivano META riguardanti musica ed MP3 e che poi di fatto pubblicizzavano altri prodotti (pornografici, videogames o altro ancora).
Questo fenomeno durò per lungo tempo e dobbiamo ringraziare Google (che cominciò a operare nel 1998) per avere posto fine a una situazione di fiducia malriposta che portava nella maggior parte dei casi a una grande insoddisfazione da parte degli utenti.
Google – seguito più o meno presto dagli altri motori di ricerca leader - prese sempre meno in considerazione le META, in quanto queste potevano appunto essere ‘sfruttate’ illegittimamente dai webmaster/proprietari di siti per fare visualizzare il proprio sito con parole-chiave o frasi-chiave che nulla avevano a che fare col sito stesso. Non è quindi scorretto dire che l’importanza delle META è oggi cento volte più piccola di quella che era un tempo, ma non per questo bisogna pensare che le META non abbiano più alcun valore e per diversi motivi.
1) molti siti sono composti da sole immagini (tipicamente i siti in tecnologia FLASH) e in questi casi, anche i search engine più avanzati (come Google ad esempio) utilizzano le META per dare delle descrizioni che altrimenti non potrebbero essere desunte dal corpo delle pagine (dal momento che queste comprendono solo o soprattutto immagini).
2) Inserire delle META correttamente significa dare a un motore di ricerca la comunicazione che il sito in oggetto è ben fatto, curato anche nei dettagli della compilazione del codice HTML e quindi degno più di altri di essere indicizzato e posizionato.
Se è quindi vero che non è più possibile affidarsi alle META per ottenere i risultati desiderati nei motori di ricerca è anche vero che non bisogna affatto sottovalutarle, non solo perché anche gli spoder come Google controllano come sono state compilate queste TAG, ma anche perché molti altri motori di ricerca (anche se questi hanno un traffico ridotto rispetto ai motori di ricerca leader) le prendono ancora in considerazione in fase di indicizzazione e di posizionamento.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 11
La scelta delle TAG, o meglio delle Meta Tag (parte 2)
Nel compilare le tre META i cui sopra (Titolo, Descrizione e Keywords) bisogna seguire alcune regole fondamentali.
1) La descrizione
La descrizione non deve essere troppo lunga; 50 parole possono già essere considerate un numero-limite; le descrizioni più corte sono più efficaci in alcuni motori.
È saggio inserire le parole-chiave anche nella descrizione, non trascurando però la forma grammaticale e il significato, deve cioè essere una frase di senso compiuto.
In sostanza, la descrizione non deve essere un’accozzaglia di parole e aggettivi ma deve essere una frase di senso compiuto intelligibile da un essere umano.
2) Le parole-chiave
Le parole-chiave inserite nelle apposite META debbono essere effettivamente attinenti con i contenuti del sito.
Nel caso in cui queste keyword siano estranee ai contenuti del sito (e si intendano qui i contenuti del testo delle pagine) è facile che l’effetto sia negativo.
Ovverosia: è vero che i motori di ricerca di tecnologia moderna (post Altavista, diciamo) non considerano primariamente le parole-chiave inserite nelle META per ‘capire’ di che cosa tratta il sito stesso (o meglio, la pagina del sito stesso) ma è altrettanto vero che se queste sono in contraddizione o anche solo non attinenti con quanto contenuto nel testo della pagina l’effetto è seriamente negativo e il sito può essere penalizzato.
Il consiglio è quello di non inserire più di 10 keyword per pagina, dal momento che difficilmente una pagina web può abbracciare seriamente più di dieci argomenti e un altro consiglio utile è quello di separare le keyword da una virgola e non da uno spazio.
La separazione con lo spazio è caldeggiata da molti ma è un grave errore dal momento che spesso delle keyword sono composte da più parole e quindi si tratta di key-phrase. In questo caso, l’utilizzo dei soli spazi non farebbe capire quando le keyword debbono essere lette singolarmente o quando debbono essere lette come facenti parti di una keyphrase.
Lo spazio tra una virgola e l’altra è totalmente ininfluente, dal momento che la virgola stessa determina la fine di una keyword (o keyphrase) e l’inizio di un’altra.
3) Il titolo
Il titolo è forse la META più importante e che oggi viene ancora fortemente considerata dai motori di ricerca.
Il consiglio che possiamo dare è quello di fare sì che il titolo coincida con la keyword più importante di tutta la pagina (non del sito) e che quindi la caratterizzi fortemente e inequivocabilmente.
Se si desidera che su una determinata pagina arrivino i navigatori che sono interessati a comprare ‘nani da giardino blu’ e non tutto quello che può essere relativo all’arredamento da giardino e che magari può essere compreso nella pagina, allora bisogna dare come TITLE “nani da giardino blu”.
Questa è la garanzia migliore per fare sì che quella pagina possa essere posizionata bene nel caso in cui un searcher (un utente che utilizza un motore di ricerca) abbia cercato con la keyword ‘nani da giardino blu’ o con una keyphrase che contenga quella keyword, per esempio “dove comprare nani a giardino di colore blu’.
Come abbiamo cercato di mostrare, le META non sono certamente più importanti come lo erano dieci anni fa (e anche meno), ma non debbono essere sottovalutate per un buon posizionamento e una buona indicizzazione delle pagine di un sito web.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 2: Dettagli tecnici di grande importanza e la scelta dell'hosting
Lezione 1
Il file Robots
Il file Robots.txt (è errato al singolare Robot.txt) è un file di testo (come è evidente dalla sua estensione) che è stato pensato proprio per dare delle indicazioni ai motori di ricerca in fase di ‘spidering’.
Lo spidering è quell’azione – compiuta appunto da un motore di ricerca (o spider, crawler, bot), che è finalizzata allo scaricamento e all’immagazzinamento di pagine web che sono disponibili pubblicamente in Internet.
Il file Robots.txt è fondamentale per varie ragioni:
In primis, bisogna pensare che non tutti i siti web che sono pubblicati in rete desiderano essere indicizzati nei motori di ricerca.
Può sembrare un paradosso, ma molti siti sono pensati per una cerchia ristretta di utenti e non desiderano ottenere una pubblicità eccessiva o un pubblico diverso da quello che si è scelto di avere.
Certo, si tratta di casi isolati rispetto alla maggior parte dei siti web (i cui proprietari gradiscono siano visualizzati sempre il più possibile, anche con ricerche – query – non perfettamente attinenti), ma sono casi che esistono.
Lo standard per l'esclusione dei robot (che – come abbiamo detto – è sinonimo di ‘spider’) si utilizza un normale file di testo, da creare attraverso un qualunque text editor (bbedit, textpad, wordpad etc).
Questo file deve essere chiamato "robots.txt" e contiene, in un particolare formato, delle istruzioni che possono impedire a tutti o soltanto ad alcuni spider (quindi: motori di ricerca) il prelievo di alcune o tutte le pagine del sito.
Una volta creato il file robots.txt, questo deve essere pubblicato nella directory principale del sito web.
Ad esempio, se il sito ha indirizzo http://www.freeonline.it , il file dovrà essere accessibile all'indirizzo http://www.freeonline.it/robots.txt .
Tutti i motori di ricerca conosciuti aderiscono alla a questa ‘normativa’ (per quanto non sia stata scritta in nessuna legge nazionale o internazionale) e quindi sono obbligati (deontologicamente anche se non tecnicamente) a seguire le indicazioni del file robots.txt.
Quindi, qualora un motore di ricerca (tipicamente, attraverso un link) acceda a una qualsiasi delle nostr pagine, la prima cosa che esso andrà a verificare sarà la possibilità (l’autorizzazione) a spiderare le pagine di quel sito, ‘informandosi’ su quali possono essere le sezioni (pagine ) spiderabili (e quindi atte a essere inserite nell’indice) e quali no (nel caso ci siano delle limitazioni).
In una stessa pagina è possibile indicare quali sono i link che possono essere ‘seguiti’ e quelli che invece debbono essere ignorati, in quanto il proprietario del sito (per ragioni che non dobbiamo stare qui a considerare) non gradisce che vengano inserite nell’indice del motore di ricerca.
E’ bene ricordare che il file robots.txt serve per ‘dichiarare’ ai motori di ricerca quali sono le pagine web che NON debbono essere spiderate.
In assenza di questo file, i motori di ricerca si sentono nel diritto di spiderare e di inserire nell’indice tutte le pagine relative al sito web individuato.
Normalmente non conviene limitare gli spider, ma anche quando si ritiene che sia utile che il proprio sito venga spiderato per intero è bene inserire comunque un file robots.txt e questo perché dà al motore di ricerca l’idea che il sito sia stato costruito correttamente e seguendo tutte le regole della Setiquette, ovverosia della netiquette applicata e dedicata ai motori di ricerca. Un sito che non contenga questo file (nella dirextory principale) può essere perciò considerato poco professionale (a prescindere dalla quantità e dalla qualità delle pagine che si consente di spiderare) e quindi può essere penalizzato in fase di indicizzazione e soprattutto di posizionamento nelle SERP (Search Engine Page Results).
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 2: Dettagli tecnici di grande importanza e la scelta dell'hosting
Lezione 2
La scelta dell'hosting (il multiple IP)
Uno dei momenti più importanti, quando si sceglie di avviare o di continuare un’attività in Rete è quella della scelta dell’hosting e intendiamo qui per hosting la scelta dei server e della connettività che sono condizioni necessarie per fare sì che il proprio sito o i propri siti siano visibili nel World Wide Web.
Spesso l’hosting (nella definizione che ne abbiamo dato e che comprende anche l’housing ovviamente) viene sottovalutato nella strategia che un proprietario di un sito applica per ottenere il massimo della visibilità, ma possiamo dire che questo è uno dei fattori ‘off-page’ (ovverosia che non concernono quanto sta ‘scritto’ sulle pagine web) tra i più importanti e per diversi motivi.
In primis, l’hosting deve garantire una facile accessibilità al sito da parte dell’utente.
Un sito che si apre lentamente, che è spesso ‘off-.line’ o che presenta problemi di connessioni saltuari dà una pessima immagine di sé e disturba seriamente il navigatore (l’utente o potenziale utente del sito), impedendone la fidelizzazione.
E’ ovvio che la soluzione ideale – per chiunque intraprenda un’attività in Internet – è quella di avere dei server proprietari e di avere una connettività che garantisca anche i picchi di accesso (per esempio nei momenti ‘caldi’ della giornata o delle ‘stagioni’).
E anche vero però che spesso ospitare un sito su proprie macchine può essere molto costoso e non sempre è necessario.
Nel caso quindi in cui non sia abbia la disponibilità per ospitare un sito su macchine proprietarie, la soluzione ideale è quella di affidarsi a un ‘virtual sever’; ciò significa ospitare il proprio sito su un server (una macchina) che ospita anche altri siti e che mette a vostra disposizione una porzione di quel server e una determinata porzione di banda.
L’hosting vero e proprio (quello dove non è possibile avere un reale accesso alla macchina) è caldamente sconsigliabile, dal momento che non permette di eseguire anche operazioni elementari e può essere utilizzato quasi esclusivamente per siti statici (infatti normalmente non vi è accesso alla shell) e che non hanno grandi pretese di visibilità e di funzionalità.
Tutto quanto detto sinora è valido a prescindere dalle tecniche più recenti per indicizzare i siti.
Qualora l’ambizione sia quindi quella di indicizzare e posizionare più siti in maniera ottimale, il nostro consiglio è quello di affidarsi non solo a server (o virtual hosting) che abbiano una connettività potente e una grande capacità di disco fisso, ma soprattutto di affidarsi a società che mettano a disposizione IP multipli.
Un server può ospitare più di un IP e più server possono stare sotto lo stesso IP; nel caso in cui si sia interessati a pubblicizzare più di un sito e soprattutto nel caso in cui questi siti siano particolarmente numerosi (per esempio se si utilizzano domini di terzo livello – che sono dei veri e propri siti indipendenti – per portare traffico a un sito principale) è fondamentale avere a disposizione differenti IP.
Questo è importante perché i più importanti motori di ricerca considerano negativamente siti linkati o correlati che risiedono sugli stessi IP o anche sulla stessa ‘classe C’ di IP (ovvero gli ultimi tre numeri dell’internet protocol). In una prossima lezione ****** ancora più a fondo questo tema che è di fondamentale importanza.
Nel caso in cui si abbia intenzione quindi di pubblicizzare decine o centinaia di siti (e intendiamo qui ovviamente anche i siti di terzo livello) è caldamente consigliabile distribuire questi siti su IP differenti, di modo che i motori di ricerca non abbiano l’impressione di trovarsi di fronte a un unico sito con delle piccole differenze, ma a siti veramente diversi l’uno dall’altro.
Questa pratica – di distinguere gli IP che ospitano i diversi siti anche quando questi appartengono al medesimo proprietario – è perfettamente legittima ed evita che ci sia un rischio di penalizzazione o addirittura di ‘banning’ (ovverosia di penalizzazione massima dei siti pubblicizzati) che potrebbe invece verificarsi qualora tutti i siti fossero ospitati non solo sulla medesima macchina (i.e. server), ma anche sul medesimo IP.
Avere più IP è certamente più costoso che averne uno solo (soprattutto con provider italiani), ma è senza dubbio una garanzia per un miglior posizionamento, soprattutto nel caso in cui questi siano fortemente linkati fra loro o appartengano al medesimo dominio di secondo livello.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 1
I trucchi per i motori
Molti webmaster pensano che i motori di ricerca possano essere ‘ingannati’, con dei ‘trucchi’; è sempre stato così e sarà probabilmente sempre così, solo che mentre molti anni fa era facilissimo e qualche anno fa era facile, adesso è veramente difficile.
Nonostante ciò, non sono rari i casi in cui visualizziamo – anche dai migliori motori di ricerca internazionali – dei link a siti che sono di bassissima qualità e che utilizzano pratiche cosiddette ‘black hat’ (opposte a quelle legittime di ‘white hat’).
Diciamo subito che questi siti hanno ‘vita breve’ negli indici dei motori di ricerca principali (che portano ai siti circa il 98% del traffico totale dei search engines), ma è anche indubbio il fatto che possono disturbare e di molto la fruizione e l’esperienza di un navigatore di un motore di ricerca.
Sconsigliamo caldamente l’utilizzo di queste pratiche per due motivi principali:
1) in primis, come abbiamo detto sopra, la ‘vita’ media di siti che applicano pratiche irregolari di ottimizzazione è di poche settimane, se non di pochi giorni (in breve: prima che un software del motore di ricerca o un editor si accorga dell’irregolarità del sito)
2) In secondo luogo, spesso queste pratiche servono per essere posizionati bene nelle SERP (Le pagine dei risultati di ricerca), ma riescono a ottenere visite di utenti che non sono affatto interessati ai prodotti/servizi pubblicizzati e promossi effettivamente sul sito, quindi questo tipo di ottimizzazione (oltre a essere poco durevole) è anche poco utile; inutile dire che per business ‘on the fly’ è una tecnica che può avere un senso economico (anche se bisogna sempre calcolare il rapporto costi/ricavi).
Non può invece avere alcun senso per siti ‘seri’ e che hanno una sana idea di business e questo anche perché le tecniche ‘black hat’ comportano un rimaneggiamento della struttura dei siti che li rende particolarmente sgradevoli e difficili nella navigazione.
Vediamo quindi quali sono le pratiche più diffuse che possono essere considerate a buon titolo ‘black hat’:)
1) Testo nascosto (tipicamente l’inserimento di keyword o frasi con o stesso colore del background o con un colore leggermente differente, di difficile percezione per l’occhio umano)
2) Inserimento di keyword ripetute e soprattutto poco attinenti con il contesto della pagina nella quale sono posizionate
3) Cloacked pages (pagine che vengono distribuite ai navigatori in una maniera differente da come vengono distribuite per i motori di ricerca)
4) Redirect (in Javascript, HTML, o direttamente lato server, come con Apache
5) Doorway pages (pagine che non hanno alcun contenuto vero e proprio e che servono esclusivamente per l’indicizzazione e per poi reindirizzare l’utente su altre pagine che sarebbe stato più difficile indicizzare e posizionare).
6) Pagine duplicate, identiche o molto simili, che servono per indicizzare più pagine di uno stesso sito senza però offrire contenuti differenti
Il nostro consiglio è quello di non usare mai queste tecniche nel caso in cui la linea di business del sito sia ‘seria’ e il sito o i siti da posizionare-indicizzare siano destinati a un futuro nel medio e lungo periodo.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 2
Una buona struttura (del sito)
I migliori motori di ricerca hanno cominciato da tempo ad ****** la struttura dei siti, utilizzando questa ****** per valutare la qualità del sito e quindi il suo minore o maggiore ‘diritto’ per essere indicizzato e posizionato con un buon ranking (il ranking è appunto il posizionamento dei siti in un motore di ricerca e – più specificamente – in una pagine di un motore di ricerca (una SERP).
Questo nuovo modo di ‘leggere’ i siti ha sicuramente portato a dei notevoli vantaggi, sia in fase di visualizzazione dei risultati di ricerca, sia in fase di realizzazione dei siti stessi:
Ma che cosa si intende per buona struttura?
In primo luogo una buona struttura arte dalla home page, che non deve contenere troppi link e soprattutto che deve raccogliere i link in sezioni di modo che siano facilmente individuabili da parte degli utenti.
Google sconsiglia inserire più di 100 link per ciascuna pagina.
A mio parere, si tratta di un limite estremo che deve essere de fact abbassato a 50.
Bisogna poi ovviamente distinguere tra link esterni (external linking) e link interni (internal linking).
La somma dei link esterni e quella dei link interni non deve eccedere il numero di ottanta e questo esclusivamente per la home page.
Per la pagine interne del sito il numero di link (a meno che non si tratti di subhomepage) deve essere ridotto almeno della metà.
Un altro importante parametro è la distribuzione delle pagine interne.
E’ bene evitare che per raggiungere una qualsiasi delle sezioni del sito si debbano effettuare più di tre click e questo perché il caso contrario comporterebbe una difficile navigazione e una grande difficoltà nel capire dove si trovano le sezioni di interesse.
Tutte le pagine interne debbono poi essere linkate direttamente alla homepage o alle subhomepage, di modo che l’utente non debba continuamente cliccare il tasto back per raggiungere la pagina di partenza.
La struttura deve essere facilmente navigabile anche orizzontalmente e questo per evitare che l’utente debba, per passare da una sezione all’altra, ritornare alla homepage o a una delle subhompage (tipicamente, domini di terzo livello).
La struttura del sito non deve essere ‘eccessiva’ rispetto al traffico che essa genera.
Google e i principali motori di ricerca sono perfettamente in grado (per esempio attraverso le toolbar) di sapere quanto un sito è visitato, per lo meno in relazione ad altri siti.
Un sito con migliaia di pagine ma che non ha un traffico notevole può quindi essere considerato negativamente e per questo fortemente penalizzato.
Ancora una volta, il nostro consiglio è quello di strutturare il sito con la medesima progettualità e strategia che si utilizzerebbe normalmente se si dovesse realizzare un sito ‘in assenza’ dei motori di ricerca stessi, badando a fare sì che il navigatore abbia la migliore esperienza nella visualizzazione delle pagine del sito stesso.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 3
Il pagerank (Parte 1)
Sono ormai tanti anni che i webmaster di tutto il mondo si sforzano di far crescere il pagerank dei propri siti.
Anzi, è ormai diventato così un ‘must’ che molti non si ricordano nemmeno di che cosa si tratti effettivamente, attribuendogli spesso meriti o demeriti che invece non gli appartengono.
In questo articolo non daremo dei particolari insider per riuscire a far crescere il pagerank del proprio sito web, quanto piuttosto cercheremo di ricapitolare e di spiegare quanto più chiaramente possibile quali ne siano le caratteristiche (e funzioni) principali.
Cominciamo con una curiosità: il pagerank riguarda il ‘rank’ (anche ‘peso’, ‘forza’) di una pagina web, ma non vi è dubbio che il suo nome sia stato in buona parte determinato dal cognome del suo inventore: Larry Page (co-founder di Google).
Chiusa questa curiosa parentesi e prima di ****** nel dettaglio il ‘concetto’ di pagerank, dobbiamo sottolineare una cosa: se siamo interessati al pagerank come a uno strumento/sintomo per valutare le possibilità di indicizzazione e posizionamento di un sito, dobbiamo ricordarci che questa è solo una variabile su decine se non centinaia che concorrono a creare l’algoritmo di Google e quindi non può essere considerata assolutamente prioritaria.
Io stesso ho verificato che siti che hanno pagine con PR (pagerank) = 0 possono contare parecchie migliaia di utenti unici al mese, mentre siti che hanno pagine con PR=6 solo alcune decine.
Il pagerank, come abbiamo detto, rappresenta dunque il ‘valore’ (o meglio, uno dei valori) di un sito secondo Google (quindi non ha nulla a che fare con gli altri motori di ricerca).
Questo valore può andare da un minimo di 0 (tipico dei siti appena pubblicati) a un massimo di 10 (tipico dei siti di rilevanza internazionale e popolarissimi, come lo stesso Google.com o Yahoo.com).
Raggiungere un PR=10 è altamente improbabile (de facto, impossibile) per siti che non siano big corporation con decine di milioni di unique user al mese. Basti pensare che Google.it non raggiunge PR 10 ma ‘solo’ 9 e – a volte 8,.
Il pagerank è un dato pubblico (per lo meno, in una delle sue versioni, come vedremo in seguito…) ed è accessibile a tutti scaricando una toolbar che è pubblicizzata sulla home page di tutte le versioni di Google. Per l’Italia, la Google Toolbar è disponibile al seguente indirizzo: http://toolbar.google.com/intl/it/.
Una volta installata la Google Toolbar, è possibile visualizzare il pagerank di una pagina web semplicemente navigando.
Dopo pochi istanti dall’apertura di una pagina, la toolbar caricherà il ‘valore’ di pagerank relativo al sito che si sta visualizzando. Graficamente, il pagerank si visualizza come una barra che può essere di colore grigio (nel caso in cui il sito sia stato bannato dagli indici di Google), completamente bianca (nel caso in cui il PR=0) e con diverse quantità di verde nel caso in cui il pagerank sia superiore a 0.
Nel caso in cui il pagerank sia uguale a 10, la barra sarà interamente di colore verde.
Per chi non desideri installare la Google Toolbar o per chi utilizzi un browser o un sistema operativo che non la supportano, consigliamo di collegarsi all’indirizzo: www.pagerank.net, in cui è sufficiente inserire l’url di interesse e visualizzarne il relativo pagerank dopo pochi istanti.
La tipica domanda di chi si avvicina per la prima volta al tema del pagerank è: da che cosa è determinato?
Il pagerank è determinato principalmente dai link in entrata del sito in oggetto (detti anche “backlink” o “inbound link”).
Questi link in entrata sono ‘valutati’ da Google nel loro numero (quantità) e nella loro autorevolezza (qualità). Tendenzialmente, quanto più un sito è linkato, tanto meglio è; ma è anche vero che 100 link ‘scadenti’ (e poi vedremo quali sono) non valgono un link valore.
« Lezione precedente | Lezione successiva »
Il pagerank (Parte 2)
Abbiamo detto che non tutti i link hanno lo stesso peso; ma che cosa ne determina il peso?
I fattori, come sempre quando parliamo di algoritmi di motori di ricerca, sono molteplici.
1) pagerank del sito linkante
2) diluizione del pagerank proporzionato ai link in uscita (outbound link) dal sito linkante
3) attinenza dei contenuti del sito linkante con i contenuti del sito linkato
4) nome del link
Il primo punto è chiaramente di grande importanza; un inbound link di un sito acquista importanza in ragione del pagerank della pagina da cui proviene; se il sito linkante ha PR=0, possiamo stare certi che non avrà alcun influsso positivo sul posizionamento del sito linkato; se invece il sito ha un pagerank alto, è probabile che il suo influsso sarà importante; diciamo “probabile” semplicemente perché il pagerank di un sito può essere ‘diluito’ dalla contemporanea presenza di altri link in uscita.
Per semplificare le cose, potremmo dire che una pagina a PR=5 che conta 5 link in uscita (da non confondere con gli internal links) distribuisce per ogni link il valore di 5/5, quindi di 1.
L’esempio non è molto corretto perché potrebbe sembrare che essere linkati da un sito che ha PR=1 e un solo link in uscita sia la stessa cosa che essere linkati a una pagina a PR=5 e 5 link in uscita.
Non è affatto così; una pagina a PR=1 è completamente ininfluente, mentre una pagina a PR=5 (anche se conta decine di link) dà un grosso contributo al miglioramento del pagerank della pagina linkata.
Il motivo è semplice, la divisione che abbiamo succitato non è corretta; serve solo a dare un’idea; nessuno sa infatti con certezza quale sia il rapporto fra link in uscita e PR di una pagina (per quanto riguarda la diluizione).
Finora abbiamo fatto un discorso semplicemente ‘quantitativo’; ma il valore di un link è anche qualitativo; se chiedete a qualsiasi SEO di una certa esperienza se un link da una pagina con PR=5 (e – poniamo – lo stesso numero di inbound link) con un un contenuto attinente col sito linkato sia equivalente a un link da una pagina dello stesso pagerank, ma di contenuto differente, probabilmente vi dirà che non è così; vi dirà che un link da una pagina da un sito ‘attinente’ o ‘correlato’ ha molto più valore (a parità degli altri parametri).
A nostro parere questo è un ‘rumor’ diffuso ad arte soprattutto dal personale dei motori di ricerca (soprattutto di Google) per cercare di evitare un commercio ‘deregolamentato’ di link.
Di fatto, con l’attuale struttura dei motori di ricerca (che ‘funzionano’ lessicalmente e non semanticamente), è impossibile per un search engine sapere se due siti condividono il medesimo argomento (anche se la tecnologia AdSense potrebbe dimostrare proprio il contrario); l’argomento è infatti un ‘significato’ o un insieme di significati e ad oggi nessun motore di ricerca (nemmeno Google) è in grado di andare oltre il significante, ovverosia oltre la keyword o keyphrase cercata nella query.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 5
Il pagerank (Parte 3)
L’importanza del nome dei link in uscita
Facciamo un esempio: poniamo di gestire un sito di abbigliamento e poniamo che un sito ci linki da una pagina, con il nome “cravatte in seta”; il nostro sito sarà avvantaggiato nel posizionamento quando qualcuno cercherà “cravatte in seta” o “cravatte”, ma non quando cercherà “accessori abbigliamento”, per quanto tutti sanno che le cravatte sono accessori di abbigliamento.
Al contrario di quanto si potrebbe pensare, i motori di ricerca sono molto ‘conservatori’; in sostanza, anche se non intenzionalmente, hanno riproposto le logiche dell’economia e della società ‘off-line’.
I motivi per cui possiamo fare quest’affermazione sono molti; uno di questi è l’ “aging” dei link; se il vostro sito è linkato da una pagina con PR=5, possiamo dire che non tutto il ‘potere’ di questo link è passato alla pagina linkata immediatamente; il link assume un valore sempre più grande quanto più passa il tempo.
Questo è motivato da ragioni ‘interne’ e da ragioni ‘esterne’.
Fra le ragioni ‘interne’ c’è una considerazione facilmente condivisibile; alcuni link possono avere una vita di pochi giorni se non addirittura di poche ore; tipici sono i casi di news o di giornali online; in questi casi il link in uscita ha una vita breve e quindi è comprensibile che la loro ‘influenza’ sia minore di un link ‘strutturale’, che prevede un rapporto duraturo fra due siti .
Ma c’è un altro motivo per cui il pagerank non ‘passa’ da una pagina all’altra immediatamente.
Nell’ultimo anno si sono enormemente diffusi siti che ‘vendono’ e ‘comprano’ link; sarebbe più corretto dire che questi siti ‘affittano’ i link per conto terzi; questo ‘commercio’ ha sicuramente creato dei problemi al ‘cuore’ degli algoritmi di Google.
I link in entrata sono sempre stati considerati positivamente perché non sono ‘controllabili’ dai webmaster e perché si è sempre pensato che nessuna pagina con un pagerank alto linkerebbe una pagina di bassa qualità. Ma che cosa accade quando è possibile comprare 100 link a PR=6 avendone la disponibilità economica?
Ovviare a questo problema è ben difficile per Google.
Uno dei metodi che ha applicato recentemente (meno di un anno fa) è stata la creazione di un ‘sandbox’in sostanza, gli inbound link cominciano a provocare un effetto benefico per il sito linkato solo dopo mesi dalla loro attivazione.
Si dice – anche se non se ne hanno prove – che il periodo di permanenza in questo ‘limbo’ sia di circa sei mesi.
Obiettivamente ci sono numerosi indizi che fanno pensare che i tempi non siano più brevi; di certo questo è un ostacolo anche per i siti che sono linkati ‘naturalmente’.
Prima di concludere questa lezione sul pagerank di Google, dobbiamo ricordare due cose (strettamente correlate).
Il pagerank che si visualizza nella Google Toolbar non è mai quello ‘reale’, ovverosia quello che determina il posizionamento dei siti nelle SERPs.
Si tratta in primo luogo di un pagerank approssimativo (arrotondato per difetto, dal momento che non vengono visualizzati i decimali) e – inoltre – si tratta di un pagerank non aggiornato; un pagerank ‘apparente’ = 0 può nascondere un pagerank reale uguale a 5.
Nessuno – al di fuori di chi lavora in Google – può sapere qual è il pagerank reale di un sito; anche per questo non ha molto senso fare degli scambi link basandosi principalmente sul pagerank che appare sulla toolbar di Google.
« Lezione precedente | Lezione successiva »
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 6
Il Sandbox
Il funzionamento del Sand-Box è molto semplice; un sito che viene pubblicato oggi, con tanti link in entrata (inbound link), con una buona qualità di tali link (page rank dei siti linkanti), con tanto contenuto di testo, con gli URL contenenti keyword 'popolari' all'interno della pagina, ecc, insomma, un sito con tutte 'le carte in regola', non sarà posizionato per alcuni mesi.
Questo filtro dovrebbe persuadere i webmaster ad evitare pratiche 'artificiali' perché a fronte, per esempio, dell'acquisto di vari link in entrata (e quindi a fronte di una spesa immediata) non vi sarebbero ritorni se non dopo mesi; pare che la durata della permanenza del sito nel Sand-Box possa variare da un mese a sei mesi; le variabili in gioco sono molte.
Premesso che questo 'filtro' sembra si applichi solo a questi siti che sono stati pubblicati dopo il mese di marzo del 2004, possiamo dire che più il settore è competitivo, più le keyword sono popolari, più sarà lunga la permanenza nel Sand-Box.
Diciamo che la durata media sembra essere di tre mesi, ma non è detto che essa non duri di più per alcune keyword (le più competitive).
A chi si chiedesse quali siano i modi per accelerare l’uscita da questa Sand-Box (posto che ci si sia entrati), possiamo consigliare alcune procedure: in primis, non pensarci e agire come se Google non esistesse affatto, continuare ad aggiungere contenuti alle pagine e soprattutto continuare ad aggiungere link in entrata, possibilmente nella maniera più 'naturale' possibile, ovverosia non dieci link in un giorno e tutti con lo stesso nome, ma dieci link in 40 giorni e tutti con nomi differenti.
Il SandBox, di fatto, posto che veramente esista e che sia applicato a tutti i nuovi siti che sono messi online, non è altro che un 'differimento', quindi l'unica arma che è possibile utilizzare è la pazienza; dalla SandBox si esce prima o poi e se, durante il periodo in cui il sito è stato tenuto in questo 'limbo', si è fatto di tutto per renderlo più appetibile e non ci si è scoraggiati, i risultati verranno, anche se non immediatamente e, quando verranno, saranno più duraturi.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 7
L’artificial linking
C’è un altro fattore da valutare quando si cerca di attribuire un ‘valore’ a uno o più link in entrata.
Se la compravendita di link è un fenomeno ‘dannoso’ per la ‘purezza’ degli algoritmi di Google, altrettanto può dirsi per il fenomeno dell’artificial linking, ovverosia della creazione e pubblicazione di siti che linkano a un ‘destination site’.
Questa pratica è molto diffusa, ma i SEO che la applicano si sono già resi conto che non è affatto efficace e per un semplice motivo: è difficile far sì che questi siti linkanti abbiano pagine con un pagerank superiore a 2 e questo per ovvi motivi; perché abbiano un pagerank superiore bisognerebbe farli linkare da siti esterni e quindi il problema si riverbera all’infinito in un circolo vizioso.
C’è però da dire che, al contrario di quello che si sentiva dire qualche tempo fa, non c’è rischio che questi link ‘artificiali’ danneggino il pagerank o comunque il posizionamento delle pagine linkate e questo per un semplice motivo; potrebbe accadere che un concorrente linki un sito con dei siti ‘artificiali’ solo per danneggiarlo.
Per evitare questo, Google (e – presumibilmente – anche gli altri motori di ricerca) fa solo un calcolo ‘positivo’ dei link: un link ‘positivo’ aggiunge valore, un link ‘negativo’ non ne sottrae.
All'interno di questa strategia 'autocratica' di linkaggio ci possono essere due 'tattiche'; la prima quantitativa e la seconda qualitativa.
Nell'ipotesi quantitativa, il SEO è interessato a creare un grande numero di siti che linkino al mother-site (o destination-site), non preoccupandosi del loro pagerank e del peso che essi stessi avranno nei motori di ricerca, ma puntando soltanto sul numero.
Questa tattica è sbagliata per due motivi principali:
1) per prima cosa, 1.000 link da altrettanti siti che hanno page rank zero o inferiore di quattro non fanno di certo migliorare il page rank o il posizionamento del mother-site; questo perché i motori di ricerca (e Google per primo) valutano positivamente i 'voti' insiti negli inbound link solo se questi sono forniti da siti 'autorevoli' o che comunque abbiano un 'credito' sul motore di ricerca stesso; 1.000 link da siti con pagerank insignificanti, traffico insignificante e link popularity insignificante non servono assolutamente a nulla.
2) Inoltre, accanto a questo problema, esiste la seria possibilità che il motore di ricerca individui questi link come 'artificiali'; i parametri non sono pubblici, ma possiamo affermare pacificamente che un buon motore di ricerca (e a questi sono interessati i SEO) è in grado di riconoscere la 'parentela' di un network di siti; i parametri possono essere:
1) il contenuto (simile anche se non identico)
2) la grafica (simile anche se non identica)
3) il codice HTML (spesso è proprio identico)
4) l'hosting (stessa classe di IP)
5) il linking reciproco
6) il medesimo registrar
7) il medesimo proprietario
Chi infatti crea 1000 siti per linkare il proprio mother-site non può certo trovare diecimila siti che a loro volta linkino il network di siti, perché allora sarebbe stato molto più semplice sforzarsi di fare linkare direttamente il mother-site piuttosto che passare attraverso l'intermediazione del network; accade dunque che Google riconosca che il mother-site è linkato da 1.000 siti, ma assolo stesso tempo può verificare che questi 1.000 siti non sono linkati da siti esterni (al network stesso).
In sostanza questo network diventa una spam-island (ecco il perché del titolo di questo articolo). A parte tutto, rimane poi il grosso problema di quali contenuti inserire nei siti di questo network.
La seconda tattica è qualitativa, ovverosia creare una decina di siti che abbiano un proprio contenuto e che possano avere un 'peso' per il motore di ricerca e quindi linkarli al mother-site.
Questa tattica è forse superiore alla precedente sia in efficacia sia in efficienza, ma come vedremo ora ha dei difetti difficilmente sormontabili.
Per creare anche solo dieci siti 'pesanti' bisogna fare dei notevoli sforzi: bisogna costruire dieci siti completamente diversi l'uno dall'altro (quindi una ipotetica industrializzazione che poteva essere utilizzata per la tattica precedente non può essere applicata), bisogna poi creare un contenuto originale e che sia sempre aggiornato e, infine, bisogna necessariamente trovare dei siti esterni al micro-network che linkino al network stesso.
Il SEO che volesse quindi intraprendere questa strada si troverebbe di fronte al paradosso di dovere moltiplicare il lavoro originario (trovare siti che linkino il proprio sito) per dieci.
A seguito di questa breve ******, possiamo dunque trarre abbastanza serenamente una facile conclusione: qualora si voglia puntare fortemente ad aumentare la visibilità del proprio sito web attraverso fattori off-page e primariamente attraverso reperimento di inbound link, è molto più conveniente concentrarsi sulla qualità del proprio sito, cercare di fornire materiale che 'invogli' siti terzi a linkarlo e stabilire quindi una strategia di linking con altri siti (che non siano quindi della medesima proprietà).
Costruirsi un'isola di linking (quantitativa o qualitativa) è dunque possibile e può portare anche alcuni risultati positivi; di fatto, l'utilizzo delle medesime energie (finanziarie e lavorative) finalizzata al miglioramento della visibilità di un solo sito (quello che veramente interessa) porterebbe a risultati decisamente più soddisfacenti.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 8
Come aumentare la link popularity in maniera intelligente
Come abbiamo visto, la link popularity di una pagine è strettamente legata al suo pagerank, quindi è fondamentale fare di tutto per aumentarla (in maniera sapiente e ragionata e progressiva).
Ricordiamo che la link popularity misura quanti sono i link esterni che puntano a una pagina in questione (non al sito tutto).
E’ ovvio che non conta tanto (o soltanto) il numero di link che puntano al sito quanto piuttosto la loro qualità.
Essere linkati dalle directory di Dmoz, di Virgilio e di Yahoo e certamente importantissimo per un qualsiasi sito e si può trasformare in una grand link popularity e anche in un aumento di pagerank.
Il modo migliore per aumentare la link popularity di un sito non è certo quello di ‘comprare’ dei link da altri siti (anche se rimane sempre una possibilità) e questo per diversi motivi, così come non è quello di costruire network di link artificiali (come abbiamo visto nella scorsa lezione).
1) in primo luogo, difficilmente chi vende link ha una gestione seria del proprio business online (ci sono ovviamente le eccezioni), dal momento che cerca di avere dei ricavi con un sistema che è trasversale e quindi sicuramente non attinente con il proprio business (spesso del tutto assente); essendo quindi il business assente è difficile che questo sito possa avere una vera forza e una vera importanza agli occhi dei motori di ricerca.
2) In secondo luogo, è difficile che il pricing sia corretto.
Un pricing corretto presuppone un mercato aperto e libero e soprattutto conosciuto e pubblico.
Nella compravendita dei link questa dimensione di pubblicità è spesso assente o scarsa e quindi la trattativa può essere sballata sin dall’inizio.
3) I parametri con i quali si decide il pricing di un link sono fondamentalmente il pagerank.
E’ però bene ricordare che questi parametri (tranne in casi di banning immediato), nella loro dimensione visibile a tutti (quindi, per esempio, a barra verde del pagerank di google) non sono affatto in linea con la loro dimensione reale.
Per esempio, comprare un link dalla pagina di un sito che ha pagerank 7 può costare molto, mentre il link reale di quella pagina potrebbe essere della metà o di meno della metà.
Ovviamente può anche valere l’inverso e quindi in quel caso a rimetterci sarebbe chi vende il link e non chi lo acquista. (ricordiamo poi che si parla sempre di ‘vendita’, mentre di fatto i link si ‘affittano’, normalmente di mese in mese).
Il modo migliore per aumentare la link popularity è invece – sempre seguendo quello che è il nostro consiglio di base, ovverosia di ‘comportarsi’ come se i motori di ricerca non esistessero, - quello di ‘fare in modo’ che il nostro sito attragga ‘naturalmente’ i link da altri siti e questo proprio perché l’interlinking è sempre stato (prima dell’avvento di Google) uno dei modi più naturali per ricevere e dare traffico, tra webmaster e proprietari di siti che si stimano e che ritengono un link esterno e interno un valore aggiunto per il proprio sito.
Uno dei problemi ‘tipici’ in questi casi è quello dei siti concorrenti. Non è detto che due siti che si stimino non siano concorrenti (anzi, è proprio vero il contrario).
Il consiglio è quindi quello di cercare degli accordi non solo di puro linking ma anche finalizzati a partnership più strutturali e più durature, e questo può essere fatto fra siti che trattano del medesimo argomento magari da due punti di vista differenti (per esempio, un sito che tratta di golf da un punto di vista sportivo con un sito che invece vende al dettaglio mazze e palline da golf).
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 9
I rischi della over-optimization (parte 1)
Da qualche tempo a questa parte si sente parlare di over-optimization in relazione a pratiche di SEO.
Inutile dire che questo concetto è legato per lo più a Google, che - nonostante gli sforzi profusi negli ultimi mesi/anni da MSN e Yahoo - è a tutt'oggi la più grande 'fonte' di visite per qualsiasi sito web che abbia un traffico 'engined'.
Prima di capire se effettivamente esista questa over-optimization, vediamo di chiarirne il concetto.
Come dice la parola stessa, l'over-optimization è una 'eccessiva' ottimizzazione; per ottimizzazione intendiamo quell'attività volta a migliorare l'esperienza di navigazione dell'utente e allo stesso tempo l'attività di spidering e di indicizzazione dei motori di ricerca.
E' bene subito chiarire che per ottimizzazione si debbono intendere quelle attività "white hat", ovverosia consentite, e non quelle "black hat", ovverosia di vero spamdexing.
Attività tipicamente di spamdexing sono – come abbiamo già ricordato in una precedente lezione - l'utilizzo di font dello stesso colore del background, utilizzo di font troppo piccoli per essere letti da un navigatore etc.
In questo articolo presupponiamo che le attività di "white" optimization siano conosciute e le citeremo solo come esempi nell'****** della possibilità della suddetta over-optimization.
La nostra teoria è che di fatto non si possa mai parlare di over-optimization, quanto piuttosto di bad optimization, ovverosia di utilizzo scorretto degli strumenti che normalmente migliorano il posizionamento di un sito nelle SERPs (Search Engine Result Pages).
Partiamo da un dato di fatto: molti siti che sino a poco tempo prima erano presenti e ben posizionati sulle pagine di Google hanno subìto delle drastiche penalizzazioni.
E' sufficiente visitare qualcuno dei forum in cui i webmaster condividono le proprie esperienze per verificare questo fatto.
Nella maggior parte di questi casi, venivano applicate tecniche "white hat", infatti in caso di pratiche spamming è difficile che il sito raggiunga dei buoni livelli di posizionamento.
Che cosa è accaduto a questi siti?
Perché un sito che fino a ieri era considerato 'valido' da Google, oggi si ritrova bannato o fortemente penalizzato?
Per ****** i possibili casi di over-optimization dobbiamo distinguere tra fattori on-page e fattori off-page.
I fattori on-page sono quelli che riguardano ciò che è contenuto nelle pagine del sito in oggetto (ed che abbiano trattato nelle prime lezioni di questa guida).
I fattori off-page sono quelli che riguardano invece ciò che esula dai contenuti delle pagine del sito.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 10
I rischi della over-optimization (parte 2)
A nostro parere esiste solo un tipo della cosiddetta over-optimization che può riguardare i fattori on-page; si tratta della keyword density.
Uno dei parametri che Google valuta per il ranking di una pagina nelle SERPs è la keyword density, ovverosia la frequenza di una keyword (o keyphrase) all'interno di un documento.
Mettiamo che la keyword in oggetto sia "lardo di colonnata"; una pagina sarà posizionata nelle SERPs meglio di altre se - a parità degli altri fattori - conterrà una 'giusta' frequenza di questo termine rispetto alle altre parole utilizzate.
Google non ha mai dichiarato (per ovvie ragioni) quale sia questa percentuale o quale sia il range percentuale che permetta di far parlare di una frequenza "corretta".
A nostro parere la percentuale non deve eccedere il 5% dei termini di una pagina anche se molti parlano anche del 10, 12%.
Di fatto, è plausibile che pagine che contengano una frequenza eccessiva di un termine significativo (e quindi 'al netto' di preposizioni, articoli, avverbi etc.) siano considerate da Google 'innaturali' e subiscano quindi un banning o una penalizzazione.
Questo esempio, citato in molti forum come esempio di over-optimization, a nostro giudizio è una pratica "black hat"; che differenza c'è tra utilizzare font dello stesso colore del background di una pagina ed 'esagerare' con l'utilizzo di una keyword all'interno di un documento?
Nessuna. Quindi, in questo caso, non si tratta di una over-optimization, ma di una bad-optimization, ovverosia di un utilizzo sbagliato (e quindi illegittimo) di tecniche corrette.
Più interessante è il caso dei fattori off-page.
A nostro parere, il principale fattore off-page in un sito è il suo inbound linking, che - di fatto - possiamo considerare la vera novità introdotta da Google nel 1998.
L'essenza dell'inbound linking è questa: a parità di fattori on-page, vengono posizionati meglio quei siti che sono più linkati (quantità) e linkati da siti già considerati 'validi' e che siano attinenti con i contenuti del sito linkato (qualità).
A nostro parere l'inbound linking può essere anche controproducente.
Come sempre, ciò che conta per Google è la 'naturalezza'; la regola aurea è (in teoria) quello di non fare nulla per l'indicizzazione che non si sarebbe fatto se i motori di ricerca non esistessero; una teoria che è certamente di difficile attuazione, ma che ha una logica fondata.
Torniamo dunque ai link. Se è vero che un sito è tanto meglio posizionato quanto più (e meglio) è linkato, è anche vero che questi link non debbono apparire 'artificiali' agli occhi dello spider (di Google o di altri motori di ricerca). Uno dei possibili fattori che può determinare l'artificialità dei link è il timing di linking;
se un sito appena nato o comunque appena indicizzato da un motore registra un improvviso aumento dei link in entrata (inbound link), è probabile che questo venga visto come 'attività artificiale'; è infatti improbabile che in un breve range temporale lo stesso sito sia linkato contemporaneamente (e 'naturalmente') da molti siti.
Il linking e/o il crosslinking naturali tipicamente richiedono molto tempo perché inizialmente sono pochi i siti disposti a linkare siti che sono nati da poco, che non hanno una storia etc.
Un altro fattore di fondamentale importanza è la dominazione dei link; la presenza di nomi ripetuti è sicuramente ritenuto un indice di 'artificialità' e quindi depone a sfavore per il sito linkato.
Sono infine di fondamentale importanza anche le caratteristiche dei siti di provenienza.
Nel caso in cui un sito sia linkato da numerosi siti aventi le medesime caratteristiche (codice html identico o simile, stessa classe di IP o addirittura medesimo IP, etc.), è evidente che un motore di ricerca considererà questi link 'artificiali', anche se attivati in un ampio lasso di tempo e con diversi nomi.
Questa è la situazione attuale (ipotizzata, ovviamente). Possiamo ora chiederci se questa strategia di penalizzazione adottata dai motori di ricerca (e, in primis, da Google) sia corretta.
A nostro parere è corretta solo la penalizzazione nel caso in cui ci sia un eccessivo numero di keyword in una pagina, e per un semplice motivo; se fosse vero che un sito può essere penalizzato da bad-linking (come nei casi succitati), allora vuol dire che chi voglia penalizzare un sito concorrente può farlo tranquillamente e a insaputa del sito che si vuole penalizzare. Poniamo che il sito A sia concorrente del sito B; A potrebbe, da un proprio network di siti già penalizzati e quindi considerati 'cattivi', eseguire un'opera di linking verso il sito B e in questo modo penalizzarlo.
A nostro parere sarebbe più corretto - da parte di un motore di ricerca - 'sospendere il giudizio' sui link che appaiono artificiali e 'tenere per buoni' solo quelli che appaiono essere naturali.
Ancora una volta, appare chiaro come non esista un algoritmo o un insieme di algoritmi perfetto per indicizzare e posizionare un sito.
Anche variabili nate con una giustificazione si rivelano essere deboli e possono essere sfruttate per influire sul posizionamento di siti terzi.
I fattori off-page, così tanto osannati e considerati negli ultimi anni, si rivelano dunque ambigui.
Di fatto, anche la loro origine non è ben giustificata.
Chi dice che un sito che è più linkato sia migliore di un sito che non lo sia? E' come credere che il vestito migliore sia quello che compra più pubblicità, oppure che il politico migliore sia quello più votato, oppure che la persona più intelligente sia quella che intrattiene più relazioni con amici e conoscenti.
In futuro (come vedremo meglio nella prossima lezione) i motori di ricerca dovranno prendere sempre più spazio i fattori on-page. L'utilizzo di fattori off-page non è altro che una 'resa' da parte di un motore di ricerca nella sua capacità di valutare la bontà di un sito.
Poniamo che il sito A abbia fatto opera di linking artificiale (acquistandoli oppure costruendo dei siti ad arte per autolinkarsi); questa è sicuramente una strategia "black hat"; ma ciò vuol dire anche che il sito in questione non è di qualità? Assolutamente no. Per questo i fattori on-page rimangono di fatto i più importanti.
Probabilmente il passaggio tanto aspirato (da parte non solo di Google, ma anche degli altri player) da una versione lessicale a una versione semantica rappresenterà la possibilità di superare l'impasse qualitativa (di quantità ne abbiamo fin troppa) in cui i motori di ricerca si trovano attualmente.
« Lezione precedente | Lezione successiva »
Lezione 6
L’importanza dei domini di terzo livello e le sottodirectory (parte 1)
Abbiamo visto l’importanza del nome a dominio per una buona indicizzazione e un buon posizionamento di un sito, ma – come già detto – i siti vengono indicizzati e posizionati per pagine web.
Nei risultati di ricerca di un search engine non sono presenti “siti”, ma “pagine di siti”.
Ogni pagina ha ovviamente un indirizzo web (un URL) differente dall’altra.
Ma come debbono essere compilati questi indirizzi?
Come debbono essere scritti? In questa lezione cercheremo di mostrare come debbono essere scritti questi URL, puntando l’attenzione su un argomento molto importante, ovverosia la differenza fra i sottodomini e le sottodirectory.
Qual è la differenza fra un sottodominio e una sottodirectory?
Una sottodirectory appare così: http://www.nomesito.com/rastrelli.html
Un sottodominio appare così: http://rastrelli.nomesito.com
E’ evidente che un sito che abbia più di una pagina deve avere, oltre alla home page, delle sottodirectory o dei sottodomini in cui inserire il contenuto delle proprie pagine.
Cercheremo di dimostrare che scegliere i sottodomini invece delle sottodirectory è una soluzione migliore e non solo per motivi di ottimizzazione e indicizzazione di un sito.
I sottodomini vengono 'visti' prima
E’ nota l’importanza di avere, nell'URL del sito, delle parole-chiave attinenti con il contenuto della pagina.
Questa premessa è a monte rispetto a qualsiasi considerazione in merito ai sottodomini e alle sottodirectory.
Le pagine di un sito possono essere nominate in qualsiasi maniera, anche con un semplice numero o con un codice, ma si tratta senza dubbio di uno 'spreco' di possibilità, sia in termini di indicizzazione del sito nei motori di ricerca e nelle directory, sia in termini di 'appeal' nei confronti dei navigatori. Se amministrate un market place che offre al pubblico diverse tipologie di prodotti, siete certamente avvantaggiato a inserire il nome del prodotto nell'URL stesso.
La cartella del mio sito che vende rastrelli potrà essere per esempio chiamata http://www.momesito.com/1.html, oppure http://www.nomesito.com/847298242.php, ma senza dubbio è meglio inserire il termine “rastrelli” all'interno dell'URL stesso e questo per due motivi:
In primis, perché i principali motori di ricerca danno un peso alle keyword o keyphrase contenute in un URL: se un URL contiene la keyword che è anche presente nel title e ha una buona keyword density nel corpo della pagina, allora il sito sarà considerato più attinente a quella keyword stessa e potrà essere meglio indicizzato nelle SERP (Search Engine Result Pages). Dobbiamo inoltre considerare anche il fattore 'umano'; un navigatore spesso clicca un risultato di ricerca senza nemmeno leggere l'URL, questo è vero, ma molto spesso l'URL viene letto e chiunque è più propenso a cliccare un URL che contiene la keyword o la keyphrase che interessa piuttosto che un codice o un numero anonimo e privo di significato (che inoltre dà un’idea di ‘meccanicità’ del sito stesso..
Anche in ragione di questa considerazione, possiamo già dire che i sottodomini sono migliori delle sottodirectory.
Poniamo che io stia cercando su un motore di ricerca (o una directory) un sito che vende rastrelli.
L'URL che contiene la keyword rastrelli all'inizio dell'URL sarà preferito a un dominio che la contiene alla fine
http://rastrelli.nomesito.com
http://www.nomesito.com/rastrelli.html
Potete voi stessi verificarlo. Nel primo URL, la keyword “rastrelli” è visibile immediatamente.
Nel secondo caso invece bisogna leggere tutto l'URL per ritrovare la keyword che ci interessa.
Dal momento che i tempi di navigazione delle pagine sono molto rapidi e che in occidente la lettura di una serie di parole avviene da sinistra a destra, è evidente che - tatticamente e strategicamente- è meglio inserire la keyword che ci interessa all'inizio del nome a dominio.
C'è poi un altro motivo che spinge un navigatore, più o meno esperto, a dare maggiore rilievo a un URL in cui la sottocartella sia inserita in un sottodominio piuttosto che in una sottodirectory.
Torniamo all'esempio dell'utente che sta cercando un sito che vende rastrelli on-line.
E’ evidente che il sito migliore in assoluto sarebbe questo:
http://www.rastrelli.com
Poniamo però il caso che questo dominio sia stato già stato acquisito da altri (magari un nostro concorrente).
Qual è il dominio che più si avvicina, cioè che è più simile a quello succitato?
Senza dubbio è http://rastrelli.nomesito.com e non http://www.nomedelsito.com/rastrelli.html.
All'occhio umano, il sottodominio 'contiene' la keyword in oggetto ("rastrelli"), molto più coerentemente, molto più efficacemente che nel secondo caso; in sostanza, è come se la parola-chiave 'facesse' parte del dominio stesso (cosa vera anche tecnicamente) e non fosse una sua 'appendice', come invece accade nella sottodirectory.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 7
L’importanza dei domini di terzo livello e le sottodirectory (parte 2)
L’ ‘indipendenza’ dei sottodomini
Veniamo ora ai motori di ricerca e chiediamoci: "I motori di ricerca danno lo stesso 'peso' a un sottodominio rispetto a una sottodirectory?" La risposta è "No".
Un sottodominio è infatti considerato un URL indipendente dal suo dominio di secondo livello, mentre lo stesso non può dirsi della sottodirectory, che è considerata semplicemente una 'pagina' del sito e ha quindi un 'peso' inferiore.
Per questo motivo, mentre sottoporre dieci sottodirectory dello stesso URL all'attenzione di un motore di ricerca può essere considerato spamdexing (ovverosia un tentativo di essere indicizzati 'oltre' ciò che è considerato giusto dal search engine), è considerato lecito sottoporre dieci sottodomini. E’ ovvio che i sottodomini debbono avere ciascuno un contenuto radicalmente differente dall'altro e dalla home page che li sottende.
Il contenuto di http://rastrelli.nomesito.com dovrà quindi essere differente da http://fiori.nomesito.com.
Anche le directory, una volta verificata la differenza di contenuto, saranno più disposte ad accettare i sottodomini come URL indipendenti rispetto all'URL principale, mentre non considereranno mai indipendente una sottodirectory.
La facilità di memorizzazione dei sottodomini
Spesso le sottodirectory sono più difficili da ricordare dei sottodomini. Anche nel caso in cui la sottodirectory contenga solo la keyword che ci interessa ("rastrelli") e non sia 'confusa' fra codici, numeri, punti di domanda, etc. (come spessissimo accade soprattutto nelle pagine dinamiche), è evidente che le sottodirectory hanno un difetto che non hanno i sottodomini e cioè la difficoltà di fare ricordare l'estensione delle pagine.
Mentre un sottodominio ha l'estensione dell'URL principale, una sottodirectory deve avere un'estensione specifica.
Le estensioni, come ben sapete, possono essere molte: .html, .htm., .php, .asp, .perl, .jsp, etc. Quante volte abbiamo scritto un indirizzo web pensando che la sottodirectory aveva un estensione .html, mentre era .php...
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 8
L’importanza dei domini di terzo livello e le sottodirectory (parte 3)
Utilità dei sottodomini nei siti multilingue
Poniamo poi il caso che amministriate da anni il sito www.nomesito.com e che decidiate di estenderne l’attività anche in altre nazioni oltre a quella originaria (l’Italia).
Se non utilizzate un sistema di IP country filtering, non di facilissima attuazione e comunque costoso, dovrete attivare un nome a dominio per ogni singola nazione (e lingua) di riferimento; il sito francese si chiamerà www.nomesito.fr, il sito tedesco www.nomesito.de, il sito inglese www.nomesito.co.uk e così via.
Ma poniamo che questi nomi a dominio non siano più liberi o che non siano più liberi anche solo uno o solo alcuni di questi nomi a dominio. Che fare? La risposta è semplice: creare dei sottodomini in cui l’estensione sia posta all’inizio dell’URL. Il sito francese si chiamerà dunque http://fr.nomedelsito.com, quello tedesco si chiamerà http://de.nomedelsito.com e così via.
Utilizzando semplicemente dei sottodomini, si aggira l’ostacolo rappresentato dall'impossibilità di comprare dei country domain perché già utilizzati; tenete inoltre conto del fatto che normalmente le estensioni nazionali (.fr, .de, .co.uk, co.jp etc) non possono essere comprate da cittadini o società che non risiedono in quello Stato.
Con i sottodomini, questo problema viene cancellato, oltre a evitare di spendere centinaia di Euro per l’acquisto dei singoli nomi a dominio esteri.
Nessuna difficoltà di realizzazione
Per chi non fosse già sufficientemente esperto nell’amministrazione dell’hosting del proprio nome a dominio, ricordiamo che non è affatto difficile creare dei sottodomini, anche se è leggermente più complesso che creare delle sottodirectory.
Per creare dei sottodomini bisogna intervenire sui DNS (Domain Name Service), ma normalmente i provider che forniscono il servizio di hosting o di housing mettono a disposizione dei propri clienti delle guidelines molto facili per indicare come attivare dei sottodomini; se il vostro provider è estero, ricordatevi di cercare queste indicazioni anche con il nome subdomains, oppure
vanity names
machine names
domain alias
Alcuni provider richiedono un pagamento per l'attivazione di sottodomini, ma il trend più recente è quello di fare pagare un costo di set-up fisso e una tantum o addirittura di non fare pagare affatto questo servizio che - di fatto - non comporta alcun costo aggiuntivo per il provider stesso, se non qualche minuto di lavoro.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 9
La scelta delle parole-chiave del sito (e soprattutto delle pagine del sito)
Quando parliamo di parole-chiave di un sito diciamo una cosa che ha un senso molto più ampio di quello che normalmente si intende.
Pochi studi affrontano questo tema ma ritengo che sia fondamentale per avere successo in fase di indicizzazione e di posizionamento di un sito web.
Non stiamo qui parlando della meta-keywords (che tratteremo più avanti), quanto piuttosto di un insieme di testi (che comprendono anche le meta-keywords) che servono per definire, caratterizzare e quindi pubblicizzare e rendere visibile un sito web.
E’ anche bene distinguere tra sito e ‘pagine’ di un sito.
I motori di ricerca infatti non indicizzano mai dei ‘siti’, ma delle ‘pagine’ di un sito (questo è un concetto che bisogna sempre avere chiaro in mente).. Un sito può essere composto da 3 pagine (anche da una sola pagina) o anche di 10.000 pagine (e anche più) e raramente un sito di centinaia o migliaia di pagine viene indicizzato in tutte le sue pagine.
Quando si costruisce e si pubblica ogni singola pagina di un sito web bisogna essere consapevoli del fatto che questa pagina avrà più possibilità di essere trovata da un utente di un motore di ricerca se ha una sua ‘identità’ e questa identità non è data solo dal titolo della pagina, dai testi che contiene, dalle tag html che la caratterizzano o dal tipo di siti che la linkano, ma è dato da tutto questo insieme di fattori; se tutti questi fattori concorrono nella giusta direzione, la pagina we avrà molte più probabilità di essere indicizzata e ben posizionata nelle SERP (Search Engine Page Results) di un motore.
Mettiamo quindi il caso che stiamo cercando di dare visibilità a un sito di bricolage e che all’interno di questo sito abbiamo pubblicato delle pagine che trattano di giardinaggio.
E’ evidente che queste pagine debbono essere trovate principalmente dagli utenti che sono interessati al giardinaggio (e non al bricolage in genere).
E’ quindi fondamentalmente sbagliato riferirsi a queste pagine come se fossero un’appendice del sito principale (che parla genericamente di bricolage).
Bisogna fare sì che queste pagine siano in qualche modo ‘autonome’ e che quindi vengano considerate come dei siti ‘a sé’.
Proprio per questo è necessario concentrarsi su poche parole-chiave che si considerano fondamentali per il proprio business (anche se si tratta di un business no profit) .
Individuare queste parole-chiave non è affatto difficile: mettiamo che la pagina in oggetto venda rastrelli; è evidente che bisogna concentrare la propria attenzione sulla ‘vendita’ e sul prodotto venduto ‘rastrelli’.
Qualsiasi distrazione da questo focus potrà portare a un calo del posizionamento della pagina stessa dal momento che essa non parla genericamente di bricolage, non parla genericamente di giardinaggio e non parla nemmeno genericamente di rastrelli, ma parla specificamente della vendita di rastrelli online: quindi si identifichino alcune parole-chiave o frasi-chiave che possono essere particolarmente attinenti e poi si proceda a inserirli nei punti più importanti del sito.
Questi punti sono:
1) l’url della pagina; per esempio www.bricolage.com/rastrelli/vendita_rastrelli.html
2) il titolo della pagina; per esempio: vendita rastrelli online, o anche semplicemente. Vendita rastrelli.
3) le META Keyword: vendita rastrelli, rastrelli, vendita rastrelli online, dove comprare rastrelli, comprare rastrelli, rastrelli prezzi scontati etc
4) La META description: vendita di rastrelli online in tutta Italia; rastrelli a prezzi scontati e assistenza online.
5) e soprattutto, il contenuto della pagina stessa, ovverosia le parole e le frasi che sono leggibili dall’utente una volta visualizzata la pagina.
Deve quindi essere cura di chi si dedica alla redazione dei contenuti delle pagine il fare in modo che le key-word e key-phrase principali siano contenuti nel corpo del testo del sito, in una misura che non sia eccessiva, ovverosia che non ecceda la loro naturale presenza in un testo non ‘pensato’ per un motore di ricerca (tornando quindi al tema della ‘naturalezza’ che abbiamo già citato).
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 10
La scelta delle TAG, o meglio delle Meta Tag (parte 1)
I meta tag (o anche le metatag) servono per fornire informazioni supplementari su un una pagina web in una forma standardizzata che solo i motori di ricerca possono leggere, ma che non possono essere viste sa un essere umano durante la visualizzazione da browser; per questo esse sono particolarmente importanti per il posizionamento e l’indicizzazione nei motori di ricerca.
Le meta (le chiameremo così per comodità) fondamentali per l’indicizzazione di un sito in un motore di ricerca sono 3:
Title (titolo)
Keyword (parole-chiave o frasi-chiave)
Description (la descrizione del sito appunto)
Agli albori dell’internet commerciale (diciamo alla fine della prima metà degli anni ’90) le Meta erano di fondamentale importanza per il posizionamento e l’indicizzazione nei motori di ricerca.
In quel periodo, aleggiava una grande fiducia nei confronti dei proprietari dei siti web (che venivano genericamente definiti ‘webmaster’) e si pensava quindi che la descrizione che essi davano del proprio sito fosse la più attinente possibile e fosse quindi la più grande risorsa che un motore di ricerca avesse per cercare di classificare e di posizionare siti e pagine web (a dire la verità, oltre a un discorso di fiducia c’erano poche alternative a questo sistema)..
Le cose però non sono andate come si credeva e poco dopo l’introduzione delle META e la loro canonizzazione nella lettura che ne facevano i motori di ricerca, tanti webmaster cominciarono a ‘ingannare’ i search engine inserendo nelle META (titolo, descrizione e keyword) delle informazioni che non erano affatto attinenti con i contenuti del sito ma che semplicemente erano finalizzate a ottenere il più grande traffico possibile, ovverosia il più grande numero di utenti (soprattutto: nuovi utenti) per poi ‘dirottarli’ su prodotti che nulla avevano a che fare con le suddette META.
Tipici erano i casi di siti che inserivano META riguardanti musica ed MP3 e che poi di fatto pubblicizzavano altri prodotti (pornografici, videogames o altro ancora).
Questo fenomeno durò per lungo tempo e dobbiamo ringraziare Google (che cominciò a operare nel 1998) per avere posto fine a una situazione di fiducia malriposta che portava nella maggior parte dei casi a una grande insoddisfazione da parte degli utenti.
Google – seguito più o meno presto dagli altri motori di ricerca leader - prese sempre meno in considerazione le META, in quanto queste potevano appunto essere ‘sfruttate’ illegittimamente dai webmaster/proprietari di siti per fare visualizzare il proprio sito con parole-chiave o frasi-chiave che nulla avevano a che fare col sito stesso. Non è quindi scorretto dire che l’importanza delle META è oggi cento volte più piccola di quella che era un tempo, ma non per questo bisogna pensare che le META non abbiano più alcun valore e per diversi motivi.
1) molti siti sono composti da sole immagini (tipicamente i siti in tecnologia FLASH) e in questi casi, anche i search engine più avanzati (come Google ad esempio) utilizzano le META per dare delle descrizioni che altrimenti non potrebbero essere desunte dal corpo delle pagine (dal momento che queste comprendono solo o soprattutto immagini).
2) Inserire delle META correttamente significa dare a un motore di ricerca la comunicazione che il sito in oggetto è ben fatto, curato anche nei dettagli della compilazione del codice HTML e quindi degno più di altri di essere indicizzato e posizionato.
Se è quindi vero che non è più possibile affidarsi alle META per ottenere i risultati desiderati nei motori di ricerca è anche vero che non bisogna affatto sottovalutarle, non solo perché anche gli spoder come Google controllano come sono state compilate queste TAG, ma anche perché molti altri motori di ricerca (anche se questi hanno un traffico ridotto rispetto ai motori di ricerca leader) le prendono ancora in considerazione in fase di indicizzazione e di posizionamento.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 1: Introduzione ai motori di ricerca e presupposti per indicizzare e ottimizzare un sito Web
Lezione 11
La scelta delle TAG, o meglio delle Meta Tag (parte 2)
Nel compilare le tre META i cui sopra (Titolo, Descrizione e Keywords) bisogna seguire alcune regole fondamentali.
1) La descrizione
La descrizione non deve essere troppo lunga; 50 parole possono già essere considerate un numero-limite; le descrizioni più corte sono più efficaci in alcuni motori.
È saggio inserire le parole-chiave anche nella descrizione, non trascurando però la forma grammaticale e il significato, deve cioè essere una frase di senso compiuto.
In sostanza, la descrizione non deve essere un’accozzaglia di parole e aggettivi ma deve essere una frase di senso compiuto intelligibile da un essere umano.
2) Le parole-chiave
Le parole-chiave inserite nelle apposite META debbono essere effettivamente attinenti con i contenuti del sito.
Nel caso in cui queste keyword siano estranee ai contenuti del sito (e si intendano qui i contenuti del testo delle pagine) è facile che l’effetto sia negativo.
Ovverosia: è vero che i motori di ricerca di tecnologia moderna (post Altavista, diciamo) non considerano primariamente le parole-chiave inserite nelle META per ‘capire’ di che cosa tratta il sito stesso (o meglio, la pagina del sito stesso) ma è altrettanto vero che se queste sono in contraddizione o anche solo non attinenti con quanto contenuto nel testo della pagina l’effetto è seriamente negativo e il sito può essere penalizzato.
Il consiglio è quello di non inserire più di 10 keyword per pagina, dal momento che difficilmente una pagina web può abbracciare seriamente più di dieci argomenti e un altro consiglio utile è quello di separare le keyword da una virgola e non da uno spazio.
La separazione con lo spazio è caldeggiata da molti ma è un grave errore dal momento che spesso delle keyword sono composte da più parole e quindi si tratta di key-phrase. In questo caso, l’utilizzo dei soli spazi non farebbe capire quando le keyword debbono essere lette singolarmente o quando debbono essere lette come facenti parti di una keyphrase.
Lo spazio tra una virgola e l’altra è totalmente ininfluente, dal momento che la virgola stessa determina la fine di una keyword (o keyphrase) e l’inizio di un’altra.
3) Il titolo
Il titolo è forse la META più importante e che oggi viene ancora fortemente considerata dai motori di ricerca.
Il consiglio che possiamo dare è quello di fare sì che il titolo coincida con la keyword più importante di tutta la pagina (non del sito) e che quindi la caratterizzi fortemente e inequivocabilmente.
Se si desidera che su una determinata pagina arrivino i navigatori che sono interessati a comprare ‘nani da giardino blu’ e non tutto quello che può essere relativo all’arredamento da giardino e che magari può essere compreso nella pagina, allora bisogna dare come TITLE “nani da giardino blu”.
Questa è la garanzia migliore per fare sì che quella pagina possa essere posizionata bene nel caso in cui un searcher (un utente che utilizza un motore di ricerca) abbia cercato con la keyword ‘nani da giardino blu’ o con una keyphrase che contenga quella keyword, per esempio “dove comprare nani a giardino di colore blu’.
Come abbiamo cercato di mostrare, le META non sono certamente più importanti come lo erano dieci anni fa (e anche meno), ma non debbono essere sottovalutate per un buon posizionamento e una buona indicizzazione delle pagine di un sito web.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 2: Dettagli tecnici di grande importanza e la scelta dell'hosting
Lezione 1
Il file Robots
Il file Robots.txt (è errato al singolare Robot.txt) è un file di testo (come è evidente dalla sua estensione) che è stato pensato proprio per dare delle indicazioni ai motori di ricerca in fase di ‘spidering’.
Lo spidering è quell’azione – compiuta appunto da un motore di ricerca (o spider, crawler, bot), che è finalizzata allo scaricamento e all’immagazzinamento di pagine web che sono disponibili pubblicamente in Internet.
Il file Robots.txt è fondamentale per varie ragioni:
In primis, bisogna pensare che non tutti i siti web che sono pubblicati in rete desiderano essere indicizzati nei motori di ricerca.
Può sembrare un paradosso, ma molti siti sono pensati per una cerchia ristretta di utenti e non desiderano ottenere una pubblicità eccessiva o un pubblico diverso da quello che si è scelto di avere.
Certo, si tratta di casi isolati rispetto alla maggior parte dei siti web (i cui proprietari gradiscono siano visualizzati sempre il più possibile, anche con ricerche – query – non perfettamente attinenti), ma sono casi che esistono.
Lo standard per l'esclusione dei robot (che – come abbiamo detto – è sinonimo di ‘spider’) si utilizza un normale file di testo, da creare attraverso un qualunque text editor (bbedit, textpad, wordpad etc).
Questo file deve essere chiamato "robots.txt" e contiene, in un particolare formato, delle istruzioni che possono impedire a tutti o soltanto ad alcuni spider (quindi: motori di ricerca) il prelievo di alcune o tutte le pagine del sito.
Una volta creato il file robots.txt, questo deve essere pubblicato nella directory principale del sito web.
Ad esempio, se il sito ha indirizzo http://www.freeonline.it , il file dovrà essere accessibile all'indirizzo http://www.freeonline.it/robots.txt .
Tutti i motori di ricerca conosciuti aderiscono alla a questa ‘normativa’ (per quanto non sia stata scritta in nessuna legge nazionale o internazionale) e quindi sono obbligati (deontologicamente anche se non tecnicamente) a seguire le indicazioni del file robots.txt.
Quindi, qualora un motore di ricerca (tipicamente, attraverso un link) acceda a una qualsiasi delle nostr pagine, la prima cosa che esso andrà a verificare sarà la possibilità (l’autorizzazione) a spiderare le pagine di quel sito, ‘informandosi’ su quali possono essere le sezioni (pagine ) spiderabili (e quindi atte a essere inserite nell’indice) e quali no (nel caso ci siano delle limitazioni).
In una stessa pagina è possibile indicare quali sono i link che possono essere ‘seguiti’ e quelli che invece debbono essere ignorati, in quanto il proprietario del sito (per ragioni che non dobbiamo stare qui a considerare) non gradisce che vengano inserite nell’indice del motore di ricerca.
E’ bene ricordare che il file robots.txt serve per ‘dichiarare’ ai motori di ricerca quali sono le pagine web che NON debbono essere spiderate.
In assenza di questo file, i motori di ricerca si sentono nel diritto di spiderare e di inserire nell’indice tutte le pagine relative al sito web individuato.
Normalmente non conviene limitare gli spider, ma anche quando si ritiene che sia utile che il proprio sito venga spiderato per intero è bene inserire comunque un file robots.txt e questo perché dà al motore di ricerca l’idea che il sito sia stato costruito correttamente e seguendo tutte le regole della Setiquette, ovverosia della netiquette applicata e dedicata ai motori di ricerca. Un sito che non contenga questo file (nella dirextory principale) può essere perciò considerato poco professionale (a prescindere dalla quantità e dalla qualità delle pagine che si consente di spiderare) e quindi può essere penalizzato in fase di indicizzazione e soprattutto di posizionamento nelle SERP (Search Engine Page Results).
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 2: Dettagli tecnici di grande importanza e la scelta dell'hosting
Lezione 2
La scelta dell'hosting (il multiple IP)
Uno dei momenti più importanti, quando si sceglie di avviare o di continuare un’attività in Rete è quella della scelta dell’hosting e intendiamo qui per hosting la scelta dei server e della connettività che sono condizioni necessarie per fare sì che il proprio sito o i propri siti siano visibili nel World Wide Web.
Spesso l’hosting (nella definizione che ne abbiamo dato e che comprende anche l’housing ovviamente) viene sottovalutato nella strategia che un proprietario di un sito applica per ottenere il massimo della visibilità, ma possiamo dire che questo è uno dei fattori ‘off-page’ (ovverosia che non concernono quanto sta ‘scritto’ sulle pagine web) tra i più importanti e per diversi motivi.
In primis, l’hosting deve garantire una facile accessibilità al sito da parte dell’utente.
Un sito che si apre lentamente, che è spesso ‘off-.line’ o che presenta problemi di connessioni saltuari dà una pessima immagine di sé e disturba seriamente il navigatore (l’utente o potenziale utente del sito), impedendone la fidelizzazione.
E’ ovvio che la soluzione ideale – per chiunque intraprenda un’attività in Internet – è quella di avere dei server proprietari e di avere una connettività che garantisca anche i picchi di accesso (per esempio nei momenti ‘caldi’ della giornata o delle ‘stagioni’).
E anche vero però che spesso ospitare un sito su proprie macchine può essere molto costoso e non sempre è necessario.
Nel caso quindi in cui non sia abbia la disponibilità per ospitare un sito su macchine proprietarie, la soluzione ideale è quella di affidarsi a un ‘virtual sever’; ciò significa ospitare il proprio sito su un server (una macchina) che ospita anche altri siti e che mette a vostra disposizione una porzione di quel server e una determinata porzione di banda.
L’hosting vero e proprio (quello dove non è possibile avere un reale accesso alla macchina) è caldamente sconsigliabile, dal momento che non permette di eseguire anche operazioni elementari e può essere utilizzato quasi esclusivamente per siti statici (infatti normalmente non vi è accesso alla shell) e che non hanno grandi pretese di visibilità e di funzionalità.
Tutto quanto detto sinora è valido a prescindere dalle tecniche più recenti per indicizzare i siti.
Qualora l’ambizione sia quindi quella di indicizzare e posizionare più siti in maniera ottimale, il nostro consiglio è quello di affidarsi non solo a server (o virtual hosting) che abbiano una connettività potente e una grande capacità di disco fisso, ma soprattutto di affidarsi a società che mettano a disposizione IP multipli.
Un server può ospitare più di un IP e più server possono stare sotto lo stesso IP; nel caso in cui si sia interessati a pubblicizzare più di un sito e soprattutto nel caso in cui questi siti siano particolarmente numerosi (per esempio se si utilizzano domini di terzo livello – che sono dei veri e propri siti indipendenti – per portare traffico a un sito principale) è fondamentale avere a disposizione differenti IP.
Questo è importante perché i più importanti motori di ricerca considerano negativamente siti linkati o correlati che risiedono sugli stessi IP o anche sulla stessa ‘classe C’ di IP (ovvero gli ultimi tre numeri dell’internet protocol). In una prossima lezione ****** ancora più a fondo questo tema che è di fondamentale importanza.
Nel caso in cui si abbia intenzione quindi di pubblicizzare decine o centinaia di siti (e intendiamo qui ovviamente anche i siti di terzo livello) è caldamente consigliabile distribuire questi siti su IP differenti, di modo che i motori di ricerca non abbiano l’impressione di trovarsi di fronte a un unico sito con delle piccole differenze, ma a siti veramente diversi l’uno dall’altro.
Questa pratica – di distinguere gli IP che ospitano i diversi siti anche quando questi appartengono al medesimo proprietario – è perfettamente legittima ed evita che ci sia un rischio di penalizzazione o addirittura di ‘banning’ (ovverosia di penalizzazione massima dei siti pubblicizzati) che potrebbe invece verificarsi qualora tutti i siti fossero ospitati non solo sulla medesima macchina (i.e. server), ma anche sul medesimo IP.
Avere più IP è certamente più costoso che averne uno solo (soprattutto con provider italiani), ma è senza dubbio una garanzia per un miglior posizionamento, soprattutto nel caso in cui questi siano fortemente linkati fra loro o appartengano al medesimo dominio di secondo livello.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 1
I trucchi per i motori
Molti webmaster pensano che i motori di ricerca possano essere ‘ingannati’, con dei ‘trucchi’; è sempre stato così e sarà probabilmente sempre così, solo che mentre molti anni fa era facilissimo e qualche anno fa era facile, adesso è veramente difficile.
Nonostante ciò, non sono rari i casi in cui visualizziamo – anche dai migliori motori di ricerca internazionali – dei link a siti che sono di bassissima qualità e che utilizzano pratiche cosiddette ‘black hat’ (opposte a quelle legittime di ‘white hat’).
Diciamo subito che questi siti hanno ‘vita breve’ negli indici dei motori di ricerca principali (che portano ai siti circa il 98% del traffico totale dei search engines), ma è anche indubbio il fatto che possono disturbare e di molto la fruizione e l’esperienza di un navigatore di un motore di ricerca.
Sconsigliamo caldamente l’utilizzo di queste pratiche per due motivi principali:
1) in primis, come abbiamo detto sopra, la ‘vita’ media di siti che applicano pratiche irregolari di ottimizzazione è di poche settimane, se non di pochi giorni (in breve: prima che un software del motore di ricerca o un editor si accorga dell’irregolarità del sito)
2) In secondo luogo, spesso queste pratiche servono per essere posizionati bene nelle SERP (Le pagine dei risultati di ricerca), ma riescono a ottenere visite di utenti che non sono affatto interessati ai prodotti/servizi pubblicizzati e promossi effettivamente sul sito, quindi questo tipo di ottimizzazione (oltre a essere poco durevole) è anche poco utile; inutile dire che per business ‘on the fly’ è una tecnica che può avere un senso economico (anche se bisogna sempre calcolare il rapporto costi/ricavi).
Non può invece avere alcun senso per siti ‘seri’ e che hanno una sana idea di business e questo anche perché le tecniche ‘black hat’ comportano un rimaneggiamento della struttura dei siti che li rende particolarmente sgradevoli e difficili nella navigazione.
Vediamo quindi quali sono le pratiche più diffuse che possono essere considerate a buon titolo ‘black hat’:)
1) Testo nascosto (tipicamente l’inserimento di keyword o frasi con o stesso colore del background o con un colore leggermente differente, di difficile percezione per l’occhio umano)
2) Inserimento di keyword ripetute e soprattutto poco attinenti con il contesto della pagina nella quale sono posizionate
3) Cloacked pages (pagine che vengono distribuite ai navigatori in una maniera differente da come vengono distribuite per i motori di ricerca)
4) Redirect (in Javascript, HTML, o direttamente lato server, come con Apache
5) Doorway pages (pagine che non hanno alcun contenuto vero e proprio e che servono esclusivamente per l’indicizzazione e per poi reindirizzare l’utente su altre pagine che sarebbe stato più difficile indicizzare e posizionare).
6) Pagine duplicate, identiche o molto simili, che servono per indicizzare più pagine di uno stesso sito senza però offrire contenuti differenti
Il nostro consiglio è quello di non usare mai queste tecniche nel caso in cui la linea di business del sito sia ‘seria’ e il sito o i siti da posizionare-indicizzare siano destinati a un futuro nel medio e lungo periodo.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 2
Una buona struttura (del sito)
I migliori motori di ricerca hanno cominciato da tempo ad ****** la struttura dei siti, utilizzando questa ****** per valutare la qualità del sito e quindi il suo minore o maggiore ‘diritto’ per essere indicizzato e posizionato con un buon ranking (il ranking è appunto il posizionamento dei siti in un motore di ricerca e – più specificamente – in una pagine di un motore di ricerca (una SERP).
Questo nuovo modo di ‘leggere’ i siti ha sicuramente portato a dei notevoli vantaggi, sia in fase di visualizzazione dei risultati di ricerca, sia in fase di realizzazione dei siti stessi:
Ma che cosa si intende per buona struttura?
In primo luogo una buona struttura arte dalla home page, che non deve contenere troppi link e soprattutto che deve raccogliere i link in sezioni di modo che siano facilmente individuabili da parte degli utenti.
Google sconsiglia inserire più di 100 link per ciascuna pagina.
A mio parere, si tratta di un limite estremo che deve essere de fact abbassato a 50.
Bisogna poi ovviamente distinguere tra link esterni (external linking) e link interni (internal linking).
La somma dei link esterni e quella dei link interni non deve eccedere il numero di ottanta e questo esclusivamente per la home page.
Per la pagine interne del sito il numero di link (a meno che non si tratti di subhomepage) deve essere ridotto almeno della metà.
Un altro importante parametro è la distribuzione delle pagine interne.
E’ bene evitare che per raggiungere una qualsiasi delle sezioni del sito si debbano effettuare più di tre click e questo perché il caso contrario comporterebbe una difficile navigazione e una grande difficoltà nel capire dove si trovano le sezioni di interesse.
Tutte le pagine interne debbono poi essere linkate direttamente alla homepage o alle subhomepage, di modo che l’utente non debba continuamente cliccare il tasto back per raggiungere la pagina di partenza.
La struttura deve essere facilmente navigabile anche orizzontalmente e questo per evitare che l’utente debba, per passare da una sezione all’altra, ritornare alla homepage o a una delle subhompage (tipicamente, domini di terzo livello).
La struttura del sito non deve essere ‘eccessiva’ rispetto al traffico che essa genera.
Google e i principali motori di ricerca sono perfettamente in grado (per esempio attraverso le toolbar) di sapere quanto un sito è visitato, per lo meno in relazione ad altri siti.
Un sito con migliaia di pagine ma che non ha un traffico notevole può quindi essere considerato negativamente e per questo fortemente penalizzato.
Ancora una volta, il nostro consiglio è quello di strutturare il sito con la medesima progettualità e strategia che si utilizzerebbe normalmente se si dovesse realizzare un sito ‘in assenza’ dei motori di ricerca stessi, badando a fare sì che il navigatore abbia la migliore esperienza nella visualizzazione delle pagine del sito stesso.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 3
Il pagerank (Parte 1)
Sono ormai tanti anni che i webmaster di tutto il mondo si sforzano di far crescere il pagerank dei propri siti.
Anzi, è ormai diventato così un ‘must’ che molti non si ricordano nemmeno di che cosa si tratti effettivamente, attribuendogli spesso meriti o demeriti che invece non gli appartengono.
In questo articolo non daremo dei particolari insider per riuscire a far crescere il pagerank del proprio sito web, quanto piuttosto cercheremo di ricapitolare e di spiegare quanto più chiaramente possibile quali ne siano le caratteristiche (e funzioni) principali.
Cominciamo con una curiosità: il pagerank riguarda il ‘rank’ (anche ‘peso’, ‘forza’) di una pagina web, ma non vi è dubbio che il suo nome sia stato in buona parte determinato dal cognome del suo inventore: Larry Page (co-founder di Google).
Chiusa questa curiosa parentesi e prima di ****** nel dettaglio il ‘concetto’ di pagerank, dobbiamo sottolineare una cosa: se siamo interessati al pagerank come a uno strumento/sintomo per valutare le possibilità di indicizzazione e posizionamento di un sito, dobbiamo ricordarci che questa è solo una variabile su decine se non centinaia che concorrono a creare l’algoritmo di Google e quindi non può essere considerata assolutamente prioritaria.
Io stesso ho verificato che siti che hanno pagine con PR (pagerank) = 0 possono contare parecchie migliaia di utenti unici al mese, mentre siti che hanno pagine con PR=6 solo alcune decine.
Il pagerank, come abbiamo detto, rappresenta dunque il ‘valore’ (o meglio, uno dei valori) di un sito secondo Google (quindi non ha nulla a che fare con gli altri motori di ricerca).
Questo valore può andare da un minimo di 0 (tipico dei siti appena pubblicati) a un massimo di 10 (tipico dei siti di rilevanza internazionale e popolarissimi, come lo stesso Google.com o Yahoo.com).
Raggiungere un PR=10 è altamente improbabile (de facto, impossibile) per siti che non siano big corporation con decine di milioni di unique user al mese. Basti pensare che Google.it non raggiunge PR 10 ma ‘solo’ 9 e – a volte 8,.
Il pagerank è un dato pubblico (per lo meno, in una delle sue versioni, come vedremo in seguito…) ed è accessibile a tutti scaricando una toolbar che è pubblicizzata sulla home page di tutte le versioni di Google. Per l’Italia, la Google Toolbar è disponibile al seguente indirizzo: http://toolbar.google.com/intl/it/.
Una volta installata la Google Toolbar, è possibile visualizzare il pagerank di una pagina web semplicemente navigando.
Dopo pochi istanti dall’apertura di una pagina, la toolbar caricherà il ‘valore’ di pagerank relativo al sito che si sta visualizzando. Graficamente, il pagerank si visualizza come una barra che può essere di colore grigio (nel caso in cui il sito sia stato bannato dagli indici di Google), completamente bianca (nel caso in cui il PR=0) e con diverse quantità di verde nel caso in cui il pagerank sia superiore a 0.
Nel caso in cui il pagerank sia uguale a 10, la barra sarà interamente di colore verde.
Per chi non desideri installare la Google Toolbar o per chi utilizzi un browser o un sistema operativo che non la supportano, consigliamo di collegarsi all’indirizzo: www.pagerank.net, in cui è sufficiente inserire l’url di interesse e visualizzarne il relativo pagerank dopo pochi istanti.
La tipica domanda di chi si avvicina per la prima volta al tema del pagerank è: da che cosa è determinato?
Il pagerank è determinato principalmente dai link in entrata del sito in oggetto (detti anche “backlink” o “inbound link”).
Questi link in entrata sono ‘valutati’ da Google nel loro numero (quantità) e nella loro autorevolezza (qualità). Tendenzialmente, quanto più un sito è linkato, tanto meglio è; ma è anche vero che 100 link ‘scadenti’ (e poi vedremo quali sono) non valgono un link valore.
« Lezione precedente | Lezione successiva »
Il pagerank (Parte 2)
Abbiamo detto che non tutti i link hanno lo stesso peso; ma che cosa ne determina il peso?
I fattori, come sempre quando parliamo di algoritmi di motori di ricerca, sono molteplici.
1) pagerank del sito linkante
2) diluizione del pagerank proporzionato ai link in uscita (outbound link) dal sito linkante
3) attinenza dei contenuti del sito linkante con i contenuti del sito linkato
4) nome del link
Il primo punto è chiaramente di grande importanza; un inbound link di un sito acquista importanza in ragione del pagerank della pagina da cui proviene; se il sito linkante ha PR=0, possiamo stare certi che non avrà alcun influsso positivo sul posizionamento del sito linkato; se invece il sito ha un pagerank alto, è probabile che il suo influsso sarà importante; diciamo “probabile” semplicemente perché il pagerank di un sito può essere ‘diluito’ dalla contemporanea presenza di altri link in uscita.
Per semplificare le cose, potremmo dire che una pagina a PR=5 che conta 5 link in uscita (da non confondere con gli internal links) distribuisce per ogni link il valore di 5/5, quindi di 1.
L’esempio non è molto corretto perché potrebbe sembrare che essere linkati da un sito che ha PR=1 e un solo link in uscita sia la stessa cosa che essere linkati a una pagina a PR=5 e 5 link in uscita.
Non è affatto così; una pagina a PR=1 è completamente ininfluente, mentre una pagina a PR=5 (anche se conta decine di link) dà un grosso contributo al miglioramento del pagerank della pagina linkata.
Il motivo è semplice, la divisione che abbiamo succitato non è corretta; serve solo a dare un’idea; nessuno sa infatti con certezza quale sia il rapporto fra link in uscita e PR di una pagina (per quanto riguarda la diluizione).
Finora abbiamo fatto un discorso semplicemente ‘quantitativo’; ma il valore di un link è anche qualitativo; se chiedete a qualsiasi SEO di una certa esperienza se un link da una pagina con PR=5 (e – poniamo – lo stesso numero di inbound link) con un un contenuto attinente col sito linkato sia equivalente a un link da una pagina dello stesso pagerank, ma di contenuto differente, probabilmente vi dirà che non è così; vi dirà che un link da una pagina da un sito ‘attinente’ o ‘correlato’ ha molto più valore (a parità degli altri parametri).
A nostro parere questo è un ‘rumor’ diffuso ad arte soprattutto dal personale dei motori di ricerca (soprattutto di Google) per cercare di evitare un commercio ‘deregolamentato’ di link.
Di fatto, con l’attuale struttura dei motori di ricerca (che ‘funzionano’ lessicalmente e non semanticamente), è impossibile per un search engine sapere se due siti condividono il medesimo argomento (anche se la tecnologia AdSense potrebbe dimostrare proprio il contrario); l’argomento è infatti un ‘significato’ o un insieme di significati e ad oggi nessun motore di ricerca (nemmeno Google) è in grado di andare oltre il significante, ovverosia oltre la keyword o keyphrase cercata nella query.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 5
Il pagerank (Parte 3)
L’importanza del nome dei link in uscita
Facciamo un esempio: poniamo di gestire un sito di abbigliamento e poniamo che un sito ci linki da una pagina, con il nome “cravatte in seta”; il nostro sito sarà avvantaggiato nel posizionamento quando qualcuno cercherà “cravatte in seta” o “cravatte”, ma non quando cercherà “accessori abbigliamento”, per quanto tutti sanno che le cravatte sono accessori di abbigliamento.
Al contrario di quanto si potrebbe pensare, i motori di ricerca sono molto ‘conservatori’; in sostanza, anche se non intenzionalmente, hanno riproposto le logiche dell’economia e della società ‘off-line’.
I motivi per cui possiamo fare quest’affermazione sono molti; uno di questi è l’ “aging” dei link; se il vostro sito è linkato da una pagina con PR=5, possiamo dire che non tutto il ‘potere’ di questo link è passato alla pagina linkata immediatamente; il link assume un valore sempre più grande quanto più passa il tempo.
Questo è motivato da ragioni ‘interne’ e da ragioni ‘esterne’.
Fra le ragioni ‘interne’ c’è una considerazione facilmente condivisibile; alcuni link possono avere una vita di pochi giorni se non addirittura di poche ore; tipici sono i casi di news o di giornali online; in questi casi il link in uscita ha una vita breve e quindi è comprensibile che la loro ‘influenza’ sia minore di un link ‘strutturale’, che prevede un rapporto duraturo fra due siti .
Ma c’è un altro motivo per cui il pagerank non ‘passa’ da una pagina all’altra immediatamente.
Nell’ultimo anno si sono enormemente diffusi siti che ‘vendono’ e ‘comprano’ link; sarebbe più corretto dire che questi siti ‘affittano’ i link per conto terzi; questo ‘commercio’ ha sicuramente creato dei problemi al ‘cuore’ degli algoritmi di Google.
I link in entrata sono sempre stati considerati positivamente perché non sono ‘controllabili’ dai webmaster e perché si è sempre pensato che nessuna pagina con un pagerank alto linkerebbe una pagina di bassa qualità. Ma che cosa accade quando è possibile comprare 100 link a PR=6 avendone la disponibilità economica?
Ovviare a questo problema è ben difficile per Google.
Uno dei metodi che ha applicato recentemente (meno di un anno fa) è stata la creazione di un ‘sandbox’in sostanza, gli inbound link cominciano a provocare un effetto benefico per il sito linkato solo dopo mesi dalla loro attivazione.
Si dice – anche se non se ne hanno prove – che il periodo di permanenza in questo ‘limbo’ sia di circa sei mesi.
Obiettivamente ci sono numerosi indizi che fanno pensare che i tempi non siano più brevi; di certo questo è un ostacolo anche per i siti che sono linkati ‘naturalmente’.
Prima di concludere questa lezione sul pagerank di Google, dobbiamo ricordare due cose (strettamente correlate).
Il pagerank che si visualizza nella Google Toolbar non è mai quello ‘reale’, ovverosia quello che determina il posizionamento dei siti nelle SERPs.
Si tratta in primo luogo di un pagerank approssimativo (arrotondato per difetto, dal momento che non vengono visualizzati i decimali) e – inoltre – si tratta di un pagerank non aggiornato; un pagerank ‘apparente’ = 0 può nascondere un pagerank reale uguale a 5.
Nessuno – al di fuori di chi lavora in Google – può sapere qual è il pagerank reale di un sito; anche per questo non ha molto senso fare degli scambi link basandosi principalmente sul pagerank che appare sulla toolbar di Google.
« Lezione precedente | Lezione successiva »
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 6
Il Sandbox
Il funzionamento del Sand-Box è molto semplice; un sito che viene pubblicato oggi, con tanti link in entrata (inbound link), con una buona qualità di tali link (page rank dei siti linkanti), con tanto contenuto di testo, con gli URL contenenti keyword 'popolari' all'interno della pagina, ecc, insomma, un sito con tutte 'le carte in regola', non sarà posizionato per alcuni mesi.
Questo filtro dovrebbe persuadere i webmaster ad evitare pratiche 'artificiali' perché a fronte, per esempio, dell'acquisto di vari link in entrata (e quindi a fronte di una spesa immediata) non vi sarebbero ritorni se non dopo mesi; pare che la durata della permanenza del sito nel Sand-Box possa variare da un mese a sei mesi; le variabili in gioco sono molte.
Premesso che questo 'filtro' sembra si applichi solo a questi siti che sono stati pubblicati dopo il mese di marzo del 2004, possiamo dire che più il settore è competitivo, più le keyword sono popolari, più sarà lunga la permanenza nel Sand-Box.
Diciamo che la durata media sembra essere di tre mesi, ma non è detto che essa non duri di più per alcune keyword (le più competitive).
A chi si chiedesse quali siano i modi per accelerare l’uscita da questa Sand-Box (posto che ci si sia entrati), possiamo consigliare alcune procedure: in primis, non pensarci e agire come se Google non esistesse affatto, continuare ad aggiungere contenuti alle pagine e soprattutto continuare ad aggiungere link in entrata, possibilmente nella maniera più 'naturale' possibile, ovverosia non dieci link in un giorno e tutti con lo stesso nome, ma dieci link in 40 giorni e tutti con nomi differenti.
Il SandBox, di fatto, posto che veramente esista e che sia applicato a tutti i nuovi siti che sono messi online, non è altro che un 'differimento', quindi l'unica arma che è possibile utilizzare è la pazienza; dalla SandBox si esce prima o poi e se, durante il periodo in cui il sito è stato tenuto in questo 'limbo', si è fatto di tutto per renderlo più appetibile e non ci si è scoraggiati, i risultati verranno, anche se non immediatamente e, quando verranno, saranno più duraturi.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 7
L’artificial linking
C’è un altro fattore da valutare quando si cerca di attribuire un ‘valore’ a uno o più link in entrata.
Se la compravendita di link è un fenomeno ‘dannoso’ per la ‘purezza’ degli algoritmi di Google, altrettanto può dirsi per il fenomeno dell’artificial linking, ovverosia della creazione e pubblicazione di siti che linkano a un ‘destination site’.
Questa pratica è molto diffusa, ma i SEO che la applicano si sono già resi conto che non è affatto efficace e per un semplice motivo: è difficile far sì che questi siti linkanti abbiano pagine con un pagerank superiore a 2 e questo per ovvi motivi; perché abbiano un pagerank superiore bisognerebbe farli linkare da siti esterni e quindi il problema si riverbera all’infinito in un circolo vizioso.
C’è però da dire che, al contrario di quello che si sentiva dire qualche tempo fa, non c’è rischio che questi link ‘artificiali’ danneggino il pagerank o comunque il posizionamento delle pagine linkate e questo per un semplice motivo; potrebbe accadere che un concorrente linki un sito con dei siti ‘artificiali’ solo per danneggiarlo.
Per evitare questo, Google (e – presumibilmente – anche gli altri motori di ricerca) fa solo un calcolo ‘positivo’ dei link: un link ‘positivo’ aggiunge valore, un link ‘negativo’ non ne sottrae.
All'interno di questa strategia 'autocratica' di linkaggio ci possono essere due 'tattiche'; la prima quantitativa e la seconda qualitativa.
Nell'ipotesi quantitativa, il SEO è interessato a creare un grande numero di siti che linkino al mother-site (o destination-site), non preoccupandosi del loro pagerank e del peso che essi stessi avranno nei motori di ricerca, ma puntando soltanto sul numero.
Questa tattica è sbagliata per due motivi principali:
1) per prima cosa, 1.000 link da altrettanti siti che hanno page rank zero o inferiore di quattro non fanno di certo migliorare il page rank o il posizionamento del mother-site; questo perché i motori di ricerca (e Google per primo) valutano positivamente i 'voti' insiti negli inbound link solo se questi sono forniti da siti 'autorevoli' o che comunque abbiano un 'credito' sul motore di ricerca stesso; 1.000 link da siti con pagerank insignificanti, traffico insignificante e link popularity insignificante non servono assolutamente a nulla.
2) Inoltre, accanto a questo problema, esiste la seria possibilità che il motore di ricerca individui questi link come 'artificiali'; i parametri non sono pubblici, ma possiamo affermare pacificamente che un buon motore di ricerca (e a questi sono interessati i SEO) è in grado di riconoscere la 'parentela' di un network di siti; i parametri possono essere:
1) il contenuto (simile anche se non identico)
2) la grafica (simile anche se non identica)
3) il codice HTML (spesso è proprio identico)
4) l'hosting (stessa classe di IP)
5) il linking reciproco
6) il medesimo registrar
7) il medesimo proprietario
Chi infatti crea 1000 siti per linkare il proprio mother-site non può certo trovare diecimila siti che a loro volta linkino il network di siti, perché allora sarebbe stato molto più semplice sforzarsi di fare linkare direttamente il mother-site piuttosto che passare attraverso l'intermediazione del network; accade dunque che Google riconosca che il mother-site è linkato da 1.000 siti, ma assolo stesso tempo può verificare che questi 1.000 siti non sono linkati da siti esterni (al network stesso).
In sostanza questo network diventa una spam-island (ecco il perché del titolo di questo articolo). A parte tutto, rimane poi il grosso problema di quali contenuti inserire nei siti di questo network.
La seconda tattica è qualitativa, ovverosia creare una decina di siti che abbiano un proprio contenuto e che possano avere un 'peso' per il motore di ricerca e quindi linkarli al mother-site.
Questa tattica è forse superiore alla precedente sia in efficacia sia in efficienza, ma come vedremo ora ha dei difetti difficilmente sormontabili.
Per creare anche solo dieci siti 'pesanti' bisogna fare dei notevoli sforzi: bisogna costruire dieci siti completamente diversi l'uno dall'altro (quindi una ipotetica industrializzazione che poteva essere utilizzata per la tattica precedente non può essere applicata), bisogna poi creare un contenuto originale e che sia sempre aggiornato e, infine, bisogna necessariamente trovare dei siti esterni al micro-network che linkino al network stesso.
Il SEO che volesse quindi intraprendere questa strada si troverebbe di fronte al paradosso di dovere moltiplicare il lavoro originario (trovare siti che linkino il proprio sito) per dieci.
A seguito di questa breve ******, possiamo dunque trarre abbastanza serenamente una facile conclusione: qualora si voglia puntare fortemente ad aumentare la visibilità del proprio sito web attraverso fattori off-page e primariamente attraverso reperimento di inbound link, è molto più conveniente concentrarsi sulla qualità del proprio sito, cercare di fornire materiale che 'invogli' siti terzi a linkarlo e stabilire quindi una strategia di linking con altri siti (che non siano quindi della medesima proprietà).
Costruirsi un'isola di linking (quantitativa o qualitativa) è dunque possibile e può portare anche alcuni risultati positivi; di fatto, l'utilizzo delle medesime energie (finanziarie e lavorative) finalizzata al miglioramento della visibilità di un solo sito (quello che veramente interessa) porterebbe a risultati decisamente più soddisfacenti.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 8
Come aumentare la link popularity in maniera intelligente
Come abbiamo visto, la link popularity di una pagine è strettamente legata al suo pagerank, quindi è fondamentale fare di tutto per aumentarla (in maniera sapiente e ragionata e progressiva).
Ricordiamo che la link popularity misura quanti sono i link esterni che puntano a una pagina in questione (non al sito tutto).
E’ ovvio che non conta tanto (o soltanto) il numero di link che puntano al sito quanto piuttosto la loro qualità.
Essere linkati dalle directory di Dmoz, di Virgilio e di Yahoo e certamente importantissimo per un qualsiasi sito e si può trasformare in una grand link popularity e anche in un aumento di pagerank.
Il modo migliore per aumentare la link popularity di un sito non è certo quello di ‘comprare’ dei link da altri siti (anche se rimane sempre una possibilità) e questo per diversi motivi, così come non è quello di costruire network di link artificiali (come abbiamo visto nella scorsa lezione).
1) in primo luogo, difficilmente chi vende link ha una gestione seria del proprio business online (ci sono ovviamente le eccezioni), dal momento che cerca di avere dei ricavi con un sistema che è trasversale e quindi sicuramente non attinente con il proprio business (spesso del tutto assente); essendo quindi il business assente è difficile che questo sito possa avere una vera forza e una vera importanza agli occhi dei motori di ricerca.
2) In secondo luogo, è difficile che il pricing sia corretto.
Un pricing corretto presuppone un mercato aperto e libero e soprattutto conosciuto e pubblico.
Nella compravendita dei link questa dimensione di pubblicità è spesso assente o scarsa e quindi la trattativa può essere sballata sin dall’inizio.
3) I parametri con i quali si decide il pricing di un link sono fondamentalmente il pagerank.
E’ però bene ricordare che questi parametri (tranne in casi di banning immediato), nella loro dimensione visibile a tutti (quindi, per esempio, a barra verde del pagerank di google) non sono affatto in linea con la loro dimensione reale.
Per esempio, comprare un link dalla pagina di un sito che ha pagerank 7 può costare molto, mentre il link reale di quella pagina potrebbe essere della metà o di meno della metà.
Ovviamente può anche valere l’inverso e quindi in quel caso a rimetterci sarebbe chi vende il link e non chi lo acquista. (ricordiamo poi che si parla sempre di ‘vendita’, mentre di fatto i link si ‘affittano’, normalmente di mese in mese).
Il modo migliore per aumentare la link popularity è invece – sempre seguendo quello che è il nostro consiglio di base, ovverosia di ‘comportarsi’ come se i motori di ricerca non esistessero, - quello di ‘fare in modo’ che il nostro sito attragga ‘naturalmente’ i link da altri siti e questo proprio perché l’interlinking è sempre stato (prima dell’avvento di Google) uno dei modi più naturali per ricevere e dare traffico, tra webmaster e proprietari di siti che si stimano e che ritengono un link esterno e interno un valore aggiunto per il proprio sito.
Uno dei problemi ‘tipici’ in questi casi è quello dei siti concorrenti. Non è detto che due siti che si stimino non siano concorrenti (anzi, è proprio vero il contrario).
Il consiglio è quindi quello di cercare degli accordi non solo di puro linking ma anche finalizzati a partnership più strutturali e più durature, e questo può essere fatto fra siti che trattano del medesimo argomento magari da due punti di vista differenti (per esempio, un sito che tratta di golf da un punto di vista sportivo con un sito che invece vende al dettaglio mazze e palline da golf).
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 9
I rischi della over-optimization (parte 1)
Da qualche tempo a questa parte si sente parlare di over-optimization in relazione a pratiche di SEO.
Inutile dire che questo concetto è legato per lo più a Google, che - nonostante gli sforzi profusi negli ultimi mesi/anni da MSN e Yahoo - è a tutt'oggi la più grande 'fonte' di visite per qualsiasi sito web che abbia un traffico 'engined'.
Prima di capire se effettivamente esista questa over-optimization, vediamo di chiarirne il concetto.
Come dice la parola stessa, l'over-optimization è una 'eccessiva' ottimizzazione; per ottimizzazione intendiamo quell'attività volta a migliorare l'esperienza di navigazione dell'utente e allo stesso tempo l'attività di spidering e di indicizzazione dei motori di ricerca.
E' bene subito chiarire che per ottimizzazione si debbono intendere quelle attività "white hat", ovverosia consentite, e non quelle "black hat", ovverosia di vero spamdexing.
Attività tipicamente di spamdexing sono – come abbiamo già ricordato in una precedente lezione - l'utilizzo di font dello stesso colore del background, utilizzo di font troppo piccoli per essere letti da un navigatore etc.
In questo articolo presupponiamo che le attività di "white" optimization siano conosciute e le citeremo solo come esempi nell'****** della possibilità della suddetta over-optimization.
La nostra teoria è che di fatto non si possa mai parlare di over-optimization, quanto piuttosto di bad optimization, ovverosia di utilizzo scorretto degli strumenti che normalmente migliorano il posizionamento di un sito nelle SERPs (Search Engine Result Pages).
Partiamo da un dato di fatto: molti siti che sino a poco tempo prima erano presenti e ben posizionati sulle pagine di Google hanno subìto delle drastiche penalizzazioni.
E' sufficiente visitare qualcuno dei forum in cui i webmaster condividono le proprie esperienze per verificare questo fatto.
Nella maggior parte di questi casi, venivano applicate tecniche "white hat", infatti in caso di pratiche spamming è difficile che il sito raggiunga dei buoni livelli di posizionamento.
Che cosa è accaduto a questi siti?
Perché un sito che fino a ieri era considerato 'valido' da Google, oggi si ritrova bannato o fortemente penalizzato?
Per ****** i possibili casi di over-optimization dobbiamo distinguere tra fattori on-page e fattori off-page.
I fattori on-page sono quelli che riguardano ciò che è contenuto nelle pagine del sito in oggetto (ed che abbiano trattato nelle prime lezioni di questa guida).
I fattori off-page sono quelli che riguardano invece ciò che esula dai contenuti delle pagine del sito.
« Lezione precedente | Lezione successiva »
I Segreti dei Motori di Ricerca
Capitolo 3: I principali fattori "Off page" ed un'ottimizzazione "corretta"
Lezione 10
I rischi della over-optimization (parte 2)
A nostro parere esiste solo un tipo della cosiddetta over-optimization che può riguardare i fattori on-page; si tratta della keyword density.
Uno dei parametri che Google valuta per il ranking di una pagina nelle SERPs è la keyword density, ovverosia la frequenza di una keyword (o keyphrase) all'interno di un documento.
Mettiamo che la keyword in oggetto sia "lardo di colonnata"; una pagina sarà posizionata nelle SERPs meglio di altre se - a parità degli altri fattori - conterrà una 'giusta' frequenza di questo termine rispetto alle altre parole utilizzate.
Google non ha mai dichiarato (per ovvie ragioni) quale sia questa percentuale o quale sia il range percentuale che permetta di far parlare di una frequenza "corretta".
A nostro parere la percentuale non deve eccedere il 5% dei termini di una pagina anche se molti parlano anche del 10, 12%.
Di fatto, è plausibile che pagine che contengano una frequenza eccessiva di un termine significativo (e quindi 'al netto' di preposizioni, articoli, avverbi etc.) siano considerate da Google 'innaturali' e subiscano quindi un banning o una penalizzazione.
Questo esempio, citato in molti forum come esempio di over-optimization, a nostro giudizio è una pratica "black hat"; che differenza c'è tra utilizzare font dello stesso colore del background di una pagina ed 'esagerare' con l'utilizzo di una keyword all'interno di un documento?
Nessuna. Quindi, in questo caso, non si tratta di una over-optimization, ma di una bad-optimization, ovverosia di un utilizzo sbagliato (e quindi illegittimo) di tecniche corrette.
Più interessante è il caso dei fattori off-page.
A nostro parere, il principale fattore off-page in un sito è il suo inbound linking, che - di fatto - possiamo considerare la vera novità introdotta da Google nel 1998.
L'essenza dell'inbound linking è questa: a parità di fattori on-page, vengono posizionati meglio quei siti che sono più linkati (quantità) e linkati da siti già considerati 'validi' e che siano attinenti con i contenuti del sito linkato (qualità).
A nostro parere l'inbound linking può essere anche controproducente.
Come sempre, ciò che conta per Google è la 'naturalezza'; la regola aurea è (in teoria) quello di non fare nulla per l'indicizzazione che non si sarebbe fatto se i motori di ricerca non esistessero; una teoria che è certamente di difficile attuazione, ma che ha una logica fondata.
Torniamo dunque ai link. Se è vero che un sito è tanto meglio posizionato quanto più (e meglio) è linkato, è anche vero che questi link non debbono apparire 'artificiali' agli occhi dello spider (di Google o di altri motori di ricerca). Uno dei possibili fattori che può determinare l'artificialità dei link è il timing di linking;
se un sito appena nato o comunque appena indicizzato da un motore registra un improvviso aumento dei link in entrata (inbound link), è probabile che questo venga visto come 'attività artificiale'; è infatti improbabile che in un breve range temporale lo stesso sito sia linkato contemporaneamente (e 'naturalmente') da molti siti.
Il linking e/o il crosslinking naturali tipicamente richiedono molto tempo perché inizialmente sono pochi i siti disposti a linkare siti che sono nati da poco, che non hanno una storia etc.
Un altro fattore di fondamentale importanza è la dominazione dei link; la presenza di nomi ripetuti è sicuramente ritenuto un indice di 'artificialità' e quindi depone a sfavore per il sito linkato.
Sono infine di fondamentale importanza anche le caratteristiche dei siti di provenienza.
Nel caso in cui un sito sia linkato da numerosi siti aventi le medesime caratteristiche (codice html identico o simile, stessa classe di IP o addirittura medesimo IP, etc.), è evidente che un motore di ricerca considererà questi link 'artificiali', anche se attivati in un ampio lasso di tempo e con diversi nomi.
Questa è la situazione attuale (ipotizzata, ovviamente). Possiamo ora chiederci se questa strategia di penalizzazione adottata dai motori di ricerca (e, in primis, da Google) sia corretta.
A nostro parere è corretta solo la penalizzazione nel caso in cui ci sia un eccessivo numero di keyword in una pagina, e per un semplice motivo; se fosse vero che un sito può essere penalizzato da bad-linking (come nei casi succitati), allora vuol dire che chi voglia penalizzare un sito concorrente può farlo tranquillamente e a insaputa del sito che si vuole penalizzare. Poniamo che il sito A sia concorrente del sito B; A potrebbe, da un proprio network di siti già penalizzati e quindi considerati 'cattivi', eseguire un'opera di linking verso il sito B e in questo modo penalizzarlo.
A nostro parere sarebbe più corretto - da parte di un motore di ricerca - 'sospendere il giudizio' sui link che appaiono artificiali e 'tenere per buoni' solo quelli che appaiono essere naturali.
Ancora una volta, appare chiaro come non esista un algoritmo o un insieme di algoritmi perfetto per indicizzare e posizionare un sito.
Anche variabili nate con una giustificazione si rivelano essere deboli e possono essere sfruttate per influire sul posizionamento di siti terzi.
I fattori off-page, così tanto osannati e considerati negli ultimi anni, si rivelano dunque ambigui.
Di fatto, anche la loro origine non è ben giustificata.
Chi dice che un sito che è più linkato sia migliore di un sito che non lo sia? E' come credere che il vestito migliore sia quello che compra più pubblicità, oppure che il politico migliore sia quello più votato, oppure che la persona più intelligente sia quella che intrattiene più relazioni con amici e conoscenti.
In futuro (come vedremo meglio nella prossima lezione) i motori di ricerca dovranno prendere sempre più spazio i fattori on-page. L'utilizzo di fattori off-page non è altro che una 'resa' da parte di un motore di ricerca nella sua capacità di valutare la bontà di un sito.
Poniamo che il sito A abbia fatto opera di linking artificiale (acquistandoli oppure costruendo dei siti ad arte per autolinkarsi); questa è sicuramente una strategia "black hat"; ma ciò vuol dire anche che il sito in questione non è di qualità? Assolutamente no. Per questo i fattori on-page rimangono di fatto i più importanti.
Probabilmente il passaggio tanto aspirato (da parte non solo di Google, ma anche degli altri player) da una versione lessicale a una versione semantica rappresenterà la possibilità di superare l'impasse qualitativa (di quantità ne abbiamo fin troppa) in cui i motori di ricerca si trovano attualmente.
« Lezione precedente | Lezione successiva »