Conferme e smentite di Google – Raccolta Video di Matt Cutts (parte 1)
In questo post voglio dedicarmi ai video di Matt Cutts, capo del Webspam Team di Google che conferma o smentisce determinate informazioni sull’algoritmo del celebre motore.
Matt è un personaggio alla mano, e non disdegna le interviste, ma ovviamente non rivelerà i segreti per un buon posizionamento. Tuttavia nei suoi video spesso si possono cogliere degli ottimi consigli e smentite sui miti che spesso aleggiano nel mondo SEO.
Fattori On Site (Nel prossimo articolo i fattori Off-site)
– Separatori nei title: l’Uso dei trattini o delle virgole nel titolo di pagina sono migliori rispetto
l’underscore. Questo l’avevo già intuito da solo nel post da me scritto nel lontano 2006: ( http://www.giuseppeliguori.it/2006/11/10/guida-seo.htm )
http://www.youtube.com/watch?v=jHSqLYUPq8w#t=0m22s
– Uso dell’estensione (.html) nelle pagine: Molti siti (spesso blog), utilizzano degli indirizzi come:
www.nomesito.com/data/nomearticolo/ invece di www.nomesito.com/data/nomearticolo.html
Di solito io non do molto peso a questa cosa, però in realtà se il webserver non ha i mime type propriamente configurati potrebbe confondere il motore di ricerca, quindi se possibile utilizzare l’estensione reale.
Inoltre avendo /data/nomearticolo/ si presuppone che questa sia una directory e che quindi togliendo la parte finale dell’url si possa comunque accedere alla categoria o alla pagina madre che contiene quel file. Un esempio che posso fornirvi è il seguente:
www.venditafrutta.it/banane/ (categoria) www.venditafrutta.it/banane/banana-verde/ (pagina dell’articolo banana verde)
Ora anche se per scelta personale non ho messo dei link alla categoria /banane/ questa url per avere una gerarchia formalmente valida dovrebbe fornire un contenuto fruibile all’utente con l’elenco di tutte le banane.
http://www.youtube.com/watch?v=dSG6C33GwsE
– Google non penalizza i contenuti duplicati: E’ cosa risaputa da tutti che la duplicazione dei contenuti è dannosa. Questo video però ci fa capire qualcosa di diverso. La duplicazione in se non causa una penalizzazione al sito. Tant’è che le testate giornalistiche spesso copiano i contenuti dalle agenzie stampa senza alcun tipo di problema. Google però si riserva di omettere il risultato che è duplicato, per premiare ovviamente chi è più rilevante. I nuovi algoritmi verificano anche l’anzianità del contenuti. Mi sono capitati però dei casi in cui erroneamente
il contenuto originale veniva considerato duplicato perchè il sito che copiava era decisamente più forte.
http://www.youtube.com/watch?v=6hSoXutuj0g (Video di Greg Grothaus)
– Pubblicazione di centinaia di pagine in blocco: Di solito quando creo un sito o blog nuovo cerco di evitare
di pubblicarlo già con tutti i contenuti, in modo da mostrare sin dal principio un lavoro graduale e costante. Matt cutts dice che non ci sono penalizzazioni a pubblicare tante pagine tutte insieme (a patto che siano di
qualità), ma in ogni caso potrebbero essere contrassegnate per una verifica manuale. Tutto ciò per contrastare il fenomeno dei siti che spammano contenuti.
http://www.youtube.com/watch?v=JByPymBtXFY&feature=relmfu
– E’ meglio una Sitemap HTML o la Sitemap XML? Beh, io credo sia sempre meglio abbondare quando si tratta di far scoprire nuovi contenuti allo spider GoogleBot. In questo video ci fa capire che entrambi sono molto gustose come delle mele, ma i due tipi di Sitemap hanno valenza diversa.
La XML Sitemap aiuta lo Spider GoogleBot per fargli capire se ci sono pagine nuove e quando sono state aggiornate, ma non garantisce che queste vengano per forza inserite nell’indice. E’ un consiglio che forniamo a Google il quale poi deciderà in base alla rilevanza di quella pagina.
La Mappa del sito classica (Sitemap HTML) che troviamo spesso nei siti web invece oltre ad aiutare a far conoscere nuove pagine fornisce anche un peso alle pagine, poichè, nonostante l’utilizzo del pagerank sia deprecato in ogni caso viene usato e le pagine più sono interlinkate in un sito, più hanno forza (La famosa Link Juice). Inoltre serve anche ad un eventuale utente che vuole aiuto per cercare una sezione del sito e Google è nota per apprezzare ciò aumenta la qualità di un sito aiutando i visitatori. Dice inoltre che in caso non potessimo usare la Sitemap XML consiglia di usare quella HTML.
http://www.youtube.com/watch?v=hi5DGOu1uA0
– Le Pagine con molti slash (sottodirectory) inflenzano la rilevanza di una pagina?
Qui dice chiaramente che non badano a quanto è profonda la nostra url.
Se abbiamo quindi un url www.venditafrutta.it/banane/banane-verdi/banane-verdi-piccole/banane-verdi-piccole-e-gustose.html
oppure
www.venditafrutta.it/banane-verdi-piccole-e-gustose.html
non cambia molto, se non per un fattore estetico, a patto che questa pagina sia linkata quanto più vicino alla homepage. Vale quindi il classico discorso del PageRank. Se la Home è quella che ha una forza maggiore e noi linkiamo determinate pagine, queste riceveranno un tot di forza. Quando più ci si allontana dalla Home e quindi l’utente (e lo spider) per arrivare ad una sottopagina deve fare troppi salti, allora in quel caso la forza si disperde. Vale quindi la pena di valutare se la nostra pagina merita di essere linkata dalla Home o nelle sue vicinanze. Sempre secondo questo concetto quindi dobbiamo evitare di mettere troppi link in una pagina poichè nulla è gratis. Sarebbe facile altrimenti mettere una mappa del sito in Home e dare forza a tutti, invece ogni link che inseriamo dalla home si va a togliere dal nostro budget di Pagerank disponibile. Se la Home vale 10 e mettiamo 10 link ognuno riceve la sua fetta di torta che vale 1.
http://www.youtube.com/watch?v=l_A1iRY6XTM
– Nell’indirizzo (URL) è meglio utilizzare le keywords nel percorso o nel nome del file?
www.esempio.com/attrezzi/martelli/marcaX-pesante oppure www.esempio.com/attrezzi-martello-marcaX-pesante
Qui dice che in termini SEO l’algoritmo non fa molta differenza, ma dal lato dell’utente il primo url (con le sotto cartelle) è più leggibile e gerarchicamente corretto. Il secondo caso, avendo troppi trattini può sembrare un tantino spammoso. Io preferisco di gran lunga il primo.
http://www.youtube.com/watch?v=971qGsTPs8M#t=0m39s
– Testo nascosto attivabile da un pulsante.
Il web cambia e i motori si adeguano. Nei siti moderni spesso abbiamo degli elementi testuali che sono normalmente nascosti ma vengono poi resi visibili in taluni casi. Ad esempio: pagine a schede (Tabs) Pulsanti “Leggi altro” Popup con Lightbox etc…
Se vi state chiedendo se sono in violazione con il regolamento la risposta è NO ma non del tutto. Cioè, se l’attivazione del testo è legata ad un pulsante poco visibile, probabilmente può essere rilevato come testo nascosto, ma Google è a conoscenza che al giorno d’oggi ci sono elementi grafici come menù a tendina e Tabs, per cui se è tutto alla luce del sole non ci sono problemi.
Questo l’avevo capito anche dal fatto che Google non analizza solo l’html ma riesce a “vedere” il vostro sito renderizzato. Ve ne accorgete ad esempio dall’anteprima del sito nella copia Cache.
http://www.youtube.com/watch?v=UpK1VGJN4XY
– Cambiare la lingua in base all’ip è accettabile e non viene considerato Cloaking.
Personalmente preferisco non automatizzare la geolocalizzazione di un sito, ma scegliere una lingua base e dare l’opportunità all’utente di cambiarla, ma a quanto pare non crea problemi.
http://www.youtube.com/watch?v=7paVYBgH0Hw#t=0m44s
Per ora è tutto, nel prossimo articolo farò una raccolta dei video di Matt Cutts inerenti i fattori Off site.
Se vi è piaciuto l’articolo un commento è sempre gradito 🙂
grazie é stato utilissimo quest’articolo per me.