guida seo posizionamento 2013

Guida all’ ottimizzazione siti web SEO per il 2013

La maggior parte dei siti non è ottimizzata. Molti SEO sono convinti che basti il lavoro link building per posizionare un sito. Benché sia vero, gli elementi on-page hanno un peso parziale nelle “scelte” di Google, che si potrebbe quantificare in un 40% delle sue attenzioni.  Qui ho già dato qualche consiglio su come approcciare l’ottimizzazione senza fare passi falsi.

Cominciamo con il procurarci un potente sofware per avere sotto controllo tutti i dati che il nostro sito passa allo Spider di Google ogni volta che viene appunto scansionato.

Screaming Frog è un’applicazione, gratuita (utilissimo strumento per l’ottimizzazione siti puoi scaricarlo cliccando  qui), che ispeziona le tue pagine più o meno come fa lo spider di Google. Esso ricerca errori, redirect, link esterni, questioni riguardanti le keyword e gli URL, pagine duplicate, heading, meta robots, rel canonical, file size, page depth level, internal links, anchor text, follow & nofollow, immagini, bot crawling. Sarà utile esportare il report di Screaming Frog su un foglio di calcolo, quindi registrare il proprio sito su Google Webmaster Tools e su Google Analytics per avere un quadro completo della strategia da adottare.

Screaming Frog fornirà una buona panoramica riguardante le keyword: title tags, meta description e meta keywords tag. I dati relativi alle keyword, forniti da Screaming Frog, uniti a quelli forniti da Google Analytics, sono preziosi: se si rilevano le chiavi indicate e le si inserisce nel Google’s Keyword Suggestion Tool, allora ne verrà fuori un’interessante lista di idee per le keyword. Il consiglio è quello di concentrarsi sulle ricerche locali e di evitare di focalizzare i propri sforzi su keyword difficoltose perché troppo ambite.

Screaming Frog, inoltre, fornisce preziose informazioni circa gli URL. Qualche consiglio sugli URL e come crearli l’ho dispensato qualche settimana fa: clicca qui se desideri approfondire. Gli URL dovrebbero essere statici, e contenere solo lettere, numeri e trattini, poiché quelli dinamici potrebbero contenere anche caratteri speciali prodotti random. Gli URL dovrebbero sempre attestarsi sotto i 100 caratteri, poiché quelli molto lunghi sono controproducenti; ogni URL dovrebbe poi essere facile da ricordare, ovvero user friendly. E mi raccomando: se si decide di crearli nuovamente, provvedere al reindirizzamento! Se non li si reindirizza, i link che puntano proprio a quegli URL non avrebbero più senso.

Proseguiamo nella nostra carrellata di spunti. Google non misura i title tag secondo un limite di caratteri, bensì secondo i pixel. Ecco perché è utile esportare i title tag in un foglio di calcolo. Lì sarà opportuno scegliere Arial come font, dimensione 12: Google infatti li misura così. Il limite è di 520 pixel: basterà impostare l’ampiezza della colonna di Excel per 520 pixel e il gioco è fatto. La dimensione ottimale è tra i 350 e i 520 pixel. I title tag devono poi essere compresi tra 50 e 65 caratteri, e ognuno dev’essere dedicato a una singola pagina.

Usare la parola chiave di quella pagina due volte se lo spazio lo consente, una volta all’inizio seguita dai due punti, da un trattino o da una barra verticale, quindi eventualmente una seconda volta. Si può includere un geo-localizzatore (geo-qualifier) se il suo utilizzo è rilevante.
In merito alla costruzione delle meta description, va detto che riempirle di keywords, data la loro brevità, le rende pressoché illeggibili. Più la meta description è allettante, invece, più è facile che attiri visitatori. Le meta description devono essere:

– uniche e significative;
– descrittive, fluide, contenenti un invito ad agire;
– contenenti tra i 140-150 caratteri, mai menodi 51 e mai piùdi 160;
– contenenti una o due frasi di senso compiuto, con punteggiatura corretta e non più di cinque virgole;
– contenenti la parola chiave una volta soltanto per frase, e possibilmente all’inizio;

Non è necessario usare meta keywords, poiché la maggiorpartedei motori diricercale ignora. Circa le heading tag, va fatta poi una considerazione: il motore diricerca percepisce le keyword più forti se la dimensione del font è più grande. Le percepisce insomma come più rilevanti, quindi occorre adeguarsi alle giuste dimensioni del carattere. Vanno tenuti a mente una serie di fattori:
ogni pagina dovrebbe contenere un H1 tag, poiché attira il motore diricercache utilizza questo genere didati per determinare l’argomentodiuna pagina;
gli H1 tag non dovrebbero mai contenere loghi e immagini, bensì esclusivamente testo. La parola chiave va inserita nello H1 tag, e se ce ne sonodipiù, va inserita in metà degli H1 tag complessivi;
i paragrafi non dovrebbero essere più lunghi di cinque righe, ed è saggio spezzare la pagina ogni due o tre paragrafi con una sotto-titolazione (H2 o H3 tag) o con un’immagine. Questi espedienti rendono il testo più digeribile, poiché i lunghi testi compatti dissuadono il visitatore dal proseguire la lettura.

Un altro fattore da non tralasciare mai è il contenuto. Originale, unico, ricco: esso è un indice fondamentale della qualità del tuo sito. Ricorda che le pagine contenenti più di 400 parole sono quelle che Google ritiene migliori. Ma non scendere mai al di sotto delle 300 parole ti tutela abbastanza. 400/600 parole sono sufficienti per una pagina più che accettabile.

Google Webmaster Tools e Screaming Frog rivelano informazioni preziose circa la situazione dei link. Mai superare il tetto massimo di 100 link per pagina. Per quanto riguarda gli anchor text, va detto che non bisogna mai esagerare con l’uso di anchor tex “ricchi”. Per “ricchi” intendo consistenti in parole chiave. Ogni tanto le formule del tipo “clicca qui” o “approfondisci” non guastano, perché si evita di gettare parole chiave in maniera insistente nel testo, rendendolo in alcuni tratti sovra-ottimizzato e poco user-friendly. Diciamo che tre link interni per ogni singola pagina rappresenta la quantità ideale.

Per quanto riguarda le immagini, è indispensabile che ognuna di essere contenga un ALT tag, che la descriva e che abbia in sé una parola chiave rilevante. Evitare che il nome dell’immagine sia un numero o una stringa casuale: esso deve necessariamente essere descrittivo. Le dimensioni dell’immagine vanno impostate con attenzione, ed essa può essere usata come un link, mettendola al posto di un anchor text.

Tecniche innovative per il posizionamento su Google

Un piccolo approfondimento sul tag rel=”nofollow” si rende ora necessario. Google ha introdotto questo tag per scoraggiare il traffico verso determinate pagine che non approva del tutto (pensiamo al traffico generato da commetti spam all’interno di blog, forum, ecc!). E’ una sorta di difesa contro i link in uscita di bassa qualità, che finiscono col danneggiare i siti buoni (blog, forum) poiché il traffico che generano è indirizzato verso siti non altrettanto buoni, anzi qualitativamente scarsi.

I file robots.txt ti aiutano a impedire che le pagine vengano indicizzate, come fanno del resto i tag di non indicizzazione. Pagine con contenuti mediocri, duplicati o insufficienti, potrebbero aver bisogno di interventi di questo genere, per evitare la censura degli spider e la penalizzazione. E’ un po’ come renderle invisibili agli occhi del crawler.
Sitemap in HTML o in XML, sottoposte al Webmaster Tools, ti riveleranno il grado di indicizzazione di ogni singola pagina del tuo sito, consentendoti di fare interventi mirati e integrativi.

I reindirizzamenti 302 vanno invece completamente evitati, perché rappresenterebbero il fallimento della SEO. Un reindirizzamento 301 permanente, invece, può essere usato, ma con saggezza.
Non ripeteremo mai abbastanza quanto sia pericoloso il contenuto duplicato. Un contenuto non originale, ma presente in altre pagine sul web, è indice di scarsa qualità: Google lo disapprova moltissimo! Se ti accorgi della presenza di contenuti duplicati agisci, a seconda del caso, così: modifica l’URL; riscrivi i contenuti modificandoli quanto basta; fai un 301 redirect a un/a canonical page/site; implementa il rel:”canonical” tag per identificare la pagina fonte. La pagina canonica è, in effetti, la versione preferita di una serie di pagine simili, ecco perché va in qualche modo individuata.

Attenzione, adesso, ai broken link (link spezzati, corrotti, danneggiati). Uno strumento come XENU Link Sleuth può aiutarti a correggere errori di questo genere.
sub>Attenzione, inoltre, ai codici di programmazione. Attieniti agli standard W3C, favoriti da Google.
Ora passiamo a parlare della velocità di caricamento, essenziale per incrementare la qualità del sito. Pingdom’s free speed text tool può aiutarti a capire quanto sia veloce il tuo sito. Ridurre la dimensione delle immagini, operare sul browser caching, CSS Sprites per la combinazione di immagini se possibile, sono azioni preziose in caso di lentezza eccessiva. Accorpare i file CSS e quelli JavaScript, comprimerli e minimizzarli, sarà un intervento in più.

Numero di link in entrata e loro qualità sono due fattori ulteriori da considerare. Open Site Explorer ti mostrerà una panoramica di questo traffico. Poiché i link che puntano alla homepage serviranno a ben poco, stai attento alle pagine di arrivo! Trusted domains (domini certificati) sono quelli più autorevoli, da cui ricevere traffico valido, a differenza di domini scarsi o addirittura diffidati. Inoltre i link in entrata non devono mai provenire da un unico dominio, ma da una serie più o meno lunga domini. Domain Authority è uno strumento che, appunto, misura l’autorevolezza di un dominio da 0 a 100, e ti aiuta a scegliere le migliori “rampe di decollo” per il tuo sito.

Facebook, Twitter, Delicious, Pinterest e altri social network tra i più quotati influenzano pesantemente il posizionamento. Clicca qui se vuoi informarti, per esempio, sulla crescente importanza di Facebook. Non omettere d’inserire pulsanti di condivisione (share buttons) e contenuti meritevoli di essere condivisi: è a dir poco fondamentale.

Infine sarà utilissimo non limitarsi a monitorare il proprio sito, ma confrontarlo costantemente con i suoi competitori: potrà essere ben strutturato e avere tutti i crismi, ma se i suoi competitori si dimostreranno più efficaci sarà difficile spuntarla in questa guerra per il posizionamento.

Speriamo di esservi stati utili e nel caso vorreste  affidare questi interventi sul vostro siti web per poter scalare le classifiche ma non volete “sporcarvi le mani” potete dare un’occhiata al nostro servizio professionale di posizionamento cliccando qui.

Here is a collection of places you can buy bitcoin online right now.

Leave a Comment

Il tuo indirizzo email non sarà pubblicato.