alcune persone si aggrappano ancora alle “vecchie abitudini”
Mentre la maggior parte delle tattiche di marketing tradizionali sono ancora oggi valide nel marketing digitale, i cambiamenti nell’ottimizzazione dei motori di ricerca hanno cambiato il panorama in modo piuttosto radicale. La maggior parte, se non tutti, questi cambiamenti hanno contribuito a migliorare il web – e la ricerca, in particolare.
Eppure alcune persone si aggrappano ancora alle “vecchie abitudini” e cercano di usare pratiche SEO obsolete per migliorare la visibilità e le prestazioni del loro marchio nella ricerca organica.
Alcune di queste tattiche hanno funzionato qualche anno fa, ma non sono più efficaci come una volta. Eppure molti marketer alle prime armi e/o piccoli imprenditori utilizzano ancora queste tecniche di ottimizzazione “zombie” (tattiche che dovrebbero essere morte, ma non lo sono per qualche motivo).
Non solo sono inefficaci, ma molte delle 12 pratiche di ottimizzazione obsolete che seguono sono potenzialmente pericolose per il benessere del vostro marchio, dei vostri siti web e di altre proprietà digitali.
Abuso di parola chiave
Ci sono così tanti modi che i webmaster e i “marketer” continuano a fraintendere il ruolo delle parole chiave nelle iniziative SEO in generale, e come dovrebbero essere utilizzate nella strategia quotidiana. Diamo un’occhiata più da vicino ad alcuni tipi di abuso e cattiva gestione delle parole chiave, tra cui l’uso di parole chiave irrilevanti e l’imbottitura delle parole chiave.
– Individuare e scegliere parole chiave irrilevanti
Troppo spesso, i professionisti SEO alle prime armi cercano di adattare i loro contenuti e messaggi ai limiti delle loro ricerche di parole chiave (e non molto altro). Questi “marketer” modellano i contenuti e i relativi metadati per rappresentare parole chiave ad alto volume e guidare il traffico verso il sito. Tuttavia, se la vostra offerta non è correttamente allineata con queste parole chiave, e soprattutto con l’intenzione degli utenti che vengono sul vostro sito, gli effetti saranno confusi. I marchi rischiano di perdere l’attenzione dei lettori prima ancora di aver avuto la possibilità di comunicare loro un messaggio reale.
In sintesi: non cercare di ingannare gli utenti e indirizzarli verso contenuti distorti da parole chiave ad alto volume per aumentare la visibilità.
Google sa cosa sembra, e può essere davvero definita come una pratica SEO obsoleta (oltre che una tecnica “black hat”, in molti casi).
Scrivere con una specifica “densità di parole chiave”, come molte tattiche di marketing basate su parole chiave, significa mancare l’obiettivo. Google non dipende più dalla densità delle parole chiave (o dal rapporto tra l’uso di una determinata parola chiave e la copia complessiva della pagina) per determinare se una pagina web è una fonte efficace per rispondere a una domanda di ricerca.
Oggi i motori di ricerca come Google utilizzano una moltitudine di segnali per determinare i risultati della ricerca. Le parole chiave rimangono importanti per gli argomenti e le idee che rappresentano, ma non sono l’ancora di salvezza per le ricerche di ranking.
Molto più importante è la qualità del contenuto e il modo in cui il messaggio viene consegnato.
È probabilmente il trucco più vecchio del mondo. SEO è tutta una questione di parole chiave, giusto? Quindi, caricare le nostre pagine web con parole chiave – soprattutto la stessa parola chiave di alto valore che puntiamo in modo aggressivo su tutto il sito – ci aiuterà ad apparire più in alto nelle ricerche, superando la concorrenza?
Assolutamente no.
I motori di ricerca sanno da tempo che cos’è il keyword stuffing e quali tipi di combinazioni di testo sono innaturali. Li notano come tentativi di manipolare i risultati della ricerca e di declassare il contenuto stesso. Sì, ci possono essere ancora contenuti di valore che utilizzano un semplice riempimento di parole chiave, intenzionalmente o meno, che non vengono declassati a causa del loro reale valore per gli utenti.
All’epoca, i webmaster che cercavano di giocare con il sistema si spingevano al punto di mettere ogni variante di una preziosa parola chiave nel piè di pagina del sito o, ancora più sommariamente, di rendere queste parole chiave dello stesso colore dello sfondo del sito, nascondendole così efficacemente agli esseri umani ma non ai robot dei motori di ricerca. I webmaster hanno provato anche questo con i link. (Non fare questo genere di cose). Ricordate che state scrivendo per gli esseri umani, non per i motori di ricerca.
Domini esatti
Ha senso avere parole chiave preziose nel proprio URL. In una certa misura. Ma quando diventa confuso o fuorviante (cioè porta a una cattiva esperienza d’uso), bisogna porre dei limiti. Una delle migliori pratiche per i domini è garantire che siano coerenti con il vostro marchio.
I nomi dei marchi dovrebbero essere brevi, concisi e in qualche modo significativi. Perché non dovreste volere lo stesso per il vostro dominio?
Molto tempo fa, Google valutava esattamente i domini corrispondenti perché aveva senso utilizzarli come segnale. I dati comportamentali hanno ora aiutato Google a fare queste (e molte altre) mosse di buon senso e di pulizia. Se gestite un buon business e offrite prodotti e/o servizi di qualità con il vostro marchio, Google si sforzerà di rendere visibile il vostro marchio quando è rilevante per le persone che lo cercano.
Un esempio concreto con il sito https://trading-online.pro, che mantiene il nome semplice e chiaro, è un sito di confronto per i broker online, non riusciamo a trovare una corrispondenza esatta nell’url ma rimane coerente e tematico. Fornisce informazioni su tutte le offerte di social trading, copy trading del mercato.
Scrittura per i robot
È importante capire che scrivere artificialmente non è naturale. E i motori di ricerca lo sanno. La convinzione è questa: scrivere per il web significa che dobbiamo ripetere un argomento con il suo nome proprio ogni volta che viene menzionato, lavorando su variazioni e versioni plurale / non plurale della parola in modo che “tutte le basi siano coperte”. Durante la navigazione, i robot vedono la parola chiave ripetuta, e in diverse versioni diverse, permettendo alla pagina di classificarsi bene per le varianti di parola chiave utilizzate (ancora e ancora … e ancora).
Questo non funzionerà più.
I motori di ricerca sono abbastanza avanzati da comprendere le parole chiave ripetute, le loro variazioni e l’esperienza negativa di contenuti generalmente pessimi. Scrivi per gli esseri umani, non per i robot dei motori di ricerca o qualsiasi altro robot.
Marketing di articoli e directory di articoli
Qualsiasi tentativo di giocare con il sistema di solito non funziona nel mondo SEO. Ma questo non impedisce alla gente di provare.
Soprattutto quando queste tattiche offrono miglioramenti significativi a un marchio, al suo sito web e/o alle sue proprietà digitali associate. Naturalmente, gli elenchi di articoli hanno funzionato. E anche loro hanno lavorato dannatamente bene per molto tempo. Comunemente considerata una delle prime forme di marketing digitale, la syndication degli articoli era un frutto facile da ottenere per gli addetti ai lavori. E aveva senso perché l’idea era simile ad altri canali, come la televisione e la stampa, che già utilizzavano regolarmente contenuti sindacati. Ma Google se n’è finalmente reso conto, lanciando nel 2011 il suo aggiornamento di Panda, che ha cambiato il gioco.
Panda si è nutrito del panorama delle ricerche, prendendo di mira le content farm e le directory, così come altri siti web che offrono contenuti di merda (sia che si tratti di contenuti semplicemente cattivi/falsi, scritti in modo orribile, privi di significato o rubati a qualcun altro). L’idea alla base del marketing degli articoli non ha più senso nel mondo di oggi, dove i contenuti di qualità devono essere originali, esperti, autorevoli e affidabili.
Articoli di filatura
Il risultato finale è essenzialmente un articolo distorto che ripete gli stessi punti del materiale di partenza. Non sorprende che questo metodo non sia più efficace. Sebbene l’intelligenza artificiale sia in costante miglioramento nella creazione di contenuti, tutto ciò che viene generato da una macchina è sempre di qualità inferiore rispetto a ciò che un essere umano può produrre – qualcosa di originale, utile e sostanziale.
Acquista link
Questo morde ancora i webmaster molti anni dopo. Come la maggior parte delle tattiche SEO, se sembra sospetto, probabilmente non dovresti farlo.
L’acquisto di link non è diverso.
Una volta era pratica comune pagare rapidamente per ottenere un gran numero di link che puntano al tuo sito.
Ora dobbiamo mantenere e ottimizzare i profili dei backlink, così come i siti web che supervisioniamo, e i domini di scarsa qualità con troppi backlink che puntano a un sito web possono essere pericolosi per la salute di un sito web.
Google è in grado di identificare facilmente i siti di scarsa qualità, e individuerà anche quando questi siti inviano un’abbondanza di link che non dovrebbero essere. Oggi, se vuoi contribuire legittimamente all’autorità e alla visibilità del tuo sito web, devi guadagnare link, non pagare qualcuno per crearli manualmente.
Testo dell’ancora
I link interni sono una caratteristica di ogni buona struttura del sito e dell’esperienza dell’utente. Di solito si usa l’anchor text, un elemento HTML che ci permette di dire agli utenti che tipo di contenuto possono aspettarsi se cliccano su un link.
Esistono diversi tipi di anchor text (marca, nudo, corrispondenza esatta, nome del sito/marca, titolo della pagina e/o titolo, ecc.), ma alcuni sono certamente diventati più favorevoli di altri, a seconda dell’uso e della situazione. In passato, l’uso di una corrispondenza esatta e di un anchor text ricco di parole chiave erano le migliori pratiche di ottimizzazione per i motori di ricerca.
Da Penguin, Google è stato in grado di identificare meglio i contenuti troppo ottimizzati. Questo risale alla regola d’oro della produzione di contenuti ben costruiti, facili da usare e naturali. Se si ottimizza per i motori di ricerca e non per gli esseri umani, probabilmente si fallirà.
Tattiche di ricerca per parole chiave obsolete
Le parole chiave hanno certamente subito drastici cambiamenti negli ultimi cinque o dieci anni. I marketer avevano una pletora di dati a livello di parole chiave, che ci permettevano di vedere cosa funziona e cosa non funziona per il nostro marchio, ma anche di capire meglio il targeting delle idee e l’intento degli utenti.
Molti di questi dati erano accessibili. Negli anni successivi sono emersi strumenti per cercare di replicare i dati delle parole chiave. Ma è semplicemente impossibile ricrearli completamente e correttamente.
Eppure, anche con questi dati ormai ridotti, i marketer sono ancora tenuti a fare le loro ricerche sulle parole chiave per capire l’industria, la concorrenza, la regione geografica, ecc.
Per fare questo, molti marketer si rivolgono al pianificatore di parole chiave gratuito di Google. Anche se i dati in esso contenuti sono stati oggetto di un certo esame nel corso degli anni, si tratta di un prodotto gratuito di proprietà di Google che ci fornisce dati che prima non potevamo davvero ottenere, quindi molti di noi continuano ad utilizzarlo (me compreso).
Ma è importante ricordare cosa significano realmente i dati per le parole chiave. La “concorrenza” nel pianificatore di parole chiave riguarda solo la concorrenza a pagamento e il traffico a pagamento, quindi è quasi inutile costruire una strategia di ricerca organica intorno a questi dati. Ci sono alternative a questo, come lo strumento esploratore di parole chiave di Moz e lo strumento SEMrush Keyword Magic, entrambi a pagamento.
Google Trends è utile anche per questo tipo di analisi competitiva, ed è gratuito.
Pagine per tutte le varianti di parole chiave
Questa tattica era utile per ottenere un buon posizionamento per tutte le varianti di parole chiave di alto valore mirate dal vostro marchio e dal suo messaggio. Fortunatamente, gli aggiornamenti di algoritmi come Hummingbird, RankBrain e altri hanno aiutato Google a capire che le variazioni della stessa parola sono, di fatto, tutte correlate allo stesso argomento.
Il contenuto migliore e più utile intorno a queste entità dovrebbe essere il più visibile per il valore che offre agli utenti sull’argomento, non una sola variazione della parola. A parte il fatto che questo porterà ad un brutale auto-cannibalismo del sito, renderà un sito web molto più difficile da usare e da navigare in quanto i contenuti saranno incredibilmente simili. La sola esperienza negativa dell’utente è una ragione sufficiente per non farlo. Ma il fatto che Google sappia di non trascurare questa pratica lo rende evidente.
Questa tattica si è evoluta e alla fine ha contribuito alla creazione di molte content farm che hanno mirato al traffico solo per il valore e la visibilità delle loro parole chiave. Questo è stato attribuito alla “vecchia maniera” di ottimizzare un sito web – per parole chiave e motori di ricerca, piuttosto che per gli utenti e il loro intento.
Ricerca mirata delle richieste di ricerca Exact-Match
La tattica di indirizzare le query di ricerca di corrispondenze esatte nella speranza di classificarle esclusivamente in base al numero di traffico – non perché la query o la sua risposta si riferisca effettivamente all’azienda che la sta ottimizzando – è diventata una pratica abbastanza diffusa prima della piena diffusione del Google Knowledge Graph.
I marketer cercavano di classificarsi ai primi posti nelle query di ricerca di corrispondenze esatte per attivare una finestra di dialogo e aumentare i tassi di click through per i loro siti.
Mappa del sito Frequenza XML
Non dovremmo mai tentare di manipolare i crawler dei motori di ricerca per far sì che il nostro sito web sia più di altri perché credono che siano stati pubblicati nuovi contenuti o che siano state apportate modifiche sostanziali al sito. Ma, come facevano i webmaster in passato, la mappa del sito viene utilizzata in modo molto diverso rispetto al passato. In precedenza, i webmaster potevano dare un numero di priorità ad ogni pagina di un sito web nella mappa del sito, che andava da 0.0 a 1.0. Poiché questo numero non è mai stato utilizzato correttamente, i crawler non hanno nemmeno rispettato la classifica delle frequenze. I motori di ricerca, invece, hanno semplicemente esplorato i contenuti che ritenevano necessari per esplorare
Assicuratevi di seguire le migliori pratiche per la mappa del sito XML. Le Sitemaps sono una parte incredibilmente importante di qualsiasi sito web.
Contenuto scadente
Devi ammetterlo. C’è stato un tempo in cui il contenuto di merda poteva ancora essere classificato ai primi posti nel nostro mondo. Come sono cambiati i tempi.
Contenuto rubato, contenuto sottile, contenuto pieno di parole chiave, contenuto incredibile – c’è stato un tempo in cui tutto questo poteva essere recuperato dai robot dei motori di ricerca e rigurgitato agli utenti come degno risultato. Ma non è più così.
Sappiamo cosa serve per produrre contenuti di qualità che vengono premiati dai motori di ricerca perché ci dicono cosa è giusto e cosa è sbagliato. Se si vuole avere successo nel SEO oggi, bisogna fare contenuti di qualità.