Seleziona una pagina


Gli algoritmi che si celano dietro il sistema di ricerca di Google sono stati per lungo tempo un mistero che gli esperti SEO hanno cercato risolvere in ogni modo possibile. Ora, però, una gigantesca fuga di documenti potrebbe svelare non pochi segreti riguardo i meccanismi del sistema di ricerca del colosso tecnologico – dimostrando che non è stato affatto trasparente negli ultimi anni. Circa due giorni fa, l’esperto SEO Rand Fishkin ha rivelato che una fonte anonima ha condiviso con lui documenti di circa 2500 pagine provenienti dal Content API Warehouse di Big G, che contraddicono le affermazioni rilasciate negli ultimi anni dalla compagnia, quali “la negazione del fatto che i sottodomini vengano considerati separatamente nei risultati, la negazione dell’esistenza di una sandbox (un effetto secondo cui i siti web più nuovi sono penalizzati sulle key altamente competitive, ndr) per i siti web più recenti, la negazione del fatto che l’età di un dominio venga raccolta o presa in considerazione, e altro ancora”.

Nel complesso, i dati condivisi da Fishkin sono numerosi e complessi, il che li rende comprensibili più agli esperti del settore SEO che a un pubblico di utenti appassionati di tecnologia. Quello che è chiaro, però, è che questi diano (finalmente) un’indicazione chiara sui dettagli delle dinamiche che governano l’algoritmo Google: il tipo di dati raccolti da pagine e siti web, le modalità di gestione dei siti di piccole dimensioni, le motivazioni per cui l’algoritmo decide di far salire nel ranking dei risultati alcune pagine specifiche per le ricerche che riguardano argomenti sensibili come le elezioni, e via dicendo. A creare tanto scalpore, però, non è stata soltanto la fuga dei dati relativi alle API di Google, ma anche il fatto che questi hanno smentito molte delle affermazioni rilasciate dalla compagnia negli ultimi anni.

Un esempio citato da Fishkin, per esempio, riguarda l’uso dei dati del browser Google Chrome per la classificazione delle pagine all’interno dei risultati di ricerca. Per molto tempo i rappresentanti di Big G hanno affermato che questi dati non venivano utilizzati dall’algoritmo, ma i documenti ottenuti dall’esperto SEO rivelano esattamente il contrario, citando Chrome nelle sezioni che riguardano il modo in cui i siti web appaiono nei risultati di ricerca. “Mentire è un termine severo, ma è l’unica parola esatta da usare in questo casoha scritto l’esperto SEO Mike King riguardo queste rivelazioni -. Sebbene non biasimi necessariamente i rappresentanti pubblici di Google per la protezione delle loro informazioni proprietarie, non condivido i loro sforzi per screditare attivamente le persone del mondo del marketing, della tecnologia e del giornalismo che hanno condiviso scoperte più che fondate”.

D’altronde, da moltissimi anni gli esperti SEO non fanno altro che studiare l’algoritmo Google per cercare di mettere in mostra i loro siti web e farli comparire ai primi posti dei risultati di ricerca. Una strategia che, secondo l’opinione pubblica, non ha fatto altro che riempire la rete di contenuti “spazzatura” che rispondono alle logiche tecniche del posizionamento, ma non agli standard di qualità elevata richiesti dagli utenti. Ma questi documenti potrebbe invertire questa tendenza, riportando (finalmente) ai primi posti dei risultati i siti che davvero rispondono alle esigenze di ricerca del pubblico.



Fonte