Una fuga di 2.500 pagine di documenti interni offre una panoramica inedita su come funziona l’algoritmo di ricerca Google Search.
Google Search, uno degli algoritmi più influenti su internet, determina la visibilità online dei siti, decidendo quali saranno mostrati agli utenti. Nonostante il suo impatto, i dettagli specifici su come i siti web vengono classificati sono rimasti largamente ignoti e sono stati parzialmente ricostruiti da giornalisti, ricercatori e specialisti di SEO.
Nel marzo scorso, Google ha annunciato un aggiornamento dell’algoritmo, con l’intento di puntare a promuovere contenuti autentici e utili, modificando i criteri di valutazione per privilegiare le pagine create per gli utenti piuttosto che per i motori di ricerca.
Adesso sono emerse online circa 2.500 pagine di documenti interni, che includono 14.014 attributi dell’API di contenuti di Google, apparentemente dal “Content API Warehouse”. La documentazione, pubblicata inizialmente su GitHub per errore a marzo e poi rimossa il 7 maggio, offre uno sguardo dettagliato e inedito sul funzionamento dell’algoritmo. Nonostante la rimozione, una copia dei documenti è rimasta accessibile tramite Hexdocs, un servizio di archiviazione esterno, e ha continuato a circolare online.
I documenti, resi noti da Rand Fishkin, un veterano nel campo del SEO, sembrano suggerire che Google potrebbe non essere stata completamente trasparente sulla propria metodologia di classificazione. Secondo Fishkin, in un post dettagliato sul sito della sua azienda SparkToro, questi documenti descrivono in modo approfondito l’API di ricerca di Google Search e offrono una panoramica delle risorse disponibili ai dipendenti.
Molti dei documenti trattano sistemi obsoleti, ma altri sembrano aggiornati. Google non ha ancora fornito commenti ufficiali sulla fuga di notizie, e non è chiaro se lo farà. Le informazioni condivise da Fishkin sono ampie e tecnicamente complesse, adatte principalmente per sviluppatori e specialisti SEO piuttosto che per il pubblico generale. I documenti esplorano vari temi, come i dati raccolti e utilizzati da Google, come il motore di ricerca posiziona i siti in questioni delicate quali le elezioni politiche, e la gestione dei siti web di minori dimensioni.
Fishkin evidenzia alcune discrepanze tra le informazioni nei documenti e le dichiarazioni pubbliche fatte dai rappresentanti di Google, che spesso cercano di proteggere le informazioni proprietarie e contraddire le scoperte fatte nel campo del marketing, della tecnologia e del giornalismo. Per esempio, Fishkin solleva il dubbio su se i dati di Google Chrome influenzino il ranking delle pagine, nonostante le smentite ufficiali, dato che nei documenti Chrome è menzionato relativamente al modo in cui i siti web sono visualizzati nei risultati di ricerca.
Un’altra questione riguarda il ruolo dell’EEAT (esperienza, competenza, autorevolezza e affidabilità), una metrica di Google per valutare la qualità dei risultati di ricerca. Nonostante sia stato affermato che l’EEAT non sia un fattore di ranking, i documenti contengono poche menzioni di EEAT. Tuttavia, un altro esperto SEO, Mike King, ha descritto come Google potrebbe raccogliere dati sugli autori delle pagine, incluso un campo per identificare l’autore di un contenuto.
Questo non conferma che le firme degli autori siano un fattore di ranking esplicito, ma indica che Google monitora questo attributo. I rappresentanti di Google hanno sempre sostenuto che le firme degli autori sono destinate ai lettori e non influenzano le classificazioni. Anche se i documenti non forniscono una prova definitiva, offrono un’occhiata dettagliata su un sistema altrimenti opaco e controllato. L’indagine antitrust del governo degli Stati Uniti su Google ha portato alla luce ulteriori documenti interni, arricchendo la comprensione del funzionamento del motore di ricerca di Google.