Google Knowledge Vault: fatti contro link
Google Knowledge Vault: fatti contro link

Rimane sempre l’estate la stagione in cui proliferano, con più virulenza, gli annunci apocalittici sulle rivoluzioni nell’algoritmo di Google e nel modo in cui processa i risultati delle SERP.

Dopo il “fantasma” di Maggio, alias nuovo “quality score”, è inevitabile pensare che Google stia pensando di cambiare radicalmente il modo in cui indicizza le pagine web.

Come?

Nessuno lo sa e, ben sapendo tutto questo, Chris Horton (Social Media Today) lancia una provocazione: “la ricerca di link, sostiene, potrebbe diventare una cosa del passato ed essere sostituita da un algoritmo centralizzato, diretto da Google e con un’intelligenza proto-artificiale che, basandosi sulla Knowledge Vault, assegni una posizione ai siti web utilizzando come fattori la rilevanza e l’aderenza ai fatti“.

Era l’agosto del 2014 quando la rivista New Scientist salutava estasiata la nuova creatura di Google: appunto la somma di tutta la conoscenza umana (nel web), distribuita per entità poi trasformata in “fatti” dal primo meccanismo al mondo di fact-checking algoritmico.

Come fa Google a capire se un contenuto cita fatti reali oppure inventati?

Controlla quante volte quei fatti sono già presenti nella sua “biblioteca universale” e se sono validati come “conoscenza antecedente” (Prior Knowledge). Es. Lo stesso fatto citato da più fonti autorevoli è una conoscenza antecedente.

La Google Knowledge Vault dovrebbe essere a questo punto della storia la più grande macchina della “verità” esistente al mondo oppure (secondo i soliti complottisti) l’unica “verità” rappresentata e riconosciuta nel villaggio globale.

Comunque tu la possa pensare, metti sul piatto della bilancia anche lo sforzo che BigG compie per cercare, tra i 60.000 miliardi di pagine web del suo indice, il “miglior risultato possibile”.

Fino ad oggi Google ha dato un certo peso ai backlink: ha fermato (o tentato di fermare) quelli brutti, sporchi e cattivi, ma non ha ancora rigettato l’idea fondativa dell’algoritmo di pagerank e algoritmi come Google Penguin sono e restano indispensabili per conservare il valore nominale di buoni backlink.

Possibile quindi che Google accetti la verità espressa dalla sua “macchina” in sostituzione del sistema di voto basato su segnali di condivisione, per restituire i migliori risultati possibili ai suoi utenti?

È possibile forse che Chris Horton sia stato colpito dalla classica sindrome estivo-paranoica-complottista?

In media stat virtus, molto probabilmente…

La provocazione di Horton, solleva una questione importante e contiene una parte di verità: tra i diversi filtri e segnali che Google utilizza per separare contenuti rilevanti, autorevoli e affidabili dallo spam, ha aggiunto anche l’analisi dei fatti.

Date le premesse, potrebbe anche rivelarsi il filtro più efficace, ma non sarà sicuramente l’unico e non si metterà in contrapposizione all’analisi dei backlink:  anzi, potrebbe diventare a sua volta, un ottimo filtro per il contenuto delle pagine con i link in uscita.

Le pagine senza contenuto attendibile perderanno sicuramente valore, con o senza backlink, ma c’è anche una nota positiva (per malati di reverse engineering): un sito web che riporta fatti certificati da freebase.com (la sorgente del Knowledge Graph o emissario di Wikipedia), come i contenuti online da cui riceve link, potrebbe volare sulle SERP!

Sei d’accordo? Cosa ne pensi del Knowledge Vault? Non essere timido, non sono John Mueller (ma come lui non conosco nulla dell’algoritmo di Google)…

2 Comments

  1. Ciao Marco,
    complimenti per il tuo sito. Già da tempo il Knowledge Graph contribuisce al TrustRank di un sito il quale ha dimostrato in seguito a diversi studi di essere un criterio di valutazione che permette di presentare serp migliori e che Google usa già da molto tempo ormai. Si parla poco di TrustRank e molto di PageRank perché il secondo è calcolabile (la mitica barretta verde, che non viene aggiornata da tempo) mentre il primo è percepibile solo studiando le serp.
    Per quanto riguarda i segnali sociali ormai è chiaro che Google al momento non può utilizzarli, pure perché l’unico grafo sociale considerevole ce l’ha Facebook e poi basta vedere il fallimento del progetto Social Graph API di Google durato poco più di 4 anni.
    Freebase non permette la registrazione da tempo ed ormai è abbandonato. Google l’ha sfruttato per espandere il proprio database di entità ma poi non ha voluto rischiare con le analisi semantiche.
    Diciamo che è cambiato poco in questi anni (lo stesso Penguin ha declassato siti che compravano spudoratamente link o che utilizzavano i vari Scrapebox, ecc.) e poco cambierà nei prossimi. Le logiche sono sempre le stesse, poi c’è chi le conosce e chi no, ma questa è un’altra storia 😉

  2. Ciao Marco, sono d’accordo con te: l’implementazione di Google Knowledge Vault aiuterà il motore di ricerca a

    filtrare ulteriormente dalla Serp i siti che possiedono contenuti di dubbia qualità, permettendo l’aumento di

    popolarità di quei siti web dal contenuto autorevole e che possiedono una valida link building.