Bologna 40125, Italy
+39 347 517 719
info@htware.it

Algoritmi di posizionamento: dal valore dei link al valore dei fatti

Google Knowledge Vault: fatti contro link
Google Knowledge Vault alla prova dei fatti

Google Knowledge Vault alla prova dei fatti

E se il posizionamento su una ricerca fosse condizionato da fatti e non da link?

Chiudi gli occhi, scrive Matt McGee (Search Engine Land), e immagina un mondo dove le pagine non siano classificate solo attraverso la loro popolarità (leggi link in entrata), ma anche dall’accuratezza delle informazioni che contengono…

Questo mondo potrebbe non essere lontano: la rivista New Scientist ha riportato l’abstract di una ricerca condotta da un team di ingegneri di Google dove viene spiegato il concetto di Knowledged Based Trust (KBT) come modalità alternativa per determinare la qualità di una pagina e il suo livello di accuratezza.

“La qualità delle fonti del web è stata tradizionalmente valutata utilizzando segnali estrinseci come la struttura dei link in ingresso“.

“Noi proponiamo, scrivono i ricercatori di Google, un nuovo approccio basato su segnali intrinseci, ovvero sulla correttezza dell’informazione fattuale fornita dalla fonte. Una fonte che riporta solo pochi fatti non veri, può essere considerata affidabile.

La ricerca si snoda poi su come Google potrebbe utilizzare un processo di estrazione per confrontare i fatti che trova sulle pagine web con i fatti archiviati in una base di conoscenze, appunto la Knowledge Base (qualcosa che Google abbia già confezionato come il Knowledge Graph o la grande chimera del Knowledge Vault) e che premi le pagine che risultano più accurate.
Nel caso in cui una singola pagina non abbia abbastanza fatti, si suggerisce di basarsi su altre pagine dello stesso sito per valutarne l’affidabilità.

I piani di Google, per costruire un database unico di fatti conosciuti, sono noti: il progetto di Knowledge Graph risale, per esempio, al 2012 (per i novizi, trattasi di quelle informazioni che Google mostra nel lato di destra della ricerca, quando la query coinvolge persone famose, località oppure, più in generale, entità conosciute).

Gli autori scrivono che i loro primi test sul KBT sono stati promettenti.

“L’abbiamo applicato a circa 3 miliardi di terzine estratte dal web e siamo stati in grado di prevedere l’affidabilità di 119 milioni di pagine web e di quasi 6 milioni di siti web”.

Le terzine sarebbero le unità minime di fatti estratti dalle singole pagine web.

Il processo è effettivamente interessante e dagli effetti sicuramente prorompenti: rimangono però aperte due questioni.

La prima riguarda tutti quei siti che non necessariamente hanno tra i loro obiettivi quello di condividere fatti oppure riguardano fatti che non sono descritti nelle entità della KBT.

La seconda è l’integrazione di questo processo con quello attuale basato sul PageRank di una pagina web: secondo gli autori della ricerca, questo modo di misurare l’affidabilità dovrebbe fornire segnali aggiuntivi per la valutazione della qualità di un sito web e potrebbe essere usato in congiunzione con segnali esistenti, come ad esempio il PageRank, e non in sostituzione.

E tu cosa ne pensi di un motore di ricerca che restituisca risultati in funzione della loro affidabilità sui fatti riportati?

Una sola domanda, per quanto mi riguarda, ma chi controllerà la qualità della KBT?!