Blog

Google e la reputazione digitale


Google modifica il meccanismo del ranking. Penalizzerà i negozi on line che hanno una cattiva reputazione.
Ho letto un interessantissimo post su blog ufficiale di Google. Dal quale ho scoperto delle cose molto interessanti e dal quale nascono molte considerazioni.

In breve, e questa è la notizia che è riportata anche da altri siti, Google ha modificato l'algoritmo di ranking, ovvero il modo con cui in una determinata ricerca si sceglie chi fare uscire prima e chi dopo nelle pagine dei risultati (SERP), per penalizzare i siti di e-commerce che si comportano male con i clienti.

Questo è il succo, ed è quello che troverete in decine di siti che citano questa notizia. Al solito, io ho la sensazione che la maggior parte copino dalla stessa fonte italiana, come se fosse un comunicato stampa, ed è come se nessuno andasse a leggere la notizia originale. Ovviamente io non sono un giornalista, noi di ideativi non facciamo dell'informazione il nostro lavoro. Noi siamo informatici, quindi non abbiamo la presunzione di essere noi l'informazione. Non abbiamo inviati in giro per il mondo, ci informiamo leggendo su internet su siti di tutto il mondo. Però cerchiamo quando è possibile di andare alla fonte della notizia. Come in questo caso, il post ufficiale di Google, che ho citato all'inizio del post.

E leggendo la fonte ufficiale, come potete fare voi, ho letto altre cose molto interessanti.

Primo. Le date. 

Google dice di essere partito da un articolo del New York Times, datato 26 novembre, che sono andato a leggere. In questo articolo si fa la storia di una signora che ha acquistato degli occhiali presso in sito di e-commerce, trovato tramite la Google Search Bar. Il giorno dopo l'ordine, viene contattata dal titolare del sito il quale le dice che le avrebbe mandato un'altra marca. La signora protesta, richiedendo un rimborso. Dopo due giorni gli occhiali arrivano comunque. Occhiali spacciati di marca, ma invece copie di infima qualità. Inoltre invece dell'addebito di 361 dollari, si ritrova un ammanco di 125 dollari extra. Dopo una ulteriore protesta con il venditore, la signora minaccia di chiamare la società della sua carta di credito per bloccare il pagamento. E viene minacciata. Traduco testuali parole dall'articolo: "Ascolta puttana, io conosco il tuo indirizzo, sono dall'altra parte del ponte". Si trovano a San Francisco, ed il ponte è quello della baia.

Questa persona era così minacciosa, anche perché diversi siti di e-commerce puntano anche ad avere parecchie recensione negative, perché queste contengono link che aiutano ad aumentare il loro page rank su Google. Quindi più trattano male gli utenti e più diventano rintracciabili su Google. Ed era palesemente anche l'obiettivo del titolare di questo sito.

La signora non si fa spaventare e denuncia tutto alla società di carta di credito. A seguito di questo riceve minacce, anche una foto di casa sua, una richiesta di risarcimento di spese legali per 1500 dollari.

L'articolo del New York Times è molto lungo, ed è inutile che lo riporti tutto in questa sede. Google viene tirata in ballo più volte perché siti come questo giocano, come ho già detto, sulle recensioni negative per incrementare il rank. Ed inoltre i titolari del sito citato avevano anche trovato un modo per aggirare i limiti di Visa e MasterCard che possono buttare fuori dal circuito i siti che ricevono troppe contestazioni.

La cosa interessante che l'articolo è del 26 novembre. Il primo dicembre Google afferma che dopo aver letto quella storia, ha messo su un team per studiare il problema, e con quel post annunciavano la modifica agli algoritmi di ranking per evitare di promuovere siti truffaldini.

Dopo 4 giorni, questi hanno rilevato il problema, analizzato, trovato una soluzione, implementata, testata e rilasciata. Poi non una cosetta da nulla. Ha impatto su miliardi ricerche fatte ogni giorno. QUATTRO GIORNI. In molte società in quattro giorni non si trova neanche il tempo per pianificare una riunione.

Punto secondo. Le possibili soluzioni che hanno esaminato.

  • A seguito della segnalazione bloccare il singolo sito che commette questi reati. Questo avrebbe risolto il singolo problema, ma non avrebbe risolto il problema a carattere generale. Loro preferiscono risolvere i problemi algoritmicamente.
  • In effetti esiste già la soluzione per evitare di promuovere siti "cattivi". Mettendo sui link l'attributo rel="nofollow". Questo attributo, implementato dai principali motori di ricerca, dice al bot di non seguire il link. In pratica è come dire se vuoi indicizzalo, ma io non mi prendo la responsabilità di segnalarlo. In questo modo io con l'autorevolezza del mio page rank non promuovo quel link, e quindi il mio link non da alcun incremento alla sua rilevanza. Gli ingegneri di Google hanno visto che in molte community di valutazione i link hanno questo attributo. Per poi succede che siti come il New York Times o altri giornali, molto autorevoli come segnalatori di link per i motori di ricerca, non utilizzino questi attributi e quindi finiscano per promuovere questi siti.
  • Utilizzare il Large-Scale Sentiment Analysys for News and Blog, un sistema in possesso di Google per analizzare l'umore di un determinato articolo. In pratica uno strumento di analisi del linguaggio naturale in grado di capire l'opinione di dell'autore su un certo argomento. A prima vista una soluzione potentissima, però scartata per due motivi. Primo l'articolo in questione era scritto in linguaggio neutro, e quindi non avrebbe portato ad alcuna penalizzazione. Secondo l'adozione di massa di questo sistema, pregiudicherebbe la rilevanza sul motore di ricerca di argomenti controversi, ma importanti.
  • Pubblicare nella SERP, oltre al link al sito, le eventuali recensioni negative presenti sul web. Però questo non avrebbe diminuito la rilevanza dei loro risultati.
Punto terzo. Hanno trovato una soluzione.

Ma non ci dicono quale. Hanno sviluppato in pochi giorni un algoritmo che rileva nel caso specifico quel commerciante da quell'articolo del Times. E come lui centinaia di altri commercianti da articoli di tutto il web. Non rivelano i dettagli perché non vogliono che qualcuno possa cercare artificiosamente di modificare i risultati delle SERP. Riferiscono anche che questa è una prima soluzione al problema e che continueranno a sofisticarla.
Da informatico posso dire che quello che hanno fatto in pochi giorni è veramente strabiliante.

Punto quarto. Hanno uno strumento per catturare l'umore del web.

Come riportato al punto due hanno sviluppato un sistema di cui non ero a conoscenza, di analisi del linguaggio naturale. Una cosa veramente potente e complessa. Immagino che questo sistema sia ancora a livello di ricerca. Per adesso non ho ancora avuto il tempo di approfondire l'argomento, però lo farò in futuro, perché è molto interessante. Uno strumento del genere può rappresentare un indicatore socio-economico. Un modo oggettivo per capire dove va l'opinione delle persone su qualsiasi argomento. Se lo rilasciasse con le classiche API di tanti prodotti, potrebbe essere usato per realizzare potentissimi strumenti di marketing. Potrei fare un software che analizza in maniera oggettiva, l'opinione di un mio prodotto o di un mio servizio, tramite le recensioni degli utenti su vari siti web.

Punto cinque. Google sta diventando un grande fratello.

L'uso di internet ormai è contrario al concetto di privacy. Ogni cosa che faccio, le mail che mando dal mio account gmail, quello che scrivo su un sito come commento, o su Facebook, rimandono. Mai come adesso è vero il detto latino "scripta manent", le cose scritte rimangono. Ed una volta scritte non sono più di mia proprietà. Provate a cercare il vostro nome, il vostro nick, la vostra mail su google. Uscirà su decine di siti. Tutto quello che avete scritto non lo potete più cancellare, rimarrà per sempre. E Google con questi strumenti automatici, sempre più sofisticati, sarà sempre più in grado di sapere cosa avete fatto, cosa avete pensato, cosa avete detto. Inquietante.

Punto sei. Il lavoro del SEO diventa sempre più complicato.

Gli algoritmi di Google diventano ogni giorno più sofisticati. Arriverà il momento che saranno una vera intelligenza artificiale. A quel punto come il computer che batte il campione agli scacchi, sarà sempre più difficile confrontarsi con un motore di ricerca per cercare di rendere un determinato sito più rilevante nelle SERP. I SEO seguono molte strategie per ottimizzare i siti per i motori di ricerca. Ad esempio il link building. La strategia di spargere il link di un sito su altri siti, in modo che lo pubblicizzino. Di base più link uno ha da altri siti, più viene considerato importante. Soprattutto se questi link vengono da siti importanti (con page rank alto). Da un paio di anni a questa parte con l'introduzione del succitato rel=nofollow, qualcosa è cambiato. Ma con un algoritmo intelligente tutto sarebbe diverso. Potrebbe rilevare che il commento messo sul sito di cucina che segnala un sito di animali, non ha senso lì, non è collegato alla discussione in oggetto e quindi potrebbe ritenerlo artificioso, e molto simile ad altri 15 inseriti nell'arco di un'ora su altri 15 siti. E' molto più difficile fregare chi ha la tua stessa capacità di ragionamento. Io sono dell'opinione che la principale strada da seguire per aumentare la rilevanza sui motori di ricerca, d'ora in poi, sarà sempre avere contenuti originali, di qualità e tanti!

P.S.: e magari fra un paio d'anni Google capirà che in questo articolo ho parlato tanto bene di lui, aumentandomi il page rank. E vai con la marketta digitale. :-)


Post correlati:

Copyrights © 2011-2024 Tutti i diritti riservati - by Ideativi Srl