martedì 3 maggio 2011

L'ATTENDIBILITA' DELLE FONTI ONLINE

Vi posto l'estratto di un articolo trovato sul sito della Ferpi in quanto credo che saper pesare le fonti in cui vengono pubblicate notizie o commenti sui nostri prodotti, marchi ecc.. sia un'abilità da sviluppare obbligatoriamente per qualsiasi marketing & communication manager. 
Biagio Carrano in questo articolo ci propone quattro parametri guida per le nostre valutazioni.
Michele

Nel web, dove vi sono decine di sollecitazioni quotidiane a diffondere tramite un click fatti o fattoidi, gran parte delle persone opera senza alcuna altra competenza nell’analisi delle fonti che quella acquisita durante le ricerche scolastiche negli anni dell’infanzia e dell’adolescenza.
Una volta vi erano pochi depositari della conoscenza. Un qualsiasi tema poteva essere esaustivamente affrontato andando in una biblioteca pubblica e affiancando alla Enciclopedia Treccani o alla UTET qualche buon libro di riferimento sull’argomento. Oggi pure Wikipedia, al netto degli errori possibili e delle omissioni inevitabili, è un prodotto che non può esaurire la molteplicità delle pagine web che parlano di un dato argomento. Spesso vi è una necessità di risolvere in tempi brevissimi una necessità informativa e i tempi lunghi giorni o settimane di una ricerca vecchio stile sono un sogno antistress. E poi vi sono le opinioni personali. Un post di un blog può diventare una fonte per una tesi di laurea? Certo che sì, ma quando e sotto quali condizioni? L’idea di autorevolezza che ha il mondo accademico è ben distante da quella che ha il web.
Ecco dunque che l’urgenza presente del web non è quella di dare ulteriori informazioni ma soprattutto aggregatori e riordinatori.
Google non è tanto un motore di ricerca ma un sistema di riordino delle fonti sul web in base al prestigio che lo stesso web riconosce alle singole pagine in funzione dell’algoritmo del Pagerank. Netvibes non solo aggrega i tag e gli rss feed su un determinato argomento ma consente di ridurre enormemente i tempi di monitoraggio del web. Vedere in questa luce tali strumenti dischiude anche nuove modalità di utilizzo del web.
Ma quali sono i principi su cui può basarsi un’attività di riordino delle fonti e della conoscenza sul web?
Mi permetto di indicare quattro parametri:
  • profondità, intesa come numerosità delle pagine rilevate
  • ampiezza, intesa come molteplicità e diversità delle fonti monitorate
  • rilevanza, intesa come importanza relativa rispetto allo scopo della ricerca
  • prestigio, intesa come autorevolezza della fonte, sia l’autore che la testata web.
In questo senso è evidente che anche uno strumento formidabile come Google è solo una parte della soluzione. Le pagine più linkate non sono per forza quelle con i contenuti più pregnanti mentre invece nel mondo accademico (cui Pagerank si ispira) spesso accade proprio così. Le migliaia di pagine che raggruppano motori di ricerca o reader rss feed restano su un’orizzonte piatto come il monitor: non si ha profondità e non si sa da quale pagina partire per una ricerca o una analisi. Un contenuto molto pregnante e prestigioso può affondare nelle pagine più remote di Google a causa di una cattiva o nulla SEO.
In un quadro magmatico e cacofonico non sembra oggi emergere un parametro unico, semplificatorio e meccanico per valutare la qualità e l’affidabilità dei contenuti. Le metriche quantitative non dicono nulla perché un hoax può avere milioni di click, di like, di share o di tweet, sia perché chi vi ha cliccato non si poneva una questione di autorevolezza e veridicità sia perché poteva essere visto come un contenuto divertente e virabile. La differenza sostanziale sarà nella capacità dei singoli di reperire sul web e nel mondo tradizionale fonti comparabili e falsificabili (per citare Popper) capaci di avere maggiore forza persuasiva di altre concorrenti

Leggi tutto qui...
 

Nessun commento:

Posta un commento