VIVERE NELLA “INFOSFERA” | 7.11.2018

VIVERE NELLA “INFOSFERA”

L’emozione dentro la notizia
con Piero Angela

Come Internet ha cambiato la comunicazione
con Juan Carlos De Martin

Tutti giornalisti, nessun giornalista?
con Ferruccio De Bortoli

7 novembre 2018
In live streaming dalle ore 15 alle 17

 


 

Chi non si ricorda dov’era e che cosa faceva quando a Genova è crollato il Ponte Morandi? La memoria di quel 14 agosto rimane nitidissima in ognuno di noi. Il motivo è semplice: la notizia è associata a una forte emozione. Anche personale: molti di noi sono passati su quel ponte. È un meccanismo fondamentale dell’informazione: fatti e dati, che parlano al cervello razionale, si fissano meglio se parlano anche al cervello emotivo, quello più antico dal punto di vista dell’evoluzione.

La notizia del Ponte Morandi è un buon esempio di come funziona l’informazione oggi. Il primo annuncio è partito dai cellulari di pochi testimoni oculari della tragedia. I mezzi di comunicazione classici – radio, televisione – hanno rilanciato il fatto su scala nazionale. Subito dopo la notizia ha preso una molteplicità di canali capillari: telefonate e immagini da migliaia di telefonini, un enorme flusso di messaggi sui social in rete. Rapidamente si sono diffusi commenti e interpretazioni in libertà. Immancabile la tesi complottista: il ponte è stato minato.

Questa è l’infosfera in cui viviamo. Un ambiente dove si respira comunicazione e dove la narrazione dei fatti (vera, parziale o falsa) conta più dei fatti stessi, e ne genera di nuovi.

Giornali, radio, televisioni: fino a pochi anni fa le fonti di informazione erano abbastanza numerose ma controllabili. Ognuna di queste sorgenti è centralizzata, trasmette a senso unico verso la periferia, va da un singolo punto a un grande numero di riceventi non connessi tra di loro.

Con l’arrivo di Internet e dei social (Twitter, Facebook, Instagram, mail, blog etc.) il centro non c’è più. O meglio: è ovunque. La geografia della comunicazione coincide con la geografia della rete. E la rete funziona con il meccanismo dei “sei gradi di separazione” descritto dallo psicologo Stanley Milgram sulla base di un esperimento sociale fatto nel 1967: con un numero limitato di passaggi, una informazione raggiunge punti della rete lontanissimi. Così in poche ore un messaggio può diventare virale, a prescindere dalla sua correttezza.

Internet nasce con il contributo di un grande numero di persone e istituzioni, soprattutto università e centri di ricerca. Decisivo è stato il Cern, il grande laboratorio europeo per la fisica delle particelle, che ha introdotto il protocollo www. La rete si è quindi sviluppata come un bene comune, qualcosa di simile all’aria che respiriamo. Ben presto però imprenditori abili e spesso geniali hanno utilizzato il bene comune per fini privati costruendo business miliardari. Google, Amazon, Facebook hanno bilanci paragonabili a piccoli Stati e agiscono in una logica globale senza le regole degli Stati.

La rete, di per sé neutra, né buona né cattiva, ha così assunto un grande valore economico e i social – cioè il motore del business – sono diventati uno strumento potente che la politica ha rapidamente utilizzato in modo diretto, svuotando la mediazione classica della democrazia rappresentativa, cioè il parlamento.

In ogni istante si produce in rete una quantità di notizie incalcolabile e la loro diffusione talvolta è pilotata da algoritmi (bot) concepiti per la manipolazione delle informazioni e per la costruzione del consenso. In questo grande gioco agisce il meccanismo che gli studiosi di comunicazione hanno definito “echo-chamber”. Succede cioè che di solito gli utenti della rete si confermano tra loro nelle proprie opinioni, ognuno fa da eco all’altro, portando a una polarizzazione estrema: pro o contro la Tav, i vaccini, gli inceneritori, il cambiamento climatico…

Il quadro si complica aggiungendo che nel gran bazar della rete tutto sembra gratuito. In realtà non è così. L’utente di Internet è fonte di dati preziosi per chi in apparenza regala servizi, e ogni click ha un valore, come dimostrano le pubblicità mirate che vediamo associate ai risultati delle nostre ricerche.

Ci sono altri due aspetti essenziali dell’informazione in rete, uno soggettivo e uno oggettivo.

Il primo è rappresentato dal tempo di attenzione: le rilevazioni dicono che la lettura sul web si consuma in 20-30 secondi. L’impostazione dei testi e delle immagini è quindi determinata da un fattore che rende difficile proporre approfondimenti e analisi critiche.

L’aspetto oggettivo è che la rete manca di quella autorità di certificazione che nei giornali è rappresentata dalla redazione e dal direttore responsabile, nelle riviste scientifiche dai referee. La validazione dei contenuti disponibili su Internet può passare solo per il senso critico dell’utente. Questo, naturalmente, è il bello della rete, ma è anche il suo pericolo.

Ultimo dato da tenere presente: i motori di ricerca, a cominciare da Google, rastrellano solo la superficie del web, meno del 10 per cento. Sotto la schiuma si nasconde l’oceano del deep-web, e ancora più in profondità gli abissi del dark-web. Qui si riesce a navigare solo con speciali meta-motori di ricerca, cioè motori di motori, di solito a pagamento. Se ne ricavano mappe e connessioni, che a loro volta devono essere interpretate. Un discorso che ci porterebbe lontano. Ma anche un terreno di caccia sconfinato per il giornalismo investigativo.

Bibliografia minima

Riccardo Staglianò: Giornalismo 2.0, Carocci editore

Walter Quattrociocchi, Antonella Vicini: “Misinformation”, Franco Angeli

Leonida Reitano: Esplorare Internet, Minerva Edizioni