Il ruolo della conoscenza nella formazione giornalistica

Il progetto Journalist’s Resource dell’Harvard’s Sorenstein Center ha recentemente redatto una lista aggiornata di pubblicazioni di qualità dedicate alla formazione nel giornalismo. Le risorse comprendono articoli e report di natura teorica, ma anche analisi empiriche sull’industria della notizia.
Come è noto, il sistema dell’informazione è in una fase di grande trasformazione e, forse, tra gli effetti sottovalutati del cambiamento vanno annoverate le ripercussioni sui tradizionali curricula delle scuole di giornalismo, che sembrano armi educative sempre più spuntate. Sebbene le preoccupazioni su qual è la migliore formazione da offrire ai nuovi giornalisti riguardi soprattutto i coordinatori e i responsabili di corsi di formazione, dare un’occhiata alla lista del Journalist’s Resource in generale può essere istruttivo anche per avere un’idea delle tendenze più interessanti in circolazione sul giornalismo.
Particolarmente significativi per la riflessione che conduciamo al Master della Sissa dove lavoro sono i riferimenti al giornalismo basato sulla conoscenza. Su tutti segnalo il libro Informing the News: The need for Knowledge-Based Journalism, pubblicato lo scorso ottobre dalla casa editrice Vintage e scritto da Tom Patterson, direttore di Journalist’s Resource. Patterson sostiene che la via maestra per ridare un significato sociale imprenscindibile all’informazione professionale è insegnare ai giornalisti ad usare la conoscenza.
L’autore si muove in una direzione inagurata già da Philip Mayer negli anni ’70 del secolo scorso, quando nel libro Precision Journalism, tradotto solo nel 2006 in Italia col titolo Giornalismo e metodo scientifico, proponeva di trattare il giornalismo come una scienza.
Il progetto di Mayer ha avuto fortune alterne, ma oggi ci sarebbero più possibilità di successo per il giornalismo di precisione per due ragioni. La prima è per il ruolo assunto dalla conoscenza nella teoria sociale e nelle strategie economiche. Il secondo motivo è internet. Le tecnologie digitali e di rete, sostiene Patterson, renderebbe realizzabile la visione di Meyer: basare la presentazione delle notizie sull’esercizio delle “massime virtù scientifiche”, per dirla alla Walter Lippman, che si esprimeva già in questi termini negli anni ’20 del Novecento nel volume Liberty and the News.
L’invito a una professionalizzare del giornalismo nel senso di un uso approfondito della conoscenza mi trova molto d’accordo. Così come condivido le premesse di fondo di Patterson, vale a dire che il problema dell’abbassamento della qualità delle news richiede un’innovazione di concetti e pratiche giornalistiche basata sulla riattualizzazione delle funzioni sociali dei professionisti dell’informazione. Tra queste vale la pena ricordare la capacità di validare e distinguere ciò che è rilevante per una comunità da ciò che non lo è, l’attendibilità nel fornire notizie che rappresentino la base di una realtà condivisa, la necessità di istituzioni editoriali di cui fidarsi. Il recupero passerebbe per un nuovo modo dei giornalisti di rapportarsi con il sapere.
Il ragionamento è abbastanza lineare anche se, a mio modo di vedere, lascia margini di approfondimento su almeno tre questioni: di quale conoscenza hanno bisogno i giornalisti? Quali sono i rapporti tra la conoscenza di cui parla Patterson e la scienza? Quali sono le competenze da insegnare eventualmente nei percorsi formativi?

Rispetto alla prima questione, è opportuno premettere che nei ragionamenti di Patterson, e parzialmente di Meyer, si sovrappongono piani differenti, usando ad esempio come termini intercambiabili la conoscenza accademica in ambito umanistico e sociologico con la conoscenza scientifica, oppure la conoscenza dei processi con quella dei contenuti.
Per maggiore chiarezza è forse utile isolare le diverse dimensioni in cui si esprime il problema della conoscenza dei giornalisti. Si possono identificare almeno quattro aree:

1) Il giornalismo ha un problema disciplinare, nel senso che non è un corpo sistematico di pratiche e concetti universalmente condivisi attraverso i quali si riescano a stabilire le unità minime di conoscenza necessarie e sufficienti per essere definiti giornalisti. La questione è controversa perché esistono migliaia di scuole di giornalismo nel mondo, basate però evidentemente su un fragile terreno epistemologico e quindi curriculare. Specchio di quest’indeterminatezza è il ricorrente conflitto tra “pratici” (il giornalismo è quello che fai in una redazione) e “teorici” (il giornalismo è caratterizzato da modelli, problemi e dinamiche specifiche che vanno studiate), una diatriba che difficilmente qualcuno porrebbe oggi per la medicina, la giurisprudenza o la fisica;

2) I giornalisti hanno un problema di conoscenza nel senso che non sanno e non possono sapere in profondità quello di cui raccontano. Un altro modo di dirlo è che i giornalisti sono esperti precari, esperti a tempo. È una problematica generalizzata. Che si tratti di politica, istituzioni, scienza, sport, la conoscenza dei diretti interessati su fatti specifici sarà sempre più approfondita rispetto a quella di un cronista che deve coprire temi diversi, seppur all’interno di un ambito specifico. Il paradosso non è nuovo ma è sempre attuale: se il giornalismo è ricerca di una forma di verità, come si potrà soddisfare quest’obiettivo visto che i professionisti dell’informazione non possiedono quasi mai il livello di conoscenza degli esperti protagonisti delle notizie che i giornalisti devono raccontare?

3) Il giornalisti hanno un problema di conoscenza rispetto al metodo: pochi riescono a spiegare come fanno a sapere quello che sanno o perché una procedura di individuazione ed esposizione dei fatti è più efficace giornalisticamente rispetto a un’altra. Ma soprattutto non c’è un metodo condiviso che permetta di affermare che se si seguono determinati passaggi nella ricostruzione degli accadimenti si arriva alla stessa rappresentazione della realtà;

4) I giornalisti non sanno come sfruttare pienamente la conoscenza disponibile nelle università, nei centri di ricerca, nelle biblioteche. Questo potrebbe essere definito come un problema di applicazione della conoscenza.

La distinzione proposta aiuta a comprendere se e come la scienza può essere utile nell’affermazione del giornalismo basato sulla conoscenza.
La conoscenza scientifica può fornire un modello a cui tendere e un campo su cui interrogarsi per almeno tre motivi: per la tipologia e la qualità dei contenuti, per il metodo usato nella loro produzione e perché mostra molto efficacemente come cambiano le dinamiche di accesso, distribuzione e utilizzo del sapere in epoca digitale (si veda ad esempio La stanza intelligente di David Weinberger).
Voglio sottolineare quest’ultimo punto perché si distingue molto dalla visione statica a cui si richiamano Meyer e Patterson. Il mese scorso ha suscitato una forte discussione, fra addetti ai lavori e non, una cover story dell’Economist dedicata ai limiti dei meccanismi attuali di validazione e replicabilità della ricerca e al conseguente abbassamento complessivo della qualità della conoscenza scientifica. Allo stesso tempo, come riporta Gary Marcus sul New Yorker sono diverse le iniziative che la comunità degli scienziati sta mettendo in campo per affrontare alcuni dei problemi posti dal giornale britannico. Insomma, grazie o a causa dei media digitali, stiamo capendo che la conoscenza in generale, e quella scientifica in particolare, è una materia molto più calda e fluida di quanto siamo stati abituati a pensare in epoca pre-internet.
Se si vuole fondare un giornalismo in grado di inserire la conoscenza in contesti specifici per fornire un valore aggiunto di analisi e interpretazione dei fatti, allora è bene che i futuri professionisti siano in grado di capire e spiegare come evolve la conoscenza, come risponde ai cambiamenti sociali e come, viceversa, contribusice a plasmare la società. Tra i compiti dei formatori ci dovrà allora essere quello di insegnare ai giornalisti come comprendere le logiche di accesso, produzione e distribuzione del sapere. La conoscenza scientifica è un modello rilevante per questo scopo perché è l’ambito in cui si stanno realizzando le sperimentazioni più interessanti.

Queste ultime considerazioni mi portano alla questione delle competenze. Wolfgang Donsbach, direttore del Department of Communication alla Dresden University of Technology in Germania, in un paper pubblicato da poco sulla rivista Journalism, ha elencato alcune delle qualità specifiche che dovrebbero caratterizzare un giornalista della conoscenza:

1) Competenza generali: i giornalisti devono avere la capacità di inserire la conoscenza nei contesti in cui accadono i fatti e possedere una prospettiva intellettuale di ampio respiro per prendere decisioni fondate;

2) Competenza su specifici argomenti: i giornalisti devono riuscire a raggiungere un livello di conoscenza del settore di cui si occupano sufficientemente profondo a comprendere la struttura del campo di loro interesse e a produrre una mappa degli attori principali;

3) Competenza sui processi: i giornalisti dovrebbero avere una conoscenza scientifica del processo di costruzione delle notizie e dei processi di comunicazione, dai fattori che influenzano le decisioni su come trattare le notizie ai possibili effetti sull’audience o al ruolo dei social media nell’esposizione delle informazioni;

4) Competenze tecniche;

5) Valori professionali, dove si fa riferimento al fatto che andrebbero insegnati il ruolo sociale dei giornalisti e le norme che guidano i loro comportamenti.

Come si può notare, in questa lista non si fa cenno alla comprensione e all’uso della conoscenza nel senso descritto sopra.

C’è infine un altro aspetto da considerare, a cui fa cenno anche Donsbach: una volta formati i giornalisti della conoscenza verrebbero assunti in una redazione o riuscirebbero a sbarcare il lunario come free-lance? La percezione è che le (poche) richieste di mercato in questo periodo vadano in una direzione opposta a quella proposta in questo post. Molto più valorizzate sembrano le abilità e le esperienze di tipo pratico e tecnico. Credo che la qualità e l’innovazione nel senso della conoscenza paghino molto sul lungo periodo, ma, come formatori, non ci possiamo permettere di trascurare il problema dell’occupazione a breve termine.

I biohacker sono tra noi

*Questa recensione è stata pubblicata sulla rivista Doppiozero. La riporto sul mio blog per loro gentile concessione.

Dimenticatevi lo scienziato nella torre d’avorio. Dimenticatevi la scienza nel suo splendido isolamento dalla politica, dal potere, dal business e da mille altre incombenze quotidiane. Biohacker di Alessandro Delfanti (Elèuthera), restituisce un’immagine aperta, dinamica e contrastante della ricerca contemporanea. Il volume propone una nuova iconografia del sapere figlia di una strana contaminazione: quella della cultura hacker sulle scienze della vita.
Secondo il sociologo milanese, i valori e le pratiche degli smanettoni dei computer, cresciuti a codici e programmi informatici, stanno segnando la disciplina scientifica del ventunesimo secolo, la biomedicina. I biohacker, scrive Delfanti, “rappresentano un remix di culture che aggiorna l’ethos della scienza tradizionale includendovi elementi provenienti da hacking e free software”.
La ricerca su genoma, cellule staminali, virus, farmaci non è solo il terreno su cui si sfogano le più palesi contraddizioni attuali tra scienza, società e mercato, ma è anche luogo di scontro paradigmatico per gli abitanti della società dell’informazione. La lotta, da sempre esistita, per l’accesso, la diffusione e lo sfruttamento della conoscenza, avviene su diversi piani: culturale, economico, tecnologico. Ma quello che più conta oggi è il salto di qualità dovuto ai media digitali e alla rete, che hanno portato sulla scena le pratiche e la cultura hacker con una incisività sconosciuta nel passato.
La tesi di un link tra biologi votati all’open e i miti della rivoluzione dei computer è costruita attorno a casi di studio diversi tra di loro ma accomunati da una convinta adesione alla scienza aperta. Il termine, come spesso accade per le innovazioni legate all’Internet, da una parte si presta a divisioni da stadio fra apocalittici e integrati, dall’altra è una parola ombrello, sotto cui ricadono processi e approcci ideologici molto differenti fra di loro.
Un primo merito del libro è di aumentare la chiarezza sul fenomeno, offrendo una prospettiva pluridimensionale a tutte quelle esperienze realizzate per rendere la ricerca e i dati scientifici pienamente accessibili ad ogni livello, sia professionale che amatoriale. È il filo rosso che segna i viaggi dello scienziato-imprenditore Craig Venter alla ricerca di dati genetici sul fondo degli oceani, così come la battaglia della virologa Ilaria Capua per rendere pubblica la sequenza del virus dell’aviaria. È il tema di fondo che accomuna i militanti della “garage biology” del movimento DIYbio (Do-It-Yourself Biology), con la determinazione di Salvatore Iaconesi, l’artista-designer che nel 2012 pretese una cura open source per un tumore al cervello diagnosticato in una cartella clinica digitale non usabile e accessibile a tutti.
Le somiglianze finiscono qui perché, come insiste Delfanti, i quattro casi selezionati mostrano l’importanza della coesistenza e dell’interazione di direzioni opposte in cui si declina l’open science. I biohacker non si riducono alle tradizionali dicotomie tra aperto e chiuso, tra bene pubblico e interesse privato, tra conoscenza imparziale e segretezza di convenienza. Pur dichiarando di essere un convinto sostenitore della cultura libera, l’autore non cade nella trappola apologetica dei militanti.
Molta letteratura contemporanea sull’argomento è infatti caratterizzata dalla celebrazione delle magnifiche sorti e progressive del sapere liberato on-line, ma Delfanti chiarisce che free non è sempre sinonimo di no-profit e democratizzazione, che l’open access può convivere bene con nuove forme di neoliberismo. In altre parole, ci sono molte più cose sotto il cielo dell’open science di quante ne vedano i sognatori della condivisione collettiva. Ed è probabilmente questo sguardo critico la novità più significativa del saggio e il suo pregio maggiore.
Con una prosa densa che a tratti risente della riduzione dalla più ampia edizione inglese, il libro in poco più di cento pagine assume così a tutti gli effetti le caratteristiche di un saggio di sociologia della conoscenza, da cui si possono trarre indicazioni che vanno oltre lo specifico della biomedicina contemporanea. La prima è che la rete offre l’opportunità storica di costituire istituzioni del sapere alternative a quelle esistenti.
I biohacker sono le avanguardie del tentativo di scalzare pachidermi burocratici incarnati da università, organizzazioni sovranazionali, sistemi sanitari, ormai incapaci di cogliere le potenzialità di sviluppo di idee e di business legate a una più libera circolazione digitale di dati e ricerche. La seconda è che la metafora dell’ecosistema, con il suo accento alle risorse, alla differenziazione e agli ambienti favorevoli, si conferma molto efficace per descrivere le dinamiche di produzione della conoscenza in ambiente digitale.
Il libro di Delfanti parla di nicchie ecologiche per le quali è difficile delineare adesso il futuro, ma che di sicuro non sarebbero esistite in epoca pre-Internet. Infine, il volume illumina la profonda dimensione politica della conoscenza. Negli ultimi dieci-quindici anni si sono verificate accelerazioni sconosciute nella storia dell’umanità sia sul piano degli investimenti mondiali in ricerca (l’Italia è un caso a parte), sia su quello dei contenuti, con l’emergenza della cosiddetta bio-nano-info science (convergenza tra scienza della vita, scienza della materia, scienza dell’informazione). Il risultato è l’instaurazione di relazioni molto più intense tra scienza, economia e stili di vita che richiedono forme di governance innovative.
Biohacker fornisce da una parte un esempio dell’inadeguatezza delle policy tradizionali della scienza, ma dall’altra mostra che nuovi percorsi sono tutti da inventare. Per questi motivi è forse uno dei momenti migliori per fare scienza e per essere scienziati, a patto di abbandonare antiche convinzioni e certezze radicate.

Comunicazione della scienza for dummies

Questo libro è la sintesi di due prospettive: una più focalizzata sulla pratica professionale, l’altra sulla contestualizzazione storica. È un’impostazione che riflette la formazione e le competenze dei due autori, rispettivamente Silvia Bencivelli, comunicatrice free-lance molto nota nell’ambiente, e Francesco De Ceglia, storico della scienza. I due si sono uniti, non so quanto occasionalmente, per restituire nel loro agile volume un panorama aggiornato della comunicazione della scienza in Italia. Il testo è particolarmente consigliato per chi si addentra per la prima volta nel campo, ma anche per chi, pur possedendo già una specifica expertise, vuole esplorare forme e generi limitrofi o recuperare uno sguardo d’insieme.
La sintesi è riuscita sotto diversi aspetti: nell’equilibrio fra i due punti di vista, nello stile, nel passaggio, per ogni argomento trattato, da una visione generale a una prospettiva più incentrata su consigli pratici. Nel volume non si perde infatti mai di vista l’attenzione alla descrizione dei processi concreti della comunicazione della scienza e alle pratiche conseguenti. Lo scopo è di rispondere con ottimistico realismo a chi vuole intraprendere una carriera nel settore, sia che voglia scrivere sui giornali, allestire una mostra, lavorare in un ufficio stampa di un ente di ricerca o pubblicare un libro. La scorrevolezza del testo e il numero contenuto di pagine sono ulteriori motivi per suggerirne l’acquisto.
Veniamo a consigli non richiesti per, spero, successive edizioni:

• la parte sul giornalismo dovrebbe arricchirsi della descrizione di pratiche e iniziative, sempre più diffuse nel contesto digitale, in cui il professionista dell’informazione non è più solo un produttore di contenuti, ma anche un fornitore di servizi;
• lo sguardo sul ciclo di produzione delle news scientifiche dovrebbe essere più critico. La peer-review, l’impact factor, l’embargo, il ruolo delle case editrici specialistiche, sono oggetto di forti discussioni all’interno delle comunità scientifiche. Può essere un limite presentare procedure di pubblicazione storicamente definite come parti integranti e immutabili del metodo scientifico. In altre parole, se è vero che è giusto istruire i principianti a diffidare dei ciarlatani che non hanno mai pubblicato un paper su una rivista con peer-review, non bisognerebbe, viceversa, dare troppo l’impressione che sia sufficiente citare Nature per aver esaurito il lavoro giornalistico;
• l’impatto che Internet sta avendo sulle dinamiche di produzione e diffusione della conoscenza scientifica è enorme ed è forse un po’ trascurato nel libro;
• un box sulle attività di formazione in comunicazione della scienza non ci sarebbe stato male, ma ammetto che sono di parte. Sono invece convinto che un capitolo sulla comunicazione del rischio potrebbe dare ulteriore valore aggiunto a una versione aggiornata del volume.

Nonostante queste osservazioni ribadisco che vale assolutamente la pena di leggere il libro e mi rendo perfettamente conto che non tutte le scelte su quali argomenti includere e come trattarli dipendono da chi scrive il testo.
Devo infine dichiarare un conflitto d’interessi non banale: gli autori mi conoscono bene, così come io conosco bene loro. La disclosure non è solo a favore della trasparenza. Mi serve anche a mettermi al riparo dalle reazioni alla lista di integrazioni e suggerimenti non richiesti. Silvia e Franz sanno insomma che sono un po’ pesante su queste cose e non me ne vorranno troppo (almeno spero).

Quando l’università investe nelle start up dei propri studenti

Le università americane cominciano a investire in compagnie fondate dai propri studenti. È la frontiera del rapporto virtuoso tra ricerca e impresa. A disegnarne gli inediti confini è la Stanford University, che come descrive un articolo pubblicato ieri sul New Yorker, ha iniziato a chiedersi se sia sensato continuare a lasciar godere ad altri i frutti economici della creatività dei propri allievi.
Nel mirino ci sono i venture capitalist. Secondo i responsabili dell’università situata nel cuore della Silicon Valley, gli imprenditori che rischiano i propri capitali per la nascita di nuove aziende trarrebbero vantaggi sproporzionati da idee nate nel contesto accademico. In altre parole a Stadford hanno fatto questo ragionamento: noi (gli accademici) formiamo le persone e creiamo le opportunità di business, loro (i capitalisti di ventura) fanno gli affari. Non va bene. Per porre rimedio è nato StartX, un incubatore d’impresa interno all’università che non solo fornisce formazione, concede spazi e crea opportunità di networking per i futuri imprenditori, come siamo abituati a vedere anche in Italia, ma che soprattutto mette i soldi nei progetti in cui crede.
Penso che se il modello Standford prendesse piede ci troveremmo di fronte a una radicale trasformazione delle funzioni dell’università, non senza problemi, come sottolinea lo stesso articolo del New Yorker. Detto questo, l’esempio non può che far riflettere sulla distanza fra le sperimentazioni americane e i rapporti tra mondo della ricerca e cultura d’impresa nel nostro Paese.

Recensione – Gli scienziati come scrittori

Scrivere bene di scienza è come raccontare una storia di fiction. È su quest’analogia che si gioca l’aspetto più interessante e innovativo del manuale Writing Science, dello scienziato ambientale americano Joshua Schimel.
Diversamente da tanti volumi dedicati alla scrittura scientifica professionale, Schimel non dà istruzioni su come pubblicare un paper, ma, molto più significativamente, su come sperare di essere citati. Per evitare l’oblio, gli scienziati devono pensare e agire come scrittori professionisti.
Essere accostati a dei “fabbricanti di storie” provoca probabilmente un istintivo e sincero scetticismo da parte di molti ricercatori. Lo sa bene Schimel, che risponde a questa diffidenza con esempi concreti. Lo studioso americano è abile nel dimostrare che molti paper famosi nella storia della scienza hanno tutte le caratteristiche delle narrazioni efficaci.
La ricchezza, la quantità e il dettaglio dell’analisi dei testi illustrati nei ventuno agili capitoli di Writing Science aggiungono credibilità alle tesi di Schimel. Per fare buona scienza bisogna raccogliere dati con metodo, avere profonde capacità analitiche, conoscere la letteratura e possedere tante altre qualità. Ma non basta, ammonisce lo scienziato americano. Bisogna imparare a raccontare storie appassionanti che rimangano impresse nella memoria. In altre parole bisogna imparare a scrivere bene perché, ed è questo in fondo uno dei messaggi principali del volume che Schimel rivolge soprattutto ai giovani scienziati, “scrivere bene significa pensare bene”.

La burocratizzazione dell’innovazione

Immagine da http://www.studenti.it/

Non posso dire di avere mai avuto il piglio da imprenditore. Inoltre, la mia ormai stretta vicinanza ai quaranta sta svelando una certa propensione generale del mio carattere alla cautela. Eppure, da circa due anni, insieme a un mio collega prima, e tramite il coinvolgimento di altre persone successivamente, sto provando a capire se la mia expertise accademica-professionale si può rivelare utile per un progetto d’impresa. Non mi dilungherò sulla natura specifica dell’iniziativa. Posso solo dire che si tratta di un’idea nel campo dell’editoria digitale. Non so se e come procederà il nostro progetto, ma in questi due anni credo di aver compreso un po’ meglio il funzionamento, nonché qualche criticità, degli attuali programmi di sostegno all’imprenditorialità più o meno giovanile.
Al centro delle iniziative alle quali ho preso parte c’è l’innovazione. Sperimentare, provare strade inedite, percorrere sentieri inusuali dell’immaginazione, sono il motore propulsivo del cambiamento. Innovare è l’unica vera possibilità di ripresa economica. Il carburante della trasformazione, manco a dirlo, è fornito dalla ricerca e in particolare dalla conoscenza scientifica. La ricetta, peraltro ormai sentita in mille salse, ovviamente mi trova d’accordo. Bene, cosa succede a questo punto? Come si procede se uno pensa di avere una bella idea e vuole farci un’impresa?
Purtroppo la risposta, nella mia limitata esperienza (e voglio sottolineare limitata, con la speranza di essere smentito) non è delle più positive e si può riassumere in una parola: burocratizzazione. Non mi riferisco solo alla mole di richieste, moduli, comitati di valutazione, incontri, corsi di formazione in cui bisogna districarsi per beneficiare dell’aiuto messo a disposizione, ma voglio soprattutto rilevare le perplessità nei confronti della visione d’innovazione sottesa a tali sforzi.
Per quanto molte delle iniziative messe in campo siano d’indubbia utilità e siano condotte con professionalità e serietà, l’impressione è quella di muoversi in gabbie dorate, come se il pensiero creativo si potesse ridurre in procedure standardizzate. L’esito finale è che le poche risorse a disposizione sono spesso indirizzate verso progetti conformi alle indicazioni previste nei bandi e ispirate, tutto sommato, a principi di prudenza. L’effetto paradossale e inaspettato è di sfavorire proprio i progetti più innovativi perché, di solito, più rischiosi sul piano imprenditoriale. Provocatoriamente mi chiedo se Google e Facebook, nella loro infanzia creativa, avrebbero mai trovato uno sviluppo concreto se si fossero affidati ai percorsi nostrani di sostegno alle imprese. Se la risposta è no, forse una riflessione va fatta.
Qualche tempo fa, con molta più autorevolezza e capacità argomentativa della mia, sosteneva qualcosa di simile Umair Haque, direttore dell’Havas Media Labs e star mondiale nel pensiero manageriale. In un post pubblicato sull’Harvard Business Review, Haque criticava le celebratissime TED Conference come esempio di iper-razionalismo tecnologico, sintomo della rottura di una relazione profonda con la genesi e lo scopo ultimo delle “Grandi Idee”. Contrariamente a quanto vorrebbe farci pensare il formato TED, sostiene Haque, “le idee sono importanti non perché risolvono i nostri problemi, ma perché ci pongono nuove sfide”. Per dirla in altro modo, Einstein non avrebbe mai presentato la formula dell’equivalenza fra materia ed energia in uno scenario tipo TED.
È ovvio che, per quanto mi riguarda (meglio dirlo a scanso di equivoci), l’idea d’impresa con cui mi sono cimentato non è la teoria della relatività o qualche altra “grande idea”. È altrettanto ovvio che il Nordest italiano non è la Silicon Valley e quindi la riuscita o il fallimento di un’impresa nascente si spiegano anche con altri fattori rispetto a quelli accennati in questo post.
Nonostante ciò, il monito di Haque a mio modo di vedere rimane valido perché sottolinea il rischio di chiusura, di proceduralizzazione, di ingegnerizzazione, di autoreferenzialità insita nell’eccessiva “programmazione dell’innovazione”, sia che si voglia cambiare il mondo, sia che, molto più modestamente, si voglia costituire una startup.
Un articolo pubblicato qualche giorno fa su Linkiesta riportava un contributo tratto dal Mit Technology Review sulle ragioni che hanno determinato il successo della Silicon Valley e sul perché sia cosi difficile riprodurlo in altre parti del mondo nonostante numerosi tentativi. La risposta, tanto semplice quanto sorprendente, è la gente. Il miracolo californiano si spiega in gran parte per essere stato un social network ante litteram, in cui hanno contato tantissimo le persone, la cultura e le relazioni. La Silicon Valley, in altre parole, ha rappresentato un sistema aperto. È un risultato che, pur nel mio modesto percorso personale e con tutti i limiti del caso, mi ha fatto capire meglio cosa non ho trovato così chiaramente nei programmi di sostegno all’imprenditorialità a cui ho partecipato.

Recensione – Introduzione ai media digitali

Il libro di Adam Arvidsson e Alessandro Delfanti chiarisce perché le scienze sociali si devono interessare sempre di più ai media digitali. Fatto scontato per gli addetti ai lavori. Non tanto, forse, per chi pratica rete e dispositivi digitali anche intensamente, ma non ha gli strumenti, la voglia e il tempo per averne un quadro d’insieme.
Un primo merito di questo libro è senza dubbio quello di ordinare le idee rispetto al digitale sul piano storico, politico, economico, tecnologico. Arvidsson e Delfanti stemperano efficacemente l’eccesso di nuovismo con cui ancora troppo spesso si interpreta il fenomeno di Internet, riportando molte delle cosiddette rivoluzioni della rete, che pure non mancano, nell’alveo di categorie sociologiche note. L’effetto è una rassicurante riduzione della distanza fra online e offline, soprattutto sul piano dell’analisi.
Il volume si articola in sei capitoli densi, chiari e completi, di facile accesso anche per chi si avvicina per la prima volta alla ricerca sociologica sui media digitali. Da questo punto di vista l’utilizzo del termine “Introduzione” nel titolo è molto appropriato. Argomenti frequentemente discussi dall’opinione pubblica, più o meno a sproposito, come ad esempio la cooperazione sociale online, l’identità in rete e l’economia dei media digitali, trovano una sistematizzazione efficace, sostenuta da uno sguardo laico basato su dati e ricerche. Se la chiarezza espositiva e lo stile scorrevole costituiscono un secondo motivo per leggere il libro dei due sociologi dell’Università di Milano, una terza ragione va ricercata nell’immagine complessiva del mondo digitale restituita dal volume.
Pochi giorni fa, Mario Tedeschini Lalli ha scritto un bel post sul fatto che il digitale è una cultura e non una tecnica. Il libro di Arvidsson e Delfanti aggiunge, fra le altre cose, un tassello importante in questa direzione.
Infine, Alessandro è un mio amico e non può che farmi piacere consigliare un suo libro. Allo stesso tempo mi sembra doveroso dichiarare ai lettori di questo post il mio conflitto d’interesse.

Recensione – Parola di scienza. Il terremoto dell’Aquila e la Commissione Grandi Rischi.

Communication at risk è il titolo dell’editoriale che, qualche mese fa, Nature Geoscience dedicava alla vicenda dei membri della Commissione Grandi Rischi (CGR) coinvolti nel processo legato al terremoto dell’Aquila dopo la pubblicazione delle motivazioni della condanna di primo grado nei loro confronti.
La rivista riconsiderava l’appoggio iniziale agli imputati e sottolineava, una volta per tutte, che l’accusa non riguardava la mancata previsione del terremoto, “ma il non avere adeguatamente valutato e comunicato il rischio presentando alla popolazione risultati falsamente rassicuranti”.
Ho scelto un approccio cauto, lo confesso, per presentare il libro dell’antropologo culturale Antonello Cicozzi, Parola di scienza, trascrizione letterale della consulenza fornita dallo stesso Ciccozzi alla Procura della Repubblica Italiana nel processo dell’Aquila per il sisma del 6 aprile 2009.
Spero che la citazione di Nature Geoscience, riportata anche nel volume, rassereni lo sguardo di molti su questo lavoro e permetta, ad addetti ai lavori e non, di concentrarsi sugli aspetti più utili e interessanti per la comunicazione della scienza messi in luce nel libro, cercando di non lasciarsi nuovamente trascinare nella polemica, a tratti scomposta, attorno alla “giustezza” della condanna.
Si può essere d’accordo o dissentire dalle argomentazioni di Ciccozzi, ma ci sono pochi dubbi sull’accuratezza e la lucidità della sua analisi. È stata proprio la profondità e l’originalità dell’approccio, basato sul rapporto tra antropologia del rischio e teoria delle rappresentazioni sociali, che mi ha infine convinto a scrivere qualcosa a proposito di un dibattito a dir poco spinoso.
Nonostante abbia seguito la vicenda fin dall’inizio, sia per dovere professionale che per interesse civico, non ho mai avuto infatti fino ad ora l’ardire di esprimere la mia opinione. La complessità tecnico-giudiziaria e l’esasperazione dei toni del dibattito suggeriva il silenzio, a meno di non possedere una minuziosa conoscenza dei i fatti e una capacità di analisi in grado richiamarsi a un sapere fortemente interdisciplinare. Il libro di Ciccozzi risponde a queste esigenze fornendo, tra le altre cose, il vocabolario appropriato per porre la discussione nei termini adeguati.
C’è poi almeno un altro aspetto su cui la comunità dei comunicatori della scienza può trovare un terreno condiviso a partire dalla lettura della perizia: la necessità di attivare, stimolare, approfondire la riflessione sulle ricadute etiche e culturali della circolazione della conoscenza scientifica e sul ruolo degli scienziati come comunicatori pubblici.
Al di là delle convinzioni che ciascuno di noi ha maturato sul rapporto fra scienza e giustizia per i fatti del terremoto aquilano, è bene considerare che Parola di scienza è la consulenza che “ha fornito le basi per individuare la legge di copertura in grado di definire un nesso causale tra la comunicazione fornita dagli esperti della CGR e le condotte della popolazione aquilana”.
Insomma, sarà forse banale dirlo, ma una lezione fondamentale a cui rimanda un termine così definitivo come “causalità” è che la comunicazione pubblica della scienza “non è roba da dilettanti”.
E lasciatemi dire anche che la lettura del libro di Ciccozzi rievoca accostamenti con vicende e concetti apparentemente noti per chi si occupa professionalmente di comunicazione della scienza e comunicazione del rischio che, in realtà, forse tanto noti non sono.
Come non ravvisare, ad esempio, somiglianze forti tra l’invito a bere un buon bicchiere di vino rosso per non pensare alle scosse, col gesto di rassicurazione che l’allora Ministro dell’Agricoltura britannico John Gummer compì nel 1990 fa quando costrinse la figlioletta di quattro anni a farsi immortalare con un hamburger in mano per rassicurare la popolazione dai rischi della “mucca pazza”? Dopo più di vent’anni gli errori sembrano ripetersi uguali a se stessi nonostante il caso Gummer sia stato ampiamente studiato, sezionato, biasimato insieme a tanti altri simili.
Come non essere d’accordo con Ciccozzi quando scrive che la comunicazione della scienza deve tener conto del contesto, che la comunicazione del rischio di un terremoto si inserisce all’interno di una cornice culturale rispetto alla quale la stessa informazione scientifica può essere reinterpretata in maniera differente, a seconda di una complessità di fattori storico-mediatico-ambientali che bisognerebbe studiare accuratamente se si vuole che quella informazione si trasformi in strumento di emancipazione e non di controllo sociale?
Come non trovare nello scritto dell’antropologo culturale elementi a favore di una giusta considerazione dei saperi locali, da non confondere con la mitizzazione del buon selvaggio, ma da valutare come le condizioni al contorno su cui basare attività “scientifiche” di comunicazione della scienza?
Si possono condividere o contestare le argomentazioni di Ciccozzi, ma credo che, da una parte, questo libro renda davvero limitata la forza della tesi di un attacco pregiudiziale alla scienza, dall’altra che ci debba motivare a indagare i motivi per cui la conoscenza provienente dalla ricerca sui media e dalla ricerca sociale non sia diventata un sistema di riferimento significativo per la comunicazione pubblica della scienza, nonostante anni di studi e soprattutto di fallimenti.
Al di là delle motivazioni politiche che pure avranno forse condizionato i comportamenti di alcuni dei membri della CGR, è forse in questa difficoltà che si può individuare qualche elemento di difesa nei loro confronti. La condanna dell’Aquila e la perizia di Ciccozzi dimostrano quante competenze comunicative siano necessarie perché “la parola di scienza […] diventi pienamente responsabile nei confronti dell’uomo”.
Forse bisogna chiedersi se è legittimo che tutta questa responsabilità ricada sulla testa di persone formate per fare altro. Forse questo è un punto su cui interrogarsi in profondità, perché un chiarimento potrebbe servire a ridurre la crescente ambiguità dei rapporti fra esperti e politica, contribuendo a restituire alla scienza il potere liberatorio di dire la sua verità.

La psichiatria e la difficile ricerca di un’identità (a colpi di comunicazione)

Qualche giorno fa Gary Greenberg sul New Yorker ha riaperto una delle questioni più dibattute nella storia della psichiatria, una domanda che interroga in profondità il suo statuto epistemologico, vale a dire: la disciplina che si occupa delle malattie mentali è una scienza? O, con una leggera variazione sul tema, è possibile ricondurre i disturbi della psiche esclusivamente a una base neurobiologica quantificabile e misurabile?
Sono interrogativi sempre più dibattuti con l’imminente pubblicazione, prevista per Maggio 2013, del DSM5, il Manuale diagnostico e statistico dei disturbi mentali, vera e propria Bibbia degli psichiatri di mezzo mondo, che sostituirà la versione precedente (DSM4) risalente ormai a tredici anni fa.
Da quando l’Associazione degli psichiatri americani ha approvato il DSM5, a dicembre dell’anno scorso, non è passato praticamente un giorno senza che i media non abbiano lasciato spazio a critiche e commenti, spesso polarizzati, sulle possibili conseguenze delle nuove possibili classificazioni di malattie mentali.
Il BMJ ha recentemente presentato una rassegna degli articoli più significativi sull’argomento pubblicati dalla stampa generalista di qualità americana. La raccolta è corredata da una dura presa di posizione dello psichiatra Allen Frances, coordinatore editoriale del DSM4, sostanzialmente uno dei padri del Manuale attualmente in uso.
Anche l’Italia ha da poco dato un contributo significativo alla discussione con la pubblicazione di un numero della rivista Aut-aut dal titolo La diagnosi in psichiatria. Curato da Mario Colucci, il volume in diversi interventi affronta, più o meno direttamente, il tema del DSM5.
Non ho le competenze per entrare con cognizione di causa nel dibattito medico-scientifico.
Credo però che lo straordinario interesse mediatico che il nuovo Manuale sta suscitando, prima della sua pubblicazione, meriti un’attenzione particolare perché si tratta di un esempio evidente di come il lavoro “interno” svolto dagli psichiatri incaricati di redigere il DSM5 e il processo di divulgazione verso l’esterno si influenzino reciprocamente. È un fatto non nuovo nella storia della scienza, ma che assume un rilievo particolarmente evidente nel caso di discipline fragili sul piano epistemologico.
Risulta chiaro che la comunicazione attorno al DSM5 non è un prodotto secondario dell’attività di ricerca, ma un processo e una parte integrante del discorso sulla psichiatria e sulla sua validità scientifica.
In altre parole, sotto gli occhi di tutti è in atto una battaglia per definire il terreno d’autorità di ricerca scientifica propriamente detta, un processo di delimitazione della conoscenza combattuto a colpi di comunicazione pubblica.
La messa in scena così plateale, anche su media non specialistici, delle divergenze attorno ai risultati del DSM5 è forse un ulteriore indizio che la psichiatria è lontana dall’essere una disciplina scientifica vera e propria.

Il giornalismo nella rete della conoscenza

“La scienza in rete assomiglia molto di più all’idea di scienza degli scienziati rispetto a quella che ne hanno i media”. È una delle chiavi di lettura che David Weinberger ci offre dell’impatto del “networking del sapere” su quella che, secondo il tecnologo della comunicazione americano, è una disciplina “profondamente dedita alla verità”, la scienza appunto. Si tratta solo di uno degli aspetti trattati ne La stanza intelligente, libro pubblicato in Italia l’anno scorso e scritto da Weinberger per descrivere le radicali trasformazioni contemporanee nella produzione, condivisione e validazione della conoscenza.
Il volume è stato già ampiamente recensito anche in Italia (qui, qui e qui ad esempio). Nonostante ciò, credo che la visione sul rapporto tra scienza e media, delineata nel settimo capitolo, meriti un approfondimento perché apre scenari di discussione inediti sul giornalismo scientifico.
Uno dei temi ricorrenti de La stanza intelligente è il rapporto tra l’editoria cartacea e la natura del sapere. In un’ottica, che potrebbe aprire il fianco a critiche di determinismo tecnologico, Weinberger mette in fila i limiti e le illusioni di un modo di conoscere fortemente influenzato dal sistema di pubblicazione basato sulla carta stampata, giudicato “sconnesso, non colloquiale, unidirezionale”.
Per chiarire il punto, Weinberger sostiene ad esempio che i libri “non esprimono la natura del sapere: esprimono la natura del sapere vincolata alla carta ritagliata in pagine, senza riguardo per i confini delle idee, e poi rilegate insieme, stampate in grandi quantità e infine distribuite, il tutto entro i limiti stabiliti da un sistema economico”.
Dopo sei capitoli spesi ad argomentare il punto di vista della “conoscenza come proprietà della rete”, contrapposto alla visione classica della conoscenza come bene privilegiato nelle mani di relativamente pochi esperti e poche istituzioni, Weinberger si concentra sulla scienza.
Anche in questo caso la posizione è chiara: “La scienza era un tipo di editoria, oggi sta diventando una rete”. Una rete che assomiglia sempre di più al medium che la ospita – Internet – e che pertanto si svela smisurata, popolata da un enorme quantità di dati, in perenne disaccordo, pragmatica, sempre incerta, influenzata da fattori esterni al laboratorio e da ambizioni personali. È una fotografia della scienza molto differente dalla rappresentazione monolitica restituita tradizionalmente dai media unidirezionali, eppure è un’immagine molto più vicina all’esperienza quotidiana degli scienziati. Per Weinberger, lo svelamento delle “fragilità” dei meccanismi che portano alla produzione di nuova conoscenza scientifica, largamente occultate dalle procedure dell’editoria tradizionale, non ne indeboliscono lo statuto epistemologico, anzi: la scienza, nonostante le debolezze umane che la condizionano e i limiti tecnologici che ne hanno segnato lo sviluppo fino ad ora, rimane il complesso di metodi e concetti con maggiori probabilità di darci accesso alle verità sul funzionamento del mondo naturale.
Detto questo, non è una novità che gli scienziati si siano sempre mossi all’interno di una ragnatela di relazioni, motivazioni, pulsioni e vincoli non finalizzati esclusivamente alla “conoscenza per la conoscenza”. L’aspetto inedito è che la rete rende visibile questa ragnatela. E rende necessario capire come raccontarla.
Il giornalismo scientifico tradizionale si riduce a presentare le scoperte scientifiche come opere finite. Ma i prodotti finali della scienza, sostiene Weinberger, non sono né finali, né prodotti, perché la scienza è la rete stessa: è la “connessione senza soluzione di continuità tra scienziati, dati, metodologie, ipotesi, teorie, fatti, speculazioni, strumenti, letture, ambizioni, controversie, scuole di pensiero, libri di testo, docenti, collaborazioni e divergenze che un tempo si faceva ogni sforzo per stampare in un numero relativamente piccolo di articoli, su di un numero relativamente piccolo di riviste”.
Va da sé che tale approccio rende poco significativa, addirittura fuorviante, la separazione tra un presunto momento privato della scienza – in cui la creatività dei ricercatori si esprime nel chiuso delle stanze dei laboratori – da quello pubblico, in cui la comunità ha accesso ai risultati finali della ricerca ma non ai tentativi, più o meno frustranti, che ne hanno caratterizzato la forma visibile a tutti. Questa divisione non risponde alla necessità di produrre la migliore scienza possibile, ma è la conseguenza dei limiti del medium cartaceo, in cui fino ad ora la conoscenza scientifica è stata costretta ad esprimersi.
Se tutto questo è vero, allora c’è molto da rivedere nel giornalismo scientifico classico, tuttora in gran parte concentrato sull’esito manifesto della ricerca, incarnato nella pubblicazione dei paper su riviste con elevato impact factor. Se crediamo a quanto sostiene Weinberger, bisognerà allora attrezzarsi, tecnicamente e culturalmente, a raccontare le connessioni, a seguire il processo più che a descrivere il prodotto. E in più, la scienza aperta delineata dallo studioso americano, richiede al giornalismo scientifico una diversa e più profonda consapevolezza del proprio ruolo. Chi racconta la ricerca deve rendersi sempre più conto che non è estraneo alla “rete della conoscenza”: ne fa parte e ne può condizionare i percorsi possibili. Quanto bene, se in modo rilevante e in che direzione dipenderà molto dalla capacità di ridefinirsi come giornalisti esperti di conoscenza scientifica all’interno di un nuovo ecosistema mediale, non più popolato da lettori, radioascoltatori o telespettatori ma soprattutto da editori e utenti attivi nella produzione di sapere.