Meno giornali, meno democrazia*

L'ultima prima pagina cartacea del Seattle P-I

Quando chiude un giornale cartaceo si partecipa meno alla vita pubblica, diminuisce il coinvolgimento civico e si abbassa la qualità della democrazia. Sono i risultati di una ricerca americana pubblicata recentemente sulla rivista Political Communication con lo scopo di quantificare l’impatto sociale del declino della carta stampata.
Il costante arretramento dei quotidiani cartacei nei paesi più industrializzati è ben documentato. Il report The future of News and Internet, realizzato nel 2010 dall’Ocse, sanciva in modo inequivocabile la diminuzione dei lettori di giornali nella gran parte dei paesi sviluppati, con punte negative particolarmente significative per la stampa locale e regionale in Gran Bretagna, Stati Uniti, Italia, Grecia, Canada e Spagna.
Da anni molti analisti dei media sostengono che dovremmo preoccuparcene perché, al di là degli aspetti economici della questione, il giornalismo idealmente assolve, come è noto, due funzioni basilari per la democrazia: è strumento di controllo del potere ed è uno spazio pubblico crocevia di relazioni sociali, in particolar modo per le comunità locali. Sono considerazioni sentite ormai mille volte, ma fino ad ora non si disponeva di molti dati per smentirle o confermarle.
È sulla base di queste lacune che Lee Shaker, sociologo dei media dell’Università di Portland ha cercato di misurare i cambiamenti nel coinvolgimento civico dei cittadini americani tra il 2008 e il 2009 in diciotto tra le maggiori aree metropolitane degli Stati Uniti. Le città in cui si è registrato l’abbassamento più significativo del livello di partecipazione alla vita pubblica sono risultate Denver e Seattle, dove tra il 2006 e il 2008 sono state sospese le pubblicazioni di due importanti quotidiani cartacei.
Per arrivare a queste conclusioni Shaker ha analizzato i dati della Current Population Survey, indagine statistica periodica sull’occupazione negli Stati Uniti, che include indicatori misurabili di coinvolgimento civico, come l’acquisto o il boicottaggio di prodotti e servizi di aziende con comportamenti ritenuti scorretti o la partecipazione a gruppi, commissioni e organizzazioni di utilità sociale. Dopo aver isolato l’impatto della chiusura dei giornali da altre variabili, Shaker ha verificato che il declino civico registrato a Denver e a Seattle non si è replicato nelle altre città prese in esame e in cui, nello stesso periodo di tempo, le pubblicazioni dei quotidiani cartacei sono continuate regolarmente.
Si tratta di effetti negativi a breve termine che certamente meritano ulteriore approfondimento, ma che inseriscono elementi originali in un dibattito spesso polarizzato tra nostalgici della carta stampata e ottimisti della rete.
C’è sicuramente del vero quando si afferma che il giornale non è la sua carta e che le sue funzioni sociali possono essere non solo riprodotte ma decisamente ampliate grazie alle tecnologie connettive e digitali. Allo stesso tempo, come afferma Shaker nelle conclusioni del suo lavoro, “l’avvento di nuove opportunità di comunicazione suggerisce che si devono sviluppare anche nuove forme di coinvolgimento”. È proprio nella ricerca di rinnovati equilibri tra informazione e comunità democratiche sane che probabilmente i giornali cartacei continueranno a giocare una parte importante.

*Quest’articolo è stato pubblicato su Pagina99 week end del 22/23 marzo 2014. Lo riporto sul mio blog per loro gentile concessione.

La scienza? né di destra né di sinistra*

La scienza non è né di destra né di sinistra. Non è di interesse esclusivo degli atei, né dei credenti. E pure la conoscenza potrebbe avere un ruolo parziale nella formazione delle nostre opinioni su questioni tecnoscientifiche socialmente controverse, come gli OGM, il nucleare, la fecondazione assistita.
Stando ai risultati di uno studio pubblicato recentemente sulla rivista Plos One, relativo alla popolazione statunitense, lo scenario appena delineato si applica di certo alla ricerca sulle cellule staminali embrionali, in cui più della militanza politica o delle divisioni ideologiche, quello che conta nell’essere a favore o contro gli studi su una materia così eticamente sensibile sono le credenze individuali sul ruolo della scienza nella società.

Ad esempio gli “ottimisti scientifici”, un terzo degli americani, appoggiano in gran parte gli studi sulle cellule staminali embrionali perché sono convinti del legame stretto che unisce la scienza al progresso sociale. Di segno opposto i “pessimisti scientifici”, un quarto della popolazione statunitense, secondo cui le potenziali conseguenze negative della ricerca superano di gran lunga gli aspetti positivi. La classificazione proposta da Matthew Nisbet e Ezra Markowitz, i due studiosi americani autori della ricerca, si è basata su un’analisi approfondita di inchieste sociologiche condotte tra il 2002 e il 2010. La ripartizione prevede anche i “dubbiosi”, combattuti tra rischi e benefici, e i “disimpegnati”, che non ritengono di avere una chiara idea di qual è l’impatto della scienza sulla società.

Al di là delle definizioni, la sorpresa più rilevante del lavoro di Nisbet e Markowitz è che lo schema indicato non si inquadra alla perfezione nelle tradizionali categorie utilizzate per comprendere i pubblici della scienza. Se è vero che religione, istruzione e ideologie continuano ad avere un effetto certamente non trascurabile, sta di fatto che tali fattori non sembrano così determinanti nello spiegare l’atteggiamento nei confronti della scienza.
Ottimisti e pessimisti, in altre parole, sono tanto repubblicani quanto democratici. Tra i disimpegnati, i più ricchi, circa un terzo ha un buon titolo di studio anche se la maggioranza di essi si considera ignorante su temi di scienza e medicina. Nonostante ciò, quasi il 60 per cento si dichiara a favore, se non molto a favore, della ricerca sulle staminali. Viceversa i dubbiosi, con un livello d’istruzione mediamente basso, ritengono di possedere un’alfabetizzazione scientifica adeguata che non si traduce però in un chiaro appoggio alla ricerca.

Insomma si tratta di un bel rimescolamento di carte, rilevante non solo perché le cellule staminali embrionali sono solo un esempio dei numerosi e controversi dibattiti pubblici che le scienze della vita genereranno sempre di più nei prossimi anni, ma anche perché le indicazioni di Nisbet e Markowitz forniscono le basi per un approccio diverso alla comunicazione pubblica della scienza, basato su dati e numeri di cui tener conto. Di fronte ai conflitti con i non-esperti, scienziati e istituzioni di ricerca farebbero bene, ad esempio, a non impostare strategie di comunicazione in cui le radici della resistenza pubblica all’innovazione tecnoscientifica sono ricondotte unicamente a ignoranza o a cieca ideologia.

*Quest’articolo è stato pubblicato su Pagina99 week end dell’8/9 marzo 2014. Lo riporto sul mio blog per loro gentile concessione.

Quando il giornalismo è capace di fare previsioni accurate

Se c’è una strada praticabile per un giornalismo che voglia diventare più scientifico nell’era dei big data, quella indicata da Nate Silver nel suo libro Il Segnale e il rumore va seguita con grande attenzione. Il volume non è né un manuale né un manifesto, né a dire il vero si propone come l’ennesimo testo sul futuro prossimo venturo del giornalismo. È piuttosto un libro sulla convergenza tra informazione, tecnologia e progresso scientifico uniti per elaborare le migliori previsioni possibili.

Sulla storia di Silver, sullo strepitoso successo del suo blog FiveThirtyEight nel prevedere i risultati delle elezioni americane sia nel 2008 che nel 2012, sulla sua passione per il baseball e per il poker, sul suo metodo PECOTA basato sul teorema di Bayes, sul suo ingresso al New York Times e sul successivo addio con strascico di polemiche, si è già scritto e commentato molto. Poco più che trentaseienne Silver è stato definito l’enfant prodige della statistica, il mago delle previsioni, il guru dei numeri. Al di là delle etichette sensazionalistiche, credo che il saggista e giornalista americano meriti un posto significativo tra coloro che vogliono fondare un sistema dell’informazione basato su una visione scientifica e che ritengono la rete come l’ambiente in cui quest’approccio sia finalmente e concretamente perseguibile.

I numerosi esempi descritti ne Il segnale e il rumore, già nella lista dei best seller del New York Times nel 2012 e vincitore del Phi Beta Kappa Award nel 2013, possono essere letti come concreti esempi di metodo giornalistico ispirato al metodo scientifico. Dall’economia ai terremoti, dai cambiamenti climatici alle epidemie, Silver dimostra che c’è un modo più accurato, molto più accurato, per affermare qualcosa di significativo sulle conseguenze delle azioni dei politici e di chi prende decisioni, in altre parole sul futuro.

Se qualcuno ritiene che il giornalismo racconti solo il presente, basta sfogliare le pagine di un quotidiano per ricredersi. Cosa succederà se il governo continuerà sulla strada del rigore o adotterà misure più orientate alla crescita, se investiamo in titoli di Stato o in azioni, se a una squadra di calcio in crisi conviene cambiare allenatore o un paio di giocatori? L’informazione è continuamente orientata a delineare scenari su ciò cha accadrà. E difatti le ricette si sprecano, i commentatori impazzano, le previsioni non si contano. Che poi quest’ultime nella stragrande maggioranza dei casi si rivelino sbagliate, poco importa a chi vive di opinionismo. Ma per chi è interessato alla verità, le cose stanno diversamente. E se c’è un dato positivo nella spasmodica fame di futuro è che questa fame può diventare sempre di più il carburante di un giornalismo che ritrovi valore aggiunto.

Nate Silver dimostra quanto sia complessa la scienza delle previsioni e quanto in realtà siano limitati i suoi successi, ma allo stesso tempo traccia una direzione, ci fa vedere che fare meglio è possibile. Perché se la genialità del metodo scientifico consiste nel testare quanto sia vera un’ipotesi tracciando quanto bene riesce a predire risultati futuri, allora l’approccio probabilistico basato sui dati proposto da Silver è quello che in ambito giornalistico gli si avvicina di più in questo momento.

Il ruolo della conoscenza nella formazione giornalistica

Il progetto Journalist’s Resource dell’Harvard’s Sorenstein Center ha recentemente redatto una lista aggiornata di pubblicazioni di qualità dedicate alla formazione nel giornalismo. Le risorse comprendono articoli e report di natura teorica, ma anche analisi empiriche sull’industria della notizia.
Come è noto, il sistema dell’informazione è in una fase di grande trasformazione e, forse, tra gli effetti sottovalutati del cambiamento vanno annoverate le ripercussioni sui tradizionali curricula delle scuole di giornalismo, che sembrano armi educative sempre più spuntate. Sebbene le preoccupazioni su qual è la migliore formazione da offrire ai nuovi giornalisti riguardi soprattutto i coordinatori e i responsabili di corsi di formazione, dare un’occhiata alla lista del Journalist’s Resource in generale può essere istruttivo anche per avere un’idea delle tendenze più interessanti in circolazione sul giornalismo.
Particolarmente significativi per la riflessione che conduciamo al Master della Sissa dove lavoro sono i riferimenti al giornalismo basato sulla conoscenza. Su tutti segnalo il libro Informing the News: The need for Knowledge-Based Journalism, pubblicato lo scorso ottobre dalla casa editrice Vintage e scritto da Tom Patterson, direttore di Journalist’s Resource. Patterson sostiene che la via maestra per ridare un significato sociale imprenscindibile all’informazione professionale è insegnare ai giornalisti ad usare la conoscenza.
L’autore si muove in una direzione inagurata già da Philip Mayer negli anni ’70 del secolo scorso, quando nel libro Precision Journalism, tradotto solo nel 2006 in Italia col titolo Giornalismo e metodo scientifico, proponeva di trattare il giornalismo come una scienza.
Il progetto di Mayer ha avuto fortune alterne, ma oggi ci sarebbero più possibilità di successo per il giornalismo di precisione per due ragioni. La prima è per il ruolo assunto dalla conoscenza nella teoria sociale e nelle strategie economiche. Il secondo motivo è internet. Le tecnologie digitali e di rete, sostiene Patterson, renderebbe realizzabile la visione di Meyer: basare la presentazione delle notizie sull’esercizio delle “massime virtù scientifiche”, per dirla alla Walter Lippman, che si esprimeva già in questi termini negli anni ’20 del Novecento nel volume Liberty and the News.
L’invito a una professionalizzare del giornalismo nel senso di un uso approfondito della conoscenza mi trova molto d’accordo. Così come condivido le premesse di fondo di Patterson, vale a dire che il problema dell’abbassamento della qualità delle news richiede un’innovazione di concetti e pratiche giornalistiche basata sulla riattualizzazione delle funzioni sociali dei professionisti dell’informazione. Tra queste vale la pena ricordare la capacità di validare e distinguere ciò che è rilevante per una comunità da ciò che non lo è, l’attendibilità nel fornire notizie che rappresentino la base di una realtà condivisa, la necessità di istituzioni editoriali di cui fidarsi. Il recupero passerebbe per un nuovo modo dei giornalisti di rapportarsi con il sapere.
Il ragionamento è abbastanza lineare anche se, a mio modo di vedere, lascia margini di approfondimento su almeno tre questioni: di quale conoscenza hanno bisogno i giornalisti? Quali sono i rapporti tra la conoscenza di cui parla Patterson e la scienza? Quali sono le competenze da insegnare eventualmente nei percorsi formativi?

Rispetto alla prima questione, è opportuno premettere che nei ragionamenti di Patterson, e parzialmente di Meyer, si sovrappongono piani differenti, usando ad esempio come termini intercambiabili la conoscenza accademica in ambito umanistico e sociologico con la conoscenza scientifica, oppure la conoscenza dei processi con quella dei contenuti.
Per maggiore chiarezza è forse utile isolare le diverse dimensioni in cui si esprime il problema della conoscenza dei giornalisti. Si possono identificare almeno quattro aree:

1) Il giornalismo ha un problema disciplinare, nel senso che non è un corpo sistematico di pratiche e concetti universalmente condivisi attraverso i quali si riescano a stabilire le unità minime di conoscenza necessarie e sufficienti per essere definiti giornalisti. La questione è controversa perché esistono migliaia di scuole di giornalismo nel mondo, basate però evidentemente su un fragile terreno epistemologico e quindi curriculare. Specchio di quest’indeterminatezza è il ricorrente conflitto tra “pratici” (il giornalismo è quello che fai in una redazione) e “teorici” (il giornalismo è caratterizzato da modelli, problemi e dinamiche specifiche che vanno studiate), una diatriba che difficilmente qualcuno porrebbe oggi per la medicina, la giurisprudenza o la fisica;

2) I giornalisti hanno un problema di conoscenza nel senso che non sanno e non possono sapere in profondità quello di cui raccontano. Un altro modo di dirlo è che i giornalisti sono esperti precari, esperti a tempo. È una problematica generalizzata. Che si tratti di politica, istituzioni, scienza, sport, la conoscenza dei diretti interessati su fatti specifici sarà sempre più approfondita rispetto a quella di un cronista che deve coprire temi diversi, seppur all’interno di un ambito specifico. Il paradosso non è nuovo ma è sempre attuale: se il giornalismo è ricerca di una forma di verità, come si potrà soddisfare quest’obiettivo visto che i professionisti dell’informazione non possiedono quasi mai il livello di conoscenza degli esperti protagonisti delle notizie che i giornalisti devono raccontare?

3) Il giornalisti hanno un problema di conoscenza rispetto al metodo: pochi riescono a spiegare come fanno a sapere quello che sanno o perché una procedura di individuazione ed esposizione dei fatti è più efficace giornalisticamente rispetto a un’altra. Ma soprattutto non c’è un metodo condiviso che permetta di affermare che se si seguono determinati passaggi nella ricostruzione degli accadimenti si arriva alla stessa rappresentazione della realtà;

4) I giornalisti non sanno come sfruttare pienamente la conoscenza disponibile nelle università, nei centri di ricerca, nelle biblioteche. Questo potrebbe essere definito come un problema di applicazione della conoscenza.

La distinzione proposta aiuta a comprendere se e come la scienza può essere utile nell’affermazione del giornalismo basato sulla conoscenza.
La conoscenza scientifica può fornire un modello a cui tendere e un campo su cui interrogarsi per almeno tre motivi: per la tipologia e la qualità dei contenuti, per il metodo usato nella loro produzione e perché mostra molto efficacemente come cambiano le dinamiche di accesso, distribuzione e utilizzo del sapere in epoca digitale (si veda ad esempio La stanza intelligente di David Weinberger).
Voglio sottolineare quest’ultimo punto perché si distingue molto dalla visione statica a cui si richiamano Meyer e Patterson. Il mese scorso ha suscitato una forte discussione, fra addetti ai lavori e non, una cover story dell’Economist dedicata ai limiti dei meccanismi attuali di validazione e replicabilità della ricerca e al conseguente abbassamento complessivo della qualità della conoscenza scientifica. Allo stesso tempo, come riporta Gary Marcus sul New Yorker sono diverse le iniziative che la comunità degli scienziati sta mettendo in campo per affrontare alcuni dei problemi posti dal giornale britannico. Insomma, grazie o a causa dei media digitali, stiamo capendo che la conoscenza in generale, e quella scientifica in particolare, è una materia molto più calda e fluida di quanto siamo stati abituati a pensare in epoca pre-internet.
Se si vuole fondare un giornalismo in grado di inserire la conoscenza in contesti specifici per fornire un valore aggiunto di analisi e interpretazione dei fatti, allora è bene che i futuri professionisti siano in grado di capire e spiegare come evolve la conoscenza, come risponde ai cambiamenti sociali e come, viceversa, contribusice a plasmare la società. Tra i compiti dei formatori ci dovrà allora essere quello di insegnare ai giornalisti come comprendere le logiche di accesso, produzione e distribuzione del sapere. La conoscenza scientifica è un modello rilevante per questo scopo perché è l’ambito in cui si stanno realizzando le sperimentazioni più interessanti.

Queste ultime considerazioni mi portano alla questione delle competenze. Wolfgang Donsbach, direttore del Department of Communication alla Dresden University of Technology in Germania, in un paper pubblicato da poco sulla rivista Journalism, ha elencato alcune delle qualità specifiche che dovrebbero caratterizzare un giornalista della conoscenza:

1) Competenza generali: i giornalisti devono avere la capacità di inserire la conoscenza nei contesti in cui accadono i fatti e possedere una prospettiva intellettuale di ampio respiro per prendere decisioni fondate;

2) Competenza su specifici argomenti: i giornalisti devono riuscire a raggiungere un livello di conoscenza del settore di cui si occupano sufficientemente profondo a comprendere la struttura del campo di loro interesse e a produrre una mappa degli attori principali;

3) Competenza sui processi: i giornalisti dovrebbero avere una conoscenza scientifica del processo di costruzione delle notizie e dei processi di comunicazione, dai fattori che influenzano le decisioni su come trattare le notizie ai possibili effetti sull’audience o al ruolo dei social media nell’esposizione delle informazioni;

4) Competenze tecniche;

5) Valori professionali, dove si fa riferimento al fatto che andrebbero insegnati il ruolo sociale dei giornalisti e le norme che guidano i loro comportamenti.

Come si può notare, in questa lista non si fa cenno alla comprensione e all’uso della conoscenza nel senso descritto sopra.

C’è infine un altro aspetto da considerare, a cui fa cenno anche Donsbach: una volta formati i giornalisti della conoscenza verrebbero assunti in una redazione o riuscirebbero a sbarcare il lunario come free-lance? La percezione è che le (poche) richieste di mercato in questo periodo vadano in una direzione opposta a quella proposta in questo post. Molto più valorizzate sembrano le abilità e le esperienze di tipo pratico e tecnico. Credo che la qualità e l’innovazione nel senso della conoscenza paghino molto sul lungo periodo, ma, come formatori, non ci possiamo permettere di trascurare il problema dell’occupazione a breve termine.

I biohacker sono tra noi

*Questa recensione è stata pubblicata sulla rivista Doppiozero. La riporto sul mio blog per loro gentile concessione.

Dimenticatevi lo scienziato nella torre d’avorio. Dimenticatevi la scienza nel suo splendido isolamento dalla politica, dal potere, dal business e da mille altre incombenze quotidiane. Biohacker di Alessandro Delfanti (Elèuthera), restituisce un’immagine aperta, dinamica e contrastante della ricerca contemporanea. Il volume propone una nuova iconografia del sapere figlia di una strana contaminazione: quella della cultura hacker sulle scienze della vita.
Secondo il sociologo milanese, i valori e le pratiche degli smanettoni dei computer, cresciuti a codici e programmi informatici, stanno segnando la disciplina scientifica del ventunesimo secolo, la biomedicina. I biohacker, scrive Delfanti, “rappresentano un remix di culture che aggiorna l’ethos della scienza tradizionale includendovi elementi provenienti da hacking e free software”.
La ricerca su genoma, cellule staminali, virus, farmaci non è solo il terreno su cui si sfogano le più palesi contraddizioni attuali tra scienza, società e mercato, ma è anche luogo di scontro paradigmatico per gli abitanti della società dell’informazione. La lotta, da sempre esistita, per l’accesso, la diffusione e lo sfruttamento della conoscenza, avviene su diversi piani: culturale, economico, tecnologico. Ma quello che più conta oggi è il salto di qualità dovuto ai media digitali e alla rete, che hanno portato sulla scena le pratiche e la cultura hacker con una incisività sconosciuta nel passato.
La tesi di un link tra biologi votati all’open e i miti della rivoluzione dei computer è costruita attorno a casi di studio diversi tra di loro ma accomunati da una convinta adesione alla scienza aperta. Il termine, come spesso accade per le innovazioni legate all’Internet, da una parte si presta a divisioni da stadio fra apocalittici e integrati, dall’altra è una parola ombrello, sotto cui ricadono processi e approcci ideologici molto differenti fra di loro.
Un primo merito del libro è di aumentare la chiarezza sul fenomeno, offrendo una prospettiva pluridimensionale a tutte quelle esperienze realizzate per rendere la ricerca e i dati scientifici pienamente accessibili ad ogni livello, sia professionale che amatoriale. È il filo rosso che segna i viaggi dello scienziato-imprenditore Craig Venter alla ricerca di dati genetici sul fondo degli oceani, così come la battaglia della virologa Ilaria Capua per rendere pubblica la sequenza del virus dell’aviaria. È il tema di fondo che accomuna i militanti della “garage biology” del movimento DIYbio (Do-It-Yourself Biology), con la determinazione di Salvatore Iaconesi, l’artista-designer che nel 2012 pretese una cura open source per un tumore al cervello diagnosticato in una cartella clinica digitale non usabile e accessibile a tutti.
Le somiglianze finiscono qui perché, come insiste Delfanti, i quattro casi selezionati mostrano l’importanza della coesistenza e dell’interazione di direzioni opposte in cui si declina l’open science. I biohacker non si riducono alle tradizionali dicotomie tra aperto e chiuso, tra bene pubblico e interesse privato, tra conoscenza imparziale e segretezza di convenienza. Pur dichiarando di essere un convinto sostenitore della cultura libera, l’autore non cade nella trappola apologetica dei militanti.
Molta letteratura contemporanea sull’argomento è infatti caratterizzata dalla celebrazione delle magnifiche sorti e progressive del sapere liberato on-line, ma Delfanti chiarisce che free non è sempre sinonimo di no-profit e democratizzazione, che l’open access può convivere bene con nuove forme di neoliberismo. In altre parole, ci sono molte più cose sotto il cielo dell’open science di quante ne vedano i sognatori della condivisione collettiva. Ed è probabilmente questo sguardo critico la novità più significativa del saggio e il suo pregio maggiore.
Con una prosa densa che a tratti risente della riduzione dalla più ampia edizione inglese, il libro in poco più di cento pagine assume così a tutti gli effetti le caratteristiche di un saggio di sociologia della conoscenza, da cui si possono trarre indicazioni che vanno oltre lo specifico della biomedicina contemporanea. La prima è che la rete offre l’opportunità storica di costituire istituzioni del sapere alternative a quelle esistenti.
I biohacker sono le avanguardie del tentativo di scalzare pachidermi burocratici incarnati da università, organizzazioni sovranazionali, sistemi sanitari, ormai incapaci di cogliere le potenzialità di sviluppo di idee e di business legate a una più libera circolazione digitale di dati e ricerche. La seconda è che la metafora dell’ecosistema, con il suo accento alle risorse, alla differenziazione e agli ambienti favorevoli, si conferma molto efficace per descrivere le dinamiche di produzione della conoscenza in ambiente digitale.
Il libro di Delfanti parla di nicchie ecologiche per le quali è difficile delineare adesso il futuro, ma che di sicuro non sarebbero esistite in epoca pre-Internet. Infine, il volume illumina la profonda dimensione politica della conoscenza. Negli ultimi dieci-quindici anni si sono verificate accelerazioni sconosciute nella storia dell’umanità sia sul piano degli investimenti mondiali in ricerca (l’Italia è un caso a parte), sia su quello dei contenuti, con l’emergenza della cosiddetta bio-nano-info science (convergenza tra scienza della vita, scienza della materia, scienza dell’informazione). Il risultato è l’instaurazione di relazioni molto più intense tra scienza, economia e stili di vita che richiedono forme di governance innovative.
Biohacker fornisce da una parte un esempio dell’inadeguatezza delle policy tradizionali della scienza, ma dall’altra mostra che nuovi percorsi sono tutti da inventare. Per questi motivi è forse uno dei momenti migliori per fare scienza e per essere scienziati, a patto di abbandonare antiche convinzioni e certezze radicate.

Comunicazione della scienza for dummies

Questo libro è la sintesi di due prospettive: una più focalizzata sulla pratica professionale, l’altra sulla contestualizzazione storica. È un’impostazione che riflette la formazione e le competenze dei due autori, rispettivamente Silvia Bencivelli, comunicatrice free-lance molto nota nell’ambiente, e Francesco De Ceglia, storico della scienza. I due si sono uniti, non so quanto occasionalmente, per restituire nel loro agile volume un panorama aggiornato della comunicazione della scienza in Italia. Il testo è particolarmente consigliato per chi si addentra per la prima volta nel campo, ma anche per chi, pur possedendo già una specifica expertise, vuole esplorare forme e generi limitrofi o recuperare uno sguardo d’insieme.
La sintesi è riuscita sotto diversi aspetti: nell’equilibrio fra i due punti di vista, nello stile, nel passaggio, per ogni argomento trattato, da una visione generale a una prospettiva più incentrata su consigli pratici. Nel volume non si perde infatti mai di vista l’attenzione alla descrizione dei processi concreti della comunicazione della scienza e alle pratiche conseguenti. Lo scopo è di rispondere con ottimistico realismo a chi vuole intraprendere una carriera nel settore, sia che voglia scrivere sui giornali, allestire una mostra, lavorare in un ufficio stampa di un ente di ricerca o pubblicare un libro. La scorrevolezza del testo e il numero contenuto di pagine sono ulteriori motivi per suggerirne l’acquisto.
Veniamo a consigli non richiesti per, spero, successive edizioni:

• la parte sul giornalismo dovrebbe arricchirsi della descrizione di pratiche e iniziative, sempre più diffuse nel contesto digitale, in cui il professionista dell’informazione non è più solo un produttore di contenuti, ma anche un fornitore di servizi;
• lo sguardo sul ciclo di produzione delle news scientifiche dovrebbe essere più critico. La peer-review, l’impact factor, l’embargo, il ruolo delle case editrici specialistiche, sono oggetto di forti discussioni all’interno delle comunità scientifiche. Può essere un limite presentare procedure di pubblicazione storicamente definite come parti integranti e immutabili del metodo scientifico. In altre parole, se è vero che è giusto istruire i principianti a diffidare dei ciarlatani che non hanno mai pubblicato un paper su una rivista con peer-review, non bisognerebbe, viceversa, dare troppo l’impressione che sia sufficiente citare Nature per aver esaurito il lavoro giornalistico;
• l’impatto che Internet sta avendo sulle dinamiche di produzione e diffusione della conoscenza scientifica è enorme ed è forse un po’ trascurato nel libro;
• un box sulle attività di formazione in comunicazione della scienza non ci sarebbe stato male, ma ammetto che sono di parte. Sono invece convinto che un capitolo sulla comunicazione del rischio potrebbe dare ulteriore valore aggiunto a una versione aggiornata del volume.

Nonostante queste osservazioni ribadisco che vale assolutamente la pena di leggere il libro e mi rendo perfettamente conto che non tutte le scelte su quali argomenti includere e come trattarli dipendono da chi scrive il testo.
Devo infine dichiarare un conflitto d’interessi non banale: gli autori mi conoscono bene, così come io conosco bene loro. La disclosure non è solo a favore della trasparenza. Mi serve anche a mettermi al riparo dalle reazioni alla lista di integrazioni e suggerimenti non richiesti. Silvia e Franz sanno insomma che sono un po’ pesante su queste cose e non me ne vorranno troppo (almeno spero).

Quando l’università investe nelle start up dei propri studenti

Le università americane cominciano a investire in compagnie fondate dai propri studenti. È la frontiera del rapporto virtuoso tra ricerca e impresa. A disegnarne gli inediti confini è la Stanford University, che come descrive un articolo pubblicato ieri sul New Yorker, ha iniziato a chiedersi se sia sensato continuare a lasciar godere ad altri i frutti economici della creatività dei propri allievi.
Nel mirino ci sono i venture capitalist. Secondo i responsabili dell’università situata nel cuore della Silicon Valley, gli imprenditori che rischiano i propri capitali per la nascita di nuove aziende trarrebbero vantaggi sproporzionati da idee nate nel contesto accademico. In altre parole a Stadford hanno fatto questo ragionamento: noi (gli accademici) formiamo le persone e creiamo le opportunità di business, loro (i capitalisti di ventura) fanno gli affari. Non va bene. Per porre rimedio è nato StartX, un incubatore d’impresa interno all’università che non solo fornisce formazione, concede spazi e crea opportunità di networking per i futuri imprenditori, come siamo abituati a vedere anche in Italia, ma che soprattutto mette i soldi nei progetti in cui crede.
Penso che se il modello Standford prendesse piede ci troveremmo di fronte a una radicale trasformazione delle funzioni dell’università, non senza problemi, come sottolinea lo stesso articolo del New Yorker. Detto questo, l’esempio non può che far riflettere sulla distanza fra le sperimentazioni americane e i rapporti tra mondo della ricerca e cultura d’impresa nel nostro Paese.

Recensione – Gli scienziati come scrittori

Scrivere bene di scienza è come raccontare una storia di fiction. È su quest’analogia che si gioca l’aspetto più interessante e innovativo del manuale Writing Science, dello scienziato ambientale americano Joshua Schimel.
Diversamente da tanti volumi dedicati alla scrittura scientifica professionale, Schimel non dà istruzioni su come pubblicare un paper, ma, molto più significativamente, su come sperare di essere citati. Per evitare l’oblio, gli scienziati devono pensare e agire come scrittori professionisti.
Essere accostati a dei “fabbricanti di storie” provoca probabilmente un istintivo e sincero scetticismo da parte di molti ricercatori. Lo sa bene Schimel, che risponde a questa diffidenza con esempi concreti. Lo studioso americano è abile nel dimostrare che molti paper famosi nella storia della scienza hanno tutte le caratteristiche delle narrazioni efficaci.
La ricchezza, la quantità e il dettaglio dell’analisi dei testi illustrati nei ventuno agili capitoli di Writing Science aggiungono credibilità alle tesi di Schimel. Per fare buona scienza bisogna raccogliere dati con metodo, avere profonde capacità analitiche, conoscere la letteratura e possedere tante altre qualità. Ma non basta, ammonisce lo scienziato americano. Bisogna imparare a raccontare storie appassionanti che rimangano impresse nella memoria. In altre parole bisogna imparare a scrivere bene perché, ed è questo in fondo uno dei messaggi principali del volume che Schimel rivolge soprattutto ai giovani scienziati, “scrivere bene significa pensare bene”.

La burocratizzazione dell’innovazione

Immagine da http://www.studenti.it/

Non posso dire di avere mai avuto il piglio da imprenditore. Inoltre, la mia ormai stretta vicinanza ai quaranta sta svelando una certa propensione generale del mio carattere alla cautela. Eppure, da circa due anni, insieme a un mio collega prima, e tramite il coinvolgimento di altre persone successivamente, sto provando a capire se la mia expertise accademica-professionale si può rivelare utile per un progetto d’impresa. Non mi dilungherò sulla natura specifica dell’iniziativa. Posso solo dire che si tratta di un’idea nel campo dell’editoria digitale. Non so se e come procederà il nostro progetto, ma in questi due anni credo di aver compreso un po’ meglio il funzionamento, nonché qualche criticità, degli attuali programmi di sostegno all’imprenditorialità più o meno giovanile.
Al centro delle iniziative alle quali ho preso parte c’è l’innovazione. Sperimentare, provare strade inedite, percorrere sentieri inusuali dell’immaginazione, sono il motore propulsivo del cambiamento. Innovare è l’unica vera possibilità di ripresa economica. Il carburante della trasformazione, manco a dirlo, è fornito dalla ricerca e in particolare dalla conoscenza scientifica. La ricetta, peraltro ormai sentita in mille salse, ovviamente mi trova d’accordo. Bene, cosa succede a questo punto? Come si procede se uno pensa di avere una bella idea e vuole farci un’impresa?
Purtroppo la risposta, nella mia limitata esperienza (e voglio sottolineare limitata, con la speranza di essere smentito) non è delle più positive e si può riassumere in una parola: burocratizzazione. Non mi riferisco solo alla mole di richieste, moduli, comitati di valutazione, incontri, corsi di formazione in cui bisogna districarsi per beneficiare dell’aiuto messo a disposizione, ma voglio soprattutto rilevare le perplessità nei confronti della visione d’innovazione sottesa a tali sforzi.
Per quanto molte delle iniziative messe in campo siano d’indubbia utilità e siano condotte con professionalità e serietà, l’impressione è quella di muoversi in gabbie dorate, come se il pensiero creativo si potesse ridurre in procedure standardizzate. L’esito finale è che le poche risorse a disposizione sono spesso indirizzate verso progetti conformi alle indicazioni previste nei bandi e ispirate, tutto sommato, a principi di prudenza. L’effetto paradossale e inaspettato è di sfavorire proprio i progetti più innovativi perché, di solito, più rischiosi sul piano imprenditoriale. Provocatoriamente mi chiedo se Google e Facebook, nella loro infanzia creativa, avrebbero mai trovato uno sviluppo concreto se si fossero affidati ai percorsi nostrani di sostegno alle imprese. Se la risposta è no, forse una riflessione va fatta.
Qualche tempo fa, con molta più autorevolezza e capacità argomentativa della mia, sosteneva qualcosa di simile Umair Haque, direttore dell’Havas Media Labs e star mondiale nel pensiero manageriale. In un post pubblicato sull’Harvard Business Review, Haque criticava le celebratissime TED Conference come esempio di iper-razionalismo tecnologico, sintomo della rottura di una relazione profonda con la genesi e lo scopo ultimo delle “Grandi Idee”. Contrariamente a quanto vorrebbe farci pensare il formato TED, sostiene Haque, “le idee sono importanti non perché risolvono i nostri problemi, ma perché ci pongono nuove sfide”. Per dirla in altro modo, Einstein non avrebbe mai presentato la formula dell’equivalenza fra materia ed energia in uno scenario tipo TED.
È ovvio che, per quanto mi riguarda (meglio dirlo a scanso di equivoci), l’idea d’impresa con cui mi sono cimentato non è la teoria della relatività o qualche altra “grande idea”. È altrettanto ovvio che il Nordest italiano non è la Silicon Valley e quindi la riuscita o il fallimento di un’impresa nascente si spiegano anche con altri fattori rispetto a quelli accennati in questo post.
Nonostante ciò, il monito di Haque a mio modo di vedere rimane valido perché sottolinea il rischio di chiusura, di proceduralizzazione, di ingegnerizzazione, di autoreferenzialità insita nell’eccessiva “programmazione dell’innovazione”, sia che si voglia cambiare il mondo, sia che, molto più modestamente, si voglia costituire una startup.
Un articolo pubblicato qualche giorno fa su Linkiesta riportava un contributo tratto dal Mit Technology Review sulle ragioni che hanno determinato il successo della Silicon Valley e sul perché sia cosi difficile riprodurlo in altre parti del mondo nonostante numerosi tentativi. La risposta, tanto semplice quanto sorprendente, è la gente. Il miracolo californiano si spiega in gran parte per essere stato un social network ante litteram, in cui hanno contato tantissimo le persone, la cultura e le relazioni. La Silicon Valley, in altre parole, ha rappresentato un sistema aperto. È un risultato che, pur nel mio modesto percorso personale e con tutti i limiti del caso, mi ha fatto capire meglio cosa non ho trovato così chiaramente nei programmi di sostegno all’imprenditorialità a cui ho partecipato.

Recensione – Introduzione ai media digitali

Il libro di Adam Arvidsson e Alessandro Delfanti chiarisce perché le scienze sociali si devono interessare sempre di più ai media digitali. Fatto scontato per gli addetti ai lavori. Non tanto, forse, per chi pratica rete e dispositivi digitali anche intensamente, ma non ha gli strumenti, la voglia e il tempo per averne un quadro d’insieme.
Un primo merito di questo libro è senza dubbio quello di ordinare le idee rispetto al digitale sul piano storico, politico, economico, tecnologico. Arvidsson e Delfanti stemperano efficacemente l’eccesso di nuovismo con cui ancora troppo spesso si interpreta il fenomeno di Internet, riportando molte delle cosiddette rivoluzioni della rete, che pure non mancano, nell’alveo di categorie sociologiche note. L’effetto è una rassicurante riduzione della distanza fra online e offline, soprattutto sul piano dell’analisi.
Il volume si articola in sei capitoli densi, chiari e completi, di facile accesso anche per chi si avvicina per la prima volta alla ricerca sociologica sui media digitali. Da questo punto di vista l’utilizzo del termine “Introduzione” nel titolo è molto appropriato. Argomenti frequentemente discussi dall’opinione pubblica, più o meno a sproposito, come ad esempio la cooperazione sociale online, l’identità in rete e l’economia dei media digitali, trovano una sistematizzazione efficace, sostenuta da uno sguardo laico basato su dati e ricerche. Se la chiarezza espositiva e lo stile scorrevole costituiscono un secondo motivo per leggere il libro dei due sociologi dell’Università di Milano, una terza ragione va ricercata nell’immagine complessiva del mondo digitale restituita dal volume.
Pochi giorni fa, Mario Tedeschini Lalli ha scritto un bel post sul fatto che il digitale è una cultura e non una tecnica. Il libro di Arvidsson e Delfanti aggiunge, fra le altre cose, un tassello importante in questa direzione.
Infine, Alessandro è un mio amico e non può che farmi piacere consigliare un suo libro. Allo stesso tempo mi sembra doveroso dichiarare ai lettori di questo post il mio conflitto d’interesse.