Archive for the ‘Comunicazione della scienza’ Category

Se l’atomo fa bene all’ambiente*

18_10_2014 L’utilizzo di bombe atomiche per riparare a disastri ecologici può oggi apparire un ossimoro. Eppure, per molto tempo Stati Uniti e Unione Sovietica hanno ritenuto l’opzione nucleare un’efficace strumento per la salvaguardia dell’ambiente. Ancora nel 2010, quando un incidente sulla piattaforma Deepwater Horizon causò nelle acque del Golfo del Messico il più grave sversamento di petrolio nella storia americana, esperti riconosciuti di questioni energetiche statunitensi considerarono seriamente la possibilità di una detonazione atomica controllata richiamandosi a esperimenti simili condotti durante la guerra fredda. Come ricostruito in un’indagine pubblicata la scorsa settimana sul magazine Nautilus, fu solo la forte avversione dell’opinione pubblica nei confronti del nucleare, definitasi a partire dagli anni settanta, a far desistere i governi delle due maggiori potenze mondiali dal proseguire alcuni dei programmi più originali d’uso delle esplosioni atomiche a scopi pacifici.

L’idea, quattro anni fa, di sigillare il pozzo trivellato dalla Deepwater Horizon con una bomba nucleare sotterranea era stata accolta con favore da opinionisti, banchieri e ingegneri come Micheal Webber, vice-direttore dell’Istituto di Energia all’Università del Texas. Webber, in un intervento sul New York Times, dichiarò che la possibilità di generare sotto il fondale marino delle temperature superiori a quelle della superficie solare era “sorprendentemente praticabile e appropriata”. Il calore sprigionato dall’ordigno atomico sarebbe stato infatti in grado di sciogliere decine di migliaia di metri quadri di roccia porosa per trasformarla in un enorme tappo vetroso in grado di arrestare il flusso di petrolio. Il progetto fu alla fine abbandonato più per ragioni politiche che tecniche.

L’entusiasmo dell’ingegnere americano e di altri fan della bomba sottomarina si basava su un resoconto specialistico del 1998 che svelava un aspetto poco noto dell’utilizzo dell’energia nucleare durante la guerra fredda. L’autore, Milo Nordyke, ex-direttore del Lawrence Livermore National Laboratory, centro californiano specializzato in ricerche applicate alla sicurezza nazionale, in un rapporto intitolato The Soviet Program for Paceful Uses of Nuclear Explosions, descriveva quattro esplosioni realizzate dai sovietici tra il 1966 e il 1981 per spegnere incendi in pozzi di gas naturale fuori controllo. Si trattava solo di una parte di un ampio programma per l’uso di bombe atomiche a scopi pacifici. Gli Stati Uniti avevano progetti simili, seppure su scala minore.
Gli esperimenti sovietici illustrati dall’ex-responsabile dell’istituto californiano avevano funzionato in tre casi su quattro. Nel 1966, grazie all’utilizzo di ordigni nucleari, i tecnici dell’Urss avevano bloccato un flusso di gas di un pozzo in Uzbekistan da cui, per tre anni consecutivi, erano fuoriusciti 12 milioni di metri cubi di sostanze inquinanti al giorno. Secondo quanto riportato da Nordyke, uno dei quattro interventi per domare le fiamme non andò a buon fine solo perché non si possedevano dati geologici a sufficienza sul punto esatto della trivellazione.

Può forse oggi sembrare strano che esperti energetici e ingegneri abbiano considerato le bombe nucleari una possibilità tra le altre di intervenire sull’ambiente, ma non lo era affatto durante il secondo dopoguerra da entrambe le parti della cortina di ferro. L’energia scaturita dalla scissione dell’atomo e i suoi utilizzi avveniristici per migliorare la vita delle persone suscitavano entusiasmi nell’opinione pubblica e tra i governanti.
A partire dalla fine degli anni cinquanta le proposte per un uso creativo delle bombe atomiche a scopi pacifici non a caso si moltiplicarono. Sempre secondo quanto descritto su Nautilus, l’Unione Sovietica diede avvio in quegli anni a un programma che prevedeva 122 esplosioni nucleari con le finalità più varie. Bombe atomiche furono usate fino a poco prima della caduta del muro di Berlino non solo per sigillare pozzi, ma anche per realizzare laghi, canali, dighe, per trovare risorse geologiche e creare nuovi elementi. Tra gli usi previsti più sorprendenti vale la pena menzionare la creazione di vaste cavità sotterranee, isolate dalla biosfera e da falde acquifere, in cui disporre rifiuti tossici. L’idea è stata ripresa in epoca post-sovietica da alcuni scienziati russi come proposta per liberarsi dalle scorie radioattive. Potrà sembrare paradossale, ma lo scoppio di una bomba atomica potrebbe essere uno dei metodi più efficaci in circolazione per smaltire gli scarti di combustibile della fissione nucleare. L’esplosione sotto terra fonderebbe infatti assieme rifiuti e roccia in un blocco stabile, la cui radioattività si dissiperebbe in sicurezza nell’arco di millenni.

Dopo la guerra fredda le considerazioni di natura tecnica vennero superate dall’ampio consenso fra le potenze nucleari a rinunciare a qualunque uso delle bombe atomiche, anche per finalità pacifiche. L’ultima esplosione sul territorio americano risale al 1992, nel deserto del Nevada, dopo più di 1000 test nucleari da parte degli Stati Uniti in più di quarant’anni.
Tali decisioni furono anche il risultato di un mutamento del clima d’opinione nei confronti del nucleare, la cui immagine pubblica tra gli anni settanta e gli anni ottanta del secolo scorso si stabilizzò come negativa dopo ampi periodi di generale consenso. Come dimostra il fisico e storico americano Spencer Weart, autore di opere approfondite sulla storia della percezione del rischio nucleare, ad esempio durante il secondo dopoguerra e per tutti gli anni cinquanta gli atomi godevano di ottima fama. Nel libro The Rise of Nuclear Fear, pubblicato nel 2012, Weart descrive come successivamente e gradualmente le tensioni della guerra fredda trasformarono l’immaginario diffuso sulla radioattività, che da terapia in grado di salvare milioni di persone venne sempre di più percepita come un’insidiosa contaminazione letale su scala planetaria. Incidenti come quelli della centrale americana Three Mile Island e il disastro di Chernobyl nel 1986 contribuirono a mutare definitivamente l’immagine dell’energia nucleare agli occhi dell’opinione pubblica internazionale: non più miracolo futuristico ma minaccia di catastrofe globale.
Qualunque uso delle bombe nucleari divenne politicamente insostenibile. Si comprende così facilmente perché Stati Uniti e Unione Sovietica dovettero rinunciare ai loro programmi di utilizzo pacifico di esplosioni atomiche, inclusi quelli di salvaguardia dell’ambiente.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 18 ottobre 2014.

Tag:, ,

il porto franco triestino della fisica dell’altro mondo*

1412335022448 Cinquant’anni fa nasceva nel pieno della guerra fredda a Trieste un istituto scientifico unico al mondo: un centro di ricerca pura pensato per permettere ai paesi in via di sviluppo di svolgere attività scientifica d’eccellenza. La sua storia è stata celebrata a ottobre dell’anno scorso in un convegno a cui partecipano fra gli altri premi Nobel per la fisica, medaglie Fields per la matematica e il direttore generale dell’Unesco. Ma il Centro internazionale di fisica teorica (Ictp) Abdus Salam ha avuto origine in un contesto culturale e geopolitico che non esiste più ed è lecito chiedersi qual sia il senso della sua mission oggi.

L’ictp è il solo istituto scientifico al mondo su cui sventola la bandiera dell’Onu. Il suo fondatore, il pakistano Abdus Salam, a cui è intitolato il centro dal 1996, è stato finora l’unico scienziato di origine islamica ad aver vinto un premio Nobel per la fisica. Fortemente voluto negli anni sessanta del secolo scorso dall’allora ministro degli esteri Giulio Andreotti, l’Ictp è tuttora ampiamente sostenuto dal governo italiano con un contributo attuale di 20,5 milioni di euro all’anno, pari all’85 per cento circa del budget complessivo.

Un ottimo investimento, a leggere i numeri. Solo nel 2013, l’istituto è stato visitato da quasi seimila studenti e ricercatori provenienti da 139 nazioni, soprattutto da paesi in via di sviluppo, in primis Algeria, Nigeria, Egitto, fino a Costa Rica, Ecuador, Guatemala, di cui il 23 per cento sono donne. ln cinquant’anni di vita il centro è stato teatro di più di 140 mila visite soprattutto da paesi poveri, con una produzione scientifica costante e di livello internazionale.

Una delle caratteristiche peculiari del modello organizzativo dell’Ictp è favorire il ritorno dei visitatori nei paesi d’origine dopo il periodo di permanenza a Trieste. L’obiettivo è raggiunto attraverso una serie di programmi che, da una parte, permettono di mantenere un legame duraturo col centro triestino, dall’altra di promuovere progetti scientifici legati ai bisogni specifici del territorio di provenienza. Uno dei più consolidati è l’ Associateship Scheme, grazie al quale vengono stabiliti rapporti di lungo termine con i singoli ricercatori. Attraverso il Federation Arrangement Scheme, le istituzioni dei paesi in via di sviluppo possono invece mandare a Trieste i loro scienziati, di età inferiore ai 40 anni, per visite comprese fra i 60 e i 150 giorni, per un periodo complessivo di tre anni, durante il quale i partecipanti svolgono varie attività formative e di ricerca. In questo caso le spese sono condivise.

I primati dell’Ictp sono stati raggiunti anche grazie alla capacità, negli anni, di mutare pelle sia negli interessi di ricerca, perché alla fisica pura si sono aggiunti altri ambiti disciplinari, come la fisica del tempo e del clima, la geofisica dei terremoti o la computer science, sia sul piano strategico-istituzionale.

“I profondi cambiamenti geopolitici accaduti dal 1964 a oggi”, spiega a pagina99 Sandro Scandolo, senior scientist e delegato dell’Ictp per le relazioni con l’Italia, “hanno modificato il rapporto con diversi paesi che una volta ricevevano il nostro supporto. Nazioni come la Cina e il Brasile, diventate forze trainanti della ricerca internazionale, hanno sempre meno bisogno dei servizi tradizionali del nostro istituto, ma continuano a chiederci aiuto perché vogliono fare nel loro paese quello che abbiamo fatto a Trieste. Da diretti beneficiari sono diventati partner: per questo credo che il modello organizzativo originale sostenuto dai fondatori dell’Ictp abbia vinto”.

Nella visione del già citato Salam e del fisico triestino Paolo Budinich, i due artefici del Trieste Experiment, come lo definì all’epoca il New York Times, c’era un progetto inedito di sostegno ai paesi poveri attraverso la scienza. Non semplicemente un centro d’attrazione per i ricercatori di paesi in via di sviluppo, ma un investimento di lungo termine sul capitale umano: l’Ictp doveva essere un necessario luogo di formazione, ma di passaggio, per chi poi sarebbe ritornato in patria per assumere ruoli di leadership scientifica. Un approccio molto diverso da quello seguito da grandi istituzioni come il Mit di Boston o il College de France di Parigi, dove sapevano bene che la “fuga dei cervelli” conveniva soprattutto se unidirezionale.

Non a caso, quando nei primi anni sessanta si trattò di decidere sull’apertura del centro, tutti i grandi del mondo si schierarono contro, con un’inedita convergenza tra Stati Uniti e Unione Sovietica. Le due potenze erano divise su tutto, ma concordavano nel non voler sostenere Trieste come porto franco scientifico per la rinascita economica dei paesi del Terzo Mondo attraverso la ricerca pura. Per i detrattori si trattava di un progetto folle e visionario che però incontrò il sostegno determinante dell’ambasciatore Egidio Ortona e sopratutto dell’allora ministro degli esteri Giulio Andreotti.

Iniziò una lunga battaglia diplomatica che, come spiega Pietro Greco nel libro Buongiorno prof. Budinich, edito da Bompiani nel 2007, trovava le sue ragioni in motivi che andavano al di là della scienza. In particolare, il nostro paese dopo aver perso la guerra aveva bisogno di recuperare lo status di potenza sviluppata e per questo voleva mostrarsi come nazione donatrice. Ed è proprio la generosità del finanziamento garantito dal governo italiano che risultò infine decisiva per vincere le resistenze.

Tale stanziamento, come già accennato, continua a essere cospicuo anche oggi e se da una parte l’Ictp rimane una scommessa di successo, dall’altra bisogna confrontarsi con un contesto internazionale radicalmente cambiato e con un’Italia attraversata da una profonda crisi economica.

“Non c’è dubbio”, afferma Scandolo, “che ci dobbiamo rapportare con problemi nuovi. Rispetto al passato siamo ad esempio sempre più costretti a lavorare con governanti che prediligono aspetti applicativi e pretendono risultati immediati: in poco tempo vorrebbero costruire centri di ricerca innovativi dove adesso non c’è niente. Questo non è possibile e noi abbiamo il compito di convincerli che la formazione di base è fondamentale, richiede pazienza, ma si rivela cruciale sul lungo periodo. Credo che per questo la nostra funzione continui a rimanere fondamentale”.

Come convive la realtà del centro triestino con le difficoltà economiche italiane? Al di là dell’importante impatto scientifico, Scandolo ammette che “bisogna comunicare meglio il fatto che l’Ictp continua a essere strategico in termini di cooperazione internazionale dando la possibilità all’Italia di costruire contatti con realtà altrimenti difficilmente raggiungibili.” In altre parole l’Ictp, anche se da noi poco conosciuto, rimane un significativo braccio operativo della politica estera nazionale.

Non si può dimenticare poi che l’istituto è stato il generatore del cosiddetto Sistema Trieste, ha fatto cioè decollare la nascita dell’insieme di realtà scientifiche e tecnologiche che rende il oggi il capoluogo giuliano una delle città europee con la maggiore densità di persone impiegate nel settore ricerca e sviluppo.

Lasciata alle spalle la stagione dei “lucidi visionari” Salam e Budinich, ai successori alla guida dell’Ictp rimane quindi il compito di non far perdere il mordente a scienziati, politici e opinione pubblica per una storia scientifica e politica di successo, in controtendenza con la narrativa del declino italiano e che ha reso fra l’altro Trieste, come ha affermato il fisico ruandese Romani Maurenzi, direttore esecutivo dell’Accademia mondiale delle scienze, forse l’unica città al mondo e sicuramente l’unico posto in Italia dove “quando incontri una persona di colore pensi che sia uno scienziato”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 4 ottobre 2014.

Tag:,

nessun pericolo dal bosone*

pg 99 set 2014 Se l’icona vivente della scienza contemporanea si pronuncia sull’apocalisse è impossibile non dargli ascolto. Ma più di improbabili scenari catastrofisti, le recenti affermazioni di Stephen Hawking sulla possibile distruzione dell’universo a causa del potenziale di Higgs ripropongono la portata ciclopica del grande sogno dei fisici teorici: quello di una teoria finale, di un’unica spiegazione per tutte le proprietà del mondo.

Il cosmologo e astrofisico britannico, già titolare della cattedra lucasiana di matematica all’Università di Cambridge che fu di Isaac Newton, non ha mai avuto un rapporto facile con il bosone di Higgs. Nel 2000 Hawking aveva scommesso 100 dollari col collega Gordon Kane che i fisici non sarebbero mai stati in grado di trovarlo. Perse la scommessa nel 2012, quando dal Cern di Ginevra annunciarono che la caccia era finita: dopo circa cinquant’anni dagli studi teorici di Peter Higgs, gli esperimenti condotti con l’acceleratore Large Hadron Collider rivelavano l’esistenza della particella. Hawking non si perse d’animo e, a fronte di un’esultanza planetaria, affermò che la scoperta rendeva la fisica meno interessante. Non pago delle critiche, qualche settimana fa lo scienziato famoso per i suoi studi sui buchi neri ha affermato che la “particella di Dio”, espressione definita dagli addetti ai lavori una detestabile invenzione giornalistica, potrebbe addirittura essere la protagonista di uno scenario da Armageddon.

Non è un dettaglio che Hawking abbia recitato il ruolo della cassandra nella prefazione del libro Starmus: 50 years of man in space. Se il dubbio della trovata di marketing è lecito, rimane il fatto che l’allarme del fisico britannico ha riacceso i riflettori mediatici internazionali, e la discussione tra gli studiosi, sulla natura e sul futuro della fisica delle particelle.

A dire il vero, gli accadimenti preconizzati da Hawking non costituiscono una gran novità per gli esperti e, soprattutto, sono estremamente improbabili. Per capire perché bisogna considerare che la misura attuale della massa del bosone di Higgs avrebbe svelato il cosiddetto stato di “metastabilità” in cui si trova l’universo, una condizione che, se pur in linea del tutto teorica, potrebbe essere modificata con un apporto di energia o per effetti quantistici, con conseguenze devastanti. Le energie necessarie per la catastrofica transizione sono però assolutamente al di fuori della portata di qualunque acceleratore di particelle realizzabile da esseri umani. Inoltre, anche se si considerano decadimenti quantistici, tale processo potrebbe richiedere tempi inconcepibili per la nostra esperienza, come 10 elevato a 100 anni, o non accadere mai. Altre misure e nuovi calcoli potrebbero infine rivelare che l’universo è più stabile di quanto si pensi.

Più interessante di ipotesi fantascientifiche, la provocazione di Hawking rivela che il futuro della fisica delle particelle passa per la costruzione di acceleratori sempre più potenti a energie sempre più elevate. Forse Hawking non è d’accordo con quest’approccio e manifesta il suo dissenso con iperboli catastrofiste. Non lo sappiamo, ma di certo le maggiori energie a cui si vuole arrivare servono ad affrontare i problemi ancora aperti nella ricerca di un disegno profondo e unitario della natura, non a distruggere l’universo.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 27 settembre 2014. Lo riporto sul mio blog per loro gentile concessione.

Tag:, ,

Autismo e vaccini la paura è contagiosa*

È stato l’ “istinto di mamma” ad averle suggerito che la causa dell’autismo di suo figlio era stato il vaccino. Non è un’argomentazione propriamente scientifica, ma tant’è. L’attrice e modella Jenny McCarthy, ex-playmate ed ex-moglie di Jim Carrey, lanciava così qualche anno fa la sua battaglia contro i vaccini in una memorabile puntata dell’Oprah Show, il talk show più seguito nella storia della televisione statunitense. Secondo un report pubblicato a fine aprile dall’ American Academy of Arts and Sciences, le posizioni anti-scientifiche di star mediatiche come quella di Jenny McCarthy sono uno dei fattori che maggiormente concorrono all’inadempienza vaccinale: una combinazione fatale di ricerche fraudolente, giornalismo approssimativo e intenso attivismo che ha come risultato l’aumento della diffidenza e delle preoccupazioni dei genitori nei confronti delle vaccinazioni raccomandate per i propri figli. Di fronte all’accerchiamento comunicativo, le armi delle istituzioni sanitarie pubbliche sono spuntate: alcune recenti ricerche dimostrano che i messaggi delle campagne promozionali sono poco efficaci e in alcuni casi controproducenti.

Il rapporto tra comunicazione è inadempienza vaccinale preoccupa non poco i medici, che individuano nella disinformazione la causa delle recenti epidemie di morbillo in diverse parti del mondo, Italia inclusa. Stando a quanto riportato dal portale di epidemiologia per sanità pubblica Epicentro, in questo momento sono in corso focolai dell’infezione in diverse regioni del nostro paese. Uno dei più clamorosi è stato registrato a maggio in Emilia-Romagna, dove in pochi giorni si sono verificati un centinaio di casi solo a Bologna. Dall’altra parte dell’oceano, le autorità sanitarie statunitensi affermano che il 2013 è stato l’anno con la maggiore epidemia di morbillo dagli anni novanta del secolo scorso. Il principale colpevole della situazione attuale secondo le autorità sanitarie è una diffusa disinformazione. Fatta la diagnosi, la terapia rimane incerta dato che non si sa molto su quali siano i messaggi efficaci per cercare di superare la resistenza alle vaccinazioni.

Il compito è reso ancor più arduo per la necessità di mantenere alti, molto alti, i livelli di immunizzazione. Il Piano nazionale di eliminazione del morbillo e della rosolia congenita 2010-2015 ha fissato al 95% in Italia la copertura vaccinale oltre la quale è assicurata l’ “immunità di branco”, la soglia il cui superamento protegge anche chi non si vaccina. Superata questa percentuale si interrompe la trasmissione dell’infezione, ma maggiore è la distanza da essa, minore è l’efficacia del vaccino come misura di salute pubblica. Attualmente in Italia circa il 90% dei bambini entro i due anni di età è stato vaccinato contro il morbillo, anche se ci sono aree con valori variabili dal 71,5% al 96,7%. L’Organizzazione mondiale della sanità, durante la Settimana dell’Immunizzazione di quest’anno dedicata proprio al morbillo e alla rosolia, ha dichiarato che in Europa non verrà raggiunto l’obiettivo di eradicare la malattia entro il 2015. Anche in Italia siamo lontani dal traguardo. Nel 2013 sono stati segnalati 2.211 casi. L’86,7% delle volte si è trattato di persone non vaccinate. Secondo i dati dell’Ecdc (European Centre for Disease Prevention and Control), nel 2013 in Europa si sono ammalate 10.271 persone, i morti sono stati tre, con otto episodi di encefalite acuta. Nonostante nel nostro immaginario collettivo sia considerato quasi una formalità, questi dati confermano che il morbillo è una malattia altamente contagiosa che può avere complicazioni anche molto gravi. Uno studio pubblicato agli inizi di giugno sulla rivista Pediatrics mostra come anche un solo caso possa avere effetti devastanti su una comunità non immunizzata. Per questo motivo le preoccupazioni degli esperti riguardano non tanto le coperture vaccinali, che rimangono relativamente alte, ma il calo della percezione del rischio e dell’attenzione dei genitori che ritardano, e in casi estremi rifiutano, di vaccinare i propri figli. L’impegno a non abbassare la guardia si scontra con la capacità organizzativa e comunicativa della variegata galassia di gruppi antivaccini, il cui attivismo soprattutto in rete aumenta i sospetti da parte di fasce della popolazione che per diversi motivi nutrono dubbi e perplessità, se non vera e propria ostilità.

La diffidenza secondo gli esperti nasce dalla disinformazione, che ha un’origine, un nome e un cognome precisi: il 1998, quando la rivista The Lancet pubblica un articolo a firma di Andrew Jeremy Wakefield e altri dodici ricercatori in cui si ipotizza un legame tra la vaccinazione contro morbillo, rosolia e parotite e l’autismo. Lo studio ha una vasta risonanza nel mondo della ricerca e una notevole eco mediatica provocando un brusco calo delle vaccinazioni nel Regno Unito. In più di un decennio di verifiche in Europa e in USA, la letteratura di settore sancisce che in realtà il nesso tra vaccini e autismo è destituito di qualunque fondamento scientifico. Non solo. Le indagini dimostrano che Wakefiled ha manipolato i dati e falsificato le conclusioni. Il paper nel 2010 viene ritirato dal Lancet e l’autore radiato dall’ordine dei medici. E intanto iniziano anche le prime azioni in tribunale. Circa una settimana fa il quotidiano britannico Times ha riportato il caso di un ragazzo di 23 anni affetto da un disturbo dello spettro autistico che ha citato in giudizio i suoi precedenti legali per aver alimentato false speranze basate su ricerche errate e fraudolente sul vaccino contro il morbillo, la parotite e la rosolia (Mpr). Tutto questo non impedirà probabilmente ad associazioni anti-vaccini e avvocati specializzati in cause di risarcimento di riproporre, come avviene da anni, periodicamente il falso allarme, con la complicità di media che offrono loro piattaforme di grande visibilità.

Nonostante l’importanza del ruolo della comunicazione, fino ad ora è stata fatta poca ricerca, ad esempio, sull’impatto dei social media e ai siti di video-sharing sui processi decisionali che regolano le scelte legate alle vaccinazioni. Ancora di meno in questo campo si conosce dell’efficacia delle tradizionali campagne di sanità pubblica. La lacuna è stata parzialmente coperta da uno studio pubblicato nel 2014 sulla rivista Pediatrics, “Effective Messages in Vaccine Promotion: A Randomized Trial”. I ricercatori hanno analizzato i risultati di un’indagine sociologica condotta su tutto il territorio americano. Gli autori della ricerca hanno testato l’efficacia di alcuni dei messaggi più comuni utilizzati nelle strategie promozionali. Funziona di più ad esempio una strategia finalizzata a correggere la disinformazione o è meglio presentare i rischi della mancata vaccinazione? È più utile usare toni drammatici o realizzare video divulgativi e accessibili?
I risultati hanno mostrato che nessuno dei messaggi realizzati dalle autorità pubbliche aumenta l’intenzione dei genitori a far vaccinare i propri figli. Le strategie di correzione della disinformazione riducono poi forse i preconcetti sul legame vaccino/autismo, ma fanno diminuire la propensione a vaccinarsi proprio tra coloro che si rivelano meno favorevoli. Inoltre, le immagini di bambini con morbillo, parotite e rosolia su cui si basano narrazioni drammatiche, se non catastrofiche, servono ad aumentare le credenze sugli effetti collaterali dei vaccini. È insomma una debacle su tutti i fronti che richiede, come suggeriscono gli autori del paper, di provare strade alternative e di verificare attentamente i messaggi prima di renderli pubblici. Un ruolo centrale potrebbero averlo i pediatri, ma in generale è necessaria una maggiore consapevolezza della complessità dei rapporti tra conoscenza scientifica, opinioni e comportamenti in ambito sanitario.

La letteratura in ambito psicologico e sociologico può dare un aiuto a comprendere le ragioni dell’inefficacia delle campagne pubbliche. Correggere la disinformazione è una sfida ad esempio non banale a causa della natura profonda di pregiudizi e processi cognitivi. Tutti noi siamo più inclini ad accogliere informazioni che confermano le nostre credenze e a ignorare quelle che mettono in discussione le nostre certezze. Oppure siamo disposti ad accettare nuove asserzioni fattuali quando provengono da fonti che condividono i nostri stessi valori e che sono percepite come affidabili. È accertato poi che bufale e affermazioni palesemente false, come quella del link fra vaccino e autismo, una volta diffuse, continuano a mantenere un potere “adesivo” nonostante tutti i tentativi di smascherarle. Un metastudio del 2012 su Psychological Science in the Public Interest, “Misinformation and Its Correction: Continued Influence and Successful Debiasing,” si è focalizzato approfonditamente su come si origina e si diffonde la disinformazione, sul perché è difficile correggerla e sulle modalità più efficaci per contrastarla. I ricercatori notano che le ritrattazioni con più chances di successo sono quelle che riconoscono e rispettano le credenze individuali, qualunque esse siano, e offrono una visione del mondo magari alternativa ma comprensibile, vale a dire inserita nelle cornici di significato con cui diversi gruppi e individui danno senso agli eventi. Paternalismo, demonizzazione, deprecazione dell’ignoranza o addirittura offese non fanno viceversa che alienare chi nutre perplessità e ostilità e rinforzare le convinzioni condivise all’interno delle comunità di appartenenza, razionali o irrazionali che siano.

La resistenza all’evidenza scientifica riguardo ai rischi della salute richiede quindi indagini più approfondite che attraversino il campo dei media, della comunicazione, dei pubblici, ma anche dei contesti culturali in grado di spiegare ad esempio quale tipologia di cittadini possano diventare più vulnerabili alla disinformazione sui vaccini. Con l’avvertenza che i livelli di fiducia e di credenza nei confronti della scienza variano sia nel tempo che in diversi gruppi sociali. E senza infine dimenticare che il quadro è ulteriormente complicato da movimenti e organizzazioni che introducono continuamente nuove possibili attitudini riguardo al cibo, al benessere, allo stile di vita.

*Quest’articolo è stato scritto insieme a Donato Ramani e pubblicato su Pagina99we del 5 luglio 2014. Lo riporto sul mio blog per loro gentile concessione.

Tag:,

Leggere il cervello per dominare il mondo*

È una nuova corsa allo spazio. Solo che al posto di missili, satelliti e la conquista della Luna, in ballo c’è il sistema biologico più complesso nell’universo conosciuto: il cervello. In un clima misto di collaborazione e competizione, Europa, Stati Uniti e Cina affilano sempre di più le armi della politica della ricerca per finanziare mega-progetti finalizzati allo studio scientifico del sistema nervoso. Le aspettative sono avveniristiche: dalla cura di malattie neurodegnerative come Alzheimer e Parkinson allo sviluppo di intelligenze artificiali simili a quelle umane. Oltre alle ambizioni scientifiche, sulle neuroscienze si concentrano forti interessi economici e questioni cruciali per le società contemporanee. I futuri assetti della competitività internazionale dipendono in maniera non trascurabile dal modo in cui le attuali potenze mondiali riusciranno ad affrontare sfide e opportunità della ricerca sul cervello.

Il vecchio continente mostrerà i muscoli la prossima settimana a Milano con la nona edizione del forum europeo sulle neuroscienze – Fens 2014. Dal 5 al 9 luglio, il capoluogo lombardo sarà teatro di un meeting che vede coinvolti i rappresentanti di 42 società scientifiche distribuite dal Portogallo alla Romania, dall’Italia alla Norvegia, per una comunità complessiva di circa 23000 ricercatori. Sarà la prima importante occasione per sentire la voce europea delle neuroscienze – come recita la home page del sito della Fens (Federation of European Neuroscience Societies) – dopo una sorta di annus mirabilis per la disciplina. Il 2013 è stato infatti segnato da due iniziative senza precedenti su entrambe le sponde dell’Atlantico.

Nel febbraio dell’anno scorso il Presidente Obama, nel suo discorso sullo Stato della Nazione, scioccava la comunità globale dei neuroscienziati annunciando un progetto decennale dell’ordine di tre miliardi di dollari: il Brain Activity Map, un’ambiziosa mappa del cervello per “immaginare ogni impulso nervoso da ogni neurone”. Alla dichiarazione di Obama ha fatto seguito il 2 aprile 2013 il lancio da parte della Casa Bianca dell’iniziativa BRAIN, che promette un sostegno fino a 300 milioni di dollari l’anno per lo sviluppo di nuove tecnologie finalizzate alla comprensione del funzionamento del cervello nei minimi dettagli.
“Ogni dollaro che abbiamo investito nella mappatura del genoma”, spiegava il presidente americano al Congresso, “ha portato a un ritorno pari a 140 dollari nella nostra economia. Oggi i nostri scienziati stanno mappando il cervello umano per svelare i segreti dell’Alzheimer, stanno sviluppando farmaci per rigenerare organi danneggiati, mettendo a punto nuovo materiale per creare batterie dieci volte più potenti. Non è certo questo il momento di tagliare questi investimenti in scienza e innovazione in grado di creare nuovi posti di lavoro. Ora è invece il tempo di raggiungere un livello di ricerca e sviluppo non più visto dai tempi della corsa allo Spazio”. Nuove speranze per la medicina quindi, ma anche nuove opportunità economiche e maggiori finanziamenti per non arrancare dietro i concorrenti internazionali, vecchio continente in primis.

Anche se non tutti concordano sull’ipotesi di una guerra fredda delle neuroscienze, il solenne impegno di Obama è stato interpretato da diversi analisti come la risposta statunitense alla decisione della Commissione Europea, presa il 28 gennaio 2013, di finanziare lo Human Brain Project del Politecnico di Losanna in Svizzera come uno dei progetti-bandiera delle Future and Emerging Technologies: un miliardo di euro in dieci anni per tentare di simulare il cervello umano attraverso una rete di supercomputer.
Di sicuro le iniziative americane ed europee non sono sfuggite all’attenzione della Cina, una delle altre grandi protagoniste mondiali del boom della ricerca sul cervello degli ultimi anni. In un articolo uscito a marzo di quest’anno sulla National Science Review, una rivista pubblicata dall’Università di Oxford sotto l’egida dell’Accademia Cinese delle Scienze, il neuroscienziato Mu-ming Poo si chiede dove siano diretti i mega-progetti voluti dall’amministrazione Obama e dalla Commissione Europea e quale scopo ultimo si prefiggano. Le conclusioni sono che entrambi offrono certamente nuove opportunità per sviluppare tecnologie innovative, anche se “le prospettive di terapie efficaci per i disturbi del sistema nervoso rimangono incerte”.

Mu-ming Poo non è uno qualunque. Nel 1999 ha fondato a Shanghai l’Istituto di Neuroscienze, un’ente attualmente dotato di 27 laboratori e di uno staff con più di trecento scienziati. Il centro di ricerca è stato preso a modello per riformare l’intero sistema delle istituzioni scientifiche del gigante asiatico. Descritto come un dittatore per i metodi e gli orari di lavoro imposti ai suoi collaboratori, Poo è un deciso promotore dell’adeguamento della ricerca cinese agli standard di qualità occidentali e un testimone attivo della crescita delle neuroscienze nel suo paese. Un’accelerazione segnata dal costante aumento di finanziamenti, dalla nascita centri di ricerca su tutto il territorio nazionale, dalla crescente capacità di far ritornare in patria scienziati formati nelle migliori università europee e americane. La ricerca sul cervello grazie a personaggi come Poo si è ritagliata un ruolo da protagonista tra le scommesse scientifiche della terra di mezzo, che nei primi dieci anni del nuovo millennio ha continuato a finanziare la spesa per la scienza con aumenti annui attorno al 20% e che nel 2012, secondo dati Ocse, viaggiava su investimenti nella ricerca pari all’1,98% del Pil (a fronte dell’ l’1,70% nel 2010). La rivista Nature, in un reportage del 2011, suggeriva di farsi un giro a Shangai all’istituto diretto da Mu-ming Poo per avere un’idea di come la Cina si sta costruendo un futuro da superpotenza delle bioscienze.

Al di là di scenari geopolitici più o meno verosimili, Poo nella sua analisi sul National Science Review coglie l’aspetto più significativo del grande fermento attorno alle neuroscienze degli ultimi tempi: “il fatto che molti governi hanno deciso di mettere la ricerca sul cervello in cima alle priorità delle loro agende nazionali”, un aspetto che eccita la comunità scientifica internazionale ancor di più della quantità di nuovi finanziamenti.
Non si tratta di una coincidenza. La ragione di tanto interesse da parte della politica accomuna paesi sviluppati e paesi emergenti. Il filo rosso che unisce Europa, Stati Uniti e Cina è il peso sociale ed economico dei disturbi del cervello.

Uno studio appena pubblicato sulla rivista Neuron stima che nel vecchio continente i costi per le alterazioni del funzionamento cognitivo, legato ad esempio a lesioni cerebrali o a malattie neurodegenerative, ammontano a circa 800 miliardi di euro l’anno. Con 179 milioni di persone coinvolte nel 2010, i disturbi del cervello sono la maggiore emergenza di sanità pubblica in Europa, prima delle malattie cardiovascolari e del cancro. Come ci spiega Monica di Luca, una delle autrici della ricerca, nonché professore di farmacologia all’Università di Milano e presidente eletta della Fens, “lo studio ha incluso 27 stati membro e 19 patologie. Gli 800 miliardi di euro sono il risultato dei costi diretti e dei costi indiretti. I primi fanno riferimento ai farmaci, all’ospedalizzazione e all’assistenza, ma anche a spese non mediche, ad esempio le infrastrutture e le apparecchiature. I costi indiretti sono invece relativi a questioni di ordine sociale, come l’assenteismo o la mancanza di produttività”.
Questi numeri sono stati fondamentali per convincere la Commissione Europea a inserire la ricerca sul cervello tra le priorità di finanziamento negli strumenti a disposizione dell’Unione, sia nel passato recente che nei prossimi anni, vale a dire sia nel Settimo Programma Quadro terminato l’anno scorso, che nel nuovo Horizon 2020, partito nel 2014. Anche perché a Bruxelles hanno compreso bene i benefici sociali e le opportunità economiche derivanti da un aumento degli investimenti nelle neuroscienze.
Per averne un’idea basti considerare che un report del 2010 della Alzheimer’s Association, la maggiore organizzazione americana impegnata nella promozione della ricerca medica e scientifica sulle cause, la cura e l’assistenza per la malattia di Alzheimer, stimava in 33 miliardi di dollari nel 2020 e in 283 miliardi di dollari nel 2050 il risparmio annuale previsto per il sistema sanitario semplicemente grazie a un ipotetico trattamento per ritardare l’insorgenza della malattia di cinque anni. La malattia di Alzheimer attualmente colpisce più di cinque milioni di statunitensi con più di 65 anni, ma questa cifra potrebbe arrivare a 13.5 milioni a metà del secolo se non si inverte la rotta. E la strada maestra per cambiare traiettoria è la ricerca di base.

Una direzione che non coincide del tutto col percorso intrapreso dalla Commissione Europea. “Horizon 2020”, spiega Monica di Luca, “ ci chiede di andare verso l’innovazione molto di più che in passato, quasi a un livello competitivo di mercato, stimola ancora di più una collaborazione tra pubblico-privato per la soluzione di problemi chiave. Siamo ben consapevoli dell’importanza di tutto ciò, ma è cruciale anche mantenere l’attenzione sulle priorità della ricerca di base sul cervello. Il Brain Human Project è ad esempio un’iniziativa di grande rilievo scientifico e la nostra comunità è molto contenta che sia stata finanziata, ma si tratta soprattutto di ricerca computazionale, è solo un tassello di un quadro molto più ampio: le neuroscienze in Europa debbono e possono dare molto di più. A livello istituzionale non regge poi il confronto con gli Stati Uniti se teniamo presente che il progetto BRAIN è stato identificato come priorità nazionale e sponsorizzato dal presidente Obama in persona”.
Non si tratterà insomma di una nuova guerra fredda, ma di certo siamo solo agli inizi di una competizione che nei prossimi anni vedrà politici e neuroscienziati americani, europei, cinesi e molto probabilmente di altri paesi emergenti, giocarsi una buona parte del futuro economico e sociale delle proprie nazioni al tavolo della ricerca sul cervello.

*Quest’articolo è stato pubblicato su Pagina99we del 28 giugno 2014. Lo riporto sul mio blog per loro gentile concessione.

Tag:, ,

Il ruolo della formazione nella governance della scienza


Possono le scuole di comunicazione e di giornalismo scientifico dare un contributo alla democratizzazione della scienza? Possono favorire processi partecipativi su questioni tecnoscientifiche socialmente controverse? Possono essere un centro propulsivo di cittadinanza scientifica? Sono le questioni su cui sono stato stimolato a ragionare nell’ambito di una tavola rotonda prevista per venerdì prossimo a Perugia durante la due giorni del convegno Scienza, informazione e democrazia.
Dal mio punto di vista la risposta sintetica alle domande elencate è sì, a patto che la comunicazione della scienza sia agita come un bene pubblico e si metta al servizio delle comunità per favorire l’impegno civile. È un passaggio controverso, perché siamo ancora troppo abituati a formare studenti che salvaguardino le legittime, ma non esclusive, istanze degli scienziati.

È solo una preoccupazione accademica?

Gli interrogativi posti, di primo acchitto, sono abbastanza distanti dalle preoccupazioni quotidiane di chi si occupa di formazione in comunicazione della scienza. Molto più usuale è che gli aspiranti allievi ti chiedano se troveranno lavoro. Per dare significati concreti alla discussione bisognerebbe mostrare che la definizione di uno spazio originale di innovazione democratica per le scuole porta all’acquisizione di competenze spendibili sul mercato del lavoro.

Perché bisognerebbe promuovere la cittadinanza scientifica?

C’è però una questione preliminare da sciogliere. Siamo proprio sicuri che il coinvolgimento pubblico su questioni di scienza e tecnologia sia una cosa buona? Perché (e dovremmo chiedercelo prima del come) dovremmo formare persone in grado di facilitare processi di partecipazione su decisioni che richiedono elevate competenze tecnico-scientifiche? Siamo convinti che in tal modo si prenderebbero le decisioni migliori? All’inizio di quest’anno la rivista Public Understanding of Science (PUS) ha dedicato un numero speciale a questi interrogativi. Dopo vent’anni di teorie e pratiche su quello che gli anglossassoni chiamano public engagement of science, autori celebri nel settore, come Brian Wynne, Alan Irwin, Helga Novotny e soprattutto Sheila Jasanoff, si sono chiesti a che punto siamo, dove stiamo andando e perché bisognerebbe continuare a sostenere modelli dialogici nella comunicazione della scienza.

Limiti e potenzialità del dialogo

Gli autori elencati sono tutti d’accordo nel ritenere che non tutte le promesse sono state mantenute. Le pratiche di dialogo tra scienza e società a partire dagli anni ’90 del secolo scorso si sono focalizzate su esperimenti limitati sia nel numero di partecipanti che nell’impatto concreto sulle policy. In più si sono istituzionalizzate. Da una parte si è perso quindi di vista l’obiettivo politico più ampio: quello di una governance dialogica globale della scienza, non riducibile a singole attività dagli esiti politici incerti e modesti. Dall’altra le istituzioni hanno proceduralizzato gli esercizi di dialogo per inserirli in una più vasta strategia di rassicurazione, significativamente distante da una reale apertura democratica.

Occorre cambiare le idee su scienza e pubblici

Diversi studiosi dello special issue del PUS condividono il fatto che se si vuole ridare slancio alla partecipazione bisogna riaprire le idee sui pubblici e sulla scienza.
In ormai quasi trent’anni di critica al modello top-down, è stato relativamente facile convincere gli scienziati che bisognava passare dal monologo alla conversazione. Molto più complicato è stato persuadere gli esperti che il problema non è il pubblico. Nei fatti la stragrande maggioranza delle istituzioni pratica il dialogo come uno strumento più sofisticato rispetto al passato, ma pur sempre finalizzato a mantenere inalterate le strutture di potere e le distanze fra chi sa e chi non sa.
Ma la partecipazione ha un senso solo se apre il processo decisionale ad altre voci, ad altri saperi, ad altre visioni, non se si interrompe il processo quando la discussione diventa scomoda. Aprire il processo decisionale vuol dire generare nuove conversazioni e soluzioni, significa rendere concreta la pratica della cittadinanza scientifica.

I costi della partecipazione

Tutto questo è costoso in termini di tempo e di risorse ed è soprattutto rischioso sul piano politico, perché può portare in direzioni inattese proprio per le organizzazioni che promuovono il dialogo. Il paradosso è che i benefici maggiori alla democrazia possono rappresentare gli aspetti più sgradevoli per le istituzioni.
Si è disposti ad accettare questo rischio se si ha fiducia che la partecipazione sia il metodo privilegiato per definire le scelte migliori o, più probabilmente, il meno peggio per tutti. Il dialogo può funzionare se i pubblici di non-esperti vengono considerati dei partner comunicativi con cui negoziare interessi e prospettive anche molto differenti tra di loro. Se viceversa l’idea di fondo rimane di trattare i pubblici come target da persuadere o rassicurare, in altre parole se le pratiche di coinvolgimento continuano a rispecchiare le assunzioni del modello di deficit, rimane forte la tentazione di chiudere il processo di discussione quando diventa sconveniente.

Pubblici issue-oriented

Come scrive Jasanoff, è sempre più chiaro, diversamente dalle schematizzazioni deficitarie, che i pubblici non sono realtà pre-esistenti e statiche rispetto alla scienza e alla tecnologia. I pubblici della scienza sono issue-oriented, vale a dire che essi si formano rispetto a problemi specifici che contano di più di variabili socio-demografiche e culturali: i pubblici vogliono entrare nell’arena politica perché desiderano partecipare al governo del futuro.
In parallelo alla riconsiderazione dei pubblici della scienza vanno approfondite le ragioni per cui gli scienziati continuano a rappresentarsi sotto assedio, nonostante la ricerca sociale da anni mostri che non è così. La persistenza di un’immagine della scienza poco apprezzata e poco considerata condiziona l’impostazione e la visione degli approcci dialogici.

Benefici per la democrazia, ma per la scienza?

Le conseguenze inattese e lo sviluppo di “intelligenza sociale” rappresentano certamente un beneficio per la democrazia (tenendo sempre a mente che la democrazia ci permette di individuare decisioni senza ricorrere alla violenza – ed è tanto – ma non ci consente necessariamente di trovare la scelta giusta in sé).
Ma cosa ci guadagna la scienza in tutto questo? Cosa ci guadagnano gli esperti a essere messi in discussione?
Certamente poco se lo scopo rimane la rassicurazione sociale, molto di più se gli obiettivi diventano la riflessività istituzionale e soprattutto l’aumento del capitale di fiducia sociale, la questione che a mio modo di vedere rappresenta la posta in gioco più importante nei rapporti tra scienza e società. Perché in fondo la domanda su cui i cittadini si interrogano più insistentemente di fronte all’innovazione tecnoscientifica e ai conflitti che ne scaturiscono è: di chi mi posso fidare?
Per le istituzioni, aprirsi a un dialogo vero significherebbe muoversi nella giusta direzione per essere sempre di più degli interlocutori credibili e attendibili, prim’ancora di essere dei centri di sapere comprensibili.
Difficilmente tali obiettivi possono essere raggiunti puntando a singoli e sporadici eventi di partecipazione, per di più poco coerenti con una visione di governance globale della scienza. Se però le istituzioni accettano davvero il rischio democratico allora si può forse prospettare un ruolo anche per le scuole di comunicazione della scienza.

Cosa possono fare le scuole per la cittadinanza scientifica

Non c’è dubbio che in un periodo di trasformazione come quello attuale è nostra responsabilità di formatori studiare percorsi didattici che puntino all’internazionalizzazione, all’innovazione, all’universo digitale, ai modelli economici. Non bisogna però perdere di vista il perno imprescindibile attorno a cui ruota qualunque attività di comunicazione: lavorare in funzione del pubblico.
Se crediamo di dover formare persone che favoriscano la democratizzazione della scienza, allora bisogna insegnare ai nostri studenti come organizzare l’informazione scientifica per promuovere l’impegno civile.
I nostri studenti devono acquisire le competenze tecniche e culturali per entrare nelle comunità, imparare a viverle, a capirle e a raccontarle. Dobbiamo formare studenti in grado di aiutare le istituzioni scientifiche ad abbracciare una visione più ampia dei rapporti tra scienza e società. Dobbiamo addestrare allievi in grado di ideare progetti innovativi di interazione tra media, esperti e politici. Dobbiamo pensare a figure di facilitatori che agiscano per far aumentare la consapevolezza dei diritti e dei doveri della cittadinanza scientifica nei media locali, nelle scuole, nelle piccole e medie imprese.
In ultima analisi dobbiamo far diventare le nostre scuole dei centri vivi nelle comunità, dobbiamo studiare percorsi formativi che permettano ai nostri allievi non solo di contribuire all’aumento dell’intelligenza collettiva, ma anche, come ribadisce ancora Jasanoff, di soddisfare un desiderio altrettanto legittimo: quello di partecipare al governo del futuro abilitato dalla scienza e della tecnologia. Troppo spesso i nostri insegnamenti si sono limitati al primo punto. La democratizzazione della scienza richiede di esplorare soprattutto il secondo.

Tag:, , ,

Recensione – La realtà non è come ci appare

Come avrei voluto leggere un libro così lucido, profondo, rigoroso e allo stesso tempo accessibile e illuminante quando ero studente di fisica. La realtà non è come ci appare di Carlo Rovelli avrebbe cambiato il mio percorso universitario, e forse qualcosa di più. Non credo che avrei superato con meno fatica gli esami, ma sono convinto che un testo del genere mi avrebbe trasmesso un desiderio mai ravvisato in nessuno dei miei professori dell’epoca. Un desiderio che riguarda il tentativo vertiginoso della fisica teorica di cogliere l’estremo, l’essenziale, il remoto.
C’è qualcosa di tremendo nel percorso intellettuale che arriva ad abolire il tempo e l’infinito, come ci propone Rovelli nella sua splendida rilettura della storia della fisica, da Galileo ai giorni nostri, passando per la relatività generale e la meccanica quantistica, fino a farci avventurare sui bordi estremi della conoscenza rappresentati dalla gravità quantistica.
Ci coglie un’ebbrezza mista a stordimento nella descrizione di una realtà così diversa da quanto ci permettano di intravedere i nostri sensi e le nostre esperienze. “Siamo piccole talpe cieche sottoterra che sanno poco o nulla del mondo, ma continuano ad imparare…”, scrive Rovelli verso la fine del libro.
È l’azzardo di pensare l’impensabile che definisce la cifra peculiare della fisica teorica. La stragrande maggioranza di noi si ritrae, nei modi più diversi, di fronte a questa prova. E non credo solamente per motivi tecnici, per difficoltà matematiche e concettuali, che certamente esistono. Penso che ci sia anche qualcosa di profondamente comprensibile nel rifugiarsi nel dolce naufragio dell’indefinito, nell’abbandonare il culmine di un pensiero spesso insostenibile per lo sgomento che suscita.
Rovelli ci avvicina viceversa al coraggio intellettuale di chi sceglie il percorso più arduo, di chi non volta le spalle al mistero del mondo cedendo al disincanto o asservendosi al sapere costituito. La sua è una rivendicazione orgogliosa di chi accetta l’ignoranza, e allo stesso tempo la sfida della conoscenza, fino in fondo, senza sconti. La via proposta però è stretta e forse l’autore, se mi posso permettere una critica, potrebbe essere meno severo con chi decide di non percorrerla.
Detto questo, La realtà non è come ci appare è un vero e proprio manifesto della ricerca pura nella sua espressione più universale. Andrebbe letto anche solo per cogliere in termini contemporanei il monito dantesco a perseguire la conoscenza per dirci pienamente umani.

Tag:,

La scienza? né di destra né di sinistra*

La scienza non è né di destra né di sinistra. Non è di interesse esclusivo degli atei, né dei credenti. E pure la conoscenza potrebbe avere un ruolo parziale nella formazione delle nostre opinioni su questioni tecnoscientifiche socialmente controverse, come gli OGM, il nucleare, la fecondazione assistita.
Stando ai risultati di uno studio pubblicato recentemente sulla rivista Plos One, relativo alla popolazione statunitense, lo scenario appena delineato si applica di certo alla ricerca sulle cellule staminali embrionali, in cui più della militanza politica o delle divisioni ideologiche, quello che conta nell’essere a favore o contro gli studi su una materia così eticamente sensibile sono le credenze individuali sul ruolo della scienza nella società.

Ad esempio gli “ottimisti scientifici”, un terzo degli americani, appoggiano in gran parte gli studi sulle cellule staminali embrionali perché sono convinti del legame stretto che unisce la scienza al progresso sociale. Di segno opposto i “pessimisti scientifici”, un quarto della popolazione statunitense, secondo cui le potenziali conseguenze negative della ricerca superano di gran lunga gli aspetti positivi. La classificazione proposta da Matthew Nisbet e Ezra Markowitz, i due studiosi americani autori della ricerca, si è basata su un’analisi approfondita di inchieste sociologiche condotte tra il 2002 e il 2010. La ripartizione prevede anche i “dubbiosi”, combattuti tra rischi e benefici, e i “disimpegnati”, che non ritengono di avere una chiara idea di qual è l’impatto della scienza sulla società.

Al di là delle definizioni, la sorpresa più rilevante del lavoro di Nisbet e Markowitz è che lo schema indicato non si inquadra alla perfezione nelle tradizionali categorie utilizzate per comprendere i pubblici della scienza. Se è vero che religione, istruzione e ideologie continuano ad avere un effetto certamente non trascurabile, sta di fatto che tali fattori non sembrano così determinanti nello spiegare l’atteggiamento nei confronti della scienza.
Ottimisti e pessimisti, in altre parole, sono tanto repubblicani quanto democratici. Tra i disimpegnati, i più ricchi, circa un terzo ha un buon titolo di studio anche se la maggioranza di essi si considera ignorante su temi di scienza e medicina. Nonostante ciò, quasi il 60 per cento si dichiara a favore, se non molto a favore, della ricerca sulle staminali. Viceversa i dubbiosi, con un livello d’istruzione mediamente basso, ritengono di possedere un’alfabetizzazione scientifica adeguata che non si traduce però in un chiaro appoggio alla ricerca.

Insomma si tratta di un bel rimescolamento di carte, rilevante non solo perché le cellule staminali embrionali sono solo un esempio dei numerosi e controversi dibattiti pubblici che le scienze della vita genereranno sempre di più nei prossimi anni, ma anche perché le indicazioni di Nisbet e Markowitz forniscono le basi per un approccio diverso alla comunicazione pubblica della scienza, basato su dati e numeri di cui tener conto. Di fronte ai conflitti con i non-esperti, scienziati e istituzioni di ricerca farebbero bene, ad esempio, a non impostare strategie di comunicazione in cui le radici della resistenza pubblica all’innovazione tecnoscientifica sono ricondotte unicamente a ignoranza o a cieca ideologia.

*Quest’articolo è stato pubblicato su Pagina99 week end dell’8/9 marzo 2014. Lo riporto sul mio blog per loro gentile concessione.

Tag:, , ,

Il ruolo della conoscenza nella formazione giornalistica

Il progetto Journalist’s Resource dell’Harvard’s Sorenstein Center ha recentemente redatto una lista aggiornata di pubblicazioni di qualità dedicate alla formazione nel giornalismo. Le risorse comprendono articoli e report di natura teorica, ma anche analisi empiriche sull’industria della notizia.
Come è noto, il sistema dell’informazione è in una fase di grande trasformazione e, forse, tra gli effetti sottovalutati del cambiamento vanno annoverate le ripercussioni sui tradizionali curricula delle scuole di giornalismo, che sembrano armi educative sempre più spuntate. Sebbene le preoccupazioni su qual è la migliore formazione da offrire ai nuovi giornalisti riguardi soprattutto i coordinatori e i responsabili di corsi di formazione, dare un’occhiata alla lista del Journalist’s Resource in generale può essere istruttivo anche per avere un’idea delle tendenze più interessanti in circolazione sul giornalismo.
Particolarmente significativi per la riflessione che conduciamo al Master della Sissa dove lavoro sono i riferimenti al giornalismo basato sulla conoscenza. Su tutti segnalo il libro Informing the News: The need for Knowledge-Based Journalism, pubblicato lo scorso ottobre dalla casa editrice Vintage e scritto da Tom Patterson, direttore di Journalist’s Resource. Patterson sostiene che la via maestra per ridare un significato sociale imprenscindibile all’informazione professionale è insegnare ai giornalisti ad usare la conoscenza.
L’autore si muove in una direzione inagurata già da Philip Mayer negli anni ’70 del secolo scorso, quando nel libro Precision Journalism, tradotto solo nel 2006 in Italia col titolo Giornalismo e metodo scientifico, proponeva di trattare il giornalismo come una scienza.
Il progetto di Mayer ha avuto fortune alterne, ma oggi ci sarebbero più possibilità di successo per il giornalismo di precisione per due ragioni. La prima è per il ruolo assunto dalla conoscenza nella teoria sociale e nelle strategie economiche. Il secondo motivo è internet. Le tecnologie digitali e di rete, sostiene Patterson, renderebbe realizzabile la visione di Meyer: basare la presentazione delle notizie sull’esercizio delle “massime virtù scientifiche”, per dirla alla Walter Lippman, che si esprimeva già in questi termini negli anni ’20 del Novecento nel volume Liberty and the News.
L’invito a una professionalizzare del giornalismo nel senso di un uso approfondito della conoscenza mi trova molto d’accordo. Così come condivido le premesse di fondo di Patterson, vale a dire che il problema dell’abbassamento della qualità delle news richiede un’innovazione di concetti e pratiche giornalistiche basata sulla riattualizzazione delle funzioni sociali dei professionisti dell’informazione. Tra queste vale la pena ricordare la capacità di validare e distinguere ciò che è rilevante per una comunità da ciò che non lo è, l’attendibilità nel fornire notizie che rappresentino la base di una realtà condivisa, la necessità di istituzioni editoriali di cui fidarsi. Il recupero passerebbe per un nuovo modo dei giornalisti di rapportarsi con il sapere.
Il ragionamento è abbastanza lineare anche se, a mio modo di vedere, lascia margini di approfondimento su almeno tre questioni: di quale conoscenza hanno bisogno i giornalisti? Quali sono i rapporti tra la conoscenza di cui parla Patterson e la scienza? Quali sono le competenze da insegnare eventualmente nei percorsi formativi?

Rispetto alla prima questione, è opportuno premettere che nei ragionamenti di Patterson, e parzialmente di Meyer, si sovrappongono piani differenti, usando ad esempio come termini intercambiabili la conoscenza accademica in ambito umanistico e sociologico con la conoscenza scientifica, oppure la conoscenza dei processi con quella dei contenuti.
Per maggiore chiarezza è forse utile isolare le diverse dimensioni in cui si esprime il problema della conoscenza dei giornalisti. Si possono identificare almeno quattro aree:

1) Il giornalismo ha un problema disciplinare, nel senso che non è un corpo sistematico di pratiche e concetti universalmente condivisi attraverso i quali si riescano a stabilire le unità minime di conoscenza necessarie e sufficienti per essere definiti giornalisti. La questione è controversa perché esistono migliaia di scuole di giornalismo nel mondo, basate però evidentemente su un fragile terreno epistemologico e quindi curriculare. Specchio di quest’indeterminatezza è il ricorrente conflitto tra “pratici” (il giornalismo è quello che fai in una redazione) e “teorici” (il giornalismo è caratterizzato da modelli, problemi e dinamiche specifiche che vanno studiate), una diatriba che difficilmente qualcuno porrebbe oggi per la medicina, la giurisprudenza o la fisica;

2) I giornalisti hanno un problema di conoscenza nel senso che non sanno e non possono sapere in profondità quello di cui raccontano. Un altro modo di dirlo è che i giornalisti sono esperti precari, esperti a tempo. È una problematica generalizzata. Che si tratti di politica, istituzioni, scienza, sport, la conoscenza dei diretti interessati su fatti specifici sarà sempre più approfondita rispetto a quella di un cronista che deve coprire temi diversi, seppur all’interno di un ambito specifico. Il paradosso non è nuovo ma è sempre attuale: se il giornalismo è ricerca di una forma di verità, come si potrà soddisfare quest’obiettivo visto che i professionisti dell’informazione non possiedono quasi mai il livello di conoscenza degli esperti protagonisti delle notizie che i giornalisti devono raccontare?

3) Il giornalisti hanno un problema di conoscenza rispetto al metodo: pochi riescono a spiegare come fanno a sapere quello che sanno o perché una procedura di individuazione ed esposizione dei fatti è più efficace giornalisticamente rispetto a un’altra. Ma soprattutto non c’è un metodo condiviso che permetta di affermare che se si seguono determinati passaggi nella ricostruzione degli accadimenti si arriva alla stessa rappresentazione della realtà;

4) I giornalisti non sanno come sfruttare pienamente la conoscenza disponibile nelle università, nei centri di ricerca, nelle biblioteche. Questo potrebbe essere definito come un problema di applicazione della conoscenza.

La distinzione proposta aiuta a comprendere se e come la scienza può essere utile nell’affermazione del giornalismo basato sulla conoscenza.
La conoscenza scientifica può fornire un modello a cui tendere e un campo su cui interrogarsi per almeno tre motivi: per la tipologia e la qualità dei contenuti, per il metodo usato nella loro produzione e perché mostra molto efficacemente come cambiano le dinamiche di accesso, distribuzione e utilizzo del sapere in epoca digitale (si veda ad esempio La stanza intelligente di David Weinberger).
Voglio sottolineare quest’ultimo punto perché si distingue molto dalla visione statica a cui si richiamano Meyer e Patterson. Il mese scorso ha suscitato una forte discussione, fra addetti ai lavori e non, una cover story dell’Economist dedicata ai limiti dei meccanismi attuali di validazione e replicabilità della ricerca e al conseguente abbassamento complessivo della qualità della conoscenza scientifica. Allo stesso tempo, come riporta Gary Marcus sul New Yorker sono diverse le iniziative che la comunità degli scienziati sta mettendo in campo per affrontare alcuni dei problemi posti dal giornale britannico. Insomma, grazie o a causa dei media digitali, stiamo capendo che la conoscenza in generale, e quella scientifica in particolare, è una materia molto più calda e fluida di quanto siamo stati abituati a pensare in epoca pre-internet.
Se si vuole fondare un giornalismo in grado di inserire la conoscenza in contesti specifici per fornire un valore aggiunto di analisi e interpretazione dei fatti, allora è bene che i futuri professionisti siano in grado di capire e spiegare come evolve la conoscenza, come risponde ai cambiamenti sociali e come, viceversa, contribusice a plasmare la società. Tra i compiti dei formatori ci dovrà allora essere quello di insegnare ai giornalisti come comprendere le logiche di accesso, produzione e distribuzione del sapere. La conoscenza scientifica è un modello rilevante per questo scopo perché è l’ambito in cui si stanno realizzando le sperimentazioni più interessanti.

Queste ultime considerazioni mi portano alla questione delle competenze. Wolfgang Donsbach, direttore del Department of Communication alla Dresden University of Technology in Germania, in un paper pubblicato da poco sulla rivista Journalism, ha elencato alcune delle qualità specifiche che dovrebbero caratterizzare un giornalista della conoscenza:

1) Competenza generali: i giornalisti devono avere la capacità di inserire la conoscenza nei contesti in cui accadono i fatti e possedere una prospettiva intellettuale di ampio respiro per prendere decisioni fondate;

2) Competenza su specifici argomenti: i giornalisti devono riuscire a raggiungere un livello di conoscenza del settore di cui si occupano sufficientemente profondo a comprendere la struttura del campo di loro interesse e a produrre una mappa degli attori principali;

3) Competenza sui processi: i giornalisti dovrebbero avere una conoscenza scientifica del processo di costruzione delle notizie e dei processi di comunicazione, dai fattori che influenzano le decisioni su come trattare le notizie ai possibili effetti sull’audience o al ruolo dei social media nell’esposizione delle informazioni;

4) Competenze tecniche;

5) Valori professionali, dove si fa riferimento al fatto che andrebbero insegnati il ruolo sociale dei giornalisti e le norme che guidano i loro comportamenti.

Come si può notare, in questa lista non si fa cenno alla comprensione e all’uso della conoscenza nel senso descritto sopra.

C’è infine un altro aspetto da considerare, a cui fa cenno anche Donsbach: una volta formati i giornalisti della conoscenza verrebbero assunti in una redazione o riuscirebbero a sbarcare il lunario come free-lance? La percezione è che le (poche) richieste di mercato in questo periodo vadano in una direzione opposta a quella proposta in questo post. Molto più valorizzate sembrano le abilità e le esperienze di tipo pratico e tecnico. Credo che la qualità e l’innovazione nel senso della conoscenza paghino molto sul lungo periodo, ma, come formatori, non ci possiamo permettere di trascurare il problema dell’occupazione a breve termine.

Tag:, , ,

Comunicazione della scienza for dummies

Questo libro è la sintesi di due prospettive: una più focalizzata sulla pratica professionale, l’altra sulla contestualizzazione storica. È un’impostazione che riflette la formazione e le competenze dei due autori, rispettivamente Silvia Bencivelli, comunicatrice free-lance molto nota nell’ambiente, e Francesco De Ceglia, storico della scienza. I due si sono uniti, non so quanto occasionalmente, per restituire nel loro agile volume un panorama aggiornato della comunicazione della scienza in Italia. Il testo è particolarmente consigliato per chi si addentra per la prima volta nel campo, ma anche per chi, pur possedendo già una specifica expertise, vuole esplorare forme e generi limitrofi o recuperare uno sguardo d’insieme.
La sintesi è riuscita sotto diversi aspetti: nell’equilibrio fra i due punti di vista, nello stile, nel passaggio, per ogni argomento trattato, da una visione generale a una prospettiva più incentrata su consigli pratici. Nel volume non si perde infatti mai di vista l’attenzione alla descrizione dei processi concreti della comunicazione della scienza e alle pratiche conseguenti. Lo scopo è di rispondere con ottimistico realismo a chi vuole intraprendere una carriera nel settore, sia che voglia scrivere sui giornali, allestire una mostra, lavorare in un ufficio stampa di un ente di ricerca o pubblicare un libro. La scorrevolezza del testo e il numero contenuto di pagine sono ulteriori motivi per suggerirne l’acquisto.
Veniamo a consigli non richiesti per, spero, successive edizioni:

• la parte sul giornalismo dovrebbe arricchirsi della descrizione di pratiche e iniziative, sempre più diffuse nel contesto digitale, in cui il professionista dell’informazione non è più solo un produttore di contenuti, ma anche un fornitore di servizi;
• lo sguardo sul ciclo di produzione delle news scientifiche dovrebbe essere più critico. La peer-review, l’impact factor, l’embargo, il ruolo delle case editrici specialistiche, sono oggetto di forti discussioni all’interno delle comunità scientifiche. Può essere un limite presentare procedure di pubblicazione storicamente definite come parti integranti e immutabili del metodo scientifico. In altre parole, se è vero che è giusto istruire i principianti a diffidare dei ciarlatani che non hanno mai pubblicato un paper su una rivista con peer-review, non bisognerebbe, viceversa, dare troppo l’impressione che sia sufficiente citare Nature per aver esaurito il lavoro giornalistico;
• l’impatto che Internet sta avendo sulle dinamiche di produzione e diffusione della conoscenza scientifica è enorme ed è forse un po’ trascurato nel libro;
• un box sulle attività di formazione in comunicazione della scienza non ci sarebbe stato male, ma ammetto che sono di parte. Sono invece convinto che un capitolo sulla comunicazione del rischio potrebbe dare ulteriore valore aggiunto a una versione aggiornata del volume.

Nonostante queste osservazioni ribadisco che vale assolutamente la pena di leggere il libro e mi rendo perfettamente conto che non tutte le scelte su quali argomenti includere e come trattarli dipendono da chi scrive il testo.
Devo infine dichiarare un conflitto d’interessi non banale: gli autori mi conoscono bene, così come io conosco bene loro. La disclosure non è solo a favore della trasparenza. Mi serve anche a mettermi al riparo dalle reazioni alla lista di integrazioni e suggerimenti non richiesti. Silvia e Franz sanno insomma che sono un po’ pesante su queste cose e non me ne vorranno troppo (almeno spero).

Tag:, ,