gli scienziati della domenica in cattedra con Obama*

pagina99-copertina-05-12-2015 Aiutano i ricercatori a scoprire nuove galassie o a “mappare” la superficie di Marte, raccolgono dati sull’ambiente e sulla qualità dell’aria, passano giornate intere negli habitat naturali più disparati per studiare volatili e poi donare le loro osservazioni agli ornitologi. In passato sono stati anche cruciali, fra le altre cose, nella soluzione della struttura di un enzima fondamentale nella diffusione del virus dell’AIDS. Sono i volontari della scienza: un esercito di milioni di persone sparse in tutto il mondo, quasi tutti non professionisti della ricerca, che poche settimane fa ha ricevuto un’insperata legittimazione addirittura dalla Casa Bianca. Un memorandum firmato in prima persona da John P. Holdren, consigliere scientifico del presidente americano, ha infatti chiarito come l’amministrazione Obama vuole imprimere una decisa accelerazione alla “scienza dei cittadini”, di cui riconosce, oltre all’importanza educativa e metodologica, il valore economico, stimato in miliardi di dollari all’anno.

La nota dell’Ufficio per la politica della scienza e della tecnologia statunitense potrebbe rappresentare un radicale cambiamento nei rapporti tra ricerca e società. “L’aspetto fondamentale del documento” spiega a pagina99 Mariachiara Tallacchini, già senior scientist presso il Joint Research Centre della Commissione Europea, “è che si tratta di un ordine esecutivo indirizzato alle organizzazioni governative e alle agenzie federali”. Non un generico invito dunque, “ma cose da fare concretamente entro tempi stabiliti”. Il memorandum individua soprattutto due azioni specifiche. Ogni agenzia deve prima di tutto individuare un coordinatore per i progetti di citizen science, successivamente deve catalogare le attività di ricerca aperte alla partecipazione di tutti i cittadini.

La discontinuità della nota di Holdren si apprezza anche nella definizione proposta di citizen science. Se genericamente con essa si intende l’attività di ricerca realizzata coinvolgendo dei volontari come “sensori” per raccogliere informazioni scientifiche o come “elaboratori” per contribuire a risolvere problemi di analisi dei dati, il memo americano assegna ai cittadini un ruolo molto più significativo. Essi, nella descrizione fornita dall’amministrazione Obama, come continua Tallacchini, “possono formulare domande di ricerca, condurre esperimenti scientifici, interpretare risultati, fare nuove scoperte, sviluppare tecnologie e applicazioni, risolvere problemi complessi, non solo raccogliere e analizzare dati. C’è il pieno riconoscimento metodologico e teoretico assegnato normalmente alla scienza svolta nei laboratori e nelle università”. La citizen science non è insomma una scienza di serie B, semmai “si caratterizza per una diversa finalità pratica e applicativa, per una marcata enfasi sul contributo alla risoluzione di questioni sociali. Senza trascurare il valore educativo a essa assegnato e soprattutto il suo impatto economico”.

I volontari della ricerca, tra contare uccelli, identificare galassie e individuare batteri forniscono un servizio il cui valore è stimato almeno attorno ai due miliardi e mezzo di dollari annui in natura. Questo dato, ottenuto grazie al lavoro di un gruppo di esperti americani di protezione ambientale, è uno dei punti di partenza del memorandum di Holdren. In un articolo pubblicato all’inizio dell’anno sulla rivista Biological Conservation, gli autori hanno per la prima volta quantificato la scala dei progetti di citizen science sulla biodiversità mediante l’analisi di più di 300 iniziative. Hanno calcolato che i volontari della scienza dedicano ogni anno tra le 21 alle 24 ore del loro tempo libero ad attività di ricerca. Considerando che sono coinvolte circa un milione e trecentomila persone, il contributo equivalente è pari ai già citati due miliardi e mezzo di dollari. Una stima peraltro al ribasso, dato che lo studio ha preso in considerazione solo progetti sulla biodiversità, on-line e in lingua inglese.

La ricerca documenta anche una crescita dei progetti di citizen science a ritmi inimmaginabili fino a qualche anno fa, una tendenza guidata dallo sviluppo di sensori a basso costo e altri strumenti di monitoraggio ormai facilmente utilizzabili e disponibili anche su uno smartphone.

L’amministrazione Obama dimostra di aver colto perfettamente le potenzialità legate all’accelerazione del fenomeno, meglio che nel vecchio continente. “L’Europa”, ci spiega ancora Mariachiara Tallacchini, filosofa del diritto all’Università Cattolica di Piacenza ed esperta dei rapporti tra scienza e democrazia, “è molto più timida. Pochi mesi fa anche la Commissione Europea ha pubblicato un libro bianco sulla citizen science. Diversamente dagli Stati Uniti è un documento molto attento alle sfumature, preoccupato di stabilire in che cosa la scienza dei cittadini sia diversa rispetto a quella tradizionale”. In altre parole, si fa più fatica a riconoscere la possibilità di produrre assieme, esperti e non-esperti, conoscenza valida. Così come non si comprende appieno che il coinvolgimento a monte dei cittadini nella ricerca scientifica, il cosiddetto upstream engagement, sia la strada maestra per ridurre i conflitti tra scienza e società. “L’idea di Holdren”, continua Tallacchini, “è che il cittadino contribuisca alla conoscenza in fase istruttoria. In questo modo, non solo riduci i costi, ma aumenti la fiducia nei confronti delle istituzioni, nonché l’efficienza e l’efficacia delle policy.” L’approccio preventivo alla citizen science permetterebbe di ridurre la crescente e ricorrente litigiosità sulle controversie scientifiche (cambiamenti climatici, fecondazione assistita, testamento biologico, nanotecnologie, nucleare, ecc.). Si tratta di conflitti ben noti anche nel nostro paese, non particolarmente all’avanguardia sulla citizen science, dove però esistono esperienze in cui le diverse dimensioni delineate dal memorandum della Casa Bianca sono ben rappresentate. Come ad esempio nel progetto di epidemiologia partecipata PM2.5 Firenze, patrocinato dalla cooperativa Epidemiologia e prevenzione Giulio A. Maccacaro, in cui da circa due anni un gruppo di cittadini del capoluogo toscano conduce un’attività di sorveglianza della qualità dell’aria. L’iniziativa propone un rapporto nuovo tra le istituzioni e i cittadini. Come recitano i suoi promotori, in pieno stile Holdren, la disponibilità di informazioni e la produzione stessa del sapere scientifico devono essere “patrimonio di più soggetti e non ristretti al solo ambito specialistico”.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 5 dicembre 2015.

da Blade Runner a Jurassic Park la fantascienza diventa scienza*

pagina99-seconda-2015 Se avete visto The Martian, l’ultimo film di Ridley Scott, vi sarete forse chiesti, ad esempio, quanto sia realistico che Mark Watney, il marziano impersonato da Matt Demon, possa esporsi alle radiazioni solari o ai raggi cosmici senza conseguenze. Sono domande forse un po’ da nerd ma che ricorrono spesso nei film di science fiction. L’obiettivo fondamentale è capire quanta scienza ci sia nella fantascienza. Si tratta di un approccio così assodato che quasi sempre si trascura la possibilità opposta: l’impatto della fantascienza sulla ricerca scientifica. A porre parziale rimedio alla questione ci ha pensato di recente una start-up britannica, specializzata in strumenti avanzati di filtraggio della letteratura scientifica, attraverso un’analisi di big data. Secondo Sparrho, così si chiama l’azienda fondata da due ex-ricercatori, i robot di Star Wars e i dinosauri geneticamente modificati di Jurassic Park non sono entrati solo nel nostro immaginario, ma anche nei laboratori.

L’idea di identificare film di fantascienza rilevanti nella ricerca scientifica è venuta al giornalista americano Jeremy Hsu. Come racconta egli stesso in un articolo pubblicato qualche settimana fa sulla versione online del magazine Discover, Hsu è riuscito a convincere il team di Sparrho a mettere mano a un database della British Library contenente paper scientifici dal 1890 al 2010.

Prima di quest’iniziativa erano già stati condotti indagini simili, ma di natura più qualitativa. Qualche mese fa, ad esempio, la rivista Popular Mechanics aveva realizzato un sondaggio informale che decretò 2001: Odissea nello spazio come il film di fantascienza più apprezzato dagli scienziati. Risale al 2004 un lavoro analogo promosso dal quotidiano britannico The Guardian, che invece sancì il primo posto per Blade Runner nella classifica di gradimento dei ricercatori.

Rispetto a questi tentativi, il salto di qualità dell’analisi di Sparrho è stato da una parte attingere all’archivio della biblioteca di ricerca più importante al mondo. Dall’altra, e più significativamente, aver fatto ricorso alle competenze dei cosiddetti data scientist, nuovi professionisti con abilità trasversali tra matematica, informatica e statistica. Un mestiere tipico dell’era digitale che Hal Varian, chief economist di Google, ha definito “il più sexy del XXI secolo”. E se non sappiamo se sia stato sexy, certamente non deve essere stato noioso per la scienziata dei dati Katja Bego cogliere la sfida di Hsu. Bego ha prima di tutto individuato i film di science fiction più popolari nella storia del cinema, pesando sia il riscontro del botteghino che il parere dei critici. Con una lista di 100 film a disposizione, ha poi usato un algoritmo per vivisezionare i dati dell’archivio della British Library per contare quante volte i titoli delle pellicole comparivano nei titoli o nei sommari degli articoli scientifici. Ha definito così un primo elenco, a partire dal quale ha ulteriormente filtrato manualmente i risultati ottenuti prendendo in considerazione solo le ricerche che esplicitamente discutevano i contenuti dei film e non quelle che li citavano senza approfondimenti.

Il processo si è concluso con la seguente graduatoria: al primo posto Star Wars, con 18 articoli influenzati in modo rilevante dalla saga cinematografica creata da George Lucas; al secondo Jurassic Park con 11 paper, al terzo 2001: Odissea nello spazio con 9 articoli. A seguire Blade Runner, Minority Report, Ritorno al futuro e altri grandi successi. Oltre a stilare la classifica, Katja Bego ha indagato quali discipline o quali specifici problemi di ricerca hanno preso ispirazione dai film individuati. È emerso così, ad esempio, che i paper per cui Star Wars è stato rilevante hanno trattato soprattutto di robot non-umanoidi o della psicologia di Anakin Skywalker, leggendario Cavaliere Jedi, al servizio della Repubblica Galattica prima di diventare Darth Vader (in Italia Darth Fener). I ricercatori si sono interessati ai destini del maestro del lato oscuro per comprendere se nel suo caso avesse senso una diagnosi di disturbo borderline. Jurassic Park è stato considerato per le questioni etiche legate a riportare in vita specie estinte e per la computer grafica utilizzata per animare branchiosauri, tirannosauri e velociraptor vari. 2001: Odissea nello spazio per le tematiche sui rapporti tra emozioni, libero arbitrio e intelligenza artificiale, mentre Minority Report ha stimolato i ricercatori interessati alle problematiche della sorveglianza globale e al futuro dell’urbanizzazione. Per quanto riguarda i temi di fantascienza trattati con maggiore frequenza si segnalano quello dei robot, termine comparso nei paper 89 volte e l’ intelligenza artificiale, con 29 riferimenti. I viaggi nel tempo solo due volte, con buona pace di Marty McFly e del mitico Doc di Ritorno al Futuro.

Sono risultati che dimostrano quanto la cultura popolare riesca a permeare ambiti apparentemente inaccessibili come le comunità degli scienziati. Ed è bene ricordare che il team di Sparrho ha contato solo i film esplicitamente citati nei titoli e negli abstract dei lavori scientifici. È facile ipotizzare che il numero sarebbe aumentato considerevolmente se fossero state prese in considerazione le ricerche ispirate alla fantascienza senza riferimenti nel testo a una specifica pellicola. In più, il database consultato da Bego si ferma al 2010. Vale a dire che dall’analisi sono stati esclusi blockbuster come Interstellar e il già citato The Martian, per non parlare di altre importanti uscite nel 2015 come Jurassic World, Star Wars: Il Risveglio della Forza o la serie Terminator, che di sicuro avrebbero arricchito di nuovi elementi l’indagine. Il campione della start-up britannica non includeva infine l’impatto della science fiction sulla ricerca militare o nel settore privato. Insomma, la linea di confine tra scienza, tecnologia e fantascienza è probabilmente molto più sfumata di quanto si pensi e di quanto si sia misurato finora.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 28 novembre 2015.

perché il destino di Uber è senza conducente*

pag99 21 nov Il successo di Uber sembra inarrestabile. L’azienda statunitense che fornisce tramite app un servizio di auto con conducenti privati, dopo un lancio in sordina a San Francisco poco più di cinque anni fa, è attualmente usata in più di 300 città di 63 paesi del mondo. Il fatturato stimato per la fine del 2015 è di 10 miliardi di dollari con ricavi per 2 miliardi. Numeri paragonabili a quelli di Facebook, per intenderci, ma ottenuti nella metà del tempo rispetto al social network fondato da Mark Zuckerberg nel 2004.
Risultati straordinari che pongono la questione di quali siano i limiti di crescita dell’app che sta facendo infuriare i tassisti di tutto il mondo. Contrariamente a quanto si potrebbe pensare leggendo le cronache, le minacce più significative per Uber non sono le proteste dei professionisti o leggi inadeguate. Per la società fondata da Travis Kalanick e Garett Camp, tipici smanettoni cresciuti nella Silicon Valley con la convinzione di migliorare il mondo (e il proprio conto in banca) con l’informatica, il rischio maggiore siamo noi, gli utenti stessi. Una difficoltà, che secondo gli analisti più attenti dei rapporti tra tecnologie emergenti e mobilità urbana, porta dritti a uno scenario non si sa bene quanto futuribile: quelle delle automobili che si guidano da sole.

Secondo quanto descritto recentemente dal magazine americano Nautilus, rivista di approfondimento sui rapporti tra scienza e società, il modello di business dell’azienda di Kalanick e Camp dovrà evolvere sempre di più verso le tecnologia di guida autonome per mantenere margini profittevoli come quelli attuali.
Le ragioni per il passaggio agli autisti-robot sono innanzitutto di ordine economico. Circa il 50 per cento del costo di una corsa di Uber se ne va per pagare i conducenti umani. Liberarsene potrebbe però essere un vantaggio non solo per le casse dell’azienda. Uber, a differenza di altri servizi di economia partecipativa basati sull’effetto network, presenta infatti un’asimmetria nell’amministrazione degli utenti: gli autisti sono più difficili da gestire dei passeggeri. E la complessità aumenterà ancora di più se l’app continuerà a crescere con i ritmi attuali. Le macchine che si guidano da sole sarebbero da questo punto di vista un modo per rendere scalabile Uber.
In più, sempre secondo quanto affermato da Nautilus, l’uso massiccio dell’applicazione sta portando molte persone a chiedersi se davvero valga la pena possedere un’automobile. Non è un mistero, d’altra parte, che le strategie di lungo termine di Uber mirino a far calare drasticamente il numero di autovetture di proprietà. Una posizione che produrrebbe non solo un radicale cambiamento di abitudini, ma che avvalora l’ipotesi di voler ridurre in generale i conducenti in circolazione. Sembra che Uber, in altre parole, non tolga solo il lavoro ai tassisti ma voglia progressivamente eliminare tout court la categoria degli autisti.

In ogni caso, stando a quanto riportato dal Guardian qualche giorno fa, Travis Kalanick è convinto che sarà la sua “ottimistica leadership” a facilitare la transizione verso le auto che si guidano da sole, una tecnologia dallo “sconsiderato impatto positivo” secondo il CEO di Uber. Sono parole che risuonano con quelle di Elon Musk, visionario ingegnere, imprenditore e inventore di origine sudafricana tra i fondatori di PayPal. Musk è diventato famoso a livello globale perché vuole portare l’uomo su Marte con la sua società di esplorazione spaziale SpaceX. Pochi anni fa è però entrato anche alla grande nel mercato delle auto elettriche con Tesla Motor, di cui è amministratore delegato. In un intervento riportato recentemente dalla rivista di business globale Fortune, Musk si dice convinto che nell’arco di pochi anni ci sembrerà “abbastanza strano vedere circolare automobili che non hanno una piena autonomia”. Va da sé che Tesla, nelle affermazioni di Musk, sarà la prima a raggiungere l’obiettivo della guida totalmente autonoma.

È chiaro che sulle macchine che si guidano da sole si sta giocando un’enorme partita economica che non a caso, oltre a Tesla, vede coinvolti giganti come Apple e Google, con un quota di poco inferiore al 7 per cento in Uber. Al di là degli altisonanti e interessati proclami dei CEO, vale la pena chiedersi quale sia il reale stato dell’arte delle auto a guida autonoma. Alberto Broggi, professore all’Università di Parma e pioniere dell’auto senza pilota, sentito per telefono da Pagina99, afferma che “quello che manca adesso ai veicoli automatici è la capacità di gestire tutte le situazioni”. Broggi è il fondatore di VisLab, spin off universitario che ha sviluppato progetti unici al mondo per la realizzazione di veicoli automatici molto prima di Google e che pochi mesi fa è stato acquistato per 30 milioni di dollari dalla californiana Ambarella. Sulla base della sua esperienza Broggi ritiene che “la parte più difficile è legata a problemi di tipo etico e di percezione delle diverse situazioni, a come il veicolo si deve comportare in contesti differenti. Sono questioni difficili che richiederanno non meno di 15-20 anni per essere risolte.”

Problematiche che si aggiungono al fatto che la legge non consente in nessuna parte del mondo la guida totalmente autonoma perché non esiste in questo momento una normativa in grado di disciplinare l’attribuzione di responsabilità. Il passaggio ai robot richiede poi un notevole sviluppo di infrastrutture in grado di comunicare con i veicoli e la soluzione di una serie di questioni tecnologiche in senso stretto. Sono tutti aspetti che Uber e gli altri colossi aziendali impegnati nella partita saranno obbligati a considerare se vogliono disegnare il futuro delle macchine autonome.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 21 novembre 2015.

Insegnare giornalismo: come andare oltre

“Se il futuro del giornalismo è digital-first anche la formazione deve muoversi nella stessa direzione”

Screen_Shot_2015-02-19_at_9.16.37_AM La strategia del digital-first deve valere anche per le scuole di giornalismo se vogliono continuare ad avere un senso. È forse la raccomandazione più rilevante del report Above & Beyond. Looking for the Future of Journalism Education, pubblicato qualche settimana fa dalla Knight Foundation. L’autrice Dianne Lynch, attualmente presidente dello Stephens College, con un’esperienza di formatrice più che ventennale alle spalle, ha trascorso dieci mesi con professionisti, studenti, accademici sparsi sull’intero territorio americano per discutere del futuro dell’insegnamento nel giornalismo.

Il risultato è un report che, pur rispecchiando il panorama statunitense, offre spunti rilevanti anche per chi si occupa di formare professionisti dell’informazione in italia e in Europa. Lynch ha posto l’orizzonte temporale del rinnovamento delle scuole di giornalismo a dieci anni. Da qui al 2025 bisognerebbe muoversi secondo tre direttrici fondamentali:

1. Creare scuole di giornalismo digital-first

Non ha più senso strutturare programmi in cui, a un certo punto, il web viene aggiunto a quello che si insegnava in passato. I corsi su Internet e dintorni non possono arrivare dopo un presunto percorso lineare che va dalla carta ai social media. Una strategia formativa di questo tipo rispecchia una fuorviante prospettiva evolutiva perché l’ambiente naturale del professionista dell’informazione è ormai l’ecosistema digitale. Questo implica che, da una parte, i corsi tradizionali (reporting, newswriting, deontologia, ecc.) si devono modellare attorno a esso, e non il viceversa. Dall’altra, le scuole devono essere in grado di trasferire le competenze necessarie agli allievi perché diventino nodi attivi della rete. E se non si dispone dei docenti adatti è meglio prenderne consapevolezza e agire di conseguenza, invece che provare a insegnare ciò che non si conosce.

2. Integrare insegnamenti accademici con corsi professionalizzanti

Qui l’autrice tocca il punto delicato dei limiti intrensici dell’accademia. Le rigidità universitarie non si addicono all’innovazione, e non solo nell’insegnamento giornalistico. Eppure l’ambiente accademico offre ancora dei vantaggi difficili da trovare altrove. Bisogna allora produrre la migliore sintesi possibile tra l’archittettura formativa tradizionale, solida ma rigida, e la dinamicità dell’ecosistema mediale digitale, vivace ma lontano dall’equilibrio. Dianne Lynch propone un sistema di revisione e monitoraggio continuo dei corsi attraverso organi di governance aperti a professionisti esterni, più altre misure replicate ad esempio dalla formazione specialistica in medicina.

3. Richiedere sistemi di accreditamento in grado di valutare gli esiti professionali più che la solidità istituzionale

È sempre più vitale che le scuole di giornalismo si facciano valutare. Un obiettivo ambizioso se si considera che negli Stati Uniti la percentuale di programmi formativi di giornalismo accreditati non arriva al 25 per cento. L’universo digitale richiede inoltre un ulteriore passaggio. Gli standard di accreditamento attuali si focalizzano infatti in gran parte sui processi interni e sulle strutture accademiche, molto meno sugli esiti professionali e sulla capacità di sapersi adattare ai cambiamenti. Anche in questo caso, la proposta dell’autrice è permettere l’ingresso a professionisti esterni esperti di giornalismo digitale nei comitati di valutazione.

Il report di Dianne Lynch non fornisce indicazioni su specifici corsi o curricula da inserire nei programmi didattici. L’autrice sa bene, per esperienza personale, che qualunque proposta di cambiamento deve fare i conti con risorse limitate e resistenze di varia natura. L’aspetto più significativo del suo lavoro è piuttosto quello di offrire un modello possibile di strutture innovative nella formazione giornalistica, adattabili alle energie, alle capacità e alle visioni delle singole scuole. Per questo può essere utile anche per noi.

Recensione – Geeks Bearing Gifts

“Ci sono molte possibilità per il giornalismo nei prossimi anni, a patto di smettere di credere che il giornalismo sia nel business dei mass-media e dei contenuti”

GeeksBearingGifts_CVR_101814_Mech_Rev.indd
Una notizia rassicurante per chi è interessato al futuro del giornalismo: ci sono molti futuri possibili. È il presupposto da cui muove l’ultimo libro dell’esperto di media statunitense Jeff Jarvis, dal titolo Geeks Bearing Gifts: Imagining New Futures for News, pubblicato da poco negli Stati Uniti per la CUNY University Press.

Un primo merito del volume di Jarvis, professore associato e direttore del Tow-Knight Center for Entrepreneurial Journalism alla City University di New York (CUNY), è di non avventurarsi in previsioni sempre meno attendibili su, ad esempio, quando finirà la carta o sulle meravigliose sorti e progressive dell’ultima app che salverà il giornalismo. Il suo è invece un forte invito alla sperimentazione e all’innovazione. Il futuro delle notizie, scrive l’analista dei media tra le voci più stimate del panorama americano, va costruito insieme ai diversi protagonisti dell’attuale ecosistema mediale, abilitati dall’universo digitale a segnare in modo sempre più significativo, come nel caso di Google e Facebook, la ristrutturazione del sistema dell’informazione.

Il campo giornalistico in cui i professionisti dell’informazione dovranno provare a ridefinire il loro ruolo e le loro pratiche è ormai popolato dai “regali tecnologici dei geek”. Sono doni che non si possono rifiutare e che permettono nuove relazioni, nuove forme e nuovi modelli di business per le notizie.
Jarvis si muove su questi tre assi, che corrispondono alle parti in cui è suddiviso il volume, per presentare la sua visione dei futuri possibili per l’informazione. La sua prospettiva si coglie pienamente a partire dall’ampia definizione che dà del giornalismo, presentato come un’attività finalizzata in primo luogo ad “aiutare una comunità a organizzare meglio la propria conoscenza in modo tale che possa organizzare meglio se stessa”. Nascosti dietro questo punto di vista ci sono i riferimenti teorici su cui si basa la posizione di Jarvis. In alcuni casi si tratta di visioni dirompenti rispetto al passato.

Il richiamo alla comunità sottolinea ad esempio il fatto che il giornalismo non è più nel business dei mass-media. Internet non ha ucciso la carta, la radio o un altro medium: “quello che ha ucciso”, scrive Jarvis, “è l’idea di massa”, una visione su cui le imprese giornalistiche hanno costruito un sistema monopolistico di produzione, distribuzione e consumo delle notizie.

Al posto di masse indifferenziate, la rete ha fatto emergere cittadini e comunità che vanno servite dai giornalisti. Ma soddisfare i bisogni specifici delle persone significa che le competenze maggiori bisogna averle nel campo delle relazioni, più che nella produzione di testi.

Altro peccato mortale: se il giornalismo deve rispondere alle esigenze delle comunità non solo rinuncia a dettare l’agenda, ma il suo business principale non è più quello dei contenuti. O meglio, i contenuti sono solo una delle possibilità di portare valore aggiunto al flusso continuo di informazioni dell’ecosistema. Il ruolo sociale del giornalista può però essere molto più variegato: può operare ad esempio come fornitore di servizi, organizzatore di eventi, educatore, incubatore di iniziative. Tutte funzioni che evidentemente incidono sulle nuove forme possibili per le notizie.

Al posto dell’articolo, unità atomica della pratica giornalistica, la notizia può prendere le sembianze di dati, di servizi per connettere le persone, di piattaforme per favorire la condivisione, la conversazione, la selezione, la cura e la qualità dell’informazione. Un’esplosione di possibilità che intacca un altro totem della tradizione: la convinzione che la principale funzione giornalistica sia quella di raccontare storie.

Se si è disposti ad abbandonare questi presupposti, molto radicati, allora secondo Jarvis si aprono scenari inediti, anche per la sostenibilità economica del giornalismo. Nell’ultima parte del libro lo studioso americano offre numerosi esempi in questo senso derivanti soprattutto dalla sua esperienza di ideatore e direttore, alla CUNY, del primo programma al mondo di giornalismo imprenditoriale. In questo contesto gli studenti si confrontano con problemi di natura imprenditoriale e sperimentano progetti concreti.

Le proposte di Jarvis a prima vista sembrano dirigersi decisamente nella direzione di una discontinuità radicale con il passato. In parte è così, anche se a uno sguardo più attento, il volume dell’analista americano si può leggere come un appello al recupero delle funzioni sociali profonde dell’informazione professionale. La sua definizione di giornalismo come principio organizzatore delle comunità risuona infatti efficacemente con quella di alcuni tra gli studiosi più profondi del sistema dell’informazione che, ancora prima di Internet, sottolineavano come il compito principale della funzione giornalistica fosse quello di “attribuire un senso, una direzione, un percorso all’esigenza di condivisione degli individui, al loro bisogno di entrare in relazione, di costruire appartenenze” (si veda C. Sorrentino, E. Bianda, Studiare giornalismo, Carocci, 2013, p. 26).

Se quindi è vero che gli operatori dell’informazione hanno davanti a sé diversi futuri possibili, è anche vero che questi andranno costruiti sui fondamentali del giornalismo, preservando i tratti identitari profondi della professione. Da questo punto di vista il libro di Jarvis è un ottimo esempio di come raggiungere nuovi equilibri e sperimentare innovazioni per recuperare, selezionare e valorizzare il meglio del giornalismo, liberandosi allo stesso tempo delle scorie su cui ancora troppo tempo si spende quando si discute del suo futuro.

Perché c’è chi nega il climate change*

25ott2014 Durante il Climate Summit 2014, il presidente americano Obama ha definito i cambiamenti climatici la “minaccia numero uno del secolo”. Un volume uscito da poco in Italia scritto dal saggista ed esperto di questioni ambientali Giancarlo Sturloni per la casa editrice Piano B, con l’ inequivocabile titolo Il pianeta tossico ci richiama, se possibile, a un’urgenza ancora più drastica di quella di Obama: se non facciamo qualcosa, e subito, siamo finiti. Eppure la risposta di governi e opinione pubblica internazionale rimane un misto di indifferenza e scetticismo. Come è possibile non agire di fronte ai pericoli del riscaldamento globale? Come è possibile riuscire a ignorare la crescente evidenza scientifica sulle sue cause e sulle sue conseguenze?

L’attivista ambientale George Marshall, nel suo ultimo libro Don’t Even Think About it, pubblicato di recente negli Stati Uniti per i tipi di Bloomsbury, introduce un punto di vista originale e rilevante anche per la comprensione di altre forme di negazionismo: i cambiamenti climatici non sono una battaglia della scienza contro l’ignoranza, ma una “sfida profonda al nostro modo di dare senso al mondo”. Secondo questa prospettiva, elaborata grazie a una lunga serie di interviste a scienziati e sociologi ma anche a membri del movimento conservatore Tea Party, l’evoluzione ci ha reso poco adatti alla sfida dei mutamenti del clima. I tratti psicologici e sociali ereditati in milioni di anni per interpretare le minacce dell’ambiente, e per motivarci ad agire contro di esse, premiano ad esempio le informazioni che confermano le nostre convinzioni mentre sminuiscono quelle che le contraddicono, si focalizzano sul presente, privilegiano la conformità sociale, ci spingono a procrastinare. Si tratta di caratteristiche non molto efficaci per fronteggiare un fenomeno “complesso, poco familiare, lento, invisibile e intergenerazionale”, come quello dei cambiamenti climatici. Insomma, come specie non siamo fatti per contrastare questi pericoli.

La tesi di Marshall, co-fondatore di Climate Outreach Information Network, organizzazione no-profit impegnata nella sostenibilità ambientale, si inserisce all’interno dell’intenso dibattito accademico e politico sul negazionismo, a cui non è associato certo solo il global warming. Come è noto, secondo alcuni movimenti e correnti di pensiero non c’è correlazione tra Hiv e Aids, l’Olocausto non è mai accaduto, i vaccini causano l’autismo e la teoria scientifica dell’evoluzione non ha prove sufficienti. Come ha sottolineato il fondatore della Skeptics Society Micheal Shermer, in un articolo pubblicato su un numero speciale di qualche tempo fa della rivista New Scientist, è importante comprendere che ad animare queste persone non c’è un sano dubbio.
Diversamente dagli scettici i negazionisti “continuano semplicemente a negare” anche di fronte a prove schiaccianti.

Una delle interpretazioni tradizionali di questa ostinazione è che la colpa è dell’ignoranza. Di conseguenza, se solo i non-esperti conoscessero la scienza non potrebbero fare a meno di apprezzarla e sostenerla. Numerose ricerche hanno smentito quest’approccio mostrando che il rifiuto dei risultati della ricerca è solo debolmente correlato all’alfabetizzazione scientifica. Recentemente Dan Kahan, professore all’Università di Yale ed esperto di percezione del rischio, in una ricerca pubblicata su Nature ha mostrato che ad esempio le opinioni degli americani sul riscaldamento globale sono principalmente influenzate dall’appartenenza politica. I dati raccolti da Kahan mostrano inoltre che i sostenitori del movimento Tea Party hanno un livello di alfabetizzazione scientifica leggermente superiore alla media americana.

Un’altra chiave di lettura per spiegare il negazionismo è la mancanza di fiducia nei confronti della scienza. Anche in questo caso le inchieste sociologiche rivelano un quadro più complesso. Un’indagine del Pew Research Center nel 2009 mostrava che più dell’ottanta per cento della popolazione statunitense considerava la scienza una forza positiva della società. Secondo il report The 2014 Public Attitudes to Science, pubblicato qualche settimana fa dall’istituto demoscopico Ipsos Mori, il 90 per cento dei britannici ritiene che scienziati e ingegneri forniscano un contributo prezioso alla collettività. Sono risultati in linea con la media europea, inclusa l’Italia.

Come si conciliano allora le grandi aspettative nei confronti di scienza e tecnologia con la resistenza anche tenace ad alcuni suoi risultati nel caso di vaccini, evoluzione e global warming? Il punto è che un conto è fidarsi della scienza in generale, un altro è prevedere le nostre reazioni individuali quando ci confrontiamo concretamente con i risultati della ricerca nei contesti più diversi: dai processi decisionali per la costruzione di un inceneritore a pochi passi dalle nostre case, alle scelte sulle terapie per fronteggiare il cancro o all’educazione che vogliamo dare ai nostri figli. Nell’articolo What Scientists Really Do, pubblicato qualche tempo fa sul New York Review of Books, il fisico e astronomo Priyamavda Natarajan spiega che la contraddizione nasce dall’incapacità dei non-esperti di fare i conti con la provvisorietà della ricerca. Natarajan suggerisce di leggere il libro Curiosity: How Science Became Interested in Everything, scritto da nel 2013 da Philip Ball, ex-direttore di Nature, per comprendere come questa provvisorietà sia in realtà un punto di forza della scienza, perché permette di raffinare le conoscenze sul mondo naturale in un processo senza fine di confronto con la realtà.

Sta di fatto che il negazionismo riesce a prosperare proprio nelle pieghe dell’incertezza, una parola che per gli scienziati ha un significato diverso dall’accezione comune, ma che proprio per la sua ambiguità permette alle tesi cospirazioniste di fornire spiegazioni alternative che danno l’illusione di riappropriarsi di un controllo perduto, anche se queste spiegazioni non sono supportate dai fatti.

Per contrastare complottismo e scetticismo l’approccio paternalistico è poco efficace, anzi si rivela spesso arrogante e alienante. Alla fine del suo libro sul cambiamento climatico Marshall suggerisce che bisognerebbe prendere le chiese evangeliche come modello per imparare a comunicare efficacemente sulle conseguenze del riscaldamento globale. Il senso della sua provocazione è che bisogna considerare il problema in un contesto più ampio, trattarlo come un processo che ci riguarda per tutta la vita, mettendo in conto periodi di dubbio e incertezza, ma anche di illuminazione personale. Per questo bisogna saper ascoltare, sostenere e mettersi alla pari di tutti gli interlocutori, come sanno fare da millenni le religioni.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 25 ottobre 2014.

Se l’atomo fa bene all’ambiente*

18_10_2014 L’utilizzo di bombe atomiche per riparare a disastri ecologici può oggi apparire un ossimoro. Eppure, per molto tempo Stati Uniti e Unione Sovietica hanno ritenuto l’opzione nucleare un’efficace strumento per la salvaguardia dell’ambiente. Ancora nel 2010, quando un incidente sulla piattaforma Deepwater Horizon causò nelle acque del Golfo del Messico il più grave sversamento di petrolio nella storia americana, esperti riconosciuti di questioni energetiche statunitensi considerarono seriamente la possibilità di una detonazione atomica controllata richiamandosi a esperimenti simili condotti durante la guerra fredda. Come ricostruito in un’indagine pubblicata la scorsa settimana sul magazine Nautilus, fu solo la forte avversione dell’opinione pubblica nei confronti del nucleare, definitasi a partire dagli anni settanta, a far desistere i governi delle due maggiori potenze mondiali dal proseguire alcuni dei programmi più originali d’uso delle esplosioni atomiche a scopi pacifici.

L’idea, quattro anni fa, di sigillare il pozzo trivellato dalla Deepwater Horizon con una bomba nucleare sotterranea era stata accolta con favore da opinionisti, banchieri e ingegneri come Micheal Webber, vice-direttore dell’Istituto di Energia all’Università del Texas. Webber, in un intervento sul New York Times, dichiarò che la possibilità di generare sotto il fondale marino delle temperature superiori a quelle della superficie solare era “sorprendentemente praticabile e appropriata”. Il calore sprigionato dall’ordigno atomico sarebbe stato infatti in grado di sciogliere decine di migliaia di metri quadri di roccia porosa per trasformarla in un enorme tappo vetroso in grado di arrestare il flusso di petrolio. Il progetto fu alla fine abbandonato più per ragioni politiche che tecniche.

L’entusiasmo dell’ingegnere americano e di altri fan della bomba sottomarina si basava su un resoconto specialistico del 1998 che svelava un aspetto poco noto dell’utilizzo dell’energia nucleare durante la guerra fredda. L’autore, Milo Nordyke, ex-direttore del Lawrence Livermore National Laboratory, centro californiano specializzato in ricerche applicate alla sicurezza nazionale, in un rapporto intitolato The Soviet Program for Paceful Uses of Nuclear Explosions, descriveva quattro esplosioni realizzate dai sovietici tra il 1966 e il 1981 per spegnere incendi in pozzi di gas naturale fuori controllo. Si trattava solo di una parte di un ampio programma per l’uso di bombe atomiche a scopi pacifici. Gli Stati Uniti avevano progetti simili, seppure su scala minore.
Gli esperimenti sovietici illustrati dall’ex-responsabile dell’istituto californiano avevano funzionato in tre casi su quattro. Nel 1966, grazie all’utilizzo di ordigni nucleari, i tecnici dell’Urss avevano bloccato un flusso di gas di un pozzo in Uzbekistan da cui, per tre anni consecutivi, erano fuoriusciti 12 milioni di metri cubi di sostanze inquinanti al giorno. Secondo quanto riportato da Nordyke, uno dei quattro interventi per domare le fiamme non andò a buon fine solo perché non si possedevano dati geologici a sufficienza sul punto esatto della trivellazione.

Può forse oggi sembrare strano che esperti energetici e ingegneri abbiano considerato le bombe nucleari una possibilità tra le altre di intervenire sull’ambiente, ma non lo era affatto durante il secondo dopoguerra da entrambe le parti della cortina di ferro. L’energia scaturita dalla scissione dell’atomo e i suoi utilizzi avveniristici per migliorare la vita delle persone suscitavano entusiasmi nell’opinione pubblica e tra i governanti.
A partire dalla fine degli anni cinquanta le proposte per un uso creativo delle bombe atomiche a scopi pacifici non a caso si moltiplicarono. Sempre secondo quanto descritto su Nautilus, l’Unione Sovietica diede avvio in quegli anni a un programma che prevedeva 122 esplosioni nucleari con le finalità più varie. Bombe atomiche furono usate fino a poco prima della caduta del muro di Berlino non solo per sigillare pozzi, ma anche per realizzare laghi, canali, dighe, per trovare risorse geologiche e creare nuovi elementi. Tra gli usi previsti più sorprendenti vale la pena menzionare la creazione di vaste cavità sotterranee, isolate dalla biosfera e da falde acquifere, in cui disporre rifiuti tossici. L’idea è stata ripresa in epoca post-sovietica da alcuni scienziati russi come proposta per liberarsi dalle scorie radioattive. Potrà sembrare paradossale, ma lo scoppio di una bomba atomica potrebbe essere uno dei metodi più efficaci in circolazione per smaltire gli scarti di combustibile della fissione nucleare. L’esplosione sotto terra fonderebbe infatti assieme rifiuti e roccia in un blocco stabile, la cui radioattività si dissiperebbe in sicurezza nell’arco di millenni.

Dopo la guerra fredda le considerazioni di natura tecnica vennero superate dall’ampio consenso fra le potenze nucleari a rinunciare a qualunque uso delle bombe atomiche, anche per finalità pacifiche. L’ultima esplosione sul territorio americano risale al 1992, nel deserto del Nevada, dopo più di 1000 test nucleari da parte degli Stati Uniti in più di quarant’anni.
Tali decisioni furono anche il risultato di un mutamento del clima d’opinione nei confronti del nucleare, la cui immagine pubblica tra gli anni settanta e gli anni ottanta del secolo scorso si stabilizzò come negativa dopo ampi periodi di generale consenso. Come dimostra il fisico e storico americano Spencer Weart, autore di opere approfondite sulla storia della percezione del rischio nucleare, ad esempio durante il secondo dopoguerra e per tutti gli anni cinquanta gli atomi godevano di ottima fama. Nel libro The Rise of Nuclear Fear, pubblicato nel 2012, Weart descrive come successivamente e gradualmente le tensioni della guerra fredda trasformarono l’immaginario diffuso sulla radioattività, che da terapia in grado di salvare milioni di persone venne sempre di più percepita come un’insidiosa contaminazione letale su scala planetaria. Incidenti come quelli della centrale americana Three Mile Island e il disastro di Chernobyl nel 1986 contribuirono a mutare definitivamente l’immagine dell’energia nucleare agli occhi dell’opinione pubblica internazionale: non più miracolo futuristico ma minaccia di catastrofe globale.
Qualunque uso delle bombe nucleari divenne politicamente insostenibile. Si comprende così facilmente perché Stati Uniti e Unione Sovietica dovettero rinunciare ai loro programmi di utilizzo pacifico di esplosioni atomiche, inclusi quelli di salvaguardia dell’ambiente.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 18 ottobre 2014.

il porto franco triestino della fisica dell’altro mondo*

1412335022448 Cinquant’anni fa nasceva nel pieno della guerra fredda a Trieste un istituto scientifico unico al mondo: un centro di ricerca pura pensato per permettere ai paesi in via di sviluppo di svolgere attività scientifica d’eccellenza. La sua storia è stata celebrata a ottobre dell’anno scorso in un convegno a cui partecipano fra gli altri premi Nobel per la fisica, medaglie Fields per la matematica e il direttore generale dell’Unesco. Ma il Centro internazionale di fisica teorica (Ictp) Abdus Salam ha avuto origine in un contesto culturale e geopolitico che non esiste più ed è lecito chiedersi qual sia il senso della sua mission oggi.

L’ictp è il solo istituto scientifico al mondo su cui sventola la bandiera dell’Onu. Il suo fondatore, il pakistano Abdus Salam, a cui è intitolato il centro dal 1996, è stato finora l’unico scienziato di origine islamica ad aver vinto un premio Nobel per la fisica. Fortemente voluto negli anni sessanta del secolo scorso dall’allora ministro degli esteri Giulio Andreotti, l’Ictp è tuttora ampiamente sostenuto dal governo italiano con un contributo attuale di 20,5 milioni di euro all’anno, pari all’85 per cento circa del budget complessivo.

Un ottimo investimento, a leggere i numeri. Solo nel 2013, l’istituto è stato visitato da quasi seimila studenti e ricercatori provenienti da 139 nazioni, soprattutto da paesi in via di sviluppo, in primis Algeria, Nigeria, Egitto, fino a Costa Rica, Ecuador, Guatemala, di cui il 23 per cento sono donne. ln cinquant’anni di vita il centro è stato teatro di più di 140 mila visite soprattutto da paesi poveri, con una produzione scientifica costante e di livello internazionale.

Una delle caratteristiche peculiari del modello organizzativo dell’Ictp è favorire il ritorno dei visitatori nei paesi d’origine dopo il periodo di permanenza a Trieste. L’obiettivo è raggiunto attraverso una serie di programmi che, da una parte, permettono di mantenere un legame duraturo col centro triestino, dall’altra di promuovere progetti scientifici legati ai bisogni specifici del territorio di provenienza. Uno dei più consolidati è l’ Associateship Scheme, grazie al quale vengono stabiliti rapporti di lungo termine con i singoli ricercatori. Attraverso il Federation Arrangement Scheme, le istituzioni dei paesi in via di sviluppo possono invece mandare a Trieste i loro scienziati, di età inferiore ai 40 anni, per visite comprese fra i 60 e i 150 giorni, per un periodo complessivo di tre anni, durante il quale i partecipanti svolgono varie attività formative e di ricerca. In questo caso le spese sono condivise.

I primati dell’Ictp sono stati raggiunti anche grazie alla capacità, negli anni, di mutare pelle sia negli interessi di ricerca, perché alla fisica pura si sono aggiunti altri ambiti disciplinari, come la fisica del tempo e del clima, la geofisica dei terremoti o la computer science, sia sul piano strategico-istituzionale.

“I profondi cambiamenti geopolitici accaduti dal 1964 a oggi”, spiega a pagina99 Sandro Scandolo, senior scientist e delegato dell’Ictp per le relazioni con l’Italia, “hanno modificato il rapporto con diversi paesi che una volta ricevevano il nostro supporto. Nazioni come la Cina e il Brasile, diventate forze trainanti della ricerca internazionale, hanno sempre meno bisogno dei servizi tradizionali del nostro istituto, ma continuano a chiederci aiuto perché vogliono fare nel loro paese quello che abbiamo fatto a Trieste. Da diretti beneficiari sono diventati partner: per questo credo che il modello organizzativo originale sostenuto dai fondatori dell’Ictp abbia vinto”.

Nella visione del già citato Salam e del fisico triestino Paolo Budinich, i due artefici del Trieste Experiment, come lo definì all’epoca il New York Times, c’era un progetto inedito di sostegno ai paesi poveri attraverso la scienza. Non semplicemente un centro d’attrazione per i ricercatori di paesi in via di sviluppo, ma un investimento di lungo termine sul capitale umano: l’Ictp doveva essere un necessario luogo di formazione, ma di passaggio, per chi poi sarebbe ritornato in patria per assumere ruoli di leadership scientifica. Un approccio molto diverso da quello seguito da grandi istituzioni come il Mit di Boston o il College de France di Parigi, dove sapevano bene che la “fuga dei cervelli” conveniva soprattutto se unidirezionale.

Non a caso, quando nei primi anni sessanta si trattò di decidere sull’apertura del centro, tutti i grandi del mondo si schierarono contro, con un’inedita convergenza tra Stati Uniti e Unione Sovietica. Le due potenze erano divise su tutto, ma concordavano nel non voler sostenere Trieste come porto franco scientifico per la rinascita economica dei paesi del Terzo Mondo attraverso la ricerca pura. Per i detrattori si trattava di un progetto folle e visionario che però incontrò il sostegno determinante dell’ambasciatore Egidio Ortona e sopratutto dell’allora ministro degli esteri Giulio Andreotti.

Iniziò una lunga battaglia diplomatica che, come spiega Pietro Greco nel libro Buongiorno prof. Budinich, edito da Bompiani nel 2007, trovava le sue ragioni in motivi che andavano al di là della scienza. In particolare, il nostro paese dopo aver perso la guerra aveva bisogno di recuperare lo status di potenza sviluppata e per questo voleva mostrarsi come nazione donatrice. Ed è proprio la generosità del finanziamento garantito dal governo italiano che risultò infine decisiva per vincere le resistenze.

Tale stanziamento, come già accennato, continua a essere cospicuo anche oggi e se da una parte l’Ictp rimane una scommessa di successo, dall’altra bisogna confrontarsi con un contesto internazionale radicalmente cambiato e con un’Italia attraversata da una profonda crisi economica.

“Non c’è dubbio”, afferma Scandolo, “che ci dobbiamo rapportare con problemi nuovi. Rispetto al passato siamo ad esempio sempre più costretti a lavorare con governanti che prediligono aspetti applicativi e pretendono risultati immediati: in poco tempo vorrebbero costruire centri di ricerca innovativi dove adesso non c’è niente. Questo non è possibile e noi abbiamo il compito di convincerli che la formazione di base è fondamentale, richiede pazienza, ma si rivela cruciale sul lungo periodo. Credo che per questo la nostra funzione continui a rimanere fondamentale”.

Come convive la realtà del centro triestino con le difficoltà economiche italiane? Al di là dell’importante impatto scientifico, Scandolo ammette che “bisogna comunicare meglio il fatto che l’Ictp continua a essere strategico in termini di cooperazione internazionale dando la possibilità all’Italia di costruire contatti con realtà altrimenti difficilmente raggiungibili.” In altre parole l’Ictp, anche se da noi poco conosciuto, rimane un significativo braccio operativo della politica estera nazionale.

Non si può dimenticare poi che l’istituto è stato il generatore del cosiddetto Sistema Trieste, ha fatto cioè decollare la nascita dell’insieme di realtà scientifiche e tecnologiche che rende il oggi il capoluogo giuliano una delle città europee con la maggiore densità di persone impiegate nel settore ricerca e sviluppo.

Lasciata alle spalle la stagione dei “lucidi visionari” Salam e Budinich, ai successori alla guida dell’Ictp rimane quindi il compito di non far perdere il mordente a scienziati, politici e opinione pubblica per una storia scientifica e politica di successo, in controtendenza con la narrativa del declino italiano e che ha reso fra l’altro Trieste, come ha affermato il fisico ruandese Romani Maurenzi, direttore esecutivo dell’Accademia mondiale delle scienze, forse l’unica città al mondo e sicuramente l’unico posto in Italia dove “quando incontri una persona di colore pensi che sia uno scienziato”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 4 ottobre 2014.

Ecco perché il calcio è sacro*

Football Fans Gather On Beach In Rio To Watch Argentina v Netherlands Semifinal Match Lo scriveva già Pasolini quando nei Saggi sulla letteratura e sull’arte affermava che il “calcio è l’ultima rappresentazione sacra del nostro tempo. È rito nel fondo, anche se è evasione”. Il genio analitico dell’intellettuale friulano trova oggi conferma nelle più recenti teorie scientifiche sulla religione, come quella dell’antropologo britannico Harvey Whitehouse. In un intervento sull’ultimo numero del magazine Nautilus, rivista sostenuta dalla Templeton Foundation e presentata come una sorta di New Yorker della comunicazione della scienza, lo studioso, in forze all’Università di Oxford, espone la sua visione sulle radici delle credenze religiose. Secondo Whitehouse, più che il bisogno di trovare risposte alle domande profonde di senso, la fede nel soprannaturale nasconde la necessità di creare legami personali e di definire un senso di appartenenza a una comunità per cui valga la pena vivere e sacrificarsi, come accade nei tifosi di calcio per la squadra del cuore.

Whitehouse ha sviluppato una teoria della religione basata sul potere che hanno i rituali nel favorire la coesione di gruppo. Per chiarire i punti cardini della sua teoria sfrutta l’analogia con quanto si vede negli stadi di tutto il mondo. “Ci sono molte situazioni che non hanno a che fare con dilemmi esistenziali”, spiega lo studioso britannico, “ma che ispirano spiegazioni soprannaturali. Probabilmente la più comune è quella dei rituali effettuati in contesti con un certo rischio di fallimento. Molte persone ad esempio vanno a vedere le partite di calcio sempre con gli stessi pantaloni e magliette perché le ritengono dei portafortuna. O si pensi ai gesti ripetitivi dei giocatori prima di tirare un calcio di rigore”. In altre parole, le esibizioni ritualistiche a cui assistiamo in uno stadio non sono differenti da quelle esplicite che si vedono nelle cerimonie in chiesa o in una moschea. Di conseguenza, la sacralità associata a una confessione religiosa non è diversa da quella che i tifosi attribuiscono alla propria squadra.

È probabile che le tesi di Whitehouse possano risultare irriverenti a molti fedeli, ma le sue argomentazioni sono basate su un’imponente raccolta di dati accumulati negli anni e inseriti in un quadro concettuale altamente interdisciplinare in cui convergono archeologia, etnografia, storia, psicologia evolutiva e scienze cognitive. Il calcio è solo un esempio per spiegare che le credenze nel soprannaturale derivano da cerimonie e legami preistorici. Gli interessi di Whitehouse per la religione risalgono agli anni ottanta del secolo scorso, quando ha iniziato a studiare i riti tradizionali della Papua Nuova Guinea.

L’antropologo di Oxford ha raccolto per anni evidenze archeologiche di rituali complessi e cerimonie di iniziazione traumatiche praticate per fondere in modo indissolubile l’identità dell’individuo con la comunità di appartenenza. Le prove consistono in materiali e oggetti che testimoniano le diverse accezioni con cui si interpreta oggi il fenomeno religioso: pendagli, monili, collane e altri materiali raccolti in vari siti sparsi nel mondo, dal Sud America all’Africa, rivelano ad esempio la fiducia nella vita dopo la morte o suggeriscono l’esperienza di stati alterati della coscienza. Le tracce di tali pratiche le ritroviamo oggi anche nelle religioni istituzionalizzate, nelle preghiere quotidiane dei musulmani o nella frequentazione della messa da parte dei cristiani almeno una volta alla settimana.

Le ricerche di Whiteouse fanno parte di una corrente di studi che cerca di spiegare la religione con la scienza. L’antropologo britannico è uno dei principali esponenti internazionali di un settore interdisciplinare che vuole chiarire diversi aspetti del fenomeno religioso facendo ricorso alle scienze cognitive e a un approccio evolutivo. È in questo milieu culturale che si inserisce uno dei testi più controversi degli ultimi anni sul rapporto tra scienza e fede, il libro L’illusione di Dio, del biologo Richard Dawkins, pubblicato in Italia da Mondadori nel 2007. Dawkins, dichiaratamente ateo e brillante divulgatore, propone numerose ipotesi evoluzionistiche che avrebbero portato gli esseri umani a credere in esseri soprannaturali: una delle più consolidate è quella che lega il pensiero religioso a un maggior sviluppo cognitivo. Il volume dello scienziato britannico è diventato un manifesto per i movimenti atei di mezzo mondo perché non si limita a fornire argomentazioni scientifiche a favore della sua tesi, ma si scaglia veementemente contro la religione, ritenuta pericolosa, causa di guerre, conflitti e azioni atroci, nonché un insulto alla dignità umana. Il testo rivendica viceversa l’orgoglio di essere atei, segno di indipendenza, salute e di una coscienza superiore. Esplicitamente Dawkins vuole fare proseliti al contrario. È inutile sottolineare che il libro è stato al centro di polemiche feroci e reazioni diametralmente opposte.

In un terreno più accademico e un po’ più sereno si colloca di recente quella che alcuni critici considerano l’opera più ambiziosa sullo studio delle mitologie dopo i lavori di Mircea Eliade, storico delle religioni rumeno considerato l’inventore della ricerca moderna nel settore. Stiamo parlando del volume The origins of the World’s Mythologies, scritto da Michael Witzel dell’Università di Harvard e pubblicato dalla Oxford University Press nel 2013. Il libro, in quasi settecento pagine, fornisce una solida base empirica sull’origini dei miti nel mondo attingendo a dati ricavati dall’archeologia, della linguistica comparativa e dalla genetica delle popolazioni. La tesi di Witzel è che esiste un’unica fonte comune africana da cui hanno origine i nostri miti collettivi. Essi non sono solo le prime evidenze di spiritualità antica ma, molto più significativamente, hanno una serie di caratteristiche essenziali che sopravvivono ancora oggi nelle principali religioni del mondo.

I lavori di Witzel e Whitehouse rappresentano alcuni degli sforzi più recenti e rilevanti di una comunità di studiosi che vuole rendere la storia delle religioni sempre di più una scienza empirica. Si tratta di un approccio che non ha necessariamente l’effetto di esacerbare il conflitto fra credenti e atei. Come spiega Whitheouse, “non penso che la scienza sarà mai in grado di dimostrare se Dio esiste o no. Questo rimarrà sempre una questione di fede. I credenti dovrebbero però essere aperti alla possibilità che alcuni fenomeni che ritengono misteriosi sul senso della vita o sul mondo possano in realtà essere spiegate dalla scienza. Allo stesso tempo credo che molto di quello che riguarda la vita umana vada oltre gli scopi dell’indagine scientifica”.

*Quest’articolo è stato pubblicato sul sito web di Pagina99we del 28 settembre 2014.

nessun pericolo dal bosone*

pg 99 set 2014 Se l’icona vivente della scienza contemporanea si pronuncia sull’apocalisse è impossibile non dargli ascolto. Ma più di improbabili scenari catastrofisti, le recenti affermazioni di Stephen Hawking sulla possibile distruzione dell’universo a causa del potenziale di Higgs ripropongono la portata ciclopica del grande sogno dei fisici teorici: quello di una teoria finale, di un’unica spiegazione per tutte le proprietà del mondo.

Il cosmologo e astrofisico britannico, già titolare della cattedra lucasiana di matematica all’Università di Cambridge che fu di Isaac Newton, non ha mai avuto un rapporto facile con il bosone di Higgs. Nel 2000 Hawking aveva scommesso 100 dollari col collega Gordon Kane che i fisici non sarebbero mai stati in grado di trovarlo. Perse la scommessa nel 2012, quando dal Cern di Ginevra annunciarono che la caccia era finita: dopo circa cinquant’anni dagli studi teorici di Peter Higgs, gli esperimenti condotti con l’acceleratore Large Hadron Collider rivelavano l’esistenza della particella. Hawking non si perse d’animo e, a fronte di un’esultanza planetaria, affermò che la scoperta rendeva la fisica meno interessante. Non pago delle critiche, qualche settimana fa lo scienziato famoso per i suoi studi sui buchi neri ha affermato che la “particella di Dio”, espressione definita dagli addetti ai lavori una detestabile invenzione giornalistica, potrebbe addirittura essere la protagonista di uno scenario da Armageddon.

Non è un dettaglio che Hawking abbia recitato il ruolo della cassandra nella prefazione del libro Starmus: 50 years of man in space. Se il dubbio della trovata di marketing è lecito, rimane il fatto che l’allarme del fisico britannico ha riacceso i riflettori mediatici internazionali, e la discussione tra gli studiosi, sulla natura e sul futuro della fisica delle particelle.

A dire il vero, gli accadimenti preconizzati da Hawking non costituiscono una gran novità per gli esperti e, soprattutto, sono estremamente improbabili. Per capire perché bisogna considerare che la misura attuale della massa del bosone di Higgs avrebbe svelato il cosiddetto stato di “metastabilità” in cui si trova l’universo, una condizione che, se pur in linea del tutto teorica, potrebbe essere modificata con un apporto di energia o per effetti quantistici, con conseguenze devastanti. Le energie necessarie per la catastrofica transizione sono però assolutamente al di fuori della portata di qualunque acceleratore di particelle realizzabile da esseri umani. Inoltre, anche se si considerano decadimenti quantistici, tale processo potrebbe richiedere tempi inconcepibili per la nostra esperienza, come 10 elevato a 100 anni, o non accadere mai. Altre misure e nuovi calcoli potrebbero infine rivelare che l’universo è più stabile di quanto si pensi.

Più interessante di ipotesi fantascientifiche, la provocazione di Hawking rivela che il futuro della fisica delle particelle passa per la costruzione di acceleratori sempre più potenti a energie sempre più elevate. Forse Hawking non è d’accordo con quest’approccio e manifesta il suo dissenso con iperboli catastrofiste. Non lo sappiamo, ma di certo le maggiori energie a cui si vuole arrivare servono ad affrontare i problemi ancora aperti nella ricerca di un disegno profondo e unitario della natura, non a distruggere l’universo.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 27 settembre 2014. Lo riporto sul mio blog per loro gentile concessione.