la legge morale nei nostri neuroni*

legge morale neuroni Kathinka Evers è una filosofa svedese esperta di neuroscienze il cui percorso non è facilmente inseribile negli schemi della tradizione accademica. Partendo dalla logica e dalla fisica, il suo interesse si è successivamente allargato a una riflessione nella turbolenta zona di confine tra scienze del cervello, filosofia morale, etica e sociologia. Evers svolge un’influente attività di ricerca espressa recentemente in un articolo-manifesto pubblicato alla fine del 2015 sul magazine letterario 3:AM, simbolo della controcultura londinese degli anni Zero. Evers si muove sulla frontiera della cosiddetta neuroetica, giovane e controversa disciplina che da un lato indaga e riflette sulle implicazioni etiche e giuridiche della ricerca neuroscientifica, dall’altro mira a comprendere le basi cerebrali dei comportamenti morali. Il peso del punto di vista della filosofa svedese deriva dalla sua carica di codirettrice dello Human Brain Project (HBP), una delle più ambiziose iniziative di neuroscienze mai intraprese a livello mondiale. Selezionato dalla Commissione europea nel 2013 tra i due i due progetti “faro” su cui l’Unione ha deciso di investire più di un miliardo di euro fino al 2023, l’HBP ha lo scopo di simulare attraverso un supercomputer il funzionamento completo del cervello umano: un obiettivo scientifico e tecnologico mastodontico che fornisce allo stesso tempo un esempio concreto dei nodi attuali tra neuroscienze e filosofia.

“È abbastanza ovvio immaginarsi che tipo di interrogativi susciterà un cervello umano simulato, se mai verrà realizzato”, afferma la studiosa dell’Università di Uppsala. “Essi riguarderanno la sfera personale, sociale ed etica (ad esempio, se si decide di interrompere il funzionamento di un cervello simulato è possibile “ucciderlo” in un modo potenzialmente pertinente sul piano morale?)”. Per rispondere a queste domande entra in gioco la neuroetica, che avrebbe gli strumenti concettuali per disinnescare il rischio di trasformare gli ambiziosi progetti sul cervello in potenziali minacce e paure per gli individui e la collettività, presunte o reali che esse siano.

“In realtà”, come spiega a pagina99 Stefano Canali, filosofo delle neuroscienze alla Sissa (Scuola internazionale superiore di studi avanzati) di Trieste, “siamo ancora molto lontani dall’avere a disposizione cervelli sintetici. Le simulazioni dell’HBP potranno riguardare a breve meccanismi fisiologici precisi o specifici disturbi neurologici. Altra cosa è usare queste macchine per comprendere i comportamenti morali, come forse pretenderebbero alcuni fautori dello Human Brain Project”. Un’ambizione che si scontra con un nodo filosofico di fondo: il fatto che, continua Canali, “per realizzare le nostre esperienze coscienti e soprattutto mediare le azioni morali il cervello ha bisogno di un corpo e di poter interagire con altri individui, abitando e allo stesso tempo costruendo e modificando insieme ad essi uno spazio di simboli e valori”.

È un aspetto che il progetto europeo del supercomputer sottovaluterebbe, ma che rappresenta efficacemente la direzione in cui, secondo Evers e colleghi, dirigere più incisivamente gli sforzi di ricerca nei prossimi anni: verso la neuroscienza dell’etica, un’area dove i dati neurologici e la riflessione filosofica s’incontrano su temi fondamentali come il libero arbitrio, l’autonomia, l’autocontrollo, i processi decisionali, la responsabilità, il conflitto tra ragione ed emozione.

Quali sono le basi neuronali del nostro senso morale? Come funziona il nostro cervello quando eseguiamo atti che associamo alla libera scelta? Sono interrogativi che hanno trovato diritto di cittadinanza scientifica grazie agli impetuosi sviluppi delle neuroscienze degli ultimi decenni. “Gli studi sul cervello”, afferma Canali, ideatore e organizzatore di una scuola di formazione in neuroetica tra le poche attività strutturate in quest’ambito nel nostro paese, “hanno dimostrato che linguaggio, memoria, emozioni, percezioni, controllo volontario del comportamento sono sistemi funzionali semi-indipendenti tra di loro, seppur integrati. La dissoluzione dell’integrità dell’Io rende assai problematica l’indagine sulla natura e il funzionamento dell’agente morale. A quale parte della nostra mente dobbiamo attribuire la responsabilità morale? Ad esempio è possibile che una lesione o una malattia, ma anche eventi traumatici o stress protratti compromettano i sistemi cerebrali che permettono il controllo volontario del comportamento. In questo caso, gli altri apparati funzionali possono continuare a operare normalmente, compreso quello che media le reazioni emotive. Può così accadere che un comportamento impulsivo, violento o immorale, non venga frenato anche quando la persona riconosce la sua inappropriatezza e desidera inibirlo”. Non è difficile comprendere la complessità delle implicazioni etiche e giuridiche che emergono in queste situazioni.

Al di là di casi estremi, le neuroscienze attuali stanno dimostrando che gli eccessi di stimoli, i sovraccarichi di microscelte, il multitasking, sembrano erodere il controllo volontario del comportamento e le capacità empatiche, mettendo costantemente a rischio le nostre competenze morali. Si pensi ad esempio alle moltiplicazioni delle interazioni digitali, all’overload informativo sul web, alle sollecitazioni appettitive a cui siamo sottoposti nei corridoi di qualsiasi supermercato. Sono tutti processi che richiedono al cervello dosi cospicue di risorse computazionali e anche tempi congrui di elaborazione. Al contrario oggi è però richiesta una velocità di analisi che può interferire con le modalità con cui interpretiamo i segnali emotivi propri e altrui. Di conseguenza i sovraccarichi cognitivi possono farci agire in modo eticamente problematico: ad esempio non prestando aiuto a qualcuno in difficoltà, manifestando apertamente un pregiudizio, agendo in modo esclusivamente utilitaristico e con questo causando danno ad altri.

La neuroetica a questo proposito sottolinea come gli studi sperimentali stiano rivalutando in termini scientifici il peso della società nella responsabilità etica personale. A rinnovare profondamente e rendere dirompenti gli interrogativi sul libero arbitrio è stato poi soprattutto lo sviluppo delle cosiddette tecniche di neuroimaging, in grado di misurare la relazione tra attività di determinate aree celebrali e specifiche funzioni.

In Italia, negli ultimi anni diversi testi hanno affrontato questi temi. Tra essi si possono segnalare Neuroetica. La morale prima della morale, edito da Raffaello Cortina nel 2008 e scritto da Laura Boella, filosofa dell’Università di Milano, e più recentemente Lo spazio della responsabilità, pubblicato nel 2015 da Il Mulino e curato da Marina Lalatta Costerbosa dell’Università di Bologna. Sono opere in cui ripetutamente si invita alla prudenza quando ci si trova di fronte ai risultati che provengono dalle tecniche di neuroimmagini, vale a dire dalle metodiche per la rappresentazione del sistema nervoso e in particolare del cervello. Tali volumi ne chiariscono limiti e ambiti d’applicazione richiamandosi a una convergenza di saperi e competenze plurali.

È un approccio che risuona con l’appello generale del manifesto di Kathinka Evers a una feconda e necessaria interdisciplinarietà di cui la neuroetica si dovrebbe fare portavoce, sia “per contribuire a una migliore definizione degli oggetti della ricerca neuroscientifica, sia per tentare di rendere sperimentalmente indagabili i problemi che la filosofia affronta da millenni soltanto in modo astratto. Questo servirebbe a far luce su concetti impervi per la scienza ed elusivi per la filosofia”, conclude Canali.

*Il testo di quest’articolo è stato pubblicato sul periodico pagina99 il 23 gennaio 2016.

La collana “Scoprire la scienza” arriva in edicola

hachette Riporto di seguito la descrizione di “Scoprire la scienza”, una nuova iniziativa editoriale pubblicata da Hachette Fascicoli che ho l’onore di presentare. Trovate il primo volume in edicola a partire da dopodomani 2 aprile 2016.

Oggi chiunque può capire un’equazione. E anche le grandi scoperte della fisica, della biologia e dell’astronomia sono accessibili a tutti. Hachette lo dimostra con la nuova collana di volumi Scoprire la scienza, realizzata da un team internazionale di ricercatori e divulgatori scientifici e presentata da Nico Pitrelli, condirettore del Master in Comunicazione della Scienza della Scuola Internazionale Superiore di Studi Avanzati – di Trieste.

Abbandoniamo l’idea di doverci confrontare con formule impossibili o teorie indecifrabili. La scienza è un’altra cosa. È ciò che ci permette di conoscere e interpretare la realtà, di scoprire perché siamo come siamo e di capire come funziona l’Universo o il nostro cervello. Hachette offre ai lettori la possibilità di intraprendere un fantastico viaggio alla scoperta di discipline come la fisica, la matematica, la meteorologia o la genetica, tra le altre. Scoprire la scienza è una collana inedita e innovativa per capire le grandi idee della scienza finalmente spiegate in modo nuovo facile e accessibile.

Le spade laser di Star Wars hanno un qualche fondamento scientifico? Quali sono le leggi fisiche di una passeggiata in bicicletta e di una bolla di sapone? Come hanno fatto semplici microrganismi a diventare esseri umani? Da dove viene la creatività? La scienza offre risposte a tutte queste domande, frutto del lavoro di una vita di centinaia di ricercatori. Questi libri raccolgono, ordinano e armonizzano questa mole impressionante di saperi e offrono gli strumenti per comprendere quali nuove sfide ci aspettano, in quale direzione la ricerca d’avanguardia si sta muovendo.

La collana è divisa in quattro sezioni principali: fisica teorica e fondamenti, l’universo, vita ed essere umano, il nostro pianeta. I lettori potranno avvicinarsi con semplicità ad argomenti di grande attualità come la teoria della relatività, il Big Bang e l’universo in espansione, i cambiamenti climatici, i segreti del cervello, il genoma umano e l’evoluzione e tanti altri.
Questo progetto è stato realizzato da un team multidisciplinare. I contenuti sono stati elaborati da ricercatori di istituti di riconosciuto prestigio quali ad esempio il Centro de Regulación Genómica, L’Accademia Nazionale delle Scienze, l’Istituto Astrofisico delle Canarie e l’Istituto di Scienze Fotoniche. I volumi che compongono la collana sono stati scritti da alcuni tra i migliori ricercatori e divulgatori sotto la direzione di Materia, il sito di riferimento del giornalismo scientifico in lingua spagnola consultato ogni mese da milioni di lettori.

Quaranta volumi, uno ogni settimana, per scoprire o riscoprire i risultati di un processo di conoscenza e ricerca nato con l’uomo. Un mondo di conoscenze accessibile a qualsiasi lettore, al di fuori di laboratori e università. I libri hanno un approccio pragmatico, partono da esempi pratici per illustrare le principali teorie scientifiche e attraverso l’uso di infografica semplificano e offrono supporto alle spiegazioni. All’interno di appositi box sono riportati curiosità e aneddoti, e in appendice è presente un glossario di termini tecnici, per non perdere alcun dettaglio della spiegazione. Ultimo, ma non meno importante, un buon apparato iconografico permette di dare un volto a molti scienziati e ricercatori. Non ci sono più scuse: è giunto il momento di addentrarsi in un mondo rigoroso, divertente e appassionante. Dal 2 aprile trovi il primo libro della collana in tutte le migliori edicole o puoi riceverlo in abbonamento. Visita il sito per ulteriori dettagli.

I primi titoli e i loro autori:

Capire Einstein. Antonio Acín

Mondo quantistico. Rafael Andrés Alemañ Berenguer

La matematica della natura. Carlo Frabetti

Il sogno della ragione. Nicola Canessa

oltre lo show di Zuckerberg tra i neo-filantropi californiani*

zuckpg99Sulla faraonica donazione del 99 per cento delle azioni Facebook, annunciata da Mark Zuckerberg e da sua moglie Priscilla Chan all’indomani della nascita della loro primogenita Max, circa un paio di settimane fa, si sono spese già molte polemiche. L’accusa principale rivolta ai coniugi Zuckerberg è di voler pagare meno tasse attraverso un’operazione mascherata da beneficenza. Particolarmente duro Jesse Eisinger, dell’agenzia giornalistica indipendente ProPublica. Eisinger ha spiegato che la Chan Zuckerberg Initiative, creata dal fondatore di Facebook e da sua moglie, è una limited liability company, una sorta di società a responsabilità limitata e non una società no-profit. L’iniziativa non sarebbe così soggetta alle regole e ai requisiti di trasparenza delle fondazioni caritatevoli tradizionali e soprattutto godrebbe di benefici fiscali a quest’ultime non riservate. L’amministratore delegato di Facebook ha respinto l’accusa dichiarando che la scelta di creare una società privata si giustifica semplicemente per la sua maggiore efficienza e flessibilità. Che sia davvero così o che si tratti di altruismo interessato, il progetto filantropico di Zuckerberg è la punta dell’iceberg di un fenomeno molto più ampio, che a partire dai miliardari dell’hitech della Silicon Valley fa riferimento a un movimento teorico e sociale impegnato nel ripensare il non-profit, la liberalità, l’impegno solidale e collaborativo. Uno spazio laboratoriale e interdisciplinare che va sotto il nome di Nuova Filantropia e che si presenta come una cultura visionaria del dare, in cui confluiscono tecnologia, economia e diritto alla ricerca di una sintesi innovativa.

L’espressione “nuova filantropia” nasce all’interno della generazione degli imprenditori del dot.com, giovani o molto giovani che a partire dagli anni ’90 del secolo scorso hanno guadagnato montagne di soldi nell’industria dell’informatica e del digitale. La Silicon Valley è l’ambiente naturale, sia dal punto di vista geografico che culturale, per lo sviluppo di attività di beneficenza che, diversamente dal passato, sono incentrate sulla verifica dell’impatto sociale o ambientale delle elargizioni e sulla produzione di guadagno per gli erogatori. Rispetto alle tradizionali donazioni status-symbol dispensate per avere accesso a club esclusivi, c’è l’ambizione di incidere davvero per cambiare le cose. La visione è molto più strategica. Trae le sue radici concettuali nell’etica hacker di cui sono imbevuti, loro malgrado, molti dei miliardari self made man di nuova generazione, di cui Mark Zuckerberg è il prototipo ideale.

Non a caso, la Chan Zuckerberg Initiative è solo l’ultima in ordine di tempo di una costellazione di imprese simili, magari meno note, ma realizzate col medesimo approccio: unire filantropia e tecnologia. Come ad esempio quella di Brian Chesky, Ceo e fondatore di Airbnb, che ha fatto sviluppare ai suoi programmatori una piattaforma per far entrare in contatto gli sfollati dei disastri naturali con le persone disponibili a ospitarli. O come le iniziative di Anne Wojcicki, fondatrice della società produttrice di test genetici 23andMe, che ha devoluto centinaia di milioni di dollari ad associazioni come Ashoka, la più grande comunità internazionale di imprenditori sociali nata per dare supporto alle persone, non ai progetti. O infine come l’organizzazione no-profit GiveDirectly, che tramite cellulari riesce a trasferire denaro contante direttamente, evitando burocrazia e corruzione, a persone in condizioni di estrema povertà in Kenya e Uganda. Il programma, fra l’altro, prevede l’uso di satelliti per individuare i villaggi più poveri e l’utilizzo di strumenti avanzati per monitorare come vengono spesi i soldi e qual è livello di soddisfazione di chi li riceve.

Che il mondo tecnologico libertario e individualista attorno alla South Bay di San Francisco sia diventato il luogo d’elezione dei filantropi più dinamici del ventunesimo potrebbe sembrare un paradosso. Come descritto recentemente sul New York Times dalla giornalista Alessandra Stanley, Zuckerberg e soci non sono più interessati dei loro predecessori conservatori a cambiamenti radicali nel nome dell’eguaglianza sociale. I miliardari dell’hitech sono semplicemente convinti di poter applicare “la stessa ingenuità e lo stesso entusiasmo che li ha resi ricchi per rendere il resto del mondo meno povero”. Il tecno-utopismo di matrice hacker permette di comprendere come mai i proprietari di multinazionali private monopoliste del web, spesso insofferenti alle legislazioni fiscali sovrane, mettano così tante risorse per la soluzione di problematiche di interesse pubblico. Il punto è che, come emerge sempre nell’inchiesta del New York Times, i filantropi tecnologici non “fanno lobby per la redistribuzione della ricchezza”, ma piuttosto “vedono la povertà e la disuguaglianza come un problema ingegneristico, la cui soluzione è nelle loro capacità intellettuali”.

Tutto questo non limita la portata innovativa delle tecnologie dell’informazione e della comunicazione nella definizione di nuove prospettive benefiche. Come sottolineato lo scorso 2 dicembre nel corso di un convegno dal titolo “La nuova filantropia. Economia e diritto per una società digitale collaborativa”, uno dei pochi appuntamenti strutturati sul tema nel nostro paese organizzato dall’Università Cattolica di Piacenza, la tecnologia è il primo, se non il più qualificante, elemento di discontinuità della nuova modalità di fare beneficenza.
In particolare, la rete è lo sfondo su cui si innesta un secondo elemento caratteristico delle nuove pratiche del dono: l’approccio utilitarista, vale a dire l’interesse per le conseguenze dell’azione, per l’efficacia e la quantificazione degli impatti grazie alle opportunità di trasparenza e di tracciabilità offerte dal web. Un terzo aspetto è di natura antropologica e consiste nella centralità dell’agire collaborativo, nell’affermazione di un rivisitato comunitarismo che trova rinnovato slancio nel ruolo giocato dalle comunità digitali rispetto ai valori di apertura, condivisione, partecipazione, solidarietà.

Perché si realizzi la prospettiva comunitarista bisogna però dotarsi di nuove metriche economiche, in grado di misurare ad esempio l’impatto sociale del dono, e di strutture giuridiche più flessibili, in grado di dare conto delle molteplici forme del “dare”, non più riducibili solamente al donare beni, ma che riguardano anche la messa a disposizione di attività, capacità, tempo, informazioni. Ad esempio, chi dona i propri dati genetici si può porre oltre l’attuale comprensione giuridica della privacy.

I limiti delle normative vigenti, soprattutto di natura fiscale e sul piano delle successioni, sono particolarmente significativi in Italia. Come spiega a Pagina99 Monica De Paoli, notaio milanese tra le responsabili scientifici del convegno di Piacenza, i vincoli attuali contribuiscono a determinare “il divario esistente tra le esperienze di altri Paesi, in particolar modo di matrice anglosassone, e il nostro, dove le donazioni al confronto sono modeste”. De Paoli è anche vicepresidente del consiglio di indirizzo della Fondazione Italia per il Dono ONLUS (F.I.Do), una struttura nata con l’idea di creare un nuovo strumento di intermediazione filantropica. L’aspetto innovativo di F.I.Do, continua De Paoli, consiste nel fatto che chiunque voglia operare in un progetto di beneficenza “non ha bisogno di creare una propria struttura. F.I.Do offre servizi a soggetti che non possono o non vogliono creare una propria fondazione erogativa: agisce allo stesso tempo come hub e come incubatore. Chiunque può donare alla Fondazione. Il nostro scopo principale è promuovere la cultura del dono, non molto sviluppata nel nostro paese”.
F.I.Do richiama tutti noi alla possibilità di dare un nuovo volto al capitalismo, basato su una visione etica della filantropia. Un tema su cui si è speso recentemente anche Peter Singer, considerato tra i più influenti filosofi viventi. Nel suo ultimo libro The Most Good You Can Do, pubblicato lo scorso aprile, lo studioso australiano sostiene che nei paesi ricchi per “vivere eticamente” bisognerebbe dare in beneficenza idealmente un terzo di quello che si guadagna. Non sarà il 99 per cento di Zuckerberg, ma è pur sempre tanto, soprattutto se si tratta di donare per davvero.

*Un adattamento di questo testo è stato pubblicato su pagina99 del 12 dicembre 2015.

gli scienziati della domenica in cattedra con Obama*

pagina99-copertina-05-12-2015 Aiutano i ricercatori a scoprire nuove galassie o a “mappare” la superficie di Marte, raccolgono dati sull’ambiente e sulla qualità dell’aria, passano giornate intere negli habitat naturali più disparati per studiare volatili e poi donare le loro osservazioni agli ornitologi. In passato sono stati anche cruciali, fra le altre cose, nella soluzione della struttura di un enzima fondamentale nella diffusione del virus dell’AIDS. Sono i volontari della scienza: un esercito di milioni di persone sparse in tutto il mondo, quasi tutti non professionisti della ricerca, che poche settimane fa ha ricevuto un’insperata legittimazione addirittura dalla Casa Bianca. Un memorandum firmato in prima persona da John P. Holdren, consigliere scientifico del presidente americano, ha infatti chiarito come l’amministrazione Obama vuole imprimere una decisa accelerazione alla “scienza dei cittadini”, di cui riconosce, oltre all’importanza educativa e metodologica, il valore economico, stimato in miliardi di dollari all’anno.

La nota dell’Ufficio per la politica della scienza e della tecnologia statunitense potrebbe rappresentare un radicale cambiamento nei rapporti tra ricerca e società. “L’aspetto fondamentale del documento” spiega a pagina99 Mariachiara Tallacchini, già senior scientist presso il Joint Research Centre della Commissione Europea, “è che si tratta di un ordine esecutivo indirizzato alle organizzazioni governative e alle agenzie federali”. Non un generico invito dunque, “ma cose da fare concretamente entro tempi stabiliti”. Il memorandum individua soprattutto due azioni specifiche. Ogni agenzia deve prima di tutto individuare un coordinatore per i progetti di citizen science, successivamente deve catalogare le attività di ricerca aperte alla partecipazione di tutti i cittadini.

La discontinuità della nota di Holdren si apprezza anche nella definizione proposta di citizen science. Se genericamente con essa si intende l’attività di ricerca realizzata coinvolgendo dei volontari come “sensori” per raccogliere informazioni scientifiche o come “elaboratori” per contribuire a risolvere problemi di analisi dei dati, il memo americano assegna ai cittadini un ruolo molto più significativo. Essi, nella descrizione fornita dall’amministrazione Obama, come continua Tallacchini, “possono formulare domande di ricerca, condurre esperimenti scientifici, interpretare risultati, fare nuove scoperte, sviluppare tecnologie e applicazioni, risolvere problemi complessi, non solo raccogliere e analizzare dati. C’è il pieno riconoscimento metodologico e teoretico assegnato normalmente alla scienza svolta nei laboratori e nelle università”. La citizen science non è insomma una scienza di serie B, semmai “si caratterizza per una diversa finalità pratica e applicativa, per una marcata enfasi sul contributo alla risoluzione di questioni sociali. Senza trascurare il valore educativo a essa assegnato e soprattutto il suo impatto economico”.

I volontari della ricerca, tra contare uccelli, identificare galassie e individuare batteri forniscono un servizio il cui valore è stimato almeno attorno ai due miliardi e mezzo di dollari annui in natura. Questo dato, ottenuto grazie al lavoro di un gruppo di esperti americani di protezione ambientale, è uno dei punti di partenza del memorandum di Holdren. In un articolo pubblicato all’inizio dell’anno sulla rivista Biological Conservation, gli autori hanno per la prima volta quantificato la scala dei progetti di citizen science sulla biodiversità mediante l’analisi di più di 300 iniziative. Hanno calcolato che i volontari della scienza dedicano ogni anno tra le 21 alle 24 ore del loro tempo libero ad attività di ricerca. Considerando che sono coinvolte circa un milione e trecentomila persone, il contributo equivalente è pari ai già citati due miliardi e mezzo di dollari. Una stima peraltro al ribasso, dato che lo studio ha preso in considerazione solo progetti sulla biodiversità, on-line e in lingua inglese.

La ricerca documenta anche una crescita dei progetti di citizen science a ritmi inimmaginabili fino a qualche anno fa, una tendenza guidata dallo sviluppo di sensori a basso costo e altri strumenti di monitoraggio ormai facilmente utilizzabili e disponibili anche su uno smartphone.

L’amministrazione Obama dimostra di aver colto perfettamente le potenzialità legate all’accelerazione del fenomeno, meglio che nel vecchio continente. “L’Europa”, ci spiega ancora Mariachiara Tallacchini, filosofa del diritto all’Università Cattolica di Piacenza ed esperta dei rapporti tra scienza e democrazia, “è molto più timida. Pochi mesi fa anche la Commissione Europea ha pubblicato un libro bianco sulla citizen science. Diversamente dagli Stati Uniti è un documento molto attento alle sfumature, preoccupato di stabilire in che cosa la scienza dei cittadini sia diversa rispetto a quella tradizionale”. In altre parole, si fa più fatica a riconoscere la possibilità di produrre assieme, esperti e non-esperti, conoscenza valida. Così come non si comprende appieno che il coinvolgimento a monte dei cittadini nella ricerca scientifica, il cosiddetto upstream engagement, sia la strada maestra per ridurre i conflitti tra scienza e società. “L’idea di Holdren”, continua Tallacchini, “è che il cittadino contribuisca alla conoscenza in fase istruttoria. In questo modo, non solo riduci i costi, ma aumenti la fiducia nei confronti delle istituzioni, nonché l’efficienza e l’efficacia delle policy.” L’approccio preventivo alla citizen science permetterebbe di ridurre la crescente e ricorrente litigiosità sulle controversie scientifiche (cambiamenti climatici, fecondazione assistita, testamento biologico, nanotecnologie, nucleare, ecc.). Si tratta di conflitti ben noti anche nel nostro paese, non particolarmente all’avanguardia sulla citizen science, dove però esistono esperienze in cui le diverse dimensioni delineate dal memorandum della Casa Bianca sono ben rappresentate. Come ad esempio nel progetto di epidemiologia partecipata PM2.5 Firenze, patrocinato dalla cooperativa Epidemiologia e prevenzione Giulio A. Maccacaro, in cui da circa due anni un gruppo di cittadini del capoluogo toscano conduce un’attività di sorveglianza della qualità dell’aria. L’iniziativa propone un rapporto nuovo tra le istituzioni e i cittadini. Come recitano i suoi promotori, in pieno stile Holdren, la disponibilità di informazioni e la produzione stessa del sapere scientifico devono essere “patrimonio di più soggetti e non ristretti al solo ambito specialistico”.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 5 dicembre 2015.

da Blade Runner a Jurassic Park la fantascienza diventa scienza*

pagina99-seconda-2015 Se avete visto The Martian, l’ultimo film di Ridley Scott, vi sarete forse chiesti, ad esempio, quanto sia realistico che Mark Watney, il marziano impersonato da Matt Demon, possa esporsi alle radiazioni solari o ai raggi cosmici senza conseguenze. Sono domande forse un po’ da nerd ma che ricorrono spesso nei film di science fiction. L’obiettivo fondamentale è capire quanta scienza ci sia nella fantascienza. Si tratta di un approccio così assodato che quasi sempre si trascura la possibilità opposta: l’impatto della fantascienza sulla ricerca scientifica. A porre parziale rimedio alla questione ci ha pensato di recente una start-up britannica, specializzata in strumenti avanzati di filtraggio della letteratura scientifica, attraverso un’analisi di big data. Secondo Sparrho, così si chiama l’azienda fondata da due ex-ricercatori, i robot di Star Wars e i dinosauri geneticamente modificati di Jurassic Park non sono entrati solo nel nostro immaginario, ma anche nei laboratori.

L’idea di identificare film di fantascienza rilevanti nella ricerca scientifica è venuta al giornalista americano Jeremy Hsu. Come racconta egli stesso in un articolo pubblicato qualche settimana fa sulla versione online del magazine Discover, Hsu è riuscito a convincere il team di Sparrho a mettere mano a un database della British Library contenente paper scientifici dal 1890 al 2010.

Prima di quest’iniziativa erano già stati condotti indagini simili, ma di natura più qualitativa. Qualche mese fa, ad esempio, la rivista Popular Mechanics aveva realizzato un sondaggio informale che decretò 2001: Odissea nello spazio come il film di fantascienza più apprezzato dagli scienziati. Risale al 2004 un lavoro analogo promosso dal quotidiano britannico The Guardian, che invece sancì il primo posto per Blade Runner nella classifica di gradimento dei ricercatori.

Rispetto a questi tentativi, il salto di qualità dell’analisi di Sparrho è stato da una parte attingere all’archivio della biblioteca di ricerca più importante al mondo. Dall’altra, e più significativamente, aver fatto ricorso alle competenze dei cosiddetti data scientist, nuovi professionisti con abilità trasversali tra matematica, informatica e statistica. Un mestiere tipico dell’era digitale che Hal Varian, chief economist di Google, ha definito “il più sexy del XXI secolo”. E se non sappiamo se sia stato sexy, certamente non deve essere stato noioso per la scienziata dei dati Katja Bego cogliere la sfida di Hsu. Bego ha prima di tutto individuato i film di science fiction più popolari nella storia del cinema, pesando sia il riscontro del botteghino che il parere dei critici. Con una lista di 100 film a disposizione, ha poi usato un algoritmo per vivisezionare i dati dell’archivio della British Library per contare quante volte i titoli delle pellicole comparivano nei titoli o nei sommari degli articoli scientifici. Ha definito così un primo elenco, a partire dal quale ha ulteriormente filtrato manualmente i risultati ottenuti prendendo in considerazione solo le ricerche che esplicitamente discutevano i contenuti dei film e non quelle che li citavano senza approfondimenti.

Il processo si è concluso con la seguente graduatoria: al primo posto Star Wars, con 18 articoli influenzati in modo rilevante dalla saga cinematografica creata da George Lucas; al secondo Jurassic Park con 11 paper, al terzo 2001: Odissea nello spazio con 9 articoli. A seguire Blade Runner, Minority Report, Ritorno al futuro e altri grandi successi. Oltre a stilare la classifica, Katja Bego ha indagato quali discipline o quali specifici problemi di ricerca hanno preso ispirazione dai film individuati. È emerso così, ad esempio, che i paper per cui Star Wars è stato rilevante hanno trattato soprattutto di robot non-umanoidi o della psicologia di Anakin Skywalker, leggendario Cavaliere Jedi, al servizio della Repubblica Galattica prima di diventare Darth Vader (in Italia Darth Fener). I ricercatori si sono interessati ai destini del maestro del lato oscuro per comprendere se nel suo caso avesse senso una diagnosi di disturbo borderline. Jurassic Park è stato considerato per le questioni etiche legate a riportare in vita specie estinte e per la computer grafica utilizzata per animare branchiosauri, tirannosauri e velociraptor vari. 2001: Odissea nello spazio per le tematiche sui rapporti tra emozioni, libero arbitrio e intelligenza artificiale, mentre Minority Report ha stimolato i ricercatori interessati alle problematiche della sorveglianza globale e al futuro dell’urbanizzazione. Per quanto riguarda i temi di fantascienza trattati con maggiore frequenza si segnalano quello dei robot, termine comparso nei paper 89 volte e l’ intelligenza artificiale, con 29 riferimenti. I viaggi nel tempo solo due volte, con buona pace di Marty McFly e del mitico Doc di Ritorno al Futuro.

Sono risultati che dimostrano quanto la cultura popolare riesca a permeare ambiti apparentemente inaccessibili come le comunità degli scienziati. Ed è bene ricordare che il team di Sparrho ha contato solo i film esplicitamente citati nei titoli e negli abstract dei lavori scientifici. È facile ipotizzare che il numero sarebbe aumentato considerevolmente se fossero state prese in considerazione le ricerche ispirate alla fantascienza senza riferimenti nel testo a una specifica pellicola. In più, il database consultato da Bego si ferma al 2010. Vale a dire che dall’analisi sono stati esclusi blockbuster come Interstellar e il già citato The Martian, per non parlare di altre importanti uscite nel 2015 come Jurassic World, Star Wars: Il Risveglio della Forza o la serie Terminator, che di sicuro avrebbero arricchito di nuovi elementi l’indagine. Il campione della start-up britannica non includeva infine l’impatto della science fiction sulla ricerca militare o nel settore privato. Insomma, la linea di confine tra scienza, tecnologia e fantascienza è probabilmente molto più sfumata di quanto si pensi e di quanto si sia misurato finora.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 28 novembre 2015.

perché il destino di Uber è senza conducente*

pag99 21 nov Il successo di Uber sembra inarrestabile. L’azienda statunitense che fornisce tramite app un servizio di auto con conducenti privati, dopo un lancio in sordina a San Francisco poco più di cinque anni fa, è attualmente usata in più di 300 città di 63 paesi del mondo. Il fatturato stimato per la fine del 2015 è di 10 miliardi di dollari con ricavi per 2 miliardi. Numeri paragonabili a quelli di Facebook, per intenderci, ma ottenuti nella metà del tempo rispetto al social network fondato da Mark Zuckerberg nel 2004.
Risultati straordinari che pongono la questione di quali siano i limiti di crescita dell’app che sta facendo infuriare i tassisti di tutto il mondo. Contrariamente a quanto si potrebbe pensare leggendo le cronache, le minacce più significative per Uber non sono le proteste dei professionisti o leggi inadeguate. Per la società fondata da Travis Kalanick e Garett Camp, tipici smanettoni cresciuti nella Silicon Valley con la convinzione di migliorare il mondo (e il proprio conto in banca) con l’informatica, il rischio maggiore siamo noi, gli utenti stessi. Una difficoltà, che secondo gli analisti più attenti dei rapporti tra tecnologie emergenti e mobilità urbana, porta dritti a uno scenario non si sa bene quanto futuribile: quelle delle automobili che si guidano da sole.

Secondo quanto descritto recentemente dal magazine americano Nautilus, rivista di approfondimento sui rapporti tra scienza e società, il modello di business dell’azienda di Kalanick e Camp dovrà evolvere sempre di più verso le tecnologia di guida autonome per mantenere margini profittevoli come quelli attuali.
Le ragioni per il passaggio agli autisti-robot sono innanzitutto di ordine economico. Circa il 50 per cento del costo di una corsa di Uber se ne va per pagare i conducenti umani. Liberarsene potrebbe però essere un vantaggio non solo per le casse dell’azienda. Uber, a differenza di altri servizi di economia partecipativa basati sull’effetto network, presenta infatti un’asimmetria nell’amministrazione degli utenti: gli autisti sono più difficili da gestire dei passeggeri. E la complessità aumenterà ancora di più se l’app continuerà a crescere con i ritmi attuali. Le macchine che si guidano da sole sarebbero da questo punto di vista un modo per rendere scalabile Uber.
In più, sempre secondo quanto affermato da Nautilus, l’uso massiccio dell’applicazione sta portando molte persone a chiedersi se davvero valga la pena possedere un’automobile. Non è un mistero, d’altra parte, che le strategie di lungo termine di Uber mirino a far calare drasticamente il numero di autovetture di proprietà. Una posizione che produrrebbe non solo un radicale cambiamento di abitudini, ma che avvalora l’ipotesi di voler ridurre in generale i conducenti in circolazione. Sembra che Uber, in altre parole, non tolga solo il lavoro ai tassisti ma voglia progressivamente eliminare tout court la categoria degli autisti.

In ogni caso, stando a quanto riportato dal Guardian qualche giorno fa, Travis Kalanick è convinto che sarà la sua “ottimistica leadership” a facilitare la transizione verso le auto che si guidano da sole, una tecnologia dallo “sconsiderato impatto positivo” secondo il CEO di Uber. Sono parole che risuonano con quelle di Elon Musk, visionario ingegnere, imprenditore e inventore di origine sudafricana tra i fondatori di PayPal. Musk è diventato famoso a livello globale perché vuole portare l’uomo su Marte con la sua società di esplorazione spaziale SpaceX. Pochi anni fa è però entrato anche alla grande nel mercato delle auto elettriche con Tesla Motor, di cui è amministratore delegato. In un intervento riportato recentemente dalla rivista di business globale Fortune, Musk si dice convinto che nell’arco di pochi anni ci sembrerà “abbastanza strano vedere circolare automobili che non hanno una piena autonomia”. Va da sé che Tesla, nelle affermazioni di Musk, sarà la prima a raggiungere l’obiettivo della guida totalmente autonoma.

È chiaro che sulle macchine che si guidano da sole si sta giocando un’enorme partita economica che non a caso, oltre a Tesla, vede coinvolti giganti come Apple e Google, con un quota di poco inferiore al 7 per cento in Uber. Al di là degli altisonanti e interessati proclami dei CEO, vale la pena chiedersi quale sia il reale stato dell’arte delle auto a guida autonoma. Alberto Broggi, professore all’Università di Parma e pioniere dell’auto senza pilota, sentito per telefono da Pagina99, afferma che “quello che manca adesso ai veicoli automatici è la capacità di gestire tutte le situazioni”. Broggi è il fondatore di VisLab, spin off universitario che ha sviluppato progetti unici al mondo per la realizzazione di veicoli automatici molto prima di Google e che pochi mesi fa è stato acquistato per 30 milioni di dollari dalla californiana Ambarella. Sulla base della sua esperienza Broggi ritiene che “la parte più difficile è legata a problemi di tipo etico e di percezione delle diverse situazioni, a come il veicolo si deve comportare in contesti differenti. Sono questioni difficili che richiederanno non meno di 15-20 anni per essere risolte.”

Problematiche che si aggiungono al fatto che la legge non consente in nessuna parte del mondo la guida totalmente autonoma perché non esiste in questo momento una normativa in grado di disciplinare l’attribuzione di responsabilità. Il passaggio ai robot richiede poi un notevole sviluppo di infrastrutture in grado di comunicare con i veicoli e la soluzione di una serie di questioni tecnologiche in senso stretto. Sono tutti aspetti che Uber e gli altri colossi aziendali impegnati nella partita saranno obbligati a considerare se vogliono disegnare il futuro delle macchine autonome.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 21 novembre 2015.

Insegnare giornalismo: come andare oltre

“Se il futuro del giornalismo è digital-first anche la formazione deve muoversi nella stessa direzione”

Screen_Shot_2015-02-19_at_9.16.37_AM La strategia del digital-first deve valere anche per le scuole di giornalismo se vogliono continuare ad avere un senso. È forse la raccomandazione più rilevante del report Above & Beyond. Looking for the Future of Journalism Education, pubblicato qualche settimana fa dalla Knight Foundation. L’autrice Dianne Lynch, attualmente presidente dello Stephens College, con un’esperienza di formatrice più che ventennale alle spalle, ha trascorso dieci mesi con professionisti, studenti, accademici sparsi sull’intero territorio americano per discutere del futuro dell’insegnamento nel giornalismo.

Il risultato è un report che, pur rispecchiando il panorama statunitense, offre spunti rilevanti anche per chi si occupa di formare professionisti dell’informazione in italia e in Europa. Lynch ha posto l’orizzonte temporale del rinnovamento delle scuole di giornalismo a dieci anni. Da qui al 2025 bisognerebbe muoversi secondo tre direttrici fondamentali:

1. Creare scuole di giornalismo digital-first

Non ha più senso strutturare programmi in cui, a un certo punto, il web viene aggiunto a quello che si insegnava in passato. I corsi su Internet e dintorni non possono arrivare dopo un presunto percorso lineare che va dalla carta ai social media. Una strategia formativa di questo tipo rispecchia una fuorviante prospettiva evolutiva perché l’ambiente naturale del professionista dell’informazione è ormai l’ecosistema digitale. Questo implica che, da una parte, i corsi tradizionali (reporting, newswriting, deontologia, ecc.) si devono modellare attorno a esso, e non il viceversa. Dall’altra, le scuole devono essere in grado di trasferire le competenze necessarie agli allievi perché diventino nodi attivi della rete. E se non si dispone dei docenti adatti è meglio prenderne consapevolezza e agire di conseguenza, invece che provare a insegnare ciò che non si conosce.

2. Integrare insegnamenti accademici con corsi professionalizzanti

Qui l’autrice tocca il punto delicato dei limiti intrensici dell’accademia. Le rigidità universitarie non si addicono all’innovazione, e non solo nell’insegnamento giornalistico. Eppure l’ambiente accademico offre ancora dei vantaggi difficili da trovare altrove. Bisogna allora produrre la migliore sintesi possibile tra l’archittettura formativa tradizionale, solida ma rigida, e la dinamicità dell’ecosistema mediale digitale, vivace ma lontano dall’equilibrio. Dianne Lynch propone un sistema di revisione e monitoraggio continuo dei corsi attraverso organi di governance aperti a professionisti esterni, più altre misure replicate ad esempio dalla formazione specialistica in medicina.

3. Richiedere sistemi di accreditamento in grado di valutare gli esiti professionali più che la solidità istituzionale

È sempre più vitale che le scuole di giornalismo si facciano valutare. Un obiettivo ambizioso se si considera che negli Stati Uniti la percentuale di programmi formativi di giornalismo accreditati non arriva al 25 per cento. L’universo digitale richiede inoltre un ulteriore passaggio. Gli standard di accreditamento attuali si focalizzano infatti in gran parte sui processi interni e sulle strutture accademiche, molto meno sugli esiti professionali e sulla capacità di sapersi adattare ai cambiamenti. Anche in questo caso, la proposta dell’autrice è permettere l’ingresso a professionisti esterni esperti di giornalismo digitale nei comitati di valutazione.

Il report di Dianne Lynch non fornisce indicazioni su specifici corsi o curricula da inserire nei programmi didattici. L’autrice sa bene, per esperienza personale, che qualunque proposta di cambiamento deve fare i conti con risorse limitate e resistenze di varia natura. L’aspetto più significativo del suo lavoro è piuttosto quello di offrire un modello possibile di strutture innovative nella formazione giornalistica, adattabili alle energie, alle capacità e alle visioni delle singole scuole. Per questo può essere utile anche per noi.

Recensione – Geeks Bearing Gifts

“Ci sono molte possibilità per il giornalismo nei prossimi anni, a patto di smettere di credere che il giornalismo sia nel business dei mass-media e dei contenuti”

GeeksBearingGifts_CVR_101814_Mech_Rev.indd
Una notizia rassicurante per chi è interessato al futuro del giornalismo: ci sono molti futuri possibili. È il presupposto da cui muove l’ultimo libro dell’esperto di media statunitense Jeff Jarvis, dal titolo Geeks Bearing Gifts: Imagining New Futures for News, pubblicato da poco negli Stati Uniti per la CUNY University Press.

Un primo merito del volume di Jarvis, professore associato e direttore del Tow-Knight Center for Entrepreneurial Journalism alla City University di New York (CUNY), è di non avventurarsi in previsioni sempre meno attendibili su, ad esempio, quando finirà la carta o sulle meravigliose sorti e progressive dell’ultima app che salverà il giornalismo. Il suo è invece un forte invito alla sperimentazione e all’innovazione. Il futuro delle notizie, scrive l’analista dei media tra le voci più stimate del panorama americano, va costruito insieme ai diversi protagonisti dell’attuale ecosistema mediale, abilitati dall’universo digitale a segnare in modo sempre più significativo, come nel caso di Google e Facebook, la ristrutturazione del sistema dell’informazione.

Il campo giornalistico in cui i professionisti dell’informazione dovranno provare a ridefinire il loro ruolo e le loro pratiche è ormai popolato dai “regali tecnologici dei geek”. Sono doni che non si possono rifiutare e che permettono nuove relazioni, nuove forme e nuovi modelli di business per le notizie.
Jarvis si muove su questi tre assi, che corrispondono alle parti in cui è suddiviso il volume, per presentare la sua visione dei futuri possibili per l’informazione. La sua prospettiva si coglie pienamente a partire dall’ampia definizione che dà del giornalismo, presentato come un’attività finalizzata in primo luogo ad “aiutare una comunità a organizzare meglio la propria conoscenza in modo tale che possa organizzare meglio se stessa”. Nascosti dietro questo punto di vista ci sono i riferimenti teorici su cui si basa la posizione di Jarvis. In alcuni casi si tratta di visioni dirompenti rispetto al passato.

Il richiamo alla comunità sottolinea ad esempio il fatto che il giornalismo non è più nel business dei mass-media. Internet non ha ucciso la carta, la radio o un altro medium: “quello che ha ucciso”, scrive Jarvis, “è l’idea di massa”, una visione su cui le imprese giornalistiche hanno costruito un sistema monopolistico di produzione, distribuzione e consumo delle notizie.

Al posto di masse indifferenziate, la rete ha fatto emergere cittadini e comunità che vanno servite dai giornalisti. Ma soddisfare i bisogni specifici delle persone significa che le competenze maggiori bisogna averle nel campo delle relazioni, più che nella produzione di testi.

Altro peccato mortale: se il giornalismo deve rispondere alle esigenze delle comunità non solo rinuncia a dettare l’agenda, ma il suo business principale non è più quello dei contenuti. O meglio, i contenuti sono solo una delle possibilità di portare valore aggiunto al flusso continuo di informazioni dell’ecosistema. Il ruolo sociale del giornalista può però essere molto più variegato: può operare ad esempio come fornitore di servizi, organizzatore di eventi, educatore, incubatore di iniziative. Tutte funzioni che evidentemente incidono sulle nuove forme possibili per le notizie.

Al posto dell’articolo, unità atomica della pratica giornalistica, la notizia può prendere le sembianze di dati, di servizi per connettere le persone, di piattaforme per favorire la condivisione, la conversazione, la selezione, la cura e la qualità dell’informazione. Un’esplosione di possibilità che intacca un altro totem della tradizione: la convinzione che la principale funzione giornalistica sia quella di raccontare storie.

Se si è disposti ad abbandonare questi presupposti, molto radicati, allora secondo Jarvis si aprono scenari inediti, anche per la sostenibilità economica del giornalismo. Nell’ultima parte del libro lo studioso americano offre numerosi esempi in questo senso derivanti soprattutto dalla sua esperienza di ideatore e direttore, alla CUNY, del primo programma al mondo di giornalismo imprenditoriale. In questo contesto gli studenti si confrontano con problemi di natura imprenditoriale e sperimentano progetti concreti.

Le proposte di Jarvis a prima vista sembrano dirigersi decisamente nella direzione di una discontinuità radicale con il passato. In parte è così, anche se a uno sguardo più attento, il volume dell’analista americano si può leggere come un appello al recupero delle funzioni sociali profonde dell’informazione professionale. La sua definizione di giornalismo come principio organizzatore delle comunità risuona infatti efficacemente con quella di alcuni tra gli studiosi più profondi del sistema dell’informazione che, ancora prima di Internet, sottolineavano come il compito principale della funzione giornalistica fosse quello di “attribuire un senso, una direzione, un percorso all’esigenza di condivisione degli individui, al loro bisogno di entrare in relazione, di costruire appartenenze” (si veda C. Sorrentino, E. Bianda, Studiare giornalismo, Carocci, 2013, p. 26).

Se quindi è vero che gli operatori dell’informazione hanno davanti a sé diversi futuri possibili, è anche vero che questi andranno costruiti sui fondamentali del giornalismo, preservando i tratti identitari profondi della professione. Da questo punto di vista il libro di Jarvis è un ottimo esempio di come raggiungere nuovi equilibri e sperimentare innovazioni per recuperare, selezionare e valorizzare il meglio del giornalismo, liberandosi allo stesso tempo delle scorie su cui ancora troppo tempo si spende quando si discute del suo futuro.

Perché c’è chi nega il climate change*

25ott2014 Durante il Climate Summit 2014, il presidente americano Obama ha definito i cambiamenti climatici la “minaccia numero uno del secolo”. Un volume uscito da poco in Italia scritto dal saggista ed esperto di questioni ambientali Giancarlo Sturloni per la casa editrice Piano B, con l’ inequivocabile titolo Il pianeta tossico ci richiama, se possibile, a un’urgenza ancora più drastica di quella di Obama: se non facciamo qualcosa, e subito, siamo finiti. Eppure la risposta di governi e opinione pubblica internazionale rimane un misto di indifferenza e scetticismo. Come è possibile non agire di fronte ai pericoli del riscaldamento globale? Come è possibile riuscire a ignorare la crescente evidenza scientifica sulle sue cause e sulle sue conseguenze?

L’attivista ambientale George Marshall, nel suo ultimo libro Don’t Even Think About it, pubblicato di recente negli Stati Uniti per i tipi di Bloomsbury, introduce un punto di vista originale e rilevante anche per la comprensione di altre forme di negazionismo: i cambiamenti climatici non sono una battaglia della scienza contro l’ignoranza, ma una “sfida profonda al nostro modo di dare senso al mondo”. Secondo questa prospettiva, elaborata grazie a una lunga serie di interviste a scienziati e sociologi ma anche a membri del movimento conservatore Tea Party, l’evoluzione ci ha reso poco adatti alla sfida dei mutamenti del clima. I tratti psicologici e sociali ereditati in milioni di anni per interpretare le minacce dell’ambiente, e per motivarci ad agire contro di esse, premiano ad esempio le informazioni che confermano le nostre convinzioni mentre sminuiscono quelle che le contraddicono, si focalizzano sul presente, privilegiano la conformità sociale, ci spingono a procrastinare. Si tratta di caratteristiche non molto efficaci per fronteggiare un fenomeno “complesso, poco familiare, lento, invisibile e intergenerazionale”, come quello dei cambiamenti climatici. Insomma, come specie non siamo fatti per contrastare questi pericoli.

La tesi di Marshall, co-fondatore di Climate Outreach Information Network, organizzazione no-profit impegnata nella sostenibilità ambientale, si inserisce all’interno dell’intenso dibattito accademico e politico sul negazionismo, a cui non è associato certo solo il global warming. Come è noto, secondo alcuni movimenti e correnti di pensiero non c’è correlazione tra Hiv e Aids, l’Olocausto non è mai accaduto, i vaccini causano l’autismo e la teoria scientifica dell’evoluzione non ha prove sufficienti. Come ha sottolineato il fondatore della Skeptics Society Micheal Shermer, in un articolo pubblicato su un numero speciale di qualche tempo fa della rivista New Scientist, è importante comprendere che ad animare queste persone non c’è un sano dubbio.
Diversamente dagli scettici i negazionisti “continuano semplicemente a negare” anche di fronte a prove schiaccianti.

Una delle interpretazioni tradizionali di questa ostinazione è che la colpa è dell’ignoranza. Di conseguenza, se solo i non-esperti conoscessero la scienza non potrebbero fare a meno di apprezzarla e sostenerla. Numerose ricerche hanno smentito quest’approccio mostrando che il rifiuto dei risultati della ricerca è solo debolmente correlato all’alfabetizzazione scientifica. Recentemente Dan Kahan, professore all’Università di Yale ed esperto di percezione del rischio, in una ricerca pubblicata su Nature ha mostrato che ad esempio le opinioni degli americani sul riscaldamento globale sono principalmente influenzate dall’appartenenza politica. I dati raccolti da Kahan mostrano inoltre che i sostenitori del movimento Tea Party hanno un livello di alfabetizzazione scientifica leggermente superiore alla media americana.

Un’altra chiave di lettura per spiegare il negazionismo è la mancanza di fiducia nei confronti della scienza. Anche in questo caso le inchieste sociologiche rivelano un quadro più complesso. Un’indagine del Pew Research Center nel 2009 mostrava che più dell’ottanta per cento della popolazione statunitense considerava la scienza una forza positiva della società. Secondo il report The 2014 Public Attitudes to Science, pubblicato qualche settimana fa dall’istituto demoscopico Ipsos Mori, il 90 per cento dei britannici ritiene che scienziati e ingegneri forniscano un contributo prezioso alla collettività. Sono risultati in linea con la media europea, inclusa l’Italia.

Come si conciliano allora le grandi aspettative nei confronti di scienza e tecnologia con la resistenza anche tenace ad alcuni suoi risultati nel caso di vaccini, evoluzione e global warming? Il punto è che un conto è fidarsi della scienza in generale, un altro è prevedere le nostre reazioni individuali quando ci confrontiamo concretamente con i risultati della ricerca nei contesti più diversi: dai processi decisionali per la costruzione di un inceneritore a pochi passi dalle nostre case, alle scelte sulle terapie per fronteggiare il cancro o all’educazione che vogliamo dare ai nostri figli. Nell’articolo What Scientists Really Do, pubblicato qualche tempo fa sul New York Review of Books, il fisico e astronomo Priyamavda Natarajan spiega che la contraddizione nasce dall’incapacità dei non-esperti di fare i conti con la provvisorietà della ricerca. Natarajan suggerisce di leggere il libro Curiosity: How Science Became Interested in Everything, scritto da nel 2013 da Philip Ball, ex-direttore di Nature, per comprendere come questa provvisorietà sia in realtà un punto di forza della scienza, perché permette di raffinare le conoscenze sul mondo naturale in un processo senza fine di confronto con la realtà.

Sta di fatto che il negazionismo riesce a prosperare proprio nelle pieghe dell’incertezza, una parola che per gli scienziati ha un significato diverso dall’accezione comune, ma che proprio per la sua ambiguità permette alle tesi cospirazioniste di fornire spiegazioni alternative che danno l’illusione di riappropriarsi di un controllo perduto, anche se queste spiegazioni non sono supportate dai fatti.

Per contrastare complottismo e scetticismo l’approccio paternalistico è poco efficace, anzi si rivela spesso arrogante e alienante. Alla fine del suo libro sul cambiamento climatico Marshall suggerisce che bisognerebbe prendere le chiese evangeliche come modello per imparare a comunicare efficacemente sulle conseguenze del riscaldamento globale. Il senso della sua provocazione è che bisogna considerare il problema in un contesto più ampio, trattarlo come un processo che ci riguarda per tutta la vita, mettendo in conto periodi di dubbio e incertezza, ma anche di illuminazione personale. Per questo bisogna saper ascoltare, sostenere e mettersi alla pari di tutti gli interlocutori, come sanno fare da millenni le religioni.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 25 ottobre 2014.

Se l’atomo fa bene all’ambiente*

18_10_2014 L’utilizzo di bombe atomiche per riparare a disastri ecologici può oggi apparire un ossimoro. Eppure, per molto tempo Stati Uniti e Unione Sovietica hanno ritenuto l’opzione nucleare un’efficace strumento per la salvaguardia dell’ambiente. Ancora nel 2010, quando un incidente sulla piattaforma Deepwater Horizon causò nelle acque del Golfo del Messico il più grave sversamento di petrolio nella storia americana, esperti riconosciuti di questioni energetiche statunitensi considerarono seriamente la possibilità di una detonazione atomica controllata richiamandosi a esperimenti simili condotti durante la guerra fredda. Come ricostruito in un’indagine pubblicata la scorsa settimana sul magazine Nautilus, fu solo la forte avversione dell’opinione pubblica nei confronti del nucleare, definitasi a partire dagli anni settanta, a far desistere i governi delle due maggiori potenze mondiali dal proseguire alcuni dei programmi più originali d’uso delle esplosioni atomiche a scopi pacifici.

L’idea, quattro anni fa, di sigillare il pozzo trivellato dalla Deepwater Horizon con una bomba nucleare sotterranea era stata accolta con favore da opinionisti, banchieri e ingegneri come Micheal Webber, vice-direttore dell’Istituto di Energia all’Università del Texas. Webber, in un intervento sul New York Times, dichiarò che la possibilità di generare sotto il fondale marino delle temperature superiori a quelle della superficie solare era “sorprendentemente praticabile e appropriata”. Il calore sprigionato dall’ordigno atomico sarebbe stato infatti in grado di sciogliere decine di migliaia di metri quadri di roccia porosa per trasformarla in un enorme tappo vetroso in grado di arrestare il flusso di petrolio. Il progetto fu alla fine abbandonato più per ragioni politiche che tecniche.

L’entusiasmo dell’ingegnere americano e di altri fan della bomba sottomarina si basava su un resoconto specialistico del 1998 che svelava un aspetto poco noto dell’utilizzo dell’energia nucleare durante la guerra fredda. L’autore, Milo Nordyke, ex-direttore del Lawrence Livermore National Laboratory, centro californiano specializzato in ricerche applicate alla sicurezza nazionale, in un rapporto intitolato The Soviet Program for Paceful Uses of Nuclear Explosions, descriveva quattro esplosioni realizzate dai sovietici tra il 1966 e il 1981 per spegnere incendi in pozzi di gas naturale fuori controllo. Si trattava solo di una parte di un ampio programma per l’uso di bombe atomiche a scopi pacifici. Gli Stati Uniti avevano progetti simili, seppure su scala minore.
Gli esperimenti sovietici illustrati dall’ex-responsabile dell’istituto californiano avevano funzionato in tre casi su quattro. Nel 1966, grazie all’utilizzo di ordigni nucleari, i tecnici dell’Urss avevano bloccato un flusso di gas di un pozzo in Uzbekistan da cui, per tre anni consecutivi, erano fuoriusciti 12 milioni di metri cubi di sostanze inquinanti al giorno. Secondo quanto riportato da Nordyke, uno dei quattro interventi per domare le fiamme non andò a buon fine solo perché non si possedevano dati geologici a sufficienza sul punto esatto della trivellazione.

Può forse oggi sembrare strano che esperti energetici e ingegneri abbiano considerato le bombe nucleari una possibilità tra le altre di intervenire sull’ambiente, ma non lo era affatto durante il secondo dopoguerra da entrambe le parti della cortina di ferro. L’energia scaturita dalla scissione dell’atomo e i suoi utilizzi avveniristici per migliorare la vita delle persone suscitavano entusiasmi nell’opinione pubblica e tra i governanti.
A partire dalla fine degli anni cinquanta le proposte per un uso creativo delle bombe atomiche a scopi pacifici non a caso si moltiplicarono. Sempre secondo quanto descritto su Nautilus, l’Unione Sovietica diede avvio in quegli anni a un programma che prevedeva 122 esplosioni nucleari con le finalità più varie. Bombe atomiche furono usate fino a poco prima della caduta del muro di Berlino non solo per sigillare pozzi, ma anche per realizzare laghi, canali, dighe, per trovare risorse geologiche e creare nuovi elementi. Tra gli usi previsti più sorprendenti vale la pena menzionare la creazione di vaste cavità sotterranee, isolate dalla biosfera e da falde acquifere, in cui disporre rifiuti tossici. L’idea è stata ripresa in epoca post-sovietica da alcuni scienziati russi come proposta per liberarsi dalle scorie radioattive. Potrà sembrare paradossale, ma lo scoppio di una bomba atomica potrebbe essere uno dei metodi più efficaci in circolazione per smaltire gli scarti di combustibile della fissione nucleare. L’esplosione sotto terra fonderebbe infatti assieme rifiuti e roccia in un blocco stabile, la cui radioattività si dissiperebbe in sicurezza nell’arco di millenni.

Dopo la guerra fredda le considerazioni di natura tecnica vennero superate dall’ampio consenso fra le potenze nucleari a rinunciare a qualunque uso delle bombe atomiche, anche per finalità pacifiche. L’ultima esplosione sul territorio americano risale al 1992, nel deserto del Nevada, dopo più di 1000 test nucleari da parte degli Stati Uniti in più di quarant’anni.
Tali decisioni furono anche il risultato di un mutamento del clima d’opinione nei confronti del nucleare, la cui immagine pubblica tra gli anni settanta e gli anni ottanta del secolo scorso si stabilizzò come negativa dopo ampi periodi di generale consenso. Come dimostra il fisico e storico americano Spencer Weart, autore di opere approfondite sulla storia della percezione del rischio nucleare, ad esempio durante il secondo dopoguerra e per tutti gli anni cinquanta gli atomi godevano di ottima fama. Nel libro The Rise of Nuclear Fear, pubblicato nel 2012, Weart descrive come successivamente e gradualmente le tensioni della guerra fredda trasformarono l’immaginario diffuso sulla radioattività, che da terapia in grado di salvare milioni di persone venne sempre di più percepita come un’insidiosa contaminazione letale su scala planetaria. Incidenti come quelli della centrale americana Three Mile Island e il disastro di Chernobyl nel 1986 contribuirono a mutare definitivamente l’immagine dell’energia nucleare agli occhi dell’opinione pubblica internazionale: non più miracolo futuristico ma minaccia di catastrofe globale.
Qualunque uso delle bombe nucleari divenne politicamente insostenibile. Si comprende così facilmente perché Stati Uniti e Unione Sovietica dovettero rinunciare ai loro programmi di utilizzo pacifico di esplosioni atomiche, inclusi quelli di salvaguardia dell’ambiente.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 18 ottobre 2014.