Cliniche per jihadisti*

pagina99-copertina-07-04-2016 Mohammad Sidique Khan, il leader dei quattro kamikaze suicidi che il 7 luglio 2005 si fecero esplodere a Londra in quello che è ricordato come l’”11 settembre del Regno Unito”, decise di rimandare di un giorno l’attentato per accompagnare in ospedale la moglie incinta. È un particolare forse non noto a tutti che stride con la rappresentazione ancora troppo diffusa dei terroristi come psicopatici o sadici assassini e che fa sorgere una domanda ovvia: cos’è che spinge uomini (e donne) apparentemente ordinari a commettere atti così atroci?

Il magazine Scientific American Mind dedica un numero speciale in uscita a maggio per rispondere a interrogativi simili facendo riferimento alle ricerche scientifiche più recenti in ambito psicologico e antropologico. In un report dal titolo The Psychology of Terrorism, la rivista statunitense illustra i risultati delle indagini più accreditate a disposizione per comprendere i meccanismi che portano al fanatismo o come mai negli ultimi cinque anni i gruppi estremisti in Siria e Iraq sono riusciti a reclutare circa 30mila foreign fighters.
Un primo fatto assodato è che non ci troviamo di fronte a dei mostri. Come sostengono nel loro contributo gli psicologi sociali S. Alexander Haslam e Stephen Reicher, da un punto di vista psicologico la maggior parte degli aderenti a gruppi radicali non sono molto diversi dai volontari americani che parteciparono circa quarant’anni fa allo studio, diventato poi famoso, noto come l’esperimento della prigione di Standford.

Si trattò di una controversa ricerca svolta nel 1971 nei sotterranei dell’università californiana per cercare di comprendere cosa succede a della “brava gente” messa in un posto “cattivo”. L’indagine, condotta dallo studioso Philip Zimbardo, prevedeva l’assegnazione dei ruoli di guardie e prigionieri all’interno di un carcere simulato. I risultati furono da subito drammatici. Dopo pochi giorni iniziarono violenze, soprusi, umiliazioni. Studenti “perbene”, psicologicamente sani, si trasformarono rapidamente in aguzzini estremamente crudeli. Seppur molto criticata sul piano metodologico e soprattutto su quello etico, la ricerca segnò un passaggio importante nello studio di come certe situazioni sociali e specifiche dinamiche di gruppo incidano sulla genesi di comportamenti violenti.

Rispetto a questi lavori, le prospettive di ricerca attuali hanno focalizzato lo sguardo sui processi di radicalizzazione nei contesti di vita reali e non in situazioni simulate.
L’antropologo Scott Atran ha dedicato buona parte della sua vita professionale a intervistare in profondità terroristi, jihadisti ed estremisti di mezzo mondo per giungere alla conclusione che le radici della violenza in queste persone non vadano trovate in qualche intrinseco difetto della personalità, ma nel senso di appartenenza a una comunità che si ritiene umiliata e marginalizzata. Come descritto nel volume Talking to the Enemy, scritto da Atran nel 2010, i terroristi di solito non sono né folli, né poveri, né tantomeno ignoranti. La chiave di interpretazione più corretta, sostiene lo studioso, è piuttosto considerarli una “banda di fratelli” idealisti, uniti da forti legami di amicizia e da una causa ritenuta nobile e giusta, disposti al sacrifico estremo per contribuire all’affermazione di un futuro finalmente radioso, almeno dal loro punto di vista.

A dimostrazione di quanto l’azione terroristica sia guidata da dinamiche di gruppo fortemente influenzate dall’ “identità sociale” e iscritte in un disegno palingenetico, l’anno scorso Shahira Fahmy, studiosa di giornalismo araba-americana dell’Università dell’Arizona, ha svolto un’analisi sistematica della propaganda dell’ISIS dimostrando che, al contrario di quello che appare nelle televisioni o nei giornali occidentali, la violenza è quasi del tutto assente nella produzione mediatica dei leader del terrore. La loro comunicazione è popolata invece da visioni di un “idealistico califfato” dove finalmente tutti i musulmani potranno vivere armoniosamente. Come descritto nella ricerca di Fahmy, le più significative immagini comparse nelle pubblicazioni dello Stato Islamico tra il 2014 e il 2015 evocavano il senso di appagamento derivante dalla vita nel califfato. Una, per esempio, tratta dalla rivista Dabiq, un magazine tradotto in varie lingue, incorporava il testo “Al-walaa wa-l-baraa” (lealtà e diniego), un riferimento al concetto islamico di amicizia messo a confronto con il razzismo in America. Vieni a vivere con noi, era il senso del messaggio, è troverai l’utopia in terra.

Più che consolazione e supporto, sono quindi le narrazioni a giocare un ruolo cruciale nelle attuali strategie dei capi delle organizzazioni terroristiche. Il riconoscimento della loro autorità passa per la formulazione di promesse di una società migliore necessarie a costruire un’identità condivisa e a fornire cornici d’interpretazione della realtà per i reclutati, che per altri versi non rispondono a disegni orchestrati e rigidamente pianificati dall’alto.

Nel suo libro del 2004 Understanding Terror Networks, lo psichiatra forense Marc Sageman sottolineava come “i mujahedin fossero killer entusiasti e non robot che agivano in risposta a pressioni sociali”. Per questo, più che come reazione a rigide catene di comando, è più frequente che i terroristi agiscano trovando modalità uniche, individuali e innovative per perseguire le proprie finalità, secondo quella che alcuni studiosi hanno definito un’ “anarchia organizzata”.
La lezione più ampia delle ultime acquisizioni della psicologia del terrorismo è che il processo di radicalizzazione non avviene in un vacuum, ma è determinato da contrasti tra differenti gruppi sociali che le voci più radicali cercano in tutti i modi di sfruttare per rendere inconciliabili. In questo senso gli estremisti islamici e gli islamofobici sono due facce della stessa medaglia, indispensabili gli uni agli altri per la propria sopravvivenza dato che, come dimostrato dai già citati Reicher, Haslam e altri colleghi, si tende con più probabilità a sostenere e seguire un leader bellicoso, rispetto a uno moderato, se il gruppo sociale in competizione con il nostro sembra manifestare comportamenti aggressivi. È il cosiddetto ciclo della co-radicalizzazione, che dimostra quanto il terrorismo abbia a che fare soprattutto con la polarizzazione delle posizioni e con la conseguente riduzione della “zona grigia” di una coesistenza costruttiva. Le possibili soluzioni per sfuggirvi, sintetizzano gli autori, dovranno riguardare per questo motivo “ tanto ‘noi’ quanto ‘loro’ “ e considerare la capacità di elaborare contro-narrazioni efficaci.

*Il testo di quest’articolo è stato pubblicato sul periodico pagina99 il 19 marzo 2016.

Tag:,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

misurami se sono felice*

misurami-se-sono-felice Il segreto della felicità? Per secoli i tentativi di risposta a quella che è probabilmente la più radicata fissazione della nostra specie, li abbiamo trovati in Platone, Aristotele, Pascal, Spinoza e poi Rousseau, Marx, Nietzsche. Non c’è filosofo antico o moderno degno di questo nome che non si sia cimentato con il sacro graal dell’esistenza umana. Un dominio, visti i nomi in campo, apparentemente inespugnabile. Se non fosse che negli ultimi anni, i meccanismi della felicità sembrano essere diventati una delle ossessioni di diversi ambiti della ricerca accademica. È dal 2007 che ad esempio opera la Global Happiness organization, ente internazionale no-profit nato con lo scopo di aumentare la felicità utilizzando il metodo scientifico. Neuroscienziati, economisti, sociologi, psicologi e linguisti sono persuasi di aver accumulato dati in quantità e con affidabilità tali da poter risolvere diatribe che per centinaia di anni hanno diviso la cultura filosofica.

Se da una parte trovano così finalmente posto prospettive d’indagini utili a ricomporre in un quadro necessariamente unitario il tema della felicità, dall’altra rimangono aperte contraddizioni sui risultati e interrogativi sul senso più profondo di quello che in controluce può essere letto come un processo di sconfinamento culturale.

Sta di fatto che ogni anno intere schiere ad esempio di sociologi producono indici e misure per classificare le nazioni in base al loro benessere. Uno dei documenti più noti è il Rapporto sulla felicità del mondo, realizzato a partire dal 2012 dall’Onu, in cui vengono sintetizzati dati reali, come il reddito pro capite e l’aspettativa di vita, con percezioni di sé raccolte attraverso questionari.

Uno degli scopi di queste indagini è identificare quali sono gli ingredienti che permettono a una società di essere felice. Molti paesi continuano a usare esclusivamente il Pil per tracciare il progresso di una nazione, ma come già affermava Robert Kennedy nel 1968, il “Pil misura tutto, in breve, eccetto ciò che rende la vita veramente degna di essere vissuta”. Le inchieste sociologiche sono un invito ai politici ad adottare misure di sviluppo economico ispirate a un concetto più ampio di benessere dato che se magari in termini di Pil il disboscamento di una foresta pluviale e lo sviluppo di un nuovo farmaco contro il cancro possono produrre lo stesso effetto, l’impatto sul nostro stare bene collettivo è ovviamente molto diverso.

Nonostante ciò, queste ricerche continuano a indicare la ricchezza come una delle componenti più importanti della felicità. I paesi più ricchi tendono ad avere standard di vita più alti, sistemi educativi e sanitari più efficienti, ambienti più puliti, maggiore protezione sociale.

Sono dunque davvero i soldi a fare la felicità? La questione è antica quanto l’uomo e apparentemente irrisolvibile. In realtà, la ricerca economica sembra molto più attrezzata che in passato a fornire una risposta basata sui numeri e non sulle percezioni soggettive. Questo è almeno quanto sostiene 80,000 Hours, un’organizzazione inglese che offre servizi di consulenza per il lavoro con un positivo impatto sociale. In un articolo pubblicato a inizio marzo sulla propria rivista, gli analisti di 80,000 Hours hanno preso in esame le ricerche accademiche più solide degli ultimi anni condotte su centinaia di migliaia di persone in più di 150 paesi. La conclusione del loro lavoro è che la verità sembra stare nel mezzo: i soldi rendono più felici, ma solo un poco. Uno dei risultati più interessanti è che tanto più diventi ricco, tanto più hai bisogno di denaro per veder accrescere ulteriormente la tua soddisfazione. Per dirla con le parole di Bill Gates, “posso capire che uno voglia arrivare a guadagnare un milione di dollari, ma una volta raggiunto l’obiettivo, andare oltre è come mangiare lo stesso hamburger.”

Alle metriche basate sul denaro e sulla ricchezza sfuggono comunque dimensioni cruciali del benessere individuale e collettivo, come lo sviluppo sostenibile, il progresso sociale, la crescita personale. Oltre a questo, rimane aperta la difficoltà più importante: la variabilità linguistica e culturale del concetto di “felicità”.

Una ricerca pubblicata nel 2014 sull’International Journal of Language and Culture metteva in evidenza come la locuzione “essere felice” assuma significati molto diversi nelle differenti lingue del mondo. L’autore, Cartsen Levisen, studioso danese esperto di semantica, sorpreso dal costante posizionamento del suo paese ai vertici del benessere globale, faceva notare che in Danimarca la parola felicità è spesso tradotto con lykke, un termine che rimanda a un benessere quotidiano basato sulle piccole gioie quotidiane, come bere un buon cappuccino a colazione. Un significato molto meno problematico della condizione di benessere a cui raramente si riferiscono tedeschi, francesi, polacchi o i russi.

Lo studioso americano Ed Diener, un’autorità internazionale nel campo della psicologia positiva, conosciuto anche come Dr. Happiness, dopo decine di ricerche in tutto il mondo, per superare le ambiguità associate alla parola felicità ha coniato la fortunata espressione di “benessere soggettivo”: un concetto che combina le reazioni emotive con le auto-valutazioni su quanto siamo soddisfatti della nostra vita in diversi ambiti.

Sulla base di questi presupposti, Diener e moltri altri hanno dato una base empirica più robusta alle “molte facce della felicità”, come recitava il titolo di un articolo focalizzato sui lavori dello psicologo americano pubblicato nel 2011 su Scientific American. A conferma di come nelle varie culture si giudica la propria esistenza con parametri diversi da quelli occidentali, una delle maggiori sorprese per Diener e i suoi colleghi è stata quella di riscontrare livelli di “felicità” equivalenti tra i pastori masai in Kenya e gli abitanti dei paesi sviluppati. Un’ipotesi per spiegare questo risultato è che i Masai si concentrano più su quello che hanno rispetto alle penurie materiali. Da una parte sembra risuonare l’invito di Sant’Agostino a desiderare ciò che si ha, dall’altra questi studi sono stati avvalorati da ulteriori ricerche secondo cui nei paesi poveri la felicità dipende soprattutto dal successo sociale e dall’appartenenza al gruppo. La chiave per una vita felice sono insomma le relazioni.

Una conclusione in linea con le ricerche dello psichiatra di Harvard Robert Waldinger che, come riportato un paio di settimane fa dal Washington Post, ha sentito l’urgenza morale di comunicare i risultati di un lavoro che va avanti da più di 75 anni. A partire dal 2003 Waldinger ha preso il testimone del Grant Study, la più lunga indagine sulla felicità mai realizzata che ha “spiato” la vita di centinaia di persone, tra cui alcune celebrità come il presidente John Kennedy, allo scopo di comprenderne cosa li facesse stare bene nelle diverse fasi della loro vita. Waldinger ha tenuto un Ted Talk sulla sua ricerca con attualmente più di sei milioni e mezzo di visualizzazioni e con un messaggio chiaro: le persone più felici e più sane sono quelle che nel corso della loro vita hanno mantenuto salde le amicizie e le relazioni personali.

Tutto condivisibile, anche se, non appena ci spostiamo nell’hard science, l’opinione prevalente è che questi studi forniscono certamente indicazioni interessanti sul benessere mentale, ma offrono poche evidenze sulla “neurobiologia della felicità”. Un gap che i neuroscienziati stanno colmando sempre di più con i loro metodi, in particolare con le tecniche di visualizzazione del cervello. Sebbene siamo lontani dall’identificazione di correlati neurali della felicità è un approccio che alimenta sospetti di riduzionismo. Come afferma a pagina 99 Mario Colucci, psichiatra, psicoanalista e redattore della rivista di filosofia aut aut, “le neuroscienze si focalizzano sullo stato di benessere del singolo cervello, una dimensione molto singolare, che si lega all’idea di un godimento narcisistico e solitario. Dove si colloca in questa prospettiva la felicità all’interno dei contesti sociali, in relazione agli altri?” Più in generale, continua Colucci, autore di saggi sulla biopolitica e sulla medicalizzazione della salute, “la spasmodica ricerca di indicatori della felicità va di pari passo con quella che può essere definita una maniacalizzazione dell’esistenza, vale a dire una continua ingiunzione al godimento, al fare, al non avere limiti per cercare di esorcizzare il vuoto. Viceversa la felicità passa proprio dal riconoscimento dei propri limiti per creare qualcosa di personale ma condivisibile. Ricercare continuamente l’happiness rispecchia l’incapacità di elaborare i piccoli o grandi lutti dell’esistenza. In realtà, solo attraverso questo processo possiamo continuare a pensare anche dopo il dolore. La felicità è quindi anche il coraggio del pensiero, dell’elaborazione, della ricerca creativa.”

*Il testo di quest’articolo è stato pubblicato sul periodico pagina99 il 19 marzo 2016.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

il sonno ha le sue ragioni che la ragione non conosce*

sonnopg9912mar2016 Visioni doppie, tremori, difficoltà di movimento, un bisogno irresistibile di dormire in qualsiasi momento e in quasi la metà dei casi paralisi e morte. Subito dopo la prima guerra mondiale un morbo inquietante, l’encefalite letargica, flagellò prima l’Europa e poi il resto del mondo. Decine di migliaia di persone, secondo alcune stime addirittura un milione, furono colpite da una sonnolenza persistente contro la quale all’epoca non esistevano rimedi. Durò circa dieci anni, poi praticamente più niente: la “malattia del sonno” misteriosamente tolse il disturbo così come quasi dal nulla era comparsa. Se si escludono alcuni casi sporadici è infatti dal 1924 che non ne viene segnalata la comparsa in forme epidemiche. Eppure, come descritto in un articolo apparso su Scientific American all’inizio di questo mese, l’encefalite letargica, provocata da un virus tuttora sconosciuto, ci ha insegnato molto di quello che sappiamo oggi sul sonno, attività che riguarda indistintamente tutto il regno animale ma su cui rimane aperta la questione centrale: perché dormiamo.

Fu soprattutto l’acume di un aristocratico neurologo di origine greca, Costantin von Economo, formatosi nella tradizione culturale asburgica, a fornire in una monumentale monografia la migliore descrizione dell’ encefalite come un’infiammazione del cervello. “L’impatto dei suoi studi nella nostra disciplina”, commenta a pagina99 Ugo Faraguna, neurofisiologo del sonno all’Università di Pisa, “si può paragonare a quelli di Einstein nella fisica”. Così come continuiamo a trovare conferme sperimentali della teoria della relatività – vedi ad esempio la recente rilevazione delle onde gravitazionali – “decenni di lavori istologici non hanno fatto altro che confermare quanto von Economo aveva ipotizzato analizzando la sede dell’encefalite letargica, in particolare l’esistenza di interruttori del sonno e della veglia”.

Nonostante siano passati circa novant’anni dai lavori del neurologo viennese, sono ancora tutt’altro che chiare le ragioni per cui dormiamo. Di sicuro sappiamo che il sonno fa bene, ma al momento attuale disponiamo solo di ipotesi riguardanti i meccanismi con cui agisce, con non poco disagio da parte degli studiosi. Nicola Cellini, ricercatore all’Università di Padova esperto del rapporto tra sonno e memoria, afferma che “per alcuni dei maggiori esperti a livello internazionale la funzione del sonno è oggi la domanda più imbarazzante per le neuroscienze.” Secondo Cellini, che interverrà la prossima settimana sia a Padova che a Trieste alla Settimana del Cervello, una ricorrenza annuale con eventi in tutto il mondo per aumentare la consapevolezza pubblica nei confronti della ricerca nel settore, “probabilmente il sonno svolge più funzioni contemporaneamente, dalla rimozione delle neurotossine accumulate nel cervello durante il giorno, alla ristrutturazione delle memorie. Questo approccio è differente rispetto al passato. Per diverso tempo si è pensato ad esempio che dormire servisse a conservare o recuperare le energie cerebrali spese durante il giorno. Nel sonno però il nostro cervello non è affatto meno impegnato. Anzi, consuma quasi le stesse risorse usate quando siamo svegli.”

Negli anni il quadro delle ricerca sul sonno è cambiato sensibilmente. Le ipotesi sono aumentate e diventate più complesse. Una delle possibilità accreditate più recenti è quella secondo cui il sonno funzionerebbe da “spazzino”, servirebbe cioè a liberare il cervello da scorie potenzialmente neurotossiche, in particolare certi residui di proteine, accumulate durante la veglia. La funzione di ripulitura del cervello è stata mostrata nei topi in uno studio pubblicato sulla rivista Science nel 2013 a firma di un gruppo di ricercatori dell’Università di Rochester, negli Usa, guidati dalla neuroscienziata danese Maiken Nedergaard. Se un simile meccanismo dovesse agire anche nell’uomo si potrebbe capire meglio l’associazione tra i disturbi del sonno e malattie neurodegenerative come il morbo d’Alzheimer, in cui l’accumulo di una proteina chiamata beta-amiloide sarebbe il principale sospettato del danneggiamento e della morte delle cellule nervose.

Una seconda tendenza molto considerata attualmente vede come protagonisti due ricercatori italiani, anche se da tempo trasferitisi negli Stati Uniti. Si tratta di Chiara Cirelli e Giulio Tononi, dell’Università del Wisconsin, che nel corso degli anni hanno messo a punto la cosiddetta ipotesi dell’ “omeostasi sinaptica”. In un importante lavoro di rassegna della letteratura presentato sul giornale specialistico Neuron nel 2014, i due autori hanno prospettato che, diversamente da quanto affermato da teorie più tradizionali, il cervello dormiente non consolida le connessioni neurali utili ad esempio a fissare quanto di importante abbiamo imparato nella fase di veglia. Anzi, quando dormiamo le connessioni neurali si indebolirebbero, perché viceversa il cervello si affaticherebbe troppo. Come spiega Faraguna, per diversi anni collaboratore di Tononi negli Usa, “questa ipotesi postula la necessità del sonno come momento in cui le sinapsi, vale a dire i punti di contatto tra le cellule nervose, vengono potate. Se durante la veglia le sinapsi fioriscono, durante la notte vengono tagliate. Si eliminano così le informazioni che non servono più e si libera spazio ed energie per l’apprendimento di nuove informazioni il giorno seguente.” Il sonno sarebbe il dazio necessario per lo svolgimento di questo processo. Perché dormire non è privo di inconvenienti. Anzi. “Da un punto di vista evolutivo”, continua Faraguna, “il sonno è pericolosissimo poiché espone le prede a rischi facilmente immaginabili. Ma tutti gli animali dormono, senza eccezioni. Come ha affermato Allan Rechtschaffen, uno dei pionieri della ricerca in questo campo, se il sonno non avesse alcuna funzione allora si tratterebbe del più grande errore dell’evoluzione. Ma non è così. Dormire è il prezzo da pagare per imparare. E questo è in fondo un punto che su cui diverse ipotesi possono concordare”.

*Il testo di quest’articolo è stato pubblicato sul periodico pagina99 il 12 marzo 2016.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

oltre lo show di Zuckerberg tra i neo-filantropi californiani*

zuckpg99Sulla faraonica donazione del 99 per cento delle azioni Facebook, annunciata da Mark Zuckerberg e da sua moglie Priscilla Chan all’indomani della nascita della loro primogenita Max, circa un paio di settimane fa, si sono spese già molte polemiche. L’accusa principale rivolta ai coniugi Zuckerberg è di voler pagare meno tasse attraverso un’operazione mascherata da beneficenza. Particolarmente duro Jesse Eisinger, dell’agenzia giornalistica indipendente ProPublica. Eisinger ha spiegato che la Chan Zuckerberg Initiative, creata dal fondatore di Facebook e da sua moglie, è una limited liability company, una sorta di società a responsabilità limitata e non una società no-profit. L’iniziativa non sarebbe così soggetta alle regole e ai requisiti di trasparenza delle fondazioni caritatevoli tradizionali e soprattutto godrebbe di benefici fiscali a quest’ultime non riservate. L’amministratore delegato di Facebook ha respinto l’accusa dichiarando che la scelta di creare una società privata si giustifica semplicemente per la sua maggiore efficienza e flessibilità. Che sia davvero così o che si tratti di altruismo interessato, il progetto filantropico di Zuckerberg è la punta dell’iceberg di un fenomeno molto più ampio, che a partire dai miliardari dell’hitech della Silicon Valley fa riferimento a un movimento teorico e sociale impegnato nel ripensare il non-profit, la liberalità, l’impegno solidale e collaborativo. Uno spazio laboratoriale e interdisciplinare che va sotto il nome di Nuova Filantropia e che si presenta come una cultura visionaria del dare, in cui confluiscono tecnologia, economia e diritto alla ricerca di una sintesi innovativa.

L’espressione “nuova filantropia” nasce all’interno della generazione degli imprenditori del dot.com, giovani o molto giovani che a partire dagli anni ’90 del secolo scorso hanno guadagnato montagne di soldi nell’industria dell’informatica e del digitale. La Silicon Valley è l’ambiente naturale, sia dal punto di vista geografico che culturale, per lo sviluppo di attività di beneficenza che, diversamente dal passato, sono incentrate sulla verifica dell’impatto sociale o ambientale delle elargizioni e sulla produzione di guadagno per gli erogatori. Rispetto alle tradizionali donazioni status-symbol dispensate per avere accesso a club esclusivi, c’è l’ambizione di incidere davvero per cambiare le cose. La visione è molto più strategica. Trae le sue radici concettuali nell’etica hacker di cui sono imbevuti, loro malgrado, molti dei miliardari self made man di nuova generazione, di cui Mark Zuckerberg è il prototipo ideale.

Non a caso, la Chan Zuckerberg Initiative è solo l’ultima in ordine di tempo di una costellazione di imprese simili, magari meno note, ma realizzate col medesimo approccio: unire filantropia e tecnologia. Come ad esempio quella di Brian Chesky, Ceo e fondatore di Airbnb, che ha fatto sviluppare ai suoi programmatori una piattaforma per far entrare in contatto gli sfollati dei disastri naturali con le persone disponibili a ospitarli. O come le iniziative di Anne Wojcicki, fondatrice della società produttrice di test genetici 23andMe, che ha devoluto centinaia di milioni di dollari ad associazioni come Ashoka, la più grande comunità internazionale di imprenditori sociali nata per dare supporto alle persone, non ai progetti. O infine come l’organizzazione no-profit GiveDirectly, che tramite cellulari riesce a trasferire denaro contante direttamente, evitando burocrazia e corruzione, a persone in condizioni di estrema povertà in Kenya e Uganda. Il programma, fra l’altro, prevede l’uso di satelliti per individuare i villaggi più poveri e l’utilizzo di strumenti avanzati per monitorare come vengono spesi i soldi e qual è livello di soddisfazione di chi li riceve.

Che il mondo tecnologico libertario e individualista attorno alla South Bay di San Francisco sia diventato il luogo d’elezione dei filantropi più dinamici del ventunesimo potrebbe sembrare un paradosso. Come descritto recentemente sul New York Times dalla giornalista Alessandra Stanley, Zuckerberg e soci non sono più interessati dei loro predecessori conservatori a cambiamenti radicali nel nome dell’eguaglianza sociale. I miliardari dell’hitech sono semplicemente convinti di poter applicare “la stessa ingenuità e lo stesso entusiasmo che li ha resi ricchi per rendere il resto del mondo meno povero”. Il tecno-utopismo di matrice hacker permette di comprendere come mai i proprietari di multinazionali private monopoliste del web, spesso insofferenti alle legislazioni fiscali sovrane, mettano così tante risorse per la soluzione di problematiche di interesse pubblico. Il punto è che, come emerge sempre nell’inchiesta del New York Times, i filantropi tecnologici non “fanno lobby per la redistribuzione della ricchezza”, ma piuttosto “vedono la povertà e la disuguaglianza come un problema ingegneristico, la cui soluzione è nelle loro capacità intellettuali”.

Tutto questo non limita la portata innovativa delle tecnologie dell’informazione e della comunicazione nella definizione di nuove prospettive benefiche. Come sottolineato lo scorso 2 dicembre nel corso di un convegno dal titolo “La nuova filantropia. Economia e diritto per una società digitale collaborativa”, uno dei pochi appuntamenti strutturati sul tema nel nostro paese organizzato dall’Università Cattolica di Piacenza, la tecnologia è il primo, se non il più qualificante, elemento di discontinuità della nuova modalità di fare beneficenza.
In particolare, la rete è lo sfondo su cui si innesta un secondo elemento caratteristico delle nuove pratiche del dono: l’approccio utilitarista, vale a dire l’interesse per le conseguenze dell’azione, per l’efficacia e la quantificazione degli impatti grazie alle opportunità di trasparenza e di tracciabilità offerte dal web. Un terzo aspetto è di natura antropologica e consiste nella centralità dell’agire collaborativo, nell’affermazione di un rivisitato comunitarismo che trova rinnovato slancio nel ruolo giocato dalle comunità digitali rispetto ai valori di apertura, condivisione, partecipazione, solidarietà.

Perché si realizzi la prospettiva comunitarista bisogna però dotarsi di nuove metriche economiche, in grado di misurare ad esempio l’impatto sociale del dono, e di strutture giuridiche più flessibili, in grado di dare conto delle molteplici forme del “dare”, non più riducibili solamente al donare beni, ma che riguardano anche la messa a disposizione di attività, capacità, tempo, informazioni. Ad esempio, chi dona i propri dati genetici si può porre oltre l’attuale comprensione giuridica della privacy.

I limiti delle normative vigenti, soprattutto di natura fiscale e sul piano delle successioni, sono particolarmente significativi in Italia. Come spiega a Pagina99 Monica De Paoli, notaio milanese tra le responsabili scientifici del convegno di Piacenza, i vincoli attuali contribuiscono a determinare “il divario esistente tra le esperienze di altri Paesi, in particolar modo di matrice anglosassone, e il nostro, dove le donazioni al confronto sono modeste”. De Paoli è anche vicepresidente del consiglio di indirizzo della Fondazione Italia per il Dono ONLUS (F.I.Do), una struttura nata con l’idea di creare un nuovo strumento di intermediazione filantropica. L’aspetto innovativo di F.I.Do, continua De Paoli, consiste nel fatto che chiunque voglia operare in un progetto di beneficenza “non ha bisogno di creare una propria struttura. F.I.Do offre servizi a soggetti che non possono o non vogliono creare una propria fondazione erogativa: agisce allo stesso tempo come hub e come incubatore. Chiunque può donare alla Fondazione. Il nostro scopo principale è promuovere la cultura del dono, non molto sviluppata nel nostro paese”.
F.I.Do richiama tutti noi alla possibilità di dare un nuovo volto al capitalismo, basato su una visione etica della filantropia. Un tema su cui si è speso recentemente anche Peter Singer, considerato tra i più influenti filosofi viventi. Nel suo ultimo libro The Most Good You Can Do, pubblicato lo scorso aprile, lo studioso australiano sostiene che nei paesi ricchi per “vivere eticamente” bisognerebbe dare in beneficenza idealmente un terzo di quello che si guadagna. Non sarà il 99 per cento di Zuckerberg, ma è pur sempre tanto, soprattutto se si tratta di donare per davvero.

*Un adattamento di questo testo è stato pubblicato su pagina99 del 12 dicembre 2015.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

gli scienziati della domenica in cattedra con Obama*

pagina99-copertina-05-12-2015 Aiutano i ricercatori a scoprire nuove galassie o a “mappare” la superficie di Marte, raccolgono dati sull’ambiente e sulla qualità dell’aria, passano giornate intere negli habitat naturali più disparati per studiare volatili e poi donare le loro osservazioni agli ornitologi. In passato sono stati anche cruciali, fra le altre cose, nella soluzione della struttura di un enzima fondamentale nella diffusione del virus dell’AIDS. Sono i volontari della scienza: un esercito di milioni di persone sparse in tutto il mondo, quasi tutti non professionisti della ricerca, che poche settimane fa ha ricevuto un’insperata legittimazione addirittura dalla Casa Bianca. Un memorandum firmato in prima persona da John P. Holdren, consigliere scientifico del presidente americano, ha infatti chiarito come l’amministrazione Obama vuole imprimere una decisa accelerazione alla “scienza dei cittadini”, di cui riconosce, oltre all’importanza educativa e metodologica, il valore economico, stimato in miliardi di dollari all’anno.

La nota dell’Ufficio per la politica della scienza e della tecnologia statunitense potrebbe rappresentare un radicale cambiamento nei rapporti tra ricerca e società. “L’aspetto fondamentale del documento” spiega a pagina99 Mariachiara Tallacchini, già senior scientist presso il Joint Research Centre della Commissione Europea, “è che si tratta di un ordine esecutivo indirizzato alle organizzazioni governative e alle agenzie federali”. Non un generico invito dunque, “ma cose da fare concretamente entro tempi stabiliti”. Il memorandum individua soprattutto due azioni specifiche. Ogni agenzia deve prima di tutto individuare un coordinatore per i progetti di citizen science, successivamente deve catalogare le attività di ricerca aperte alla partecipazione di tutti i cittadini.

La discontinuità della nota di Holdren si apprezza anche nella definizione proposta di citizen science. Se genericamente con essa si intende l’attività di ricerca realizzata coinvolgendo dei volontari come “sensori” per raccogliere informazioni scientifiche o come “elaboratori” per contribuire a risolvere problemi di analisi dei dati, il memo americano assegna ai cittadini un ruolo molto più significativo. Essi, nella descrizione fornita dall’amministrazione Obama, come continua Tallacchini, “possono formulare domande di ricerca, condurre esperimenti scientifici, interpretare risultati, fare nuove scoperte, sviluppare tecnologie e applicazioni, risolvere problemi complessi, non solo raccogliere e analizzare dati. C’è il pieno riconoscimento metodologico e teoretico assegnato normalmente alla scienza svolta nei laboratori e nelle università”. La citizen science non è insomma una scienza di serie B, semmai “si caratterizza per una diversa finalità pratica e applicativa, per una marcata enfasi sul contributo alla risoluzione di questioni sociali. Senza trascurare il valore educativo a essa assegnato e soprattutto il suo impatto economico”.

I volontari della ricerca, tra contare uccelli, identificare galassie e individuare batteri forniscono un servizio il cui valore è stimato almeno attorno ai due miliardi e mezzo di dollari annui in natura. Questo dato, ottenuto grazie al lavoro di un gruppo di esperti americani di protezione ambientale, è uno dei punti di partenza del memorandum di Holdren. In un articolo pubblicato all’inizio dell’anno sulla rivista Biological Conservation, gli autori hanno per la prima volta quantificato la scala dei progetti di citizen science sulla biodiversità mediante l’analisi di più di 300 iniziative. Hanno calcolato che i volontari della scienza dedicano ogni anno tra le 21 alle 24 ore del loro tempo libero ad attività di ricerca. Considerando che sono coinvolte circa un milione e trecentomila persone, il contributo equivalente è pari ai già citati due miliardi e mezzo di dollari. Una stima peraltro al ribasso, dato che lo studio ha preso in considerazione solo progetti sulla biodiversità, on-line e in lingua inglese.

La ricerca documenta anche una crescita dei progetti di citizen science a ritmi inimmaginabili fino a qualche anno fa, una tendenza guidata dallo sviluppo di sensori a basso costo e altri strumenti di monitoraggio ormai facilmente utilizzabili e disponibili anche su uno smartphone.

L’amministrazione Obama dimostra di aver colto perfettamente le potenzialità legate all’accelerazione del fenomeno, meglio che nel vecchio continente. “L’Europa”, ci spiega ancora Mariachiara Tallacchini, filosofa del diritto all’Università Cattolica di Piacenza ed esperta dei rapporti tra scienza e democrazia, “è molto più timida. Pochi mesi fa anche la Commissione Europea ha pubblicato un libro bianco sulla citizen science. Diversamente dagli Stati Uniti è un documento molto attento alle sfumature, preoccupato di stabilire in che cosa la scienza dei cittadini sia diversa rispetto a quella tradizionale”. In altre parole, si fa più fatica a riconoscere la possibilità di produrre assieme, esperti e non-esperti, conoscenza valida. Così come non si comprende appieno che il coinvolgimento a monte dei cittadini nella ricerca scientifica, il cosiddetto upstream engagement, sia la strada maestra per ridurre i conflitti tra scienza e società. “L’idea di Holdren”, continua Tallacchini, “è che il cittadino contribuisca alla conoscenza in fase istruttoria. In questo modo, non solo riduci i costi, ma aumenti la fiducia nei confronti delle istituzioni, nonché l’efficienza e l’efficacia delle policy.” L’approccio preventivo alla citizen science permetterebbe di ridurre la crescente e ricorrente litigiosità sulle controversie scientifiche (cambiamenti climatici, fecondazione assistita, testamento biologico, nanotecnologie, nucleare, ecc.). Si tratta di conflitti ben noti anche nel nostro paese, non particolarmente all’avanguardia sulla citizen science, dove però esistono esperienze in cui le diverse dimensioni delineate dal memorandum della Casa Bianca sono ben rappresentate. Come ad esempio nel progetto di epidemiologia partecipata PM2.5 Firenze, patrocinato dalla cooperativa Epidemiologia e prevenzione Giulio A. Maccacaro, in cui da circa due anni un gruppo di cittadini del capoluogo toscano conduce un’attività di sorveglianza della qualità dell’aria. L’iniziativa propone un rapporto nuovo tra le istituzioni e i cittadini. Come recitano i suoi promotori, in pieno stile Holdren, la disponibilità di informazioni e la produzione stessa del sapere scientifico devono essere “patrimonio di più soggetti e non ristretti al solo ambito specialistico”.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 5 dicembre 2015.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

da Blade Runner a Jurassic Park la fantascienza diventa scienza*

pagina99-seconda-2015 Se avete visto The Martian, l’ultimo film di Ridley Scott, vi sarete forse chiesti, ad esempio, quanto sia realistico che Mark Watney, il marziano impersonato da Matt Demon, possa esporsi alle radiazioni solari o ai raggi cosmici senza conseguenze. Sono domande forse un po’ da nerd ma che ricorrono spesso nei film di science fiction. L’obiettivo fondamentale è capire quanta scienza ci sia nella fantascienza. Si tratta di un approccio così assodato che quasi sempre si trascura la possibilità opposta: l’impatto della fantascienza sulla ricerca scientifica. A porre parziale rimedio alla questione ci ha pensato di recente una start-up britannica, specializzata in strumenti avanzati di filtraggio della letteratura scientifica, attraverso un’analisi di big data. Secondo Sparrho, così si chiama l’azienda fondata da due ex-ricercatori, i robot di Star Wars e i dinosauri geneticamente modificati di Jurassic Park non sono entrati solo nel nostro immaginario, ma anche nei laboratori.

L’idea di identificare film di fantascienza rilevanti nella ricerca scientifica è venuta al giornalista americano Jeremy Hsu. Come racconta egli stesso in un articolo pubblicato qualche settimana fa sulla versione online del magazine Discover, Hsu è riuscito a convincere il team di Sparrho a mettere mano a un database della British Library contenente paper scientifici dal 1890 al 2010.

Prima di quest’iniziativa erano già stati condotti indagini simili, ma di natura più qualitativa. Qualche mese fa, ad esempio, la rivista Popular Mechanics aveva realizzato un sondaggio informale che decretò 2001: Odissea nello spazio come il film di fantascienza più apprezzato dagli scienziati. Risale al 2004 un lavoro analogo promosso dal quotidiano britannico The Guardian, che invece sancì il primo posto per Blade Runner nella classifica di gradimento dei ricercatori.

Rispetto a questi tentativi, il salto di qualità dell’analisi di Sparrho è stato da una parte attingere all’archivio della biblioteca di ricerca più importante al mondo. Dall’altra, e più significativamente, aver fatto ricorso alle competenze dei cosiddetti data scientist, nuovi professionisti con abilità trasversali tra matematica, informatica e statistica. Un mestiere tipico dell’era digitale che Hal Varian, chief economist di Google, ha definito “il più sexy del XXI secolo”. E se non sappiamo se sia stato sexy, certamente non deve essere stato noioso per la scienziata dei dati Katja Bego cogliere la sfida di Hsu. Bego ha prima di tutto individuato i film di science fiction più popolari nella storia del cinema, pesando sia il riscontro del botteghino che il parere dei critici. Con una lista di 100 film a disposizione, ha poi usato un algoritmo per vivisezionare i dati dell’archivio della British Library per contare quante volte i titoli delle pellicole comparivano nei titoli o nei sommari degli articoli scientifici. Ha definito così un primo elenco, a partire dal quale ha ulteriormente filtrato manualmente i risultati ottenuti prendendo in considerazione solo le ricerche che esplicitamente discutevano i contenuti dei film e non quelle che li citavano senza approfondimenti.

Il processo si è concluso con la seguente graduatoria: al primo posto Star Wars, con 18 articoli influenzati in modo rilevante dalla saga cinematografica creata da George Lucas; al secondo Jurassic Park con 11 paper, al terzo 2001: Odissea nello spazio con 9 articoli. A seguire Blade Runner, Minority Report, Ritorno al futuro e altri grandi successi. Oltre a stilare la classifica, Katja Bego ha indagato quali discipline o quali specifici problemi di ricerca hanno preso ispirazione dai film individuati. È emerso così, ad esempio, che i paper per cui Star Wars è stato rilevante hanno trattato soprattutto di robot non-umanoidi o della psicologia di Anakin Skywalker, leggendario Cavaliere Jedi, al servizio della Repubblica Galattica prima di diventare Darth Vader (in Italia Darth Fener). I ricercatori si sono interessati ai destini del maestro del lato oscuro per comprendere se nel suo caso avesse senso una diagnosi di disturbo borderline. Jurassic Park è stato considerato per le questioni etiche legate a riportare in vita specie estinte e per la computer grafica utilizzata per animare branchiosauri, tirannosauri e velociraptor vari. 2001: Odissea nello spazio per le tematiche sui rapporti tra emozioni, libero arbitrio e intelligenza artificiale, mentre Minority Report ha stimolato i ricercatori interessati alle problematiche della sorveglianza globale e al futuro dell’urbanizzazione. Per quanto riguarda i temi di fantascienza trattati con maggiore frequenza si segnalano quello dei robot, termine comparso nei paper 89 volte e l’ intelligenza artificiale, con 29 riferimenti. I viaggi nel tempo solo due volte, con buona pace di Marty McFly e del mitico Doc di Ritorno al Futuro.

Sono risultati che dimostrano quanto la cultura popolare riesca a permeare ambiti apparentemente inaccessibili come le comunità degli scienziati. Ed è bene ricordare che il team di Sparrho ha contato solo i film esplicitamente citati nei titoli e negli abstract dei lavori scientifici. È facile ipotizzare che il numero sarebbe aumentato considerevolmente se fossero state prese in considerazione le ricerche ispirate alla fantascienza senza riferimenti nel testo a una specifica pellicola. In più, il database consultato da Bego si ferma al 2010. Vale a dire che dall’analisi sono stati esclusi blockbuster come Interstellar e il già citato The Martian, per non parlare di altre importanti uscite nel 2015 come Jurassic World, Star Wars: Il Risveglio della Forza o la serie Terminator, che di sicuro avrebbero arricchito di nuovi elementi l’indagine. Il campione della start-up britannica non includeva infine l’impatto della science fiction sulla ricerca militare o nel settore privato. Insomma, la linea di confine tra scienza, tecnologia e fantascienza è probabilmente molto più sfumata di quanto si pensi e di quanto si sia misurato finora.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 28 novembre 2015.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

perché il destino di Uber è senza conducente*

pag99 21 nov Il successo di Uber sembra inarrestabile. L’azienda statunitense che fornisce tramite app un servizio di auto con conducenti privati, dopo un lancio in sordina a San Francisco poco più di cinque anni fa, è attualmente usata in più di 300 città di 63 paesi del mondo. Il fatturato stimato per la fine del 2015 è di 10 miliardi di dollari con ricavi per 2 miliardi. Numeri paragonabili a quelli di Facebook, per intenderci, ma ottenuti nella metà del tempo rispetto al social network fondato da Mark Zuckerberg nel 2004.
Risultati straordinari che pongono la questione di quali siano i limiti di crescita dell’app che sta facendo infuriare i tassisti di tutto il mondo. Contrariamente a quanto si potrebbe pensare leggendo le cronache, le minacce più significative per Uber non sono le proteste dei professionisti o leggi inadeguate. Per la società fondata da Travis Kalanick e Garett Camp, tipici smanettoni cresciuti nella Silicon Valley con la convinzione di migliorare il mondo (e il proprio conto in banca) con l’informatica, il rischio maggiore siamo noi, gli utenti stessi. Una difficoltà, che secondo gli analisti più attenti dei rapporti tra tecnologie emergenti e mobilità urbana, porta dritti a uno scenario non si sa bene quanto futuribile: quelle delle automobili che si guidano da sole.

Secondo quanto descritto recentemente dal magazine americano Nautilus, rivista di approfondimento sui rapporti tra scienza e società, il modello di business dell’azienda di Kalanick e Camp dovrà evolvere sempre di più verso le tecnologia di guida autonome per mantenere margini profittevoli come quelli attuali.
Le ragioni per il passaggio agli autisti-robot sono innanzitutto di ordine economico. Circa il 50 per cento del costo di una corsa di Uber se ne va per pagare i conducenti umani. Liberarsene potrebbe però essere un vantaggio non solo per le casse dell’azienda. Uber, a differenza di altri servizi di economia partecipativa basati sull’effetto network, presenta infatti un’asimmetria nell’amministrazione degli utenti: gli autisti sono più difficili da gestire dei passeggeri. E la complessità aumenterà ancora di più se l’app continuerà a crescere con i ritmi attuali. Le macchine che si guidano da sole sarebbero da questo punto di vista un modo per rendere scalabile Uber.
In più, sempre secondo quanto affermato da Nautilus, l’uso massiccio dell’applicazione sta portando molte persone a chiedersi se davvero valga la pena possedere un’automobile. Non è un mistero, d’altra parte, che le strategie di lungo termine di Uber mirino a far calare drasticamente il numero di autovetture di proprietà. Una posizione che produrrebbe non solo un radicale cambiamento di abitudini, ma che avvalora l’ipotesi di voler ridurre in generale i conducenti in circolazione. Sembra che Uber, in altre parole, non tolga solo il lavoro ai tassisti ma voglia progressivamente eliminare tout court la categoria degli autisti.

In ogni caso, stando a quanto riportato dal Guardian qualche giorno fa, Travis Kalanick è convinto che sarà la sua “ottimistica leadership” a facilitare la transizione verso le auto che si guidano da sole, una tecnologia dallo “sconsiderato impatto positivo” secondo il CEO di Uber. Sono parole che risuonano con quelle di Elon Musk, visionario ingegnere, imprenditore e inventore di origine sudafricana tra i fondatori di PayPal. Musk è diventato famoso a livello globale perché vuole portare l’uomo su Marte con la sua società di esplorazione spaziale SpaceX. Pochi anni fa è però entrato anche alla grande nel mercato delle auto elettriche con Tesla Motor, di cui è amministratore delegato. In un intervento riportato recentemente dalla rivista di business globale Fortune, Musk si dice convinto che nell’arco di pochi anni ci sembrerà “abbastanza strano vedere circolare automobili che non hanno una piena autonomia”. Va da sé che Tesla, nelle affermazioni di Musk, sarà la prima a raggiungere l’obiettivo della guida totalmente autonoma.

È chiaro che sulle macchine che si guidano da sole si sta giocando un’enorme partita economica che non a caso, oltre a Tesla, vede coinvolti giganti come Apple e Google, con un quota di poco inferiore al 7 per cento in Uber. Al di là degli altisonanti e interessati proclami dei CEO, vale la pena chiedersi quale sia il reale stato dell’arte delle auto a guida autonoma. Alberto Broggi, professore all’Università di Parma e pioniere dell’auto senza pilota, sentito per telefono da Pagina99, afferma che “quello che manca adesso ai veicoli automatici è la capacità di gestire tutte le situazioni”. Broggi è il fondatore di VisLab, spin off universitario che ha sviluppato progetti unici al mondo per la realizzazione di veicoli automatici molto prima di Google e che pochi mesi fa è stato acquistato per 30 milioni di dollari dalla californiana Ambarella. Sulla base della sua esperienza Broggi ritiene che “la parte più difficile è legata a problemi di tipo etico e di percezione delle diverse situazioni, a come il veicolo si deve comportare in contesti differenti. Sono questioni difficili che richiederanno non meno di 15-20 anni per essere risolte.”

Problematiche che si aggiungono al fatto che la legge non consente in nessuna parte del mondo la guida totalmente autonoma perché non esiste in questo momento una normativa in grado di disciplinare l’attribuzione di responsabilità. Il passaggio ai robot richiede poi un notevole sviluppo di infrastrutture in grado di comunicare con i veicoli e la soluzione di una serie di questioni tecnologiche in senso stretto. Sono tutti aspetti che Uber e gli altri colossi aziendali impegnati nella partita saranno obbligati a considerare se vogliono disegnare il futuro delle macchine autonome.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 21 novembre 2015.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Perché c’è chi nega il climate change*

25ott2014 Durante il Climate Summit 2014, il presidente americano Obama ha definito i cambiamenti climatici la “minaccia numero uno del secolo”. Un volume uscito da poco in Italia scritto dal saggista ed esperto di questioni ambientali Giancarlo Sturloni per la casa editrice Piano B, con l’ inequivocabile titolo Il pianeta tossico ci richiama, se possibile, a un’urgenza ancora più drastica di quella di Obama: se non facciamo qualcosa, e subito, siamo finiti. Eppure la risposta di governi e opinione pubblica internazionale rimane un misto di indifferenza e scetticismo. Come è possibile non agire di fronte ai pericoli del riscaldamento globale? Come è possibile riuscire a ignorare la crescente evidenza scientifica sulle sue cause e sulle sue conseguenze?

L’attivista ambientale George Marshall, nel suo ultimo libro Don’t Even Think About it, pubblicato di recente negli Stati Uniti per i tipi di Bloomsbury, introduce un punto di vista originale e rilevante anche per la comprensione di altre forme di negazionismo: i cambiamenti climatici non sono una battaglia della scienza contro l’ignoranza, ma una “sfida profonda al nostro modo di dare senso al mondo”. Secondo questa prospettiva, elaborata grazie a una lunga serie di interviste a scienziati e sociologi ma anche a membri del movimento conservatore Tea Party, l’evoluzione ci ha reso poco adatti alla sfida dei mutamenti del clima. I tratti psicologici e sociali ereditati in milioni di anni per interpretare le minacce dell’ambiente, e per motivarci ad agire contro di esse, premiano ad esempio le informazioni che confermano le nostre convinzioni mentre sminuiscono quelle che le contraddicono, si focalizzano sul presente, privilegiano la conformità sociale, ci spingono a procrastinare. Si tratta di caratteristiche non molto efficaci per fronteggiare un fenomeno “complesso, poco familiare, lento, invisibile e intergenerazionale”, come quello dei cambiamenti climatici. Insomma, come specie non siamo fatti per contrastare questi pericoli.

La tesi di Marshall, co-fondatore di Climate Outreach Information Network, organizzazione no-profit impegnata nella sostenibilità ambientale, si inserisce all’interno dell’intenso dibattito accademico e politico sul negazionismo, a cui non è associato certo solo il global warming. Come è noto, secondo alcuni movimenti e correnti di pensiero non c’è correlazione tra Hiv e Aids, l’Olocausto non è mai accaduto, i vaccini causano l’autismo e la teoria scientifica dell’evoluzione non ha prove sufficienti. Come ha sottolineato il fondatore della Skeptics Society Micheal Shermer, in un articolo pubblicato su un numero speciale di qualche tempo fa della rivista New Scientist, è importante comprendere che ad animare queste persone non c’è un sano dubbio.
Diversamente dagli scettici i negazionisti “continuano semplicemente a negare” anche di fronte a prove schiaccianti.

Una delle interpretazioni tradizionali di questa ostinazione è che la colpa è dell’ignoranza. Di conseguenza, se solo i non-esperti conoscessero la scienza non potrebbero fare a meno di apprezzarla e sostenerla. Numerose ricerche hanno smentito quest’approccio mostrando che il rifiuto dei risultati della ricerca è solo debolmente correlato all’alfabetizzazione scientifica. Recentemente Dan Kahan, professore all’Università di Yale ed esperto di percezione del rischio, in una ricerca pubblicata su Nature ha mostrato che ad esempio le opinioni degli americani sul riscaldamento globale sono principalmente influenzate dall’appartenenza politica. I dati raccolti da Kahan mostrano inoltre che i sostenitori del movimento Tea Party hanno un livello di alfabetizzazione scientifica leggermente superiore alla media americana.

Un’altra chiave di lettura per spiegare il negazionismo è la mancanza di fiducia nei confronti della scienza. Anche in questo caso le inchieste sociologiche rivelano un quadro più complesso. Un’indagine del Pew Research Center nel 2009 mostrava che più dell’ottanta per cento della popolazione statunitense considerava la scienza una forza positiva della società. Secondo il report The 2014 Public Attitudes to Science, pubblicato qualche settimana fa dall’istituto demoscopico Ipsos Mori, il 90 per cento dei britannici ritiene che scienziati e ingegneri forniscano un contributo prezioso alla collettività. Sono risultati in linea con la media europea, inclusa l’Italia.

Come si conciliano allora le grandi aspettative nei confronti di scienza e tecnologia con la resistenza anche tenace ad alcuni suoi risultati nel caso di vaccini, evoluzione e global warming? Il punto è che un conto è fidarsi della scienza in generale, un altro è prevedere le nostre reazioni individuali quando ci confrontiamo concretamente con i risultati della ricerca nei contesti più diversi: dai processi decisionali per la costruzione di un inceneritore a pochi passi dalle nostre case, alle scelte sulle terapie per fronteggiare il cancro o all’educazione che vogliamo dare ai nostri figli. Nell’articolo What Scientists Really Do, pubblicato qualche tempo fa sul New York Review of Books, il fisico e astronomo Priyamavda Natarajan spiega che la contraddizione nasce dall’incapacità dei non-esperti di fare i conti con la provvisorietà della ricerca. Natarajan suggerisce di leggere il libro Curiosity: How Science Became Interested in Everything, scritto da nel 2013 da Philip Ball, ex-direttore di Nature, per comprendere come questa provvisorietà sia in realtà un punto di forza della scienza, perché permette di raffinare le conoscenze sul mondo naturale in un processo senza fine di confronto con la realtà.

Sta di fatto che il negazionismo riesce a prosperare proprio nelle pieghe dell’incertezza, una parola che per gli scienziati ha un significato diverso dall’accezione comune, ma che proprio per la sua ambiguità permette alle tesi cospirazioniste di fornire spiegazioni alternative che danno l’illusione di riappropriarsi di un controllo perduto, anche se queste spiegazioni non sono supportate dai fatti.

Per contrastare complottismo e scetticismo l’approccio paternalistico è poco efficace, anzi si rivela spesso arrogante e alienante. Alla fine del suo libro sul cambiamento climatico Marshall suggerisce che bisognerebbe prendere le chiese evangeliche come modello per imparare a comunicare efficacemente sulle conseguenze del riscaldamento globale. Il senso della sua provocazione è che bisogna considerare il problema in un contesto più ampio, trattarlo come un processo che ci riguarda per tutta la vita, mettendo in conto periodi di dubbio e incertezza, ma anche di illuminazione personale. Per questo bisogna saper ascoltare, sostenere e mettersi alla pari di tutti gli interlocutori, come sanno fare da millenni le religioni.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 25 ottobre 2014.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

il porto franco triestino della fisica dell’altro mondo*

1412335022448 Cinquant’anni fa nasceva nel pieno della guerra fredda a Trieste un istituto scientifico unico al mondo: un centro di ricerca pura pensato per permettere ai paesi in via di sviluppo di svolgere attività scientifica d’eccellenza. La sua storia è stata celebrata a ottobre dell’anno scorso in un convegno a cui partecipano fra gli altri premi Nobel per la fisica, medaglie Fields per la matematica e il direttore generale dell’Unesco. Ma il Centro internazionale di fisica teorica (Ictp) Abdus Salam ha avuto origine in un contesto culturale e geopolitico che non esiste più ed è lecito chiedersi qual sia il senso della sua mission oggi.

L’ictp è il solo istituto scientifico al mondo su cui sventola la bandiera dell’Onu. Il suo fondatore, il pakistano Abdus Salam, a cui è intitolato il centro dal 1996, è stato finora l’unico scienziato di origine islamica ad aver vinto un premio Nobel per la fisica. Fortemente voluto negli anni sessanta del secolo scorso dall’allora ministro degli esteri Giulio Andreotti, l’Ictp è tuttora ampiamente sostenuto dal governo italiano con un contributo attuale di 20,5 milioni di euro all’anno, pari all’85 per cento circa del budget complessivo.

Un ottimo investimento, a leggere i numeri. Solo nel 2013, l’istituto è stato visitato da quasi seimila studenti e ricercatori provenienti da 139 nazioni, soprattutto da paesi in via di sviluppo, in primis Algeria, Nigeria, Egitto, fino a Costa Rica, Ecuador, Guatemala, di cui il 23 per cento sono donne. ln cinquant’anni di vita il centro è stato teatro di più di 140 mila visite soprattutto da paesi poveri, con una produzione scientifica costante e di livello internazionale.

Una delle caratteristiche peculiari del modello organizzativo dell’Ictp è favorire il ritorno dei visitatori nei paesi d’origine dopo il periodo di permanenza a Trieste. L’obiettivo è raggiunto attraverso una serie di programmi che, da una parte, permettono di mantenere un legame duraturo col centro triestino, dall’altra di promuovere progetti scientifici legati ai bisogni specifici del territorio di provenienza. Uno dei più consolidati è l’ Associateship Scheme, grazie al quale vengono stabiliti rapporti di lungo termine con i singoli ricercatori. Attraverso il Federation Arrangement Scheme, le istituzioni dei paesi in via di sviluppo possono invece mandare a Trieste i loro scienziati, di età inferiore ai 40 anni, per visite comprese fra i 60 e i 150 giorni, per un periodo complessivo di tre anni, durante il quale i partecipanti svolgono varie attività formative e di ricerca. In questo caso le spese sono condivise.

I primati dell’Ictp sono stati raggiunti anche grazie alla capacità, negli anni, di mutare pelle sia negli interessi di ricerca, perché alla fisica pura si sono aggiunti altri ambiti disciplinari, come la fisica del tempo e del clima, la geofisica dei terremoti o la computer science, sia sul piano strategico-istituzionale.

“I profondi cambiamenti geopolitici accaduti dal 1964 a oggi”, spiega a pagina99 Sandro Scandolo, senior scientist e delegato dell’Ictp per le relazioni con l’Italia, “hanno modificato il rapporto con diversi paesi che una volta ricevevano il nostro supporto. Nazioni come la Cina e il Brasile, diventate forze trainanti della ricerca internazionale, hanno sempre meno bisogno dei servizi tradizionali del nostro istituto, ma continuano a chiederci aiuto perché vogliono fare nel loro paese quello che abbiamo fatto a Trieste. Da diretti beneficiari sono diventati partner: per questo credo che il modello organizzativo originale sostenuto dai fondatori dell’Ictp abbia vinto”.

Nella visione del già citato Salam e del fisico triestino Paolo Budinich, i due artefici del Trieste Experiment, come lo definì all’epoca il New York Times, c’era un progetto inedito di sostegno ai paesi poveri attraverso la scienza. Non semplicemente un centro d’attrazione per i ricercatori di paesi in via di sviluppo, ma un investimento di lungo termine sul capitale umano: l’Ictp doveva essere un necessario luogo di formazione, ma di passaggio, per chi poi sarebbe ritornato in patria per assumere ruoli di leadership scientifica. Un approccio molto diverso da quello seguito da grandi istituzioni come il Mit di Boston o il College de France di Parigi, dove sapevano bene che la “fuga dei cervelli” conveniva soprattutto se unidirezionale.

Non a caso, quando nei primi anni sessanta si trattò di decidere sull’apertura del centro, tutti i grandi del mondo si schierarono contro, con un’inedita convergenza tra Stati Uniti e Unione Sovietica. Le due potenze erano divise su tutto, ma concordavano nel non voler sostenere Trieste come porto franco scientifico per la rinascita economica dei paesi del Terzo Mondo attraverso la ricerca pura. Per i detrattori si trattava di un progetto folle e visionario che però incontrò il sostegno determinante dell’ambasciatore Egidio Ortona e sopratutto dell’allora ministro degli esteri Giulio Andreotti.

Iniziò una lunga battaglia diplomatica che, come spiega Pietro Greco nel libro Buongiorno prof. Budinich, edito da Bompiani nel 2007, trovava le sue ragioni in motivi che andavano al di là della scienza. In particolare, il nostro paese dopo aver perso la guerra aveva bisogno di recuperare lo status di potenza sviluppata e per questo voleva mostrarsi come nazione donatrice. Ed è proprio la generosità del finanziamento garantito dal governo italiano che risultò infine decisiva per vincere le resistenze.

Tale stanziamento, come già accennato, continua a essere cospicuo anche oggi e se da una parte l’Ictp rimane una scommessa di successo, dall’altra bisogna confrontarsi con un contesto internazionale radicalmente cambiato e con un’Italia attraversata da una profonda crisi economica.

“Non c’è dubbio”, afferma Scandolo, “che ci dobbiamo rapportare con problemi nuovi. Rispetto al passato siamo ad esempio sempre più costretti a lavorare con governanti che prediligono aspetti applicativi e pretendono risultati immediati: in poco tempo vorrebbero costruire centri di ricerca innovativi dove adesso non c’è niente. Questo non è possibile e noi abbiamo il compito di convincerli che la formazione di base è fondamentale, richiede pazienza, ma si rivela cruciale sul lungo periodo. Credo che per questo la nostra funzione continui a rimanere fondamentale”.

Come convive la realtà del centro triestino con le difficoltà economiche italiane? Al di là dell’importante impatto scientifico, Scandolo ammette che “bisogna comunicare meglio il fatto che l’Ictp continua a essere strategico in termini di cooperazione internazionale dando la possibilità all’Italia di costruire contatti con realtà altrimenti difficilmente raggiungibili.” In altre parole l’Ictp, anche se da noi poco conosciuto, rimane un significativo braccio operativo della politica estera nazionale.

Non si può dimenticare poi che l’istituto è stato il generatore del cosiddetto Sistema Trieste, ha fatto cioè decollare la nascita dell’insieme di realtà scientifiche e tecnologiche che rende il oggi il capoluogo giuliano una delle città europee con la maggiore densità di persone impiegate nel settore ricerca e sviluppo.

Lasciata alle spalle la stagione dei “lucidi visionari” Salam e Budinich, ai successori alla guida dell’Ictp rimane quindi il compito di non far perdere il mordente a scienziati, politici e opinione pubblica per una storia scientifica e politica di successo, in controtendenza con la narrativa del declino italiano e che ha reso fra l’altro Trieste, come ha affermato il fisico ruandese Romani Maurenzi, direttore esecutivo dell’Accademia mondiale delle scienze, forse l’unica città al mondo e sicuramente l’unico posto in Italia dove “quando incontri una persona di colore pensi che sia uno scienziato”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 4 ottobre 2014.

Tag:,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Ecco perché il calcio è sacro*

Football Fans Gather On Beach In Rio To Watch Argentina v Netherlands Semifinal Match Lo scriveva già Pasolini quando nei Saggi sulla letteratura e sull’arte affermava che il “calcio è l’ultima rappresentazione sacra del nostro tempo. È rito nel fondo, anche se è evasione”. Il genio analitico dell’intellettuale friulano trova oggi conferma nelle più recenti teorie scientifiche sulla religione, come quella dell’antropologo britannico Harvey Whitehouse. In un intervento sull’ultimo numero del magazine Nautilus, rivista sostenuta dalla Templeton Foundation e presentata come una sorta di New Yorker della comunicazione della scienza, lo studioso, in forze all’Università di Oxford, espone la sua visione sulle radici delle credenze religiose. Secondo Whitehouse, più che il bisogno di trovare risposte alle domande profonde di senso, la fede nel soprannaturale nasconde la necessità di creare legami personali e di definire un senso di appartenenza a una comunità per cui valga la pena vivere e sacrificarsi, come accade nei tifosi di calcio per la squadra del cuore.

Whitehouse ha sviluppato una teoria della religione basata sul potere che hanno i rituali nel favorire la coesione di gruppo. Per chiarire i punti cardini della sua teoria sfrutta l’analogia con quanto si vede negli stadi di tutto il mondo. “Ci sono molte situazioni che non hanno a che fare con dilemmi esistenziali”, spiega lo studioso britannico, “ma che ispirano spiegazioni soprannaturali. Probabilmente la più comune è quella dei rituali effettuati in contesti con un certo rischio di fallimento. Molte persone ad esempio vanno a vedere le partite di calcio sempre con gli stessi pantaloni e magliette perché le ritengono dei portafortuna. O si pensi ai gesti ripetitivi dei giocatori prima di tirare un calcio di rigore”. In altre parole, le esibizioni ritualistiche a cui assistiamo in uno stadio non sono differenti da quelle esplicite che si vedono nelle cerimonie in chiesa o in una moschea. Di conseguenza, la sacralità associata a una confessione religiosa non è diversa da quella che i tifosi attribuiscono alla propria squadra.

È probabile che le tesi di Whitehouse possano risultare irriverenti a molti fedeli, ma le sue argomentazioni sono basate su un’imponente raccolta di dati accumulati negli anni e inseriti in un quadro concettuale altamente interdisciplinare in cui convergono archeologia, etnografia, storia, psicologia evolutiva e scienze cognitive. Il calcio è solo un esempio per spiegare che le credenze nel soprannaturale derivano da cerimonie e legami preistorici. Gli interessi di Whitehouse per la religione risalgono agli anni ottanta del secolo scorso, quando ha iniziato a studiare i riti tradizionali della Papua Nuova Guinea.

L’antropologo di Oxford ha raccolto per anni evidenze archeologiche di rituali complessi e cerimonie di iniziazione traumatiche praticate per fondere in modo indissolubile l’identità dell’individuo con la comunità di appartenenza. Le prove consistono in materiali e oggetti che testimoniano le diverse accezioni con cui si interpreta oggi il fenomeno religioso: pendagli, monili, collane e altri materiali raccolti in vari siti sparsi nel mondo, dal Sud America all’Africa, rivelano ad esempio la fiducia nella vita dopo la morte o suggeriscono l’esperienza di stati alterati della coscienza. Le tracce di tali pratiche le ritroviamo oggi anche nelle religioni istituzionalizzate, nelle preghiere quotidiane dei musulmani o nella frequentazione della messa da parte dei cristiani almeno una volta alla settimana.

Le ricerche di Whiteouse fanno parte di una corrente di studi che cerca di spiegare la religione con la scienza. L’antropologo britannico è uno dei principali esponenti internazionali di un settore interdisciplinare che vuole chiarire diversi aspetti del fenomeno religioso facendo ricorso alle scienze cognitive e a un approccio evolutivo. È in questo milieu culturale che si inserisce uno dei testi più controversi degli ultimi anni sul rapporto tra scienza e fede, il libro L’illusione di Dio, del biologo Richard Dawkins, pubblicato in Italia da Mondadori nel 2007. Dawkins, dichiaratamente ateo e brillante divulgatore, propone numerose ipotesi evoluzionistiche che avrebbero portato gli esseri umani a credere in esseri soprannaturali: una delle più consolidate è quella che lega il pensiero religioso a un maggior sviluppo cognitivo. Il volume dello scienziato britannico è diventato un manifesto per i movimenti atei di mezzo mondo perché non si limita a fornire argomentazioni scientifiche a favore della sua tesi, ma si scaglia veementemente contro la religione, ritenuta pericolosa, causa di guerre, conflitti e azioni atroci, nonché un insulto alla dignità umana. Il testo rivendica viceversa l’orgoglio di essere atei, segno di indipendenza, salute e di una coscienza superiore. Esplicitamente Dawkins vuole fare proseliti al contrario. È inutile sottolineare che il libro è stato al centro di polemiche feroci e reazioni diametralmente opposte.

In un terreno più accademico e un po’ più sereno si colloca di recente quella che alcuni critici considerano l’opera più ambiziosa sullo studio delle mitologie dopo i lavori di Mircea Eliade, storico delle religioni rumeno considerato l’inventore della ricerca moderna nel settore. Stiamo parlando del volume The origins of the World’s Mythologies, scritto da Michael Witzel dell’Università di Harvard e pubblicato dalla Oxford University Press nel 2013. Il libro, in quasi settecento pagine, fornisce una solida base empirica sull’origini dei miti nel mondo attingendo a dati ricavati dall’archeologia, della linguistica comparativa e dalla genetica delle popolazioni. La tesi di Witzel è che esiste un’unica fonte comune africana da cui hanno origine i nostri miti collettivi. Essi non sono solo le prime evidenze di spiritualità antica ma, molto più significativamente, hanno una serie di caratteristiche essenziali che sopravvivono ancora oggi nelle principali religioni del mondo.

I lavori di Witzel e Whitehouse rappresentano alcuni degli sforzi più recenti e rilevanti di una comunità di studiosi che vuole rendere la storia delle religioni sempre di più una scienza empirica. Si tratta di un approccio che non ha necessariamente l’effetto di esacerbare il conflitto fra credenti e atei. Come spiega Whitheouse, “non penso che la scienza sarà mai in grado di dimostrare se Dio esiste o no. Questo rimarrà sempre una questione di fede. I credenti dovrebbero però essere aperti alla possibilità che alcuni fenomeni che ritengono misteriosi sul senso della vita o sul mondo possano in realtà essere spiegate dalla scienza. Allo stesso tempo credo che molto di quello che riguarda la vita umana vada oltre gli scopi dell’indagine scientifica”.

*Quest’articolo è stato pubblicato sul sito web di Pagina99we del 28 settembre 2014.

Tag:, , , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter