Insegnare giornalismo: come andare oltre

“Se il futuro del giornalismo è digital-first anche la formazione deve muoversi nella stessa direzione”

Screen_Shot_2015-02-19_at_9.16.37_AM La strategia del digital-first deve valere anche per le scuole di giornalismo se vogliono continuare ad avere un senso. È forse la raccomandazione più rilevante del report Above & Beyond. Looking for the Future of Journalism Education, pubblicato qualche settimana fa dalla Knight Foundation. L’autrice Dianne Lynch, attualmente presidente dello Stephens College, con un’esperienza di formatrice più che ventennale alle spalle, ha trascorso dieci mesi con professionisti, studenti, accademici sparsi sull’intero territorio americano per discutere del futuro dell’insegnamento nel giornalismo.

Il risultato è un report che, pur rispecchiando il panorama statunitense, offre spunti rilevanti anche per chi si occupa di formare professionisti dell’informazione in italia e in Europa. Lynch ha posto l’orizzonte temporale del rinnovamento delle scuole di giornalismo a dieci anni. Da qui al 2025 bisognerebbe muoversi secondo tre direttrici fondamentali:

1. Creare scuole di giornalismo digital-first

Non ha più senso strutturare programmi in cui, a un certo punto, il web viene aggiunto a quello che si insegnava in passato. I corsi su Internet e dintorni non possono arrivare dopo un presunto percorso lineare che va dalla carta ai social media. Una strategia formativa di questo tipo rispecchia una fuorviante prospettiva evolutiva perché l’ambiente naturale del professionista dell’informazione è ormai l’ecosistema digitale. Questo implica che, da una parte, i corsi tradizionali (reporting, newswriting, deontologia, ecc.) si devono modellare attorno a esso, e non il viceversa. Dall’altra, le scuole devono essere in grado di trasferire le competenze necessarie agli allievi perché diventino nodi attivi della rete. E se non si dispone dei docenti adatti è meglio prenderne consapevolezza e agire di conseguenza, invece che provare a insegnare ciò che non si conosce.

2. Integrare insegnamenti accademici con corsi professionalizzanti

Qui l’autrice tocca il punto delicato dei limiti intrensici dell’accademia. Le rigidità universitarie non si addicono all’innovazione, e non solo nell’insegnamento giornalistico. Eppure l’ambiente accademico offre ancora dei vantaggi difficili da trovare altrove. Bisogna allora produrre la migliore sintesi possibile tra l’archittettura formativa tradizionale, solida ma rigida, e la dinamicità dell’ecosistema mediale digitale, vivace ma lontano dall’equilibrio. Dianne Lynch propone un sistema di revisione e monitoraggio continuo dei corsi attraverso organi di governance aperti a professionisti esterni, più altre misure replicate ad esempio dalla formazione specialistica in medicina.

3. Richiedere sistemi di accreditamento in grado di valutare gli esiti professionali più che la solidità istituzionale

È sempre più vitale che le scuole di giornalismo si facciano valutare. Un obiettivo ambizioso se si considera che negli Stati Uniti la percentuale di programmi formativi di giornalismo accreditati non arriva al 25 per cento. L’universo digitale richiede inoltre un ulteriore passaggio. Gli standard di accreditamento attuali si focalizzano infatti in gran parte sui processi interni e sulle strutture accademiche, molto meno sugli esiti professionali e sulla capacità di sapersi adattare ai cambiamenti. Anche in questo caso, la proposta dell’autrice è permettere l’ingresso a professionisti esterni esperti di giornalismo digitale nei comitati di valutazione.

Il report di Dianne Lynch non fornisce indicazioni su specifici corsi o curricula da inserire nei programmi didattici. L’autrice sa bene, per esperienza personale, che qualunque proposta di cambiamento deve fare i conti con risorse limitate e resistenze di varia natura. L’aspetto più significativo del suo lavoro è piuttosto quello di offrire un modello possibile di strutture innovative nella formazione giornalistica, adattabili alle energie, alle capacità e alle visioni delle singole scuole. Per questo può essere utile anche per noi.

Recensione – Geeks Bearing Gifts

“Ci sono molte possibilità per il giornalismo nei prossimi anni, a patto di smettere di credere che il giornalismo sia nel business dei mass-media e dei contenuti”

GeeksBearingGifts_CVR_101814_Mech_Rev.indd
Una notizia rassicurante per chi è interessato al futuro del giornalismo: ci sono molti futuri possibili. È il presupposto da cui muove l’ultimo libro dell’esperto di media statunitense Jeff Jarvis, dal titolo Geeks Bearing Gifts: Imagining New Futures for News, pubblicato da poco negli Stati Uniti per la CUNY University Press.

Un primo merito del volume di Jarvis, professore associato e direttore del Tow-Knight Center for Entrepreneurial Journalism alla City University di New York (CUNY), è di non avventurarsi in previsioni sempre meno attendibili su, ad esempio, quando finirà la carta o sulle meravigliose sorti e progressive dell’ultima app che salverà il giornalismo. Il suo è invece un forte invito alla sperimentazione e all’innovazione. Il futuro delle notizie, scrive l’analista dei media tra le voci più stimate del panorama americano, va costruito insieme ai diversi protagonisti dell’attuale ecosistema mediale, abilitati dall’universo digitale a segnare in modo sempre più significativo, come nel caso di Google e Facebook, la ristrutturazione del sistema dell’informazione.

Il campo giornalistico in cui i professionisti dell’informazione dovranno provare a ridefinire il loro ruolo e le loro pratiche è ormai popolato dai “regali tecnologici dei geek”. Sono doni che non si possono rifiutare e che permettono nuove relazioni, nuove forme e nuovi modelli di business per le notizie.
Jarvis si muove su questi tre assi, che corrispondono alle parti in cui è suddiviso il volume, per presentare la sua visione dei futuri possibili per l’informazione. La sua prospettiva si coglie pienamente a partire dall’ampia definizione che dà del giornalismo, presentato come un’attività finalizzata in primo luogo ad “aiutare una comunità a organizzare meglio la propria conoscenza in modo tale che possa organizzare meglio se stessa”. Nascosti dietro questo punto di vista ci sono i riferimenti teorici su cui si basa la posizione di Jarvis. In alcuni casi si tratta di visioni dirompenti rispetto al passato.

Il richiamo alla comunità sottolinea ad esempio il fatto che il giornalismo non è più nel business dei mass-media. Internet non ha ucciso la carta, la radio o un altro medium: “quello che ha ucciso”, scrive Jarvis, “è l’idea di massa”, una visione su cui le imprese giornalistiche hanno costruito un sistema monopolistico di produzione, distribuzione e consumo delle notizie.

Al posto di masse indifferenziate, la rete ha fatto emergere cittadini e comunità che vanno servite dai giornalisti. Ma soddisfare i bisogni specifici delle persone significa che le competenze maggiori bisogna averle nel campo delle relazioni, più che nella produzione di testi.

Altro peccato mortale: se il giornalismo deve rispondere alle esigenze delle comunità non solo rinuncia a dettare l’agenda, ma il suo business principale non è più quello dei contenuti. O meglio, i contenuti sono solo una delle possibilità di portare valore aggiunto al flusso continuo di informazioni dell’ecosistema. Il ruolo sociale del giornalista può però essere molto più variegato: può operare ad esempio come fornitore di servizi, organizzatore di eventi, educatore, incubatore di iniziative. Tutte funzioni che evidentemente incidono sulle nuove forme possibili per le notizie.

Al posto dell’articolo, unità atomica della pratica giornalistica, la notizia può prendere le sembianze di dati, di servizi per connettere le persone, di piattaforme per favorire la condivisione, la conversazione, la selezione, la cura e la qualità dell’informazione. Un’esplosione di possibilità che intacca un altro totem della tradizione: la convinzione che la principale funzione giornalistica sia quella di raccontare storie.

Se si è disposti ad abbandonare questi presupposti, molto radicati, allora secondo Jarvis si aprono scenari inediti, anche per la sostenibilità economica del giornalismo. Nell’ultima parte del libro lo studioso americano offre numerosi esempi in questo senso derivanti soprattutto dalla sua esperienza di ideatore e direttore, alla CUNY, del primo programma al mondo di giornalismo imprenditoriale. In questo contesto gli studenti si confrontano con problemi di natura imprenditoriale e sperimentano progetti concreti.

Le proposte di Jarvis a prima vista sembrano dirigersi decisamente nella direzione di una discontinuità radicale con il passato. In parte è così, anche se a uno sguardo più attento, il volume dell’analista americano si può leggere come un appello al recupero delle funzioni sociali profonde dell’informazione professionale. La sua definizione di giornalismo come principio organizzatore delle comunità risuona infatti efficacemente con quella di alcuni tra gli studiosi più profondi del sistema dell’informazione che, ancora prima di Internet, sottolineavano come il compito principale della funzione giornalistica fosse quello di “attribuire un senso, una direzione, un percorso all’esigenza di condivisione degli individui, al loro bisogno di entrare in relazione, di costruire appartenenze” (si veda C. Sorrentino, E. Bianda, Studiare giornalismo, Carocci, 2013, p. 26).

Se quindi è vero che gli operatori dell’informazione hanno davanti a sé diversi futuri possibili, è anche vero che questi andranno costruiti sui fondamentali del giornalismo, preservando i tratti identitari profondi della professione. Da questo punto di vista il libro di Jarvis è un ottimo esempio di come raggiungere nuovi equilibri e sperimentare innovazioni per recuperare, selezionare e valorizzare il meglio del giornalismo, liberandosi allo stesso tempo delle scorie su cui ancora troppo tempo si spende quando si discute del suo futuro.

Perché c’è chi nega il climate change*

25ott2014 Durante il Climate Summit 2014, il presidente americano Obama ha definito i cambiamenti climatici la “minaccia numero uno del secolo”. Un volume uscito da poco in Italia scritto dal saggista ed esperto di questioni ambientali Giancarlo Sturloni per la casa editrice Piano B, con l’ inequivocabile titolo Il pianeta tossico ci richiama, se possibile, a un’urgenza ancora più drastica di quella di Obama: se non facciamo qualcosa, e subito, siamo finiti. Eppure la risposta di governi e opinione pubblica internazionale rimane un misto di indifferenza e scetticismo. Come è possibile non agire di fronte ai pericoli del riscaldamento globale? Come è possibile riuscire a ignorare la crescente evidenza scientifica sulle sue cause e sulle sue conseguenze?

L’attivista ambientale George Marshall, nel suo ultimo libro Don’t Even Think About it, pubblicato di recente negli Stati Uniti per i tipi di Bloomsbury, introduce un punto di vista originale e rilevante anche per la comprensione di altre forme di negazionismo: i cambiamenti climatici non sono una battaglia della scienza contro l’ignoranza, ma una “sfida profonda al nostro modo di dare senso al mondo”. Secondo questa prospettiva, elaborata grazie a una lunga serie di interviste a scienziati e sociologi ma anche a membri del movimento conservatore Tea Party, l’evoluzione ci ha reso poco adatti alla sfida dei mutamenti del clima. I tratti psicologici e sociali ereditati in milioni di anni per interpretare le minacce dell’ambiente, e per motivarci ad agire contro di esse, premiano ad esempio le informazioni che confermano le nostre convinzioni mentre sminuiscono quelle che le contraddicono, si focalizzano sul presente, privilegiano la conformità sociale, ci spingono a procrastinare. Si tratta di caratteristiche non molto efficaci per fronteggiare un fenomeno “complesso, poco familiare, lento, invisibile e intergenerazionale”, come quello dei cambiamenti climatici. Insomma, come specie non siamo fatti per contrastare questi pericoli.

La tesi di Marshall, co-fondatore di Climate Outreach Information Network, organizzazione no-profit impegnata nella sostenibilità ambientale, si inserisce all’interno dell’intenso dibattito accademico e politico sul negazionismo, a cui non è associato certo solo il global warming. Come è noto, secondo alcuni movimenti e correnti di pensiero non c’è correlazione tra Hiv e Aids, l’Olocausto non è mai accaduto, i vaccini causano l’autismo e la teoria scientifica dell’evoluzione non ha prove sufficienti. Come ha sottolineato il fondatore della Skeptics Society Micheal Shermer, in un articolo pubblicato su un numero speciale di qualche tempo fa della rivista New Scientist, è importante comprendere che ad animare queste persone non c’è un sano dubbio.
Diversamente dagli scettici i negazionisti “continuano semplicemente a negare” anche di fronte a prove schiaccianti.

Una delle interpretazioni tradizionali di questa ostinazione è che la colpa è dell’ignoranza. Di conseguenza, se solo i non-esperti conoscessero la scienza non potrebbero fare a meno di apprezzarla e sostenerla. Numerose ricerche hanno smentito quest’approccio mostrando che il rifiuto dei risultati della ricerca è solo debolmente correlato all’alfabetizzazione scientifica. Recentemente Dan Kahan, professore all’Università di Yale ed esperto di percezione del rischio, in una ricerca pubblicata su Nature ha mostrato che ad esempio le opinioni degli americani sul riscaldamento globale sono principalmente influenzate dall’appartenenza politica. I dati raccolti da Kahan mostrano inoltre che i sostenitori del movimento Tea Party hanno un livello di alfabetizzazione scientifica leggermente superiore alla media americana.

Un’altra chiave di lettura per spiegare il negazionismo è la mancanza di fiducia nei confronti della scienza. Anche in questo caso le inchieste sociologiche rivelano un quadro più complesso. Un’indagine del Pew Research Center nel 2009 mostrava che più dell’ottanta per cento della popolazione statunitense considerava la scienza una forza positiva della società. Secondo il report The 2014 Public Attitudes to Science, pubblicato qualche settimana fa dall’istituto demoscopico Ipsos Mori, il 90 per cento dei britannici ritiene che scienziati e ingegneri forniscano un contributo prezioso alla collettività. Sono risultati in linea con la media europea, inclusa l’Italia.

Come si conciliano allora le grandi aspettative nei confronti di scienza e tecnologia con la resistenza anche tenace ad alcuni suoi risultati nel caso di vaccini, evoluzione e global warming? Il punto è che un conto è fidarsi della scienza in generale, un altro è prevedere le nostre reazioni individuali quando ci confrontiamo concretamente con i risultati della ricerca nei contesti più diversi: dai processi decisionali per la costruzione di un inceneritore a pochi passi dalle nostre case, alle scelte sulle terapie per fronteggiare il cancro o all’educazione che vogliamo dare ai nostri figli. Nell’articolo What Scientists Really Do, pubblicato qualche tempo fa sul New York Review of Books, il fisico e astronomo Priyamavda Natarajan spiega che la contraddizione nasce dall’incapacità dei non-esperti di fare i conti con la provvisorietà della ricerca. Natarajan suggerisce di leggere il libro Curiosity: How Science Became Interested in Everything, scritto da nel 2013 da Philip Ball, ex-direttore di Nature, per comprendere come questa provvisorietà sia in realtà un punto di forza della scienza, perché permette di raffinare le conoscenze sul mondo naturale in un processo senza fine di confronto con la realtà.

Sta di fatto che il negazionismo riesce a prosperare proprio nelle pieghe dell’incertezza, una parola che per gli scienziati ha un significato diverso dall’accezione comune, ma che proprio per la sua ambiguità permette alle tesi cospirazioniste di fornire spiegazioni alternative che danno l’illusione di riappropriarsi di un controllo perduto, anche se queste spiegazioni non sono supportate dai fatti.

Per contrastare complottismo e scetticismo l’approccio paternalistico è poco efficace, anzi si rivela spesso arrogante e alienante. Alla fine del suo libro sul cambiamento climatico Marshall suggerisce che bisognerebbe prendere le chiese evangeliche come modello per imparare a comunicare efficacemente sulle conseguenze del riscaldamento globale. Il senso della sua provocazione è che bisogna considerare il problema in un contesto più ampio, trattarlo come un processo che ci riguarda per tutta la vita, mettendo in conto periodi di dubbio e incertezza, ma anche di illuminazione personale. Per questo bisogna saper ascoltare, sostenere e mettersi alla pari di tutti gli interlocutori, come sanno fare da millenni le religioni.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 25 ottobre 2014.

Se l’atomo fa bene all’ambiente*

18_10_2014 L’utilizzo di bombe atomiche per riparare a disastri ecologici può oggi apparire un ossimoro. Eppure, per molto tempo Stati Uniti e Unione Sovietica hanno ritenuto l’opzione nucleare un’efficace strumento per la salvaguardia dell’ambiente. Ancora nel 2010, quando un incidente sulla piattaforma Deepwater Horizon causò nelle acque del Golfo del Messico il più grave sversamento di petrolio nella storia americana, esperti riconosciuti di questioni energetiche statunitensi considerarono seriamente la possibilità di una detonazione atomica controllata richiamandosi a esperimenti simili condotti durante la guerra fredda. Come ricostruito in un’indagine pubblicata la scorsa settimana sul magazine Nautilus, fu solo la forte avversione dell’opinione pubblica nei confronti del nucleare, definitasi a partire dagli anni settanta, a far desistere i governi delle due maggiori potenze mondiali dal proseguire alcuni dei programmi più originali d’uso delle esplosioni atomiche a scopi pacifici.

L’idea, quattro anni fa, di sigillare il pozzo trivellato dalla Deepwater Horizon con una bomba nucleare sotterranea era stata accolta con favore da opinionisti, banchieri e ingegneri come Micheal Webber, vice-direttore dell’Istituto di Energia all’Università del Texas. Webber, in un intervento sul New York Times, dichiarò che la possibilità di generare sotto il fondale marino delle temperature superiori a quelle della superficie solare era “sorprendentemente praticabile e appropriata”. Il calore sprigionato dall’ordigno atomico sarebbe stato infatti in grado di sciogliere decine di migliaia di metri quadri di roccia porosa per trasformarla in un enorme tappo vetroso in grado di arrestare il flusso di petrolio. Il progetto fu alla fine abbandonato più per ragioni politiche che tecniche.

L’entusiasmo dell’ingegnere americano e di altri fan della bomba sottomarina si basava su un resoconto specialistico del 1998 che svelava un aspetto poco noto dell’utilizzo dell’energia nucleare durante la guerra fredda. L’autore, Milo Nordyke, ex-direttore del Lawrence Livermore National Laboratory, centro californiano specializzato in ricerche applicate alla sicurezza nazionale, in un rapporto intitolato The Soviet Program for Paceful Uses of Nuclear Explosions, descriveva quattro esplosioni realizzate dai sovietici tra il 1966 e il 1981 per spegnere incendi in pozzi di gas naturale fuori controllo. Si trattava solo di una parte di un ampio programma per l’uso di bombe atomiche a scopi pacifici. Gli Stati Uniti avevano progetti simili, seppure su scala minore.
Gli esperimenti sovietici illustrati dall’ex-responsabile dell’istituto californiano avevano funzionato in tre casi su quattro. Nel 1966, grazie all’utilizzo di ordigni nucleari, i tecnici dell’Urss avevano bloccato un flusso di gas di un pozzo in Uzbekistan da cui, per tre anni consecutivi, erano fuoriusciti 12 milioni di metri cubi di sostanze inquinanti al giorno. Secondo quanto riportato da Nordyke, uno dei quattro interventi per domare le fiamme non andò a buon fine solo perché non si possedevano dati geologici a sufficienza sul punto esatto della trivellazione.

Può forse oggi sembrare strano che esperti energetici e ingegneri abbiano considerato le bombe nucleari una possibilità tra le altre di intervenire sull’ambiente, ma non lo era affatto durante il secondo dopoguerra da entrambe le parti della cortina di ferro. L’energia scaturita dalla scissione dell’atomo e i suoi utilizzi avveniristici per migliorare la vita delle persone suscitavano entusiasmi nell’opinione pubblica e tra i governanti.
A partire dalla fine degli anni cinquanta le proposte per un uso creativo delle bombe atomiche a scopi pacifici non a caso si moltiplicarono. Sempre secondo quanto descritto su Nautilus, l’Unione Sovietica diede avvio in quegli anni a un programma che prevedeva 122 esplosioni nucleari con le finalità più varie. Bombe atomiche furono usate fino a poco prima della caduta del muro di Berlino non solo per sigillare pozzi, ma anche per realizzare laghi, canali, dighe, per trovare risorse geologiche e creare nuovi elementi. Tra gli usi previsti più sorprendenti vale la pena menzionare la creazione di vaste cavità sotterranee, isolate dalla biosfera e da falde acquifere, in cui disporre rifiuti tossici. L’idea è stata ripresa in epoca post-sovietica da alcuni scienziati russi come proposta per liberarsi dalle scorie radioattive. Potrà sembrare paradossale, ma lo scoppio di una bomba atomica potrebbe essere uno dei metodi più efficaci in circolazione per smaltire gli scarti di combustibile della fissione nucleare. L’esplosione sotto terra fonderebbe infatti assieme rifiuti e roccia in un blocco stabile, la cui radioattività si dissiperebbe in sicurezza nell’arco di millenni.

Dopo la guerra fredda le considerazioni di natura tecnica vennero superate dall’ampio consenso fra le potenze nucleari a rinunciare a qualunque uso delle bombe atomiche, anche per finalità pacifiche. L’ultima esplosione sul territorio americano risale al 1992, nel deserto del Nevada, dopo più di 1000 test nucleari da parte degli Stati Uniti in più di quarant’anni.
Tali decisioni furono anche il risultato di un mutamento del clima d’opinione nei confronti del nucleare, la cui immagine pubblica tra gli anni settanta e gli anni ottanta del secolo scorso si stabilizzò come negativa dopo ampi periodi di generale consenso. Come dimostra il fisico e storico americano Spencer Weart, autore di opere approfondite sulla storia della percezione del rischio nucleare, ad esempio durante il secondo dopoguerra e per tutti gli anni cinquanta gli atomi godevano di ottima fama. Nel libro The Rise of Nuclear Fear, pubblicato nel 2012, Weart descrive come successivamente e gradualmente le tensioni della guerra fredda trasformarono l’immaginario diffuso sulla radioattività, che da terapia in grado di salvare milioni di persone venne sempre di più percepita come un’insidiosa contaminazione letale su scala planetaria. Incidenti come quelli della centrale americana Three Mile Island e il disastro di Chernobyl nel 1986 contribuirono a mutare definitivamente l’immagine dell’energia nucleare agli occhi dell’opinione pubblica internazionale: non più miracolo futuristico ma minaccia di catastrofe globale.
Qualunque uso delle bombe nucleari divenne politicamente insostenibile. Si comprende così facilmente perché Stati Uniti e Unione Sovietica dovettero rinunciare ai loro programmi di utilizzo pacifico di esplosioni atomiche, inclusi quelli di salvaguardia dell’ambiente.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 18 ottobre 2014.

il porto franco triestino della fisica dell’altro mondo*

1412335022448 Cinquant’anni fa nasceva nel pieno della guerra fredda a Trieste un istituto scientifico unico al mondo: un centro di ricerca pura pensato per permettere ai paesi in via di sviluppo di svolgere attività scientifica d’eccellenza. La sua storia è stata celebrata a ottobre dell’anno scorso in un convegno a cui partecipano fra gli altri premi Nobel per la fisica, medaglie Fields per la matematica e il direttore generale dell’Unesco. Ma il Centro internazionale di fisica teorica (Ictp) Abdus Salam ha avuto origine in un contesto culturale e geopolitico che non esiste più ed è lecito chiedersi qual sia il senso della sua mission oggi.

L’ictp è il solo istituto scientifico al mondo su cui sventola la bandiera dell’Onu. Il suo fondatore, il pakistano Abdus Salam, a cui è intitolato il centro dal 1996, è stato finora l’unico scienziato di origine islamica ad aver vinto un premio Nobel per la fisica. Fortemente voluto negli anni sessanta del secolo scorso dall’allora ministro degli esteri Giulio Andreotti, l’Ictp è tuttora ampiamente sostenuto dal governo italiano con un contributo attuale di 20,5 milioni di euro all’anno, pari all’85 per cento circa del budget complessivo.

Un ottimo investimento, a leggere i numeri. Solo nel 2013, l’istituto è stato visitato da quasi seimila studenti e ricercatori provenienti da 139 nazioni, soprattutto da paesi in via di sviluppo, in primis Algeria, Nigeria, Egitto, fino a Costa Rica, Ecuador, Guatemala, di cui il 23 per cento sono donne. ln cinquant’anni di vita il centro è stato teatro di più di 140 mila visite soprattutto da paesi poveri, con una produzione scientifica costante e di livello internazionale.

Una delle caratteristiche peculiari del modello organizzativo dell’Ictp è favorire il ritorno dei visitatori nei paesi d’origine dopo il periodo di permanenza a Trieste. L’obiettivo è raggiunto attraverso una serie di programmi che, da una parte, permettono di mantenere un legame duraturo col centro triestino, dall’altra di promuovere progetti scientifici legati ai bisogni specifici del territorio di provenienza. Uno dei più consolidati è l’ Associateship Scheme, grazie al quale vengono stabiliti rapporti di lungo termine con i singoli ricercatori. Attraverso il Federation Arrangement Scheme, le istituzioni dei paesi in via di sviluppo possono invece mandare a Trieste i loro scienziati, di età inferiore ai 40 anni, per visite comprese fra i 60 e i 150 giorni, per un periodo complessivo di tre anni, durante il quale i partecipanti svolgono varie attività formative e di ricerca. In questo caso le spese sono condivise.

I primati dell’Ictp sono stati raggiunti anche grazie alla capacità, negli anni, di mutare pelle sia negli interessi di ricerca, perché alla fisica pura si sono aggiunti altri ambiti disciplinari, come la fisica del tempo e del clima, la geofisica dei terremoti o la computer science, sia sul piano strategico-istituzionale.

“I profondi cambiamenti geopolitici accaduti dal 1964 a oggi”, spiega a pagina99 Sandro Scandolo, senior scientist e delegato dell’Ictp per le relazioni con l’Italia, “hanno modificato il rapporto con diversi paesi che una volta ricevevano il nostro supporto. Nazioni come la Cina e il Brasile, diventate forze trainanti della ricerca internazionale, hanno sempre meno bisogno dei servizi tradizionali del nostro istituto, ma continuano a chiederci aiuto perché vogliono fare nel loro paese quello che abbiamo fatto a Trieste. Da diretti beneficiari sono diventati partner: per questo credo che il modello organizzativo originale sostenuto dai fondatori dell’Ictp abbia vinto”.

Nella visione del già citato Salam e del fisico triestino Paolo Budinich, i due artefici del Trieste Experiment, come lo definì all’epoca il New York Times, c’era un progetto inedito di sostegno ai paesi poveri attraverso la scienza. Non semplicemente un centro d’attrazione per i ricercatori di paesi in via di sviluppo, ma un investimento di lungo termine sul capitale umano: l’Ictp doveva essere un necessario luogo di formazione, ma di passaggio, per chi poi sarebbe ritornato in patria per assumere ruoli di leadership scientifica. Un approccio molto diverso da quello seguito da grandi istituzioni come il Mit di Boston o il College de France di Parigi, dove sapevano bene che la “fuga dei cervelli” conveniva soprattutto se unidirezionale.

Non a caso, quando nei primi anni sessanta si trattò di decidere sull’apertura del centro, tutti i grandi del mondo si schierarono contro, con un’inedita convergenza tra Stati Uniti e Unione Sovietica. Le due potenze erano divise su tutto, ma concordavano nel non voler sostenere Trieste come porto franco scientifico per la rinascita economica dei paesi del Terzo Mondo attraverso la ricerca pura. Per i detrattori si trattava di un progetto folle e visionario che però incontrò il sostegno determinante dell’ambasciatore Egidio Ortona e sopratutto dell’allora ministro degli esteri Giulio Andreotti.

Iniziò una lunga battaglia diplomatica che, come spiega Pietro Greco nel libro Buongiorno prof. Budinich, edito da Bompiani nel 2007, trovava le sue ragioni in motivi che andavano al di là della scienza. In particolare, il nostro paese dopo aver perso la guerra aveva bisogno di recuperare lo status di potenza sviluppata e per questo voleva mostrarsi come nazione donatrice. Ed è proprio la generosità del finanziamento garantito dal governo italiano che risultò infine decisiva per vincere le resistenze.

Tale stanziamento, come già accennato, continua a essere cospicuo anche oggi e se da una parte l’Ictp rimane una scommessa di successo, dall’altra bisogna confrontarsi con un contesto internazionale radicalmente cambiato e con un’Italia attraversata da una profonda crisi economica.

“Non c’è dubbio”, afferma Scandolo, “che ci dobbiamo rapportare con problemi nuovi. Rispetto al passato siamo ad esempio sempre più costretti a lavorare con governanti che prediligono aspetti applicativi e pretendono risultati immediati: in poco tempo vorrebbero costruire centri di ricerca innovativi dove adesso non c’è niente. Questo non è possibile e noi abbiamo il compito di convincerli che la formazione di base è fondamentale, richiede pazienza, ma si rivela cruciale sul lungo periodo. Credo che per questo la nostra funzione continui a rimanere fondamentale”.

Come convive la realtà del centro triestino con le difficoltà economiche italiane? Al di là dell’importante impatto scientifico, Scandolo ammette che “bisogna comunicare meglio il fatto che l’Ictp continua a essere strategico in termini di cooperazione internazionale dando la possibilità all’Italia di costruire contatti con realtà altrimenti difficilmente raggiungibili.” In altre parole l’Ictp, anche se da noi poco conosciuto, rimane un significativo braccio operativo della politica estera nazionale.

Non si può dimenticare poi che l’istituto è stato il generatore del cosiddetto Sistema Trieste, ha fatto cioè decollare la nascita dell’insieme di realtà scientifiche e tecnologiche che rende il oggi il capoluogo giuliano una delle città europee con la maggiore densità di persone impiegate nel settore ricerca e sviluppo.

Lasciata alle spalle la stagione dei “lucidi visionari” Salam e Budinich, ai successori alla guida dell’Ictp rimane quindi il compito di non far perdere il mordente a scienziati, politici e opinione pubblica per una storia scientifica e politica di successo, in controtendenza con la narrativa del declino italiano e che ha reso fra l’altro Trieste, come ha affermato il fisico ruandese Romani Maurenzi, direttore esecutivo dell’Accademia mondiale delle scienze, forse l’unica città al mondo e sicuramente l’unico posto in Italia dove “quando incontri una persona di colore pensi che sia uno scienziato”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 4 ottobre 2014.

Ecco perché il calcio è sacro*

Football Fans Gather On Beach In Rio To Watch Argentina v Netherlands Semifinal Match Lo scriveva già Pasolini quando nei Saggi sulla letteratura e sull’arte affermava che il “calcio è l’ultima rappresentazione sacra del nostro tempo. È rito nel fondo, anche se è evasione”. Il genio analitico dell’intellettuale friulano trova oggi conferma nelle più recenti teorie scientifiche sulla religione, come quella dell’antropologo britannico Harvey Whitehouse. In un intervento sull’ultimo numero del magazine Nautilus, rivista sostenuta dalla Templeton Foundation e presentata come una sorta di New Yorker della comunicazione della scienza, lo studioso, in forze all’Università di Oxford, espone la sua visione sulle radici delle credenze religiose. Secondo Whitehouse, più che il bisogno di trovare risposte alle domande profonde di senso, la fede nel soprannaturale nasconde la necessità di creare legami personali e di definire un senso di appartenenza a una comunità per cui valga la pena vivere e sacrificarsi, come accade nei tifosi di calcio per la squadra del cuore.

Whitehouse ha sviluppato una teoria della religione basata sul potere che hanno i rituali nel favorire la coesione di gruppo. Per chiarire i punti cardini della sua teoria sfrutta l’analogia con quanto si vede negli stadi di tutto il mondo. “Ci sono molte situazioni che non hanno a che fare con dilemmi esistenziali”, spiega lo studioso britannico, “ma che ispirano spiegazioni soprannaturali. Probabilmente la più comune è quella dei rituali effettuati in contesti con un certo rischio di fallimento. Molte persone ad esempio vanno a vedere le partite di calcio sempre con gli stessi pantaloni e magliette perché le ritengono dei portafortuna. O si pensi ai gesti ripetitivi dei giocatori prima di tirare un calcio di rigore”. In altre parole, le esibizioni ritualistiche a cui assistiamo in uno stadio non sono differenti da quelle esplicite che si vedono nelle cerimonie in chiesa o in una moschea. Di conseguenza, la sacralità associata a una confessione religiosa non è diversa da quella che i tifosi attribuiscono alla propria squadra.

È probabile che le tesi di Whitehouse possano risultare irriverenti a molti fedeli, ma le sue argomentazioni sono basate su un’imponente raccolta di dati accumulati negli anni e inseriti in un quadro concettuale altamente interdisciplinare in cui convergono archeologia, etnografia, storia, psicologia evolutiva e scienze cognitive. Il calcio è solo un esempio per spiegare che le credenze nel soprannaturale derivano da cerimonie e legami preistorici. Gli interessi di Whitehouse per la religione risalgono agli anni ottanta del secolo scorso, quando ha iniziato a studiare i riti tradizionali della Papua Nuova Guinea.

L’antropologo di Oxford ha raccolto per anni evidenze archeologiche di rituali complessi e cerimonie di iniziazione traumatiche praticate per fondere in modo indissolubile l’identità dell’individuo con la comunità di appartenenza. Le prove consistono in materiali e oggetti che testimoniano le diverse accezioni con cui si interpreta oggi il fenomeno religioso: pendagli, monili, collane e altri materiali raccolti in vari siti sparsi nel mondo, dal Sud America all’Africa, rivelano ad esempio la fiducia nella vita dopo la morte o suggeriscono l’esperienza di stati alterati della coscienza. Le tracce di tali pratiche le ritroviamo oggi anche nelle religioni istituzionalizzate, nelle preghiere quotidiane dei musulmani o nella frequentazione della messa da parte dei cristiani almeno una volta alla settimana.

Le ricerche di Whiteouse fanno parte di una corrente di studi che cerca di spiegare la religione con la scienza. L’antropologo britannico è uno dei principali esponenti internazionali di un settore interdisciplinare che vuole chiarire diversi aspetti del fenomeno religioso facendo ricorso alle scienze cognitive e a un approccio evolutivo. È in questo milieu culturale che si inserisce uno dei testi più controversi degli ultimi anni sul rapporto tra scienza e fede, il libro L’illusione di Dio, del biologo Richard Dawkins, pubblicato in Italia da Mondadori nel 2007. Dawkins, dichiaratamente ateo e brillante divulgatore, propone numerose ipotesi evoluzionistiche che avrebbero portato gli esseri umani a credere in esseri soprannaturali: una delle più consolidate è quella che lega il pensiero religioso a un maggior sviluppo cognitivo. Il volume dello scienziato britannico è diventato un manifesto per i movimenti atei di mezzo mondo perché non si limita a fornire argomentazioni scientifiche a favore della sua tesi, ma si scaglia veementemente contro la religione, ritenuta pericolosa, causa di guerre, conflitti e azioni atroci, nonché un insulto alla dignità umana. Il testo rivendica viceversa l’orgoglio di essere atei, segno di indipendenza, salute e di una coscienza superiore. Esplicitamente Dawkins vuole fare proseliti al contrario. È inutile sottolineare che il libro è stato al centro di polemiche feroci e reazioni diametralmente opposte.

In un terreno più accademico e un po’ più sereno si colloca di recente quella che alcuni critici considerano l’opera più ambiziosa sullo studio delle mitologie dopo i lavori di Mircea Eliade, storico delle religioni rumeno considerato l’inventore della ricerca moderna nel settore. Stiamo parlando del volume The origins of the World’s Mythologies, scritto da Michael Witzel dell’Università di Harvard e pubblicato dalla Oxford University Press nel 2013. Il libro, in quasi settecento pagine, fornisce una solida base empirica sull’origini dei miti nel mondo attingendo a dati ricavati dall’archeologia, della linguistica comparativa e dalla genetica delle popolazioni. La tesi di Witzel è che esiste un’unica fonte comune africana da cui hanno origine i nostri miti collettivi. Essi non sono solo le prime evidenze di spiritualità antica ma, molto più significativamente, hanno una serie di caratteristiche essenziali che sopravvivono ancora oggi nelle principali religioni del mondo.

I lavori di Witzel e Whitehouse rappresentano alcuni degli sforzi più recenti e rilevanti di una comunità di studiosi che vuole rendere la storia delle religioni sempre di più una scienza empirica. Si tratta di un approccio che non ha necessariamente l’effetto di esacerbare il conflitto fra credenti e atei. Come spiega Whitheouse, “non penso che la scienza sarà mai in grado di dimostrare se Dio esiste o no. Questo rimarrà sempre una questione di fede. I credenti dovrebbero però essere aperti alla possibilità che alcuni fenomeni che ritengono misteriosi sul senso della vita o sul mondo possano in realtà essere spiegate dalla scienza. Allo stesso tempo credo che molto di quello che riguarda la vita umana vada oltre gli scopi dell’indagine scientifica”.

*Quest’articolo è stato pubblicato sul sito web di Pagina99we del 28 settembre 2014.

nessun pericolo dal bosone*

pg 99 set 2014 Se l’icona vivente della scienza contemporanea si pronuncia sull’apocalisse è impossibile non dargli ascolto. Ma più di improbabili scenari catastrofisti, le recenti affermazioni di Stephen Hawking sulla possibile distruzione dell’universo a causa del potenziale di Higgs ripropongono la portata ciclopica del grande sogno dei fisici teorici: quello di una teoria finale, di un’unica spiegazione per tutte le proprietà del mondo.

Il cosmologo e astrofisico britannico, già titolare della cattedra lucasiana di matematica all’Università di Cambridge che fu di Isaac Newton, non ha mai avuto un rapporto facile con il bosone di Higgs. Nel 2000 Hawking aveva scommesso 100 dollari col collega Gordon Kane che i fisici non sarebbero mai stati in grado di trovarlo. Perse la scommessa nel 2012, quando dal Cern di Ginevra annunciarono che la caccia era finita: dopo circa cinquant’anni dagli studi teorici di Peter Higgs, gli esperimenti condotti con l’acceleratore Large Hadron Collider rivelavano l’esistenza della particella. Hawking non si perse d’animo e, a fronte di un’esultanza planetaria, affermò che la scoperta rendeva la fisica meno interessante. Non pago delle critiche, qualche settimana fa lo scienziato famoso per i suoi studi sui buchi neri ha affermato che la “particella di Dio”, espressione definita dagli addetti ai lavori una detestabile invenzione giornalistica, potrebbe addirittura essere la protagonista di uno scenario da Armageddon.

Non è un dettaglio che Hawking abbia recitato il ruolo della cassandra nella prefazione del libro Starmus: 50 years of man in space. Se il dubbio della trovata di marketing è lecito, rimane il fatto che l’allarme del fisico britannico ha riacceso i riflettori mediatici internazionali, e la discussione tra gli studiosi, sulla natura e sul futuro della fisica delle particelle.

A dire il vero, gli accadimenti preconizzati da Hawking non costituiscono una gran novità per gli esperti e, soprattutto, sono estremamente improbabili. Per capire perché bisogna considerare che la misura attuale della massa del bosone di Higgs avrebbe svelato il cosiddetto stato di “metastabilità” in cui si trova l’universo, una condizione che, se pur in linea del tutto teorica, potrebbe essere modificata con un apporto di energia o per effetti quantistici, con conseguenze devastanti. Le energie necessarie per la catastrofica transizione sono però assolutamente al di fuori della portata di qualunque acceleratore di particelle realizzabile da esseri umani. Inoltre, anche se si considerano decadimenti quantistici, tale processo potrebbe richiedere tempi inconcepibili per la nostra esperienza, come 10 elevato a 100 anni, o non accadere mai. Altre misure e nuovi calcoli potrebbero infine rivelare che l’universo è più stabile di quanto si pensi.

Più interessante di ipotesi fantascientifiche, la provocazione di Hawking rivela che il futuro della fisica delle particelle passa per la costruzione di acceleratori sempre più potenti a energie sempre più elevate. Forse Hawking non è d’accordo con quest’approccio e manifesta il suo dissenso con iperboli catastrofiste. Non lo sappiamo, ma di certo le maggiori energie a cui si vuole arrivare servono ad affrontare i problemi ancora aperti nella ricerca di un disegno profondo e unitario della natura, non a distruggere l’universo.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 27 settembre 2014. Lo riporto sul mio blog per loro gentile concessione.

eccidi strategici la razionalità del boia*

p99 6 set 2014 Sepolti vivi. Intrappolati sulle montagne del Sinjar. Separati dai propri cari. In fuga a migliaia da stupri, torture, esecuzioni mostruose. Sono le storie raccontate da yazidi, turcomanni e cristiani scampati all’aggressione jihadista dello Stato islamico. I profughi disperati in cammino al confine tra Iraq e Siria, insieme alla decapitazione del reporter americano James Foley, sono tra le immagini più tragicamente significative di questa tormentata estate mediorentale ed entreranno di diritto a far parte della inesausta galleria di atrocità nei confronti dei civili che accompagna da sempre tutte le guerre. Violenza religiosa, barbarie ataviche, pulizia etnica, follia sadica sono ancora espressioni molto diffuse nei media, tra commentatori e analisti politici per spiegare la furia assassina delle milizie di al-Baghdadi, così come il massacro di musulmani bosniaci a Srebrenica nel 1995 o l’uccisione a colpi di machete di centinaia di migliaia di tutsi in Ruanda nel 1994, solo per limitarci agli stermini di massa più eclatanti degli ultimi decenni.

In realtà, la ricerca accademica ha da tempo sancito che nella violenza contro civili inermi c’è poco d’irrazionale, estemporaneo o ancestrale. Uccisioni indiscriminate e genocidi sono quasi sempre pianificati a tavolino. Semmai non c’è accordo tra gli studiosi su quali siano i motivi specifici per accanirsi su popolazioni indifese o i presupposti che rendono più probabili le violenze su larga scala. Rimane poi del tutto aperta la questione forse più rilevante nella logica dei conflitti armati: se tutta questa barbarie abbia realmente un’efficacia politico-militare.
In una rassegna della letteratura più significativa sull’argomento, pubblicata di recente sulla rivista The Annual Review of Political Science, lo scienziato politico Benjamin A. Valentino, dell’università Dartmouth College negli Stati Uniti, illustra come negli ultimi vent’anni anni circa si sia stabilizzato un consenso pressoché unanime sul fatto che la violenza organizzata da parte di governi, gruppi ribelli, insorti o organizzazioni terroristiche, vada interpretata principalmente, se non esclusivamente, come il prolungamento dell’azione politica e militare di gruppi di potere in lotta tra di loro. Brutalità e vessazioni nei confronti dei civili, letti per lungo tempo come una tragica e inevitabile conseguenza indesiderata dei conflitti, giocano in realtà un ruolo centrale nei piani strategici dei gruppi belligeranti e rientrano a tutti gli effetti nelle logiche profonde alla base delle ostilità. Per parafrasare la celebre frase del teorico militare prussiano Von Clausewitz, gli stermini di massa non sarebbero altro che “la prosecuzione della guerra con altri mezzi”. È una visione secondo cui i civili sono spesso gli obiettivi principali dei conflitti stessi.

Il cambiamento di prospettiva riguarda anche il terrorismo. Nel 2005 Robert Pape, docente di scienze politiche all’Università di Chicago ed editorialista del New York Times, offriva l’analisi più ampia e dettagliata disponibile all’epoca sulla logica strategica, sociale e individuale del terrorismo suicida. Nel libro Dying to Win – morire per vincere – Pape raccoglieva una grande quantità di dati sugli attacchi suicidi avvenuti dal 1980 al 2003. Il 95% dei casi esaminato era il prodotto di campagne pianificate, di cui oltre la metà condotta da organizzazioni non religiose. I numeri mostravano la natura politica e laica del fenomeno, confermata anche dalle testimonianze dei leader dei gruppi terroristici raccolte dall’autore. La tesi principale è in linea con i risultati di Valentino: gli attacchi suicidi e la loro crescita non si spiegano con il fondamentalismo religioso, e nemmeno con la povertà. Essi sono una risposta organizzata a quella che viene percepita come l’invasione di uno stato nemico. “Il terrorismo”, scrive Pape, “è una strategia di coercizione, un mezzo per obbligare i governi a cambiare le loro policy. La logica centrale di questa strategia è semplice: infliggere una sofferenza tale ai nemici da farli cedere alle proprie richieste e indurre i governi a fare concessioni o le popolazioni a ribellarsi”.

Il lavoro di Valentino, dal titolo Why We Kill: The Political Science of Political Violence against Civilians, non si limita però semplicemente a tracciare i confini attuali della letteratura dominante sulla violenza contro i civili. È soprattutto nelle linee di ricerca future che introduce i maggiori motivi d’interesse. Se, ad esempio, sono molto studiate le ragioni che spingono i governi alla violenza di massa, meno indagata è l’ampia variabilità nell’aggressività e nella natura di eccidi, torture e assassini da parte di gruppi ribelli. Secondo alcuni studiosi, questi ultimi ricorrono ad azioni armate brutali perché consapevoli della propria inferiorità rispetto alle forze militari governative. Tale debolezza, secondo altri, sarebbe un incentivo a usare la violenza per guadagnarsi la collaborazione di gruppi sul territorio schierati a favore degli insorti. Non è chiaro tra l’altro per quali ragioni alcune insurrezioni siano più cruente di altre. Le scuole di pensiero più accreditate individuano nel tipo di legame specifico che si instaura fra gruppi ribelli e civili la chiave per spiegare le differenti intensità di comportamenti sanguinari. Quando i movimenti rivoluzionari sono ad esempio foraggiati da finanziatori stranieri o si sostengono grazie allo sfruttamento di risorse naturali ne consegue abbastanza facilmente che essi riservino una minore attenzione alla popolazione locale rispetto a gruppi la cui esistenza dipende fortemente dalla cooperazione con determinate comunità del luogo.

Il consenso descritto da Valentino sulla natura politica e programmata della violenza di massa fa emergere poi una questione ovvia ma forse più cruciale di tutte: la strategia del terrore funziona? La limitata attività di ricerca a disposizione attualmente sull’argomento indica che “la violenza indiscriminata su larga scala contro i civili generalmente non è efficace, almeno sul lungo periodo”. Lo scienziato politici Stathis N. Kalyvas dell’Università di Yale ha mostrato nei suoi lavori quanto spesso la violenza di massa nelle guerre civili “si ritorca contro coloro che ne fanno uso”. Un importante studio del 2012, pubblicato sulla rivista American Journal of Political Science e basato sull’analisi di ampi database territoriali relativi a insurrezioni e attentati nella guerra irachena tra il 2004 e il 2009, ha messo in evidenza la progressiva perdita di consenso degli insorti a seguito di attentati indifferenziati nei confronti di civili. La preoccupazione per un’erosione del sostegno popolare portò alla famosa lettera che il leader di al-Qaeda al-Zawahiri nel 2005 inviò ad al-Zarqawi, all’epoca tra i maggiori esponenti jihadisti in Iraq, per invitarlo a minimizzare gli attacchi sommari sulla popolazione sciita. Anche il già citato Robert Pape, in una dettagliata ricerca sull’uso della potenza aerea in guerra, concludeva che i bombardamenti sulle popolazioni civili di solito “generano più rabbia nei confronti degli aggressori che nei confronti dei governi obiettivi degli attacchi”.

Lo studio dell’efficacia della violenza di massa sui civili è resa complicata da profonde difficoltà metodologiche. Una delle più rilevanti è la complessità nell’identificare le alternative militari rispetto alle quali confrontare la validità degli eccidi indiscriminati. D’altro canto, se la vittimizzazione dei civili è il risultato di un’attenta pianificazione, il suo successo o il suo fallimento può essere misurato solo rispetto ad altre strategie che i perpetratori delle violenze avrebbero potuto metter in campo.
Enfatizzare la logica dei fenomeni violenti contrapponendola a una loro presunta natura imponderabile, come ha sancito Valentino nella sua esaustiva rassegna, indebolisce comunque molto le nozioni di “guerra preventiva”, “intervento umanitario” o di altre ambigue espressioni a cui siamo ormai abituati per giustificare la necessità morale di reagire a quella che viene presentata come un’inaccettabile follia sanguinaria. La corrente di studi presentata dallo scienziato politico americano annulla la componente irrazionale della violenza politica, di volta in volta attribuita al fanatismo, all’ignoranza o alla ferocia individuale e ci invita a puntare sui fatti, a praticare un’azione politica, umanitaria e militare incentrata sulla conoscenza, a favorire metodi innovativi di prevenzione. Come conclude Valentino, “una comprensione più chiara delle radici profonde della violenza politica è naturalmente solo una condizione necessaria, ma non sufficiente, per prevenirla. La questione più importante per la ricerca accademica dei prossimi decenni rimane l’identificazione, da parte di studiosi e politici, di strategie di intervento efficaci per limitare la violenza nei confronti dei civili e aumentare la disponibilità, da parte delle nostre società, a mostrare la volontà politica per implementarle”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 6 settembre 2014. Lo riporto sul mio blog per loro gentile concessione.

Il cavallo azzurro che sfida i manicomi*

Contro la banalità del male un cavallo azzurro di cartapesta. È la risposta di Peppe Dell’Acqua, psichiatra, a lungo direttore del dipartimento di salute mentale di Trieste, tra i più attivi protagonisti negli anni ’70 e ‘ 80 del secolo scorso nella lotta per il superamento degli ospedali psichiatrici, di fronte ad abusi, sevizie, soprusi che continuano a ripetersi in tutta la penisola su persone con disabilità o disturbi di vario tipo. L’ultimo caso, ma solo in ordine di tempo, è quello avvenuto in una struttura educativa e riabilitativa di Grottamare, in provincia di Ascoli Piceno. Le telecamere dei Carabinieri hanno ripreso bambini e ragazzi affetti da autismo, di età compresa tra gli 8 e i 20 anni, denudati, riversi a terra, costretti a urinarsi addosso, disperati di fronte alle porte chiuse di uno stanzino senza finestre. Sono immagini visibili in rete realizzate nell’ambito di un’inchiesta della magistratura che poche settimane fa ha portato all’arresto di cinque operatori del centro la “Casa di Alice” con l’accusa di maltrattamento e sequestro di persona. Sono scene che si aggiungono a un triste repertorio di insensatezza che in alcuni casi culmina ancora oggi con la morte, come è accaduto a Franco Mastrogiovanni, maestro elementare deceduto nell’estate del 2009 nel reparto psichiatrico dell’ospedale San Luca di Vallo della Lucania dopo 4 giorni di trattamento sanitario obbligatorio in contenzione ininterrotta. L’intervento dei giudici in questo caso ha portato, alla fine di ottobre 2012, alla condanna in primo grado dei medici del reparto, con pene comprese tra i due e i quattro anni. Potremmo sentirci rassicurati dai provvedimenti della magistratura, ma “commetteremmo un errore”, sottolinea Dell’Acqua, perché “le azioni violente non sono determinate dalla cattiveria del singolo, ma dalle istituzioni, su cui è necessario reinterrogarci costantemente”. Ritorna alla mente quanto scriveva cinquant’anni fa Hannah Arendt a proposito del gerarca nazista Adolf Eichmann. “Il guaio del caso Eichmann”, scriveva l’allieva di Martin Heidegger e di Karl Jaspers nella sua opera più famosa “era che di uomini come lui ce n’erano tanti e che questi tanti non erano né perversi né sadici, bensì erano, e sono tuttora, terribilmente normali. Dal punto di vista delle nostre istituzioni giuridiche e dei nostri canoni etici, questa normalità è più spaventosa di tutte le atrocità messe insieme”. Di fronte ai prodotti delle organizzazioni burocratiche e dell’acquiescenza degli individui, di fronte alla riproduzione della banalità del male, che nel campo della psichiatria trova sempre un terreno straordinariamente fertile, la strategia di resistenza e di verità è per Dell’Acqua una macchina teatrale di colore blu: Marco Cavallo.

Sembrerebbe una sfida impari, ma il cavallo di cui stiamo parlando ha già dato grandi lezioni di coraggio. Ha un lungo curriculum di risposte alla violenza istituzionale. La sua vittoria più recente è stata l’approvazione della legge 52/2014, che a fine maggio ha introdotto indirizzi, dispositivi e limiti per arrivare concretamente alla chiusura degli Ospedali psichiatrici giudiziari (Opg) entro il 31 marzo 2015. La nuova norma è infatti anche frutto dell’ultimo viaggio di Marco Cavallo, promosso tra gli altri dal comitato StopOpg, svoltosi tra il 12 e il 25 novembre dell’anno scorso e conclusosi, dopo numerose tappe in tutt’Italia, con un incontro con la Presidente della Camera Laura Boldrini. L’approvazione della legge sugli Opg ha dimostrato che nei sei mesi successivi alla visita istituzionale non si è abbassata l’attenzione della politica. Questo è successo grazie anche ai 4000 chilometri percorsi da Nord a Sud della penisola dal destriero azzurro già simbolo quarant’anni fa della battaglia per il superamento definitivo del manicomio culminata nella famosa legge 180, frutto del lavoro di Franco Basaglia e della sua equipe.

La sua storia inizia infatti nel marzo del 1973, quando la grande macchina teatrale ideata tra le mura del manicomio del San Giovanni di Trieste, cerca di aprirsi un varco nelle vie della città. La forte valenza simbolica e ancora attuale del cavallo blu è ben rappresentata da un dettaglio di quell’episodio. Quando tutto sembra pronto per un ingresso insperato, e impensabile solo pochi anni prima, di un corteo festoso di matti e artisti tra le strade del capoluogo giuliano ci si accorge che Marco Cavallo è troppo alto per le grate del manicomio. Provano in tutti i modi ma non c’è niente da fare. Non si passa. Si decide di sfondare i cancelli usando Marco Cavallo come ariete, facendolo passare di taglio e non diritto. Il rischio è di uccidere la creatura appena nata, ma la scommessa viene vinta. La macchina di cartapesta ne esce un po’ malconcia ma si rimette in piedi e da allora non smette più di correre. Fuor di metafora, è l’inizio di un percorso che negli anni a venire si sarebbe composto con molti altri per disegnare un immaginario, una poetica, una rappresentazione sociale, un sistema di comunicazione dell’universo di storie, saperi e pratiche attorno alla malattia e alla salute mentale assolutamente rivoluzionario, impossibile da descrivere in termini di continuità col passato. Marco Cavallo simboleggia un cambio di paradigma di tutte le dimensioni di cui è investita la questione psichiatrica: dalla prospettiva scientifica a quella politica, da quella legislativa fino allo sguardo sulla società nel suo complesso. L’attualità e la potenza di Marco Cavallo non si comprendono infatti fino in fondo se non si è disposti ad accettarne l’uscita dallo specifico psichiatrico, la sua valenza universale. Il tema vero è quello dell’inclusione, l’impegno a non trasformare la diversità di ciascuno di noi in disuguaglianza, tentazione mai sopita da ogni forma di potere.Per questo rimane urgente la necessità di rendere il nuovo paradigma comprensibile, condivisibile, comunicabile, come si evince molto bene dal libro dell’artista e poeta Giuliano Scabia, che ha raccontato la storia dell’invenzione della “bestia” azzurra in un testo scritto tra il 1973 e il 1976 ripubblicato nel 2011 per i tipi della casa editrice Alphabeta Verlag di Merano col titolo Marco Cavallo. Da un ospedale psichiatrico la vera storia che ha cambiato il modo di essere del teatro e della cura.

Per questo Marco Cavallo incontra da quarant’anni difficoltà simili ma allo stesso tempo continuerà a correre. Come racconta lo stesso dell’Acqua in un articolo pubblicato a Gennaio 2014 sulla rivista Animazione Sociale, in cui vengono ripercorse le tappe del viaggio contro gli Opg, l’organizzazione “si è rivelata immediatamente molto complicata. Non all’altezza delle nostre dilettantesche capacità. […] Quando c’è di mezzo il Cavallo, accadono però cose magiche e insperate. Pochi giorni prima di una partenza ancora in dubbio, mentre facevamo e rifacevamo i conti per gli alberghi, la benzina, il costo delle autostrade, il maquillage del cavallo, mi arriva una telefonata da Gino Paoli, un vecchio amico che sento, di tanto in tanto, da quarant’anni. Da quando venne a cantare a San Giovanni. “Uè Peppe, come stai? – mi dice – qui abbiamo dei fondi per sostenere progetti d’interesse culturale e sociale, non è che c’hai un progetto da mandarmi subito?” “Qui” significava il Consiglio di Amministrazione della Siae, e io non sapevo che Gino Paoli ne è presidente. Così, nel giro di due giorni il progetto del viaggio ha ottenuto un determinante sostegno anche dalla Siae. Non posso non pensare che sia stato Marco Cavallo a presentarsi nel bel mezzo di quel CdA per suggerire a Gino Paoli di chiamarmi.” L’aneddoto mostra meglio di qualunque discorso teorico il misto di passione, fatica e fascinazione che ruota attorno a questa vicenda fin dalla sua nascita. Ma Dell’Acqua ci tiene a rifuggire da nostalgie reducistiche. “Quarant’anni fa”, spiega, “l’uscita del cavallo fu solo l’inizio. La critica alle istituzioni totali e il loro superamento continuano a essere nella prospettiva senza fine di quell’inizio. Di fronte alla persistenza degli Opg e alla fatica di avviare processi reali di chiusura, il cavallo non ha potuto restare fermo. Il cavallo continuerà a correre senza sosta, nei più diversi Paesi, laddove ci sarà bisogno di dire, domandare. Cercherà di trovare risposte a tutti coloro che si chiedono come mai sono stato legato per una settimana, come mai ho visto mio figlio per 15 giorni dietro una porta chiusa, come mai mio padre è morto dopo una settimana che era legato in un reparto di diagnosi e cura. Marco Cavallo continuerà a viaggiare per testimoniare e per ricordare ai giovani una storia che non hanno potuto conoscere. Si infurierà di fronte al denaro pubblico sprecato per sostenere cliniche private che non producono un grammo di salute in molte regioni d’Italia, senza differenze di colore politico, dal Lazio alla Lombardia, dalla Sicilia al Piemonte.” Un viaggio senza soste che troverà pause, conclude Dell’Acqua, vincitore del premio Nonino nel 2014 subito dopo la fine del tour di Marco Cavallo, solo per denunciare “i luoghi di insensatezza, i servizi psichiatrici vigilati da telecamere, gli ospedali psichiatrici giudiziari, le carceri, i centri di salute mentale sporchi e vuoti. Per questo non potrà mai smettere di galoppare”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 23 agosto 2014. Lo riporto sul mio blog per loro gentile concessione.

Economie emergenti, la crescita arriva dalle megalopoli*

Famoso per la teoria degli equilibri punteggiati alternativa alla visione di un’evoluzione biologica graduale e continua, lo scienziato americano Stephen Jay Gould, morto prematuramente nel 2002, era forse meno noto per una strana collezione di calzature raccolte nel corso dei suoi viaggi nel mondo in via di sviluppo. I sandali acquistati nei mercati all’aperto di Nairobi, Delhi e Quito probabilmente non erano il massimo dell’eleganza, ma avevano una caratteristica che affascinava Gould: erano fatti con pneumatici trovati tra le discariche. Dal punto di vista dell’autore di Intelligenza e pregiudizio, vincitore dell’American Book Award for Science, il passaggio dagli pneumatici alle scarpe non era solo un raro esempio di “ingegnosità umana”, ma anche la dimostrazione di come favelas e baraccopoli potessero rivelarsi a sorpresa luoghi in cui fiorisce l’innovazione. Nelle loro immense contraddizioni, i vasti agglomerati urbani abusivi sparsi su tutto il pianeta, in cui vivono attualmente circa un miliardo di persone e dove spesso mancano elettricità, fognature e impianti igienici, si mostravano come spazi privilegiati della creatività. In altre parole, Gould condivideva l’idea che l’iperurbanizzazione è un fattore di crescita nei paesi in via di sviluppo, a partire dai quartieri più illegali, poveri e irregolari. Ma è proprio così? Esiste una relazione positiva tra il grado di urbanizzazione e l’economia dei paesi emergenti?

Se nel caso dei paesi sviluppati abbiamo a disposizione una letteratura scientifica molto approfondita sul rapporto tra queste due variabili, lo stesso non si può dire per il Sud del mondo. Non sorprende allora che la discussione tra addetti ai lavori si presenti come una divisione tra apocalittici e integrati. Joel Kotkin, professore di sviluppo urbano e autore di The Next Hundred Million: America in 2050, apprezzato volume sul futuro demografico degli Stati Uniti, in un articolo apparso su Forbes nel 2011, sentenziava che “le megacittà nei paesi in via di sviluppo dovrebbero essere considerate per quello che sono: una tragica replica dei peggiori aspetti dell’urbanizzazione di massa che ha già contraddistinto il fenomeno in Occidente”. Più ottimiste studiose come Janice Perlman, fondatrice del Mega-Cities Project e autrice di testi fondamentali sulle favelas come Il mito della marginalità urbana, povertà e politica a Rio. Le sue ricerche mostrano che per quanto gli slums non siano certo posti desiderabili dove vivere, sono pur sempre luoghi migliori dei contesti rurali di provenienza per milioni di persone. A mettere un po’ ordine nella matassa di opinioni discordanti ci ha pensato di recente Gilles Duranton, professore di studi immobiliari della Wharton University, nella ricerca Growing trough Cities in Developing Countries, pubblicato sulla rivista World Bank Research Observer. Duranton ha realizzato un’accurata revisione dei lavori più approfonditi riguardanti l’impatto dell’urbanizzazione su crescita economica e sviluppo, sia nei paesi avanzati che in quelli emergenti. Il quadro che emerge, per quanto ottimistico, è complesso. I margini di miglioramento sono ampi ma impossibile prevedere cosa accadrà nei prossimi decenni. Un aspetto è certo: la posta in gioco è il nostro futuro globale.

La maggior parte della popolazione mondiale vive infatti oggi in città. Secondo le stime dell’Organizzazione Mondiale della Sanità, entro il 2050 sette persone su dieci risiederanno in aree urbane. Come certifica il rapporto Habitat del 2013 delle Nazioni Unite, le zone del pianeta in cui tale tendenza è più marcata sono Africa, Asia e America Latina: più del 90% della crescita urbana globale sta avvenendo in queste regioni. Nei paesi a basso reddito le città rappresentano la speranza di una vita migliore e più ricca per milioni di persone. Allo stesso tempo il grande afflusso di indigenti da campagne e contesti rurali ha creato dei veri e propri hub di povertà. Edward Glaser, economista di Harvard e autore del libro Il trionfo delle città, edito in Italia da Bompiani, sottolinea che le megalopoli “non sono piene di persone povere perché sono le città a renderle tali, ma perché le città attraggono persone povere”. Sempre secondo il rapporto Habitat, un terzo della popolazione urbana nei paesi in via di sviluppo risiede in baraccopoli e favelas. D’altro canto, le aree cittadine sono motori di successo economico. Lo studio Global Cities 2030 della Oxford Economics stima che le 750 città più grandi del pianeta producono il 57 per cento dell’attuale PIL mondiale.

Se questi dati lasciano pochi dubbi sul ruolo delle città nell’economia planetaria, più complessa è la decifrazione dei rapporti di causa-effetto tra crescita economica e urbanizzazione di un paese. Nella letteratura di settore si assume spesso che sia la prima a determinare l’aumento della seconda. Per questo, una delle tipiche preoccupazioni nelle scelte di policy è assicurare che la ridistribuzione di nuovi arrivi e di nuovi lavoratori avvenga in modo “bilanciato”. La ricerca di Duranton assume una prospettiva opposta: esamina in quale misura lo sviluppo economico sia influenzato dall’incremento sfrenato dell’urbanizzazione, non più trattato come un fenomeno da gestire ma come una potenziale ricchezza e comunque come parte integrante del processo di crescita. In questa cornice l’autore si chiede fra le altre cose se la produttività lavorativa aumenta quando le persone si spostano nelle città, e in caso di risposta affermativa come, in quale misura, in quanto tempo.
Anche se esistono differenze significative tra economie avanzate e nazioni in via di sviluppo. la risposta generale è che i lavoratori nelle città traggono beneficio dalle cosiddette economie di agglomerazione, vale a dire dalla concentrazione delle attività produttive in determinate regioni all’interno di un paese o di una più ampia area geopolitica. I vantaggi si suddividono in tre categorie: la condivisione di fattori produttivi; la qualità del mercato del lavoro, cioè il fatto che una concentrazione di imprese simili attira manodopera specializzata; la facilità con cui si diffonde la conoscenza necessaria a migliorare specifici processi.

Detto questo, le diversità fra Nord e Sud del mondo si manifestano in varie direzioni, a partire dal rapporto tra urbanizzazione e salari, molto più pronunciato nei paesi emergenti rispetto ai paesi ricchi. Uno studio del 2013 dell’Aix-School of Economics di Marsiglia stimava che, più in generale, gli effetti della concentrazione di molte attività in una stessa area (esternalità di agglomerazione) sono maggiori, anche fino a cinque volte, nei paesi in via di sviluppo rispetto a quelli avanzati.

Più grandi sono le città poi, più sono innovative. Con l’aumentare delle dimensioni, gli agglomerati urbani generano idee a un ritmo più sostenuto. Malgrado frastuono, folla e distrazioni, il residente medio di una metropoli con cinque milioni di abitanti è quasi tre volte più creativo del residente medio di una cittadina di centomila. Il fenomeno vale in tutto il pianeta. Anche le grandi città nei paesi in via di sviluppo agiscono come centri di innovazione, con un importante differenza però rispetto ai paesi avanzati: non sono in grado di trasferire la produzione di beni maturi in città più piccole e specializzate. Questa situazione, nota Duranton, rende le metropoli africane, asiatiche e sudamericane più grandi di quanto dovrebbero essere e aumenta la congestione delle città stesse. Aspetti negativi che si ripercuotono sui prezzi dei prodotti, realizzati a costi più alti. Le megalopoli nei paesi in via di sviluppo sono in altre parole funzionalmente molto meno specializzate di quelle dei paesi ricchi poiché risultano oppresse da attività “ancillari” che ne diminuiscono l’efficienza. I possibili rimedi potrebbero essere la realizzazione di nuove infrastrutture – in particolare nel settore dei trasporti – e la redistribuzione della produzione in centri più piccoli attraverso la riduzione dei favoritismi governativi nei confronti dei grandi contesti urbani.

Infine, il mercato del lavoro nelle città dei paesi in via di sviluppo è costituito da un ampio settore informale e fuori dalle regole, in altre parole in nero. L’OCSE ha stimato che entro il 2020 le attività economiche non censite e non autorizzate comprenderanno due terzi della forza lavoro globale. Più della metà dei lavoratori del mondo si muove in una zona d’ombra della politica e dell’economia e abita in gran parte gli enormi mercati fai-da-te e i quartieri autocostruiti delle megalopoli del Sud del mondo. Come ha scritto l’analista Robert Newirth in un articolo apparso in uno speciale della rivista Le Scienze di novembre del 2011, a “pianificatori e funzionari governativi tutto questo suona spaventoso. La loro preoccupazione è che questi quartieri e questi mercati così instabili possano produrre metastasi, che questi sterminati labirinti di strutture precarie e imprese mai registrate riescano a trascinare con sé le città nell’abisso”. Per Newirth si tratta viceversa di una visione del futuro urbano da valorizzare e accompagnare, non da respingere. La pensa allo stesso modo Duranton, secondo cui la graduale integrazione dei lavoratori in nero nelle regole del mercato formale costituisce una sfida cruciale per lo sviluppo delle megalopoli.

L’invito conclusivo dell’economista di origine francese è però resistere a qualunque tentazione di prevedere gli effetti dell’agglomerazione. Nei paesi in via di sviluppi ne sappiamo ancora troppo poco su quali siano i meccanismi reali con cui avviene questo fenomeno per poter azzardare qual è la policy giusta per affrontare i problemi di infrastrutture, economia sommersa e favoritismi governativi che impediscono alle enormi aree urbane del Sud del mondo di esprimere completamente il loro potenziale.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 2 agosto 2014. Lo riporto sul mio blog per loro gentile concessione.