eccidi strategici la razionalità del boia*

p99 6 set 2014 Sepolti vivi. Intrappolati sulle montagne del Sinjar. Separati dai propri cari. In fuga a migliaia da stupri, torture, esecuzioni mostruose. Sono le storie raccontate da yazidi, turcomanni e cristiani scampati all’aggressione jihadista dello Stato islamico. I profughi disperati in cammino al confine tra Iraq e Siria, insieme alla decapitazione del reporter americano James Foley, sono tra le immagini più tragicamente significative di questa tormentata estate mediorentale ed entreranno di diritto a far parte della inesausta galleria di atrocità nei confronti dei civili che accompagna da sempre tutte le guerre. Violenza religiosa, barbarie ataviche, pulizia etnica, follia sadica sono ancora espressioni molto diffuse nei media, tra commentatori e analisti politici per spiegare la furia assassina delle milizie di al-Baghdadi, così come il massacro di musulmani bosniaci a Srebrenica nel 1995 o l’uccisione a colpi di machete di centinaia di migliaia di tutsi in Ruanda nel 1994, solo per limitarci agli stermini di massa più eclatanti degli ultimi decenni.

In realtà, la ricerca accademica ha da tempo sancito che nella violenza contro civili inermi c’è poco d’irrazionale, estemporaneo o ancestrale. Uccisioni indiscriminate e genocidi sono quasi sempre pianificati a tavolino. Semmai non c’è accordo tra gli studiosi su quali siano i motivi specifici per accanirsi su popolazioni indifese o i presupposti che rendono più probabili le violenze su larga scala. Rimane poi del tutto aperta la questione forse più rilevante nella logica dei conflitti armati: se tutta questa barbarie abbia realmente un’efficacia politico-militare.
In una rassegna della letteratura più significativa sull’argomento, pubblicata di recente sulla rivista The Annual Review of Political Science, lo scienziato politico Benjamin A. Valentino, dell’università Dartmouth College negli Stati Uniti, illustra come negli ultimi vent’anni anni circa si sia stabilizzato un consenso pressoché unanime sul fatto che la violenza organizzata da parte di governi, gruppi ribelli, insorti o organizzazioni terroristiche, vada interpretata principalmente, se non esclusivamente, come il prolungamento dell’azione politica e militare di gruppi di potere in lotta tra di loro. Brutalità e vessazioni nei confronti dei civili, letti per lungo tempo come una tragica e inevitabile conseguenza indesiderata dei conflitti, giocano in realtà un ruolo centrale nei piani strategici dei gruppi belligeranti e rientrano a tutti gli effetti nelle logiche profonde alla base delle ostilità. Per parafrasare la celebre frase del teorico militare prussiano Von Clausewitz, gli stermini di massa non sarebbero altro che “la prosecuzione della guerra con altri mezzi”. È una visione secondo cui i civili sono spesso gli obiettivi principali dei conflitti stessi.

Il cambiamento di prospettiva riguarda anche il terrorismo. Nel 2005 Robert Pape, docente di scienze politiche all’Università di Chicago ed editorialista del New York Times, offriva l’analisi più ampia e dettagliata disponibile all’epoca sulla logica strategica, sociale e individuale del terrorismo suicida. Nel libro Dying to Win – morire per vincere – Pape raccoglieva una grande quantità di dati sugli attacchi suicidi avvenuti dal 1980 al 2003. Il 95% dei casi esaminato era il prodotto di campagne pianificate, di cui oltre la metà condotta da organizzazioni non religiose. I numeri mostravano la natura politica e laica del fenomeno, confermata anche dalle testimonianze dei leader dei gruppi terroristici raccolte dall’autore. La tesi principale è in linea con i risultati di Valentino: gli attacchi suicidi e la loro crescita non si spiegano con il fondamentalismo religioso, e nemmeno con la povertà. Essi sono una risposta organizzata a quella che viene percepita come l’invasione di uno stato nemico. “Il terrorismo”, scrive Pape, “è una strategia di coercizione, un mezzo per obbligare i governi a cambiare le loro policy. La logica centrale di questa strategia è semplice: infliggere una sofferenza tale ai nemici da farli cedere alle proprie richieste e indurre i governi a fare concessioni o le popolazioni a ribellarsi”.

Il lavoro di Valentino, dal titolo Why We Kill: The Political Science of Political Violence against Civilians, non si limita però semplicemente a tracciare i confini attuali della letteratura dominante sulla violenza contro i civili. È soprattutto nelle linee di ricerca future che introduce i maggiori motivi d’interesse. Se, ad esempio, sono molto studiate le ragioni che spingono i governi alla violenza di massa, meno indagata è l’ampia variabilità nell’aggressività e nella natura di eccidi, torture e assassini da parte di gruppi ribelli. Secondo alcuni studiosi, questi ultimi ricorrono ad azioni armate brutali perché consapevoli della propria inferiorità rispetto alle forze militari governative. Tale debolezza, secondo altri, sarebbe un incentivo a usare la violenza per guadagnarsi la collaborazione di gruppi sul territorio schierati a favore degli insorti. Non è chiaro tra l’altro per quali ragioni alcune insurrezioni siano più cruente di altre. Le scuole di pensiero più accreditate individuano nel tipo di legame specifico che si instaura fra gruppi ribelli e civili la chiave per spiegare le differenti intensità di comportamenti sanguinari. Quando i movimenti rivoluzionari sono ad esempio foraggiati da finanziatori stranieri o si sostengono grazie allo sfruttamento di risorse naturali ne consegue abbastanza facilmente che essi riservino una minore attenzione alla popolazione locale rispetto a gruppi la cui esistenza dipende fortemente dalla cooperazione con determinate comunità del luogo.

Il consenso descritto da Valentino sulla natura politica e programmata della violenza di massa fa emergere poi una questione ovvia ma forse più cruciale di tutte: la strategia del terrore funziona? La limitata attività di ricerca a disposizione attualmente sull’argomento indica che “la violenza indiscriminata su larga scala contro i civili generalmente non è efficace, almeno sul lungo periodo”. Lo scienziato politici Stathis N. Kalyvas dell’Università di Yale ha mostrato nei suoi lavori quanto spesso la violenza di massa nelle guerre civili “si ritorca contro coloro che ne fanno uso”. Un importante studio del 2012, pubblicato sulla rivista American Journal of Political Science e basato sull’analisi di ampi database territoriali relativi a insurrezioni e attentati nella guerra irachena tra il 2004 e il 2009, ha messo in evidenza la progressiva perdita di consenso degli insorti a seguito di attentati indifferenziati nei confronti di civili. La preoccupazione per un’erosione del sostegno popolare portò alla famosa lettera che il leader di al-Qaeda al-Zawahiri nel 2005 inviò ad al-Zarqawi, all’epoca tra i maggiori esponenti jihadisti in Iraq, per invitarlo a minimizzare gli attacchi sommari sulla popolazione sciita. Anche il già citato Robert Pape, in una dettagliata ricerca sull’uso della potenza aerea in guerra, concludeva che i bombardamenti sulle popolazioni civili di solito “generano più rabbia nei confronti degli aggressori che nei confronti dei governi obiettivi degli attacchi”.

Lo studio dell’efficacia della violenza di massa sui civili è resa complicata da profonde difficoltà metodologiche. Una delle più rilevanti è la complessità nell’identificare le alternative militari rispetto alle quali confrontare la validità degli eccidi indiscriminati. D’altro canto, se la vittimizzazione dei civili è il risultato di un’attenta pianificazione, il suo successo o il suo fallimento può essere misurato solo rispetto ad altre strategie che i perpetratori delle violenze avrebbero potuto metter in campo.
Enfatizzare la logica dei fenomeni violenti contrapponendola a una loro presunta natura imponderabile, come ha sancito Valentino nella sua esaustiva rassegna, indebolisce comunque molto le nozioni di “guerra preventiva”, “intervento umanitario” o di altre ambigue espressioni a cui siamo ormai abituati per giustificare la necessità morale di reagire a quella che viene presentata come un’inaccettabile follia sanguinaria. La corrente di studi presentata dallo scienziato politico americano annulla la componente irrazionale della violenza politica, di volta in volta attribuita al fanatismo, all’ignoranza o alla ferocia individuale e ci invita a puntare sui fatti, a praticare un’azione politica, umanitaria e militare incentrata sulla conoscenza, a favorire metodi innovativi di prevenzione. Come conclude Valentino, “una comprensione più chiara delle radici profonde della violenza politica è naturalmente solo una condizione necessaria, ma non sufficiente, per prevenirla. La questione più importante per la ricerca accademica dei prossimi decenni rimane l’identificazione, da parte di studiosi e politici, di strategie di intervento efficaci per limitare la violenza nei confronti dei civili e aumentare la disponibilità, da parte delle nostre società, a mostrare la volontà politica per implementarle”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 6 settembre 2014. Lo riporto sul mio blog per loro gentile concessione.

Il cavallo azzurro che sfida i manicomi*

Contro la banalità del male un cavallo azzurro di cartapesta. È la risposta di Peppe Dell’Acqua, psichiatra, a lungo direttore del dipartimento di salute mentale di Trieste, tra i più attivi protagonisti negli anni ’70 e ‘ 80 del secolo scorso nella lotta per il superamento degli ospedali psichiatrici, di fronte ad abusi, sevizie, soprusi che continuano a ripetersi in tutta la penisola su persone con disabilità o disturbi di vario tipo. L’ultimo caso, ma solo in ordine di tempo, è quello avvenuto in una struttura educativa e riabilitativa di Grottamare, in provincia di Ascoli Piceno. Le telecamere dei Carabinieri hanno ripreso bambini e ragazzi affetti da autismo, di età compresa tra gli 8 e i 20 anni, denudati, riversi a terra, costretti a urinarsi addosso, disperati di fronte alle porte chiuse di uno stanzino senza finestre. Sono immagini visibili in rete realizzate nell’ambito di un’inchiesta della magistratura che poche settimane fa ha portato all’arresto di cinque operatori del centro la “Casa di Alice” con l’accusa di maltrattamento e sequestro di persona. Sono scene che si aggiungono a un triste repertorio di insensatezza che in alcuni casi culmina ancora oggi con la morte, come è accaduto a Franco Mastrogiovanni, maestro elementare deceduto nell’estate del 2009 nel reparto psichiatrico dell’ospedale San Luca di Vallo della Lucania dopo 4 giorni di trattamento sanitario obbligatorio in contenzione ininterrotta. L’intervento dei giudici in questo caso ha portato, alla fine di ottobre 2012, alla condanna in primo grado dei medici del reparto, con pene comprese tra i due e i quattro anni. Potremmo sentirci rassicurati dai provvedimenti della magistratura, ma “commetteremmo un errore”, sottolinea Dell’Acqua, perché “le azioni violente non sono determinate dalla cattiveria del singolo, ma dalle istituzioni, su cui è necessario reinterrogarci costantemente”. Ritorna alla mente quanto scriveva cinquant’anni fa Hannah Arendt a proposito del gerarca nazista Adolf Eichmann. “Il guaio del caso Eichmann”, scriveva l’allieva di Martin Heidegger e di Karl Jaspers nella sua opera più famosa “era che di uomini come lui ce n’erano tanti e che questi tanti non erano né perversi né sadici, bensì erano, e sono tuttora, terribilmente normali. Dal punto di vista delle nostre istituzioni giuridiche e dei nostri canoni etici, questa normalità è più spaventosa di tutte le atrocità messe insieme”. Di fronte ai prodotti delle organizzazioni burocratiche e dell’acquiescenza degli individui, di fronte alla riproduzione della banalità del male, che nel campo della psichiatria trova sempre un terreno straordinariamente fertile, la strategia di resistenza e di verità è per Dell’Acqua una macchina teatrale di colore blu: Marco Cavallo.

Sembrerebbe una sfida impari, ma il cavallo di cui stiamo parlando ha già dato grandi lezioni di coraggio. Ha un lungo curriculum di risposte alla violenza istituzionale. La sua vittoria più recente è stata l’approvazione della legge 52/2014, che a fine maggio ha introdotto indirizzi, dispositivi e limiti per arrivare concretamente alla chiusura degli Ospedali psichiatrici giudiziari (Opg) entro il 31 marzo 2015. La nuova norma è infatti anche frutto dell’ultimo viaggio di Marco Cavallo, promosso tra gli altri dal comitato StopOpg, svoltosi tra il 12 e il 25 novembre dell’anno scorso e conclusosi, dopo numerose tappe in tutt’Italia, con un incontro con la Presidente della Camera Laura Boldrini. L’approvazione della legge sugli Opg ha dimostrato che nei sei mesi successivi alla visita istituzionale non si è abbassata l’attenzione della politica. Questo è successo grazie anche ai 4000 chilometri percorsi da Nord a Sud della penisola dal destriero azzurro già simbolo quarant’anni fa della battaglia per il superamento definitivo del manicomio culminata nella famosa legge 180, frutto del lavoro di Franco Basaglia e della sua equipe.

La sua storia inizia infatti nel marzo del 1973, quando la grande macchina teatrale ideata tra le mura del manicomio del San Giovanni di Trieste, cerca di aprirsi un varco nelle vie della città. La forte valenza simbolica e ancora attuale del cavallo blu è ben rappresentata da un dettaglio di quell’episodio. Quando tutto sembra pronto per un ingresso insperato, e impensabile solo pochi anni prima, di un corteo festoso di matti e artisti tra le strade del capoluogo giuliano ci si accorge che Marco Cavallo è troppo alto per le grate del manicomio. Provano in tutti i modi ma non c’è niente da fare. Non si passa. Si decide di sfondare i cancelli usando Marco Cavallo come ariete, facendolo passare di taglio e non diritto. Il rischio è di uccidere la creatura appena nata, ma la scommessa viene vinta. La macchina di cartapesta ne esce un po’ malconcia ma si rimette in piedi e da allora non smette più di correre. Fuor di metafora, è l’inizio di un percorso che negli anni a venire si sarebbe composto con molti altri per disegnare un immaginario, una poetica, una rappresentazione sociale, un sistema di comunicazione dell’universo di storie, saperi e pratiche attorno alla malattia e alla salute mentale assolutamente rivoluzionario, impossibile da descrivere in termini di continuità col passato. Marco Cavallo simboleggia un cambio di paradigma di tutte le dimensioni di cui è investita la questione psichiatrica: dalla prospettiva scientifica a quella politica, da quella legislativa fino allo sguardo sulla società nel suo complesso. L’attualità e la potenza di Marco Cavallo non si comprendono infatti fino in fondo se non si è disposti ad accettarne l’uscita dallo specifico psichiatrico, la sua valenza universale. Il tema vero è quello dell’inclusione, l’impegno a non trasformare la diversità di ciascuno di noi in disuguaglianza, tentazione mai sopita da ogni forma di potere.Per questo rimane urgente la necessità di rendere il nuovo paradigma comprensibile, condivisibile, comunicabile, come si evince molto bene dal libro dell’artista e poeta Giuliano Scabia, che ha raccontato la storia dell’invenzione della “bestia” azzurra in un testo scritto tra il 1973 e il 1976 ripubblicato nel 2011 per i tipi della casa editrice Alphabeta Verlag di Merano col titolo Marco Cavallo. Da un ospedale psichiatrico la vera storia che ha cambiato il modo di essere del teatro e della cura.

Per questo Marco Cavallo incontra da quarant’anni difficoltà simili ma allo stesso tempo continuerà a correre. Come racconta lo stesso dell’Acqua in un articolo pubblicato a Gennaio 2014 sulla rivista Animazione Sociale, in cui vengono ripercorse le tappe del viaggio contro gli Opg, l’organizzazione “si è rivelata immediatamente molto complicata. Non all’altezza delle nostre dilettantesche capacità. […] Quando c’è di mezzo il Cavallo, accadono però cose magiche e insperate. Pochi giorni prima di una partenza ancora in dubbio, mentre facevamo e rifacevamo i conti per gli alberghi, la benzina, il costo delle autostrade, il maquillage del cavallo, mi arriva una telefonata da Gino Paoli, un vecchio amico che sento, di tanto in tanto, da quarant’anni. Da quando venne a cantare a San Giovanni. “Uè Peppe, come stai? – mi dice – qui abbiamo dei fondi per sostenere progetti d’interesse culturale e sociale, non è che c’hai un progetto da mandarmi subito?” “Qui” significava il Consiglio di Amministrazione della Siae, e io non sapevo che Gino Paoli ne è presidente. Così, nel giro di due giorni il progetto del viaggio ha ottenuto un determinante sostegno anche dalla Siae. Non posso non pensare che sia stato Marco Cavallo a presentarsi nel bel mezzo di quel CdA per suggerire a Gino Paoli di chiamarmi.” L’aneddoto mostra meglio di qualunque discorso teorico il misto di passione, fatica e fascinazione che ruota attorno a questa vicenda fin dalla sua nascita. Ma Dell’Acqua ci tiene a rifuggire da nostalgie reducistiche. “Quarant’anni fa”, spiega, “l’uscita del cavallo fu solo l’inizio. La critica alle istituzioni totali e il loro superamento continuano a essere nella prospettiva senza fine di quell’inizio. Di fronte alla persistenza degli Opg e alla fatica di avviare processi reali di chiusura, il cavallo non ha potuto restare fermo. Il cavallo continuerà a correre senza sosta, nei più diversi Paesi, laddove ci sarà bisogno di dire, domandare. Cercherà di trovare risposte a tutti coloro che si chiedono come mai sono stato legato per una settimana, come mai ho visto mio figlio per 15 giorni dietro una porta chiusa, come mai mio padre è morto dopo una settimana che era legato in un reparto di diagnosi e cura. Marco Cavallo continuerà a viaggiare per testimoniare e per ricordare ai giovani una storia che non hanno potuto conoscere. Si infurierà di fronte al denaro pubblico sprecato per sostenere cliniche private che non producono un grammo di salute in molte regioni d’Italia, senza differenze di colore politico, dal Lazio alla Lombardia, dalla Sicilia al Piemonte.” Un viaggio senza soste che troverà pause, conclude Dell’Acqua, vincitore del premio Nonino nel 2014 subito dopo la fine del tour di Marco Cavallo, solo per denunciare “i luoghi di insensatezza, i servizi psichiatrici vigilati da telecamere, gli ospedali psichiatrici giudiziari, le carceri, i centri di salute mentale sporchi e vuoti. Per questo non potrà mai smettere di galoppare”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 23 agosto 2014. Lo riporto sul mio blog per loro gentile concessione.

Economie emergenti, la crescita arriva dalle megalopoli*

Famoso per la teoria degli equilibri punteggiati alternativa alla visione di un’evoluzione biologica graduale e continua, lo scienziato americano Stephen Jay Gould, morto prematuramente nel 2002, era forse meno noto per una strana collezione di calzature raccolte nel corso dei suoi viaggi nel mondo in via di sviluppo. I sandali acquistati nei mercati all’aperto di Nairobi, Delhi e Quito probabilmente non erano il massimo dell’eleganza, ma avevano una caratteristica che affascinava Gould: erano fatti con pneumatici trovati tra le discariche. Dal punto di vista dell’autore di Intelligenza e pregiudizio, vincitore dell’American Book Award for Science, il passaggio dagli pneumatici alle scarpe non era solo un raro esempio di “ingegnosità umana”, ma anche la dimostrazione di come favelas e baraccopoli potessero rivelarsi a sorpresa luoghi in cui fiorisce l’innovazione. Nelle loro immense contraddizioni, i vasti agglomerati urbani abusivi sparsi su tutto il pianeta, in cui vivono attualmente circa un miliardo di persone e dove spesso mancano elettricità, fognature e impianti igienici, si mostravano come spazi privilegiati della creatività. In altre parole, Gould condivideva l’idea che l’iperurbanizzazione è un fattore di crescita nei paesi in via di sviluppo, a partire dai quartieri più illegali, poveri e irregolari. Ma è proprio così? Esiste una relazione positiva tra il grado di urbanizzazione e l’economia dei paesi emergenti?

Se nel caso dei paesi sviluppati abbiamo a disposizione una letteratura scientifica molto approfondita sul rapporto tra queste due variabili, lo stesso non si può dire per il Sud del mondo. Non sorprende allora che la discussione tra addetti ai lavori si presenti come una divisione tra apocalittici e integrati. Joel Kotkin, professore di sviluppo urbano e autore di The Next Hundred Million: America in 2050, apprezzato volume sul futuro demografico degli Stati Uniti, in un articolo apparso su Forbes nel 2011, sentenziava che “le megacittà nei paesi in via di sviluppo dovrebbero essere considerate per quello che sono: una tragica replica dei peggiori aspetti dell’urbanizzazione di massa che ha già contraddistinto il fenomeno in Occidente”. Più ottimiste studiose come Janice Perlman, fondatrice del Mega-Cities Project e autrice di testi fondamentali sulle favelas come Il mito della marginalità urbana, povertà e politica a Rio. Le sue ricerche mostrano che per quanto gli slums non siano certo posti desiderabili dove vivere, sono pur sempre luoghi migliori dei contesti rurali di provenienza per milioni di persone. A mettere un po’ ordine nella matassa di opinioni discordanti ci ha pensato di recente Gilles Duranton, professore di studi immobiliari della Wharton University, nella ricerca Growing trough Cities in Developing Countries, pubblicato sulla rivista World Bank Research Observer. Duranton ha realizzato un’accurata revisione dei lavori più approfonditi riguardanti l’impatto dell’urbanizzazione su crescita economica e sviluppo, sia nei paesi avanzati che in quelli emergenti. Il quadro che emerge, per quanto ottimistico, è complesso. I margini di miglioramento sono ampi ma impossibile prevedere cosa accadrà nei prossimi decenni. Un aspetto è certo: la posta in gioco è il nostro futuro globale.

La maggior parte della popolazione mondiale vive infatti oggi in città. Secondo le stime dell’Organizzazione Mondiale della Sanità, entro il 2050 sette persone su dieci risiederanno in aree urbane. Come certifica il rapporto Habitat del 2013 delle Nazioni Unite, le zone del pianeta in cui tale tendenza è più marcata sono Africa, Asia e America Latina: più del 90% della crescita urbana globale sta avvenendo in queste regioni. Nei paesi a basso reddito le città rappresentano la speranza di una vita migliore e più ricca per milioni di persone. Allo stesso tempo il grande afflusso di indigenti da campagne e contesti rurali ha creato dei veri e propri hub di povertà. Edward Glaser, economista di Harvard e autore del libro Il trionfo delle città, edito in Italia da Bompiani, sottolinea che le megalopoli “non sono piene di persone povere perché sono le città a renderle tali, ma perché le città attraggono persone povere”. Sempre secondo il rapporto Habitat, un terzo della popolazione urbana nei paesi in via di sviluppo risiede in baraccopoli e favelas. D’altro canto, le aree cittadine sono motori di successo economico. Lo studio Global Cities 2030 della Oxford Economics stima che le 750 città più grandi del pianeta producono il 57 per cento dell’attuale PIL mondiale.

Se questi dati lasciano pochi dubbi sul ruolo delle città nell’economia planetaria, più complessa è la decifrazione dei rapporti di causa-effetto tra crescita economica e urbanizzazione di un paese. Nella letteratura di settore si assume spesso che sia la prima a determinare l’aumento della seconda. Per questo, una delle tipiche preoccupazioni nelle scelte di policy è assicurare che la ridistribuzione di nuovi arrivi e di nuovi lavoratori avvenga in modo “bilanciato”. La ricerca di Duranton assume una prospettiva opposta: esamina in quale misura lo sviluppo economico sia influenzato dall’incremento sfrenato dell’urbanizzazione, non più trattato come un fenomeno da gestire ma come una potenziale ricchezza e comunque come parte integrante del processo di crescita. In questa cornice l’autore si chiede fra le altre cose se la produttività lavorativa aumenta quando le persone si spostano nelle città, e in caso di risposta affermativa come, in quale misura, in quanto tempo.
Anche se esistono differenze significative tra economie avanzate e nazioni in via di sviluppo. la risposta generale è che i lavoratori nelle città traggono beneficio dalle cosiddette economie di agglomerazione, vale a dire dalla concentrazione delle attività produttive in determinate regioni all’interno di un paese o di una più ampia area geopolitica. I vantaggi si suddividono in tre categorie: la condivisione di fattori produttivi; la qualità del mercato del lavoro, cioè il fatto che una concentrazione di imprese simili attira manodopera specializzata; la facilità con cui si diffonde la conoscenza necessaria a migliorare specifici processi.

Detto questo, le diversità fra Nord e Sud del mondo si manifestano in varie direzioni, a partire dal rapporto tra urbanizzazione e salari, molto più pronunciato nei paesi emergenti rispetto ai paesi ricchi. Uno studio del 2013 dell’Aix-School of Economics di Marsiglia stimava che, più in generale, gli effetti della concentrazione di molte attività in una stessa area (esternalità di agglomerazione) sono maggiori, anche fino a cinque volte, nei paesi in via di sviluppo rispetto a quelli avanzati.

Più grandi sono le città poi, più sono innovative. Con l’aumentare delle dimensioni, gli agglomerati urbani generano idee a un ritmo più sostenuto. Malgrado frastuono, folla e distrazioni, il residente medio di una metropoli con cinque milioni di abitanti è quasi tre volte più creativo del residente medio di una cittadina di centomila. Il fenomeno vale in tutto il pianeta. Anche le grandi città nei paesi in via di sviluppo agiscono come centri di innovazione, con un importante differenza però rispetto ai paesi avanzati: non sono in grado di trasferire la produzione di beni maturi in città più piccole e specializzate. Questa situazione, nota Duranton, rende le metropoli africane, asiatiche e sudamericane più grandi di quanto dovrebbero essere e aumenta la congestione delle città stesse. Aspetti negativi che si ripercuotono sui prezzi dei prodotti, realizzati a costi più alti. Le megalopoli nei paesi in via di sviluppo sono in altre parole funzionalmente molto meno specializzate di quelle dei paesi ricchi poiché risultano oppresse da attività “ancillari” che ne diminuiscono l’efficienza. I possibili rimedi potrebbero essere la realizzazione di nuove infrastrutture – in particolare nel settore dei trasporti – e la redistribuzione della produzione in centri più piccoli attraverso la riduzione dei favoritismi governativi nei confronti dei grandi contesti urbani.

Infine, il mercato del lavoro nelle città dei paesi in via di sviluppo è costituito da un ampio settore informale e fuori dalle regole, in altre parole in nero. L’OCSE ha stimato che entro il 2020 le attività economiche non censite e non autorizzate comprenderanno due terzi della forza lavoro globale. Più della metà dei lavoratori del mondo si muove in una zona d’ombra della politica e dell’economia e abita in gran parte gli enormi mercati fai-da-te e i quartieri autocostruiti delle megalopoli del Sud del mondo. Come ha scritto l’analista Robert Newirth in un articolo apparso in uno speciale della rivista Le Scienze di novembre del 2011, a “pianificatori e funzionari governativi tutto questo suona spaventoso. La loro preoccupazione è che questi quartieri e questi mercati così instabili possano produrre metastasi, che questi sterminati labirinti di strutture precarie e imprese mai registrate riescano a trascinare con sé le città nell’abisso”. Per Newirth si tratta viceversa di una visione del futuro urbano da valorizzare e accompagnare, non da respingere. La pensa allo stesso modo Duranton, secondo cui la graduale integrazione dei lavoratori in nero nelle regole del mercato formale costituisce una sfida cruciale per lo sviluppo delle megalopoli.

L’invito conclusivo dell’economista di origine francese è però resistere a qualunque tentazione di prevedere gli effetti dell’agglomerazione. Nei paesi in via di sviluppi ne sappiamo ancora troppo poco su quali siano i meccanismi reali con cui avviene questo fenomeno per poter azzardare qual è la policy giusta per affrontare i problemi di infrastrutture, economia sommersa e favoritismi governativi che impediscono alle enormi aree urbane del Sud del mondo di esprimere completamente il loro potenziale.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 2 agosto 2014. Lo riporto sul mio blog per loro gentile concessione.

Autismo e vaccini la paura è contagiosa*

È stato l’ “istinto di mamma” ad averle suggerito che la causa dell’autismo di suo figlio era stato il vaccino. Non è un’argomentazione propriamente scientifica, ma tant’è. L’attrice e modella Jenny McCarthy, ex-playmate ed ex-moglie di Jim Carrey, lanciava così qualche anno fa la sua battaglia contro i vaccini in una memorabile puntata dell’Oprah Show, il talk show più seguito nella storia della televisione statunitense. Secondo un report pubblicato a fine aprile dall’ American Academy of Arts and Sciences, le posizioni anti-scientifiche di star mediatiche come quella di Jenny McCarthy sono uno dei fattori che maggiormente concorrono all’inadempienza vaccinale: una combinazione fatale di ricerche fraudolente, giornalismo approssimativo e intenso attivismo che ha come risultato l’aumento della diffidenza e delle preoccupazioni dei genitori nei confronti delle vaccinazioni raccomandate per i propri figli. Di fronte all’accerchiamento comunicativo, le armi delle istituzioni sanitarie pubbliche sono spuntate: alcune recenti ricerche dimostrano che i messaggi delle campagne promozionali sono poco efficaci e in alcuni casi controproducenti.

Il rapporto tra comunicazione è inadempienza vaccinale preoccupa non poco i medici, che individuano nella disinformazione la causa delle recenti epidemie di morbillo in diverse parti del mondo, Italia inclusa. Stando a quanto riportato dal portale di epidemiologia per sanità pubblica Epicentro, in questo momento sono in corso focolai dell’infezione in diverse regioni del nostro paese. Uno dei più clamorosi è stato registrato a maggio in Emilia-Romagna, dove in pochi giorni si sono verificati un centinaio di casi solo a Bologna. Dall’altra parte dell’oceano, le autorità sanitarie statunitensi affermano che il 2013 è stato l’anno con la maggiore epidemia di morbillo dagli anni novanta del secolo scorso. Il principale colpevole della situazione attuale secondo le autorità sanitarie è una diffusa disinformazione. Fatta la diagnosi, la terapia rimane incerta dato che non si sa molto su quali siano i messaggi efficaci per cercare di superare la resistenza alle vaccinazioni.

Il compito è reso ancor più arduo per la necessità di mantenere alti, molto alti, i livelli di immunizzazione. Il Piano nazionale di eliminazione del morbillo e della rosolia congenita 2010-2015 ha fissato al 95% in Italia la copertura vaccinale oltre la quale è assicurata l’ “immunità di branco”, la soglia il cui superamento protegge anche chi non si vaccina. Superata questa percentuale si interrompe la trasmissione dell’infezione, ma maggiore è la distanza da essa, minore è l’efficacia del vaccino come misura di salute pubblica. Attualmente in Italia circa il 90% dei bambini entro i due anni di età è stato vaccinato contro il morbillo, anche se ci sono aree con valori variabili dal 71,5% al 96,7%. L’Organizzazione mondiale della sanità, durante la Settimana dell’Immunizzazione di quest’anno dedicata proprio al morbillo e alla rosolia, ha dichiarato che in Europa non verrà raggiunto l’obiettivo di eradicare la malattia entro il 2015. Anche in Italia siamo lontani dal traguardo. Nel 2013 sono stati segnalati 2.211 casi. L’86,7% delle volte si è trattato di persone non vaccinate. Secondo i dati dell’Ecdc (European Centre for Disease Prevention and Control), nel 2013 in Europa si sono ammalate 10.271 persone, i morti sono stati tre, con otto episodi di encefalite acuta. Nonostante nel nostro immaginario collettivo sia considerato quasi una formalità, questi dati confermano che il morbillo è una malattia altamente contagiosa che può avere complicazioni anche molto gravi. Uno studio pubblicato agli inizi di giugno sulla rivista Pediatrics mostra come anche un solo caso possa avere effetti devastanti su una comunità non immunizzata. Per questo motivo le preoccupazioni degli esperti riguardano non tanto le coperture vaccinali, che rimangono relativamente alte, ma il calo della percezione del rischio e dell’attenzione dei genitori che ritardano, e in casi estremi rifiutano, di vaccinare i propri figli. L’impegno a non abbassare la guardia si scontra con la capacità organizzativa e comunicativa della variegata galassia di gruppi antivaccini, il cui attivismo soprattutto in rete aumenta i sospetti da parte di fasce della popolazione che per diversi motivi nutrono dubbi e perplessità, se non vera e propria ostilità.

La diffidenza secondo gli esperti nasce dalla disinformazione, che ha un’origine, un nome e un cognome precisi: il 1998, quando la rivista The Lancet pubblica un articolo a firma di Andrew Jeremy Wakefield e altri dodici ricercatori in cui si ipotizza un legame tra la vaccinazione contro morbillo, rosolia e parotite e l’autismo. Lo studio ha una vasta risonanza nel mondo della ricerca e una notevole eco mediatica provocando un brusco calo delle vaccinazioni nel Regno Unito. In più di un decennio di verifiche in Europa e in USA, la letteratura di settore sancisce che in realtà il nesso tra vaccini e autismo è destituito di qualunque fondamento scientifico. Non solo. Le indagini dimostrano che Wakefiled ha manipolato i dati e falsificato le conclusioni. Il paper nel 2010 viene ritirato dal Lancet e l’autore radiato dall’ordine dei medici. E intanto iniziano anche le prime azioni in tribunale. Circa una settimana fa il quotidiano britannico Times ha riportato il caso di un ragazzo di 23 anni affetto da un disturbo dello spettro autistico che ha citato in giudizio i suoi precedenti legali per aver alimentato false speranze basate su ricerche errate e fraudolente sul vaccino contro il morbillo, la parotite e la rosolia (Mpr). Tutto questo non impedirà probabilmente ad associazioni anti-vaccini e avvocati specializzati in cause di risarcimento di riproporre, come avviene da anni, periodicamente il falso allarme, con la complicità di media che offrono loro piattaforme di grande visibilità.

Nonostante l’importanza del ruolo della comunicazione, fino ad ora è stata fatta poca ricerca, ad esempio, sull’impatto dei social media e ai siti di video-sharing sui processi decisionali che regolano le scelte legate alle vaccinazioni. Ancora di meno in questo campo si conosce dell’efficacia delle tradizionali campagne di sanità pubblica. La lacuna è stata parzialmente coperta da uno studio pubblicato nel 2014 sulla rivista Pediatrics, “Effective Messages in Vaccine Promotion: A Randomized Trial”. I ricercatori hanno analizzato i risultati di un’indagine sociologica condotta su tutto il territorio americano. Gli autori della ricerca hanno testato l’efficacia di alcuni dei messaggi più comuni utilizzati nelle strategie promozionali. Funziona di più ad esempio una strategia finalizzata a correggere la disinformazione o è meglio presentare i rischi della mancata vaccinazione? È più utile usare toni drammatici o realizzare video divulgativi e accessibili?
I risultati hanno mostrato che nessuno dei messaggi realizzati dalle autorità pubbliche aumenta l’intenzione dei genitori a far vaccinare i propri figli. Le strategie di correzione della disinformazione riducono poi forse i preconcetti sul legame vaccino/autismo, ma fanno diminuire la propensione a vaccinarsi proprio tra coloro che si rivelano meno favorevoli. Inoltre, le immagini di bambini con morbillo, parotite e rosolia su cui si basano narrazioni drammatiche, se non catastrofiche, servono ad aumentare le credenze sugli effetti collaterali dei vaccini. È insomma una debacle su tutti i fronti che richiede, come suggeriscono gli autori del paper, di provare strade alternative e di verificare attentamente i messaggi prima di renderli pubblici. Un ruolo centrale potrebbero averlo i pediatri, ma in generale è necessaria una maggiore consapevolezza della complessità dei rapporti tra conoscenza scientifica, opinioni e comportamenti in ambito sanitario.

La letteratura in ambito psicologico e sociologico può dare un aiuto a comprendere le ragioni dell’inefficacia delle campagne pubbliche. Correggere la disinformazione è una sfida ad esempio non banale a causa della natura profonda di pregiudizi e processi cognitivi. Tutti noi siamo più inclini ad accogliere informazioni che confermano le nostre credenze e a ignorare quelle che mettono in discussione le nostre certezze. Oppure siamo disposti ad accettare nuove asserzioni fattuali quando provengono da fonti che condividono i nostri stessi valori e che sono percepite come affidabili. È accertato poi che bufale e affermazioni palesemente false, come quella del link fra vaccino e autismo, una volta diffuse, continuano a mantenere un potere “adesivo” nonostante tutti i tentativi di smascherarle. Un metastudio del 2012 su Psychological Science in the Public Interest, “Misinformation and Its Correction: Continued Influence and Successful Debiasing,” si è focalizzato approfonditamente su come si origina e si diffonde la disinformazione, sul perché è difficile correggerla e sulle modalità più efficaci per contrastarla. I ricercatori notano che le ritrattazioni con più chances di successo sono quelle che riconoscono e rispettano le credenze individuali, qualunque esse siano, e offrono una visione del mondo magari alternativa ma comprensibile, vale a dire inserita nelle cornici di significato con cui diversi gruppi e individui danno senso agli eventi. Paternalismo, demonizzazione, deprecazione dell’ignoranza o addirittura offese non fanno viceversa che alienare chi nutre perplessità e ostilità e rinforzare le convinzioni condivise all’interno delle comunità di appartenenza, razionali o irrazionali che siano.

La resistenza all’evidenza scientifica riguardo ai rischi della salute richiede quindi indagini più approfondite che attraversino il campo dei media, della comunicazione, dei pubblici, ma anche dei contesti culturali in grado di spiegare ad esempio quale tipologia di cittadini possano diventare più vulnerabili alla disinformazione sui vaccini. Con l’avvertenza che i livelli di fiducia e di credenza nei confronti della scienza variano sia nel tempo che in diversi gruppi sociali. E senza infine dimenticare che il quadro è ulteriormente complicato da movimenti e organizzazioni che introducono continuamente nuove possibili attitudini riguardo al cibo, al benessere, allo stile di vita.

*Quest’articolo è stato scritto insieme a Donato Ramani e pubblicato su Pagina99we del 5 luglio 2014. Lo riporto sul mio blog per loro gentile concessione.

Leggere il cervello per dominare il mondo*

È una nuova corsa allo spazio. Solo che al posto di missili, satelliti e la conquista della Luna, in ballo c’è il sistema biologico più complesso nell’universo conosciuto: il cervello. In un clima misto di collaborazione e competizione, Europa, Stati Uniti e Cina affilano sempre di più le armi della politica della ricerca per finanziare mega-progetti finalizzati allo studio scientifico del sistema nervoso. Le aspettative sono avveniristiche: dalla cura di malattie neurodegnerative come Alzheimer e Parkinson allo sviluppo di intelligenze artificiali simili a quelle umane. Oltre alle ambizioni scientifiche, sulle neuroscienze si concentrano forti interessi economici e questioni cruciali per le società contemporanee. I futuri assetti della competitività internazionale dipendono in maniera non trascurabile dal modo in cui le attuali potenze mondiali riusciranno ad affrontare sfide e opportunità della ricerca sul cervello.

Il vecchio continente mostrerà i muscoli la prossima settimana a Milano con la nona edizione del forum europeo sulle neuroscienze – Fens 2014. Dal 5 al 9 luglio, il capoluogo lombardo sarà teatro di un meeting che vede coinvolti i rappresentanti di 42 società scientifiche distribuite dal Portogallo alla Romania, dall’Italia alla Norvegia, per una comunità complessiva di circa 23000 ricercatori. Sarà la prima importante occasione per sentire la voce europea delle neuroscienze – come recita la home page del sito della Fens (Federation of European Neuroscience Societies) – dopo una sorta di annus mirabilis per la disciplina. Il 2013 è stato infatti segnato da due iniziative senza precedenti su entrambe le sponde dell’Atlantico.

Nel febbraio dell’anno scorso il Presidente Obama, nel suo discorso sullo Stato della Nazione, scioccava la comunità globale dei neuroscienziati annunciando un progetto decennale dell’ordine di tre miliardi di dollari: il Brain Activity Map, un’ambiziosa mappa del cervello per “immaginare ogni impulso nervoso da ogni neurone”. Alla dichiarazione di Obama ha fatto seguito il 2 aprile 2013 il lancio da parte della Casa Bianca dell’iniziativa BRAIN, che promette un sostegno fino a 300 milioni di dollari l’anno per lo sviluppo di nuove tecnologie finalizzate alla comprensione del funzionamento del cervello nei minimi dettagli.
“Ogni dollaro che abbiamo investito nella mappatura del genoma”, spiegava il presidente americano al Congresso, “ha portato a un ritorno pari a 140 dollari nella nostra economia. Oggi i nostri scienziati stanno mappando il cervello umano per svelare i segreti dell’Alzheimer, stanno sviluppando farmaci per rigenerare organi danneggiati, mettendo a punto nuovo materiale per creare batterie dieci volte più potenti. Non è certo questo il momento di tagliare questi investimenti in scienza e innovazione in grado di creare nuovi posti di lavoro. Ora è invece il tempo di raggiungere un livello di ricerca e sviluppo non più visto dai tempi della corsa allo Spazio”. Nuove speranze per la medicina quindi, ma anche nuove opportunità economiche e maggiori finanziamenti per non arrancare dietro i concorrenti internazionali, vecchio continente in primis.

Anche se non tutti concordano sull’ipotesi di una guerra fredda delle neuroscienze, il solenne impegno di Obama è stato interpretato da diversi analisti come la risposta statunitense alla decisione della Commissione Europea, presa il 28 gennaio 2013, di finanziare lo Human Brain Project del Politecnico di Losanna in Svizzera come uno dei progetti-bandiera delle Future and Emerging Technologies: un miliardo di euro in dieci anni per tentare di simulare il cervello umano attraverso una rete di supercomputer.
Di sicuro le iniziative americane ed europee non sono sfuggite all’attenzione della Cina, una delle altre grandi protagoniste mondiali del boom della ricerca sul cervello degli ultimi anni. In un articolo uscito a marzo di quest’anno sulla National Science Review, una rivista pubblicata dall’Università di Oxford sotto l’egida dell’Accademia Cinese delle Scienze, il neuroscienziato Mu-ming Poo si chiede dove siano diretti i mega-progetti voluti dall’amministrazione Obama e dalla Commissione Europea e quale scopo ultimo si prefiggano. Le conclusioni sono che entrambi offrono certamente nuove opportunità per sviluppare tecnologie innovative, anche se “le prospettive di terapie efficaci per i disturbi del sistema nervoso rimangono incerte”.

Mu-ming Poo non è uno qualunque. Nel 1999 ha fondato a Shanghai l’Istituto di Neuroscienze, un’ente attualmente dotato di 27 laboratori e di uno staff con più di trecento scienziati. Il centro di ricerca è stato preso a modello per riformare l’intero sistema delle istituzioni scientifiche del gigante asiatico. Descritto come un dittatore per i metodi e gli orari di lavoro imposti ai suoi collaboratori, Poo è un deciso promotore dell’adeguamento della ricerca cinese agli standard di qualità occidentali e un testimone attivo della crescita delle neuroscienze nel suo paese. Un’accelerazione segnata dal costante aumento di finanziamenti, dalla nascita centri di ricerca su tutto il territorio nazionale, dalla crescente capacità di far ritornare in patria scienziati formati nelle migliori università europee e americane. La ricerca sul cervello grazie a personaggi come Poo si è ritagliata un ruolo da protagonista tra le scommesse scientifiche della terra di mezzo, che nei primi dieci anni del nuovo millennio ha continuato a finanziare la spesa per la scienza con aumenti annui attorno al 20% e che nel 2012, secondo dati Ocse, viaggiava su investimenti nella ricerca pari all’1,98% del Pil (a fronte dell’ l’1,70% nel 2010). La rivista Nature, in un reportage del 2011, suggeriva di farsi un giro a Shangai all’istituto diretto da Mu-ming Poo per avere un’idea di come la Cina si sta costruendo un futuro da superpotenza delle bioscienze.

Al di là di scenari geopolitici più o meno verosimili, Poo nella sua analisi sul National Science Review coglie l’aspetto più significativo del grande fermento attorno alle neuroscienze degli ultimi tempi: “il fatto che molti governi hanno deciso di mettere la ricerca sul cervello in cima alle priorità delle loro agende nazionali”, un aspetto che eccita la comunità scientifica internazionale ancor di più della quantità di nuovi finanziamenti.
Non si tratta di una coincidenza. La ragione di tanto interesse da parte della politica accomuna paesi sviluppati e paesi emergenti. Il filo rosso che unisce Europa, Stati Uniti e Cina è il peso sociale ed economico dei disturbi del cervello.

Uno studio appena pubblicato sulla rivista Neuron stima che nel vecchio continente i costi per le alterazioni del funzionamento cognitivo, legato ad esempio a lesioni cerebrali o a malattie neurodegenerative, ammontano a circa 800 miliardi di euro l’anno. Con 179 milioni di persone coinvolte nel 2010, i disturbi del cervello sono la maggiore emergenza di sanità pubblica in Europa, prima delle malattie cardiovascolari e del cancro. Come ci spiega Monica di Luca, una delle autrici della ricerca, nonché professore di farmacologia all’Università di Milano e presidente eletta della Fens, “lo studio ha incluso 27 stati membro e 19 patologie. Gli 800 miliardi di euro sono il risultato dei costi diretti e dei costi indiretti. I primi fanno riferimento ai farmaci, all’ospedalizzazione e all’assistenza, ma anche a spese non mediche, ad esempio le infrastrutture e le apparecchiature. I costi indiretti sono invece relativi a questioni di ordine sociale, come l’assenteismo o la mancanza di produttività”.
Questi numeri sono stati fondamentali per convincere la Commissione Europea a inserire la ricerca sul cervello tra le priorità di finanziamento negli strumenti a disposizione dell’Unione, sia nel passato recente che nei prossimi anni, vale a dire sia nel Settimo Programma Quadro terminato l’anno scorso, che nel nuovo Horizon 2020, partito nel 2014. Anche perché a Bruxelles hanno compreso bene i benefici sociali e le opportunità economiche derivanti da un aumento degli investimenti nelle neuroscienze.
Per averne un’idea basti considerare che un report del 2010 della Alzheimer’s Association, la maggiore organizzazione americana impegnata nella promozione della ricerca medica e scientifica sulle cause, la cura e l’assistenza per la malattia di Alzheimer, stimava in 33 miliardi di dollari nel 2020 e in 283 miliardi di dollari nel 2050 il risparmio annuale previsto per il sistema sanitario semplicemente grazie a un ipotetico trattamento per ritardare l’insorgenza della malattia di cinque anni. La malattia di Alzheimer attualmente colpisce più di cinque milioni di statunitensi con più di 65 anni, ma questa cifra potrebbe arrivare a 13.5 milioni a metà del secolo se non si inverte la rotta. E la strada maestra per cambiare traiettoria è la ricerca di base.

Una direzione che non coincide del tutto col percorso intrapreso dalla Commissione Europea. “Horizon 2020”, spiega Monica di Luca, “ ci chiede di andare verso l’innovazione molto di più che in passato, quasi a un livello competitivo di mercato, stimola ancora di più una collaborazione tra pubblico-privato per la soluzione di problemi chiave. Siamo ben consapevoli dell’importanza di tutto ciò, ma è cruciale anche mantenere l’attenzione sulle priorità della ricerca di base sul cervello. Il Brain Human Project è ad esempio un’iniziativa di grande rilievo scientifico e la nostra comunità è molto contenta che sia stata finanziata, ma si tratta soprattutto di ricerca computazionale, è solo un tassello di un quadro molto più ampio: le neuroscienze in Europa debbono e possono dare molto di più. A livello istituzionale non regge poi il confronto con gli Stati Uniti se teniamo presente che il progetto BRAIN è stato identificato come priorità nazionale e sponsorizzato dal presidente Obama in persona”.
Non si tratterà insomma di una nuova guerra fredda, ma di certo siamo solo agli inizi di una competizione che nei prossimi anni vedrà politici e neuroscienziati americani, europei, cinesi e molto probabilmente di altri paesi emergenti, giocarsi una buona parte del futuro economico e sociale delle proprie nazioni al tavolo della ricerca sul cervello.

*Quest’articolo è stato pubblicato su Pagina99we del 28 giugno 2014. Lo riporto sul mio blog per loro gentile concessione.

Pazzi criminali a chi?*

Era l’ultimo dell’anno del 2012 quando il presidente della Repubblica Giorgio Napolitano nel consueto messaggio agli italiani definiva gli ospedali psichiatrici giudiziari (Opg) “un autentico orrore indegno di un paese appena civile”. A distanza di circa diciotto mesi dall’accorata denuncia del Capo dello Stato, la Camera ha trasformato in legge, un paio di settimane fa, il decreto 52/2014, che introduce indirizzi, dispositivi e limiti per arrivare concretamente alla chiusura degli Opg entro il 31 marzo 2015. Si tratta di un’ulteriore proroga di un anno rispetto alle scadenze precedenti. I gruppi che in questi anni si sono battute per l’abolizione degli Opg hanno accolto con favore la nuova legge, anche se rimangono criticità e polemiche. Il rischio di una riforma a metà si concentra sulle cosiddette Residenze per le misure di sicurezza (Rems), nuove strutture su base regionale che dovrebbero essere costruite al posto degli Opg. Da una parte è elevata la probabilità che le Rems non siano pronte entro le scadenze poste dalla legge, dall’altra diverse associazioni per la salute mentale, tra cui la rete Unasam, la più importante a livello nazionale, rimangono contrarie alla realizzazione di quelli che sono stati ribattezzati mini-Opg. In altre parole, non si sarebbe superato del tutto il rischio di creare, al posto degli attuali istituti, nuovi piccoli manicomi. Più piccoli, magari più belli, più puliti, più arredati, ma pur sempre spazi di mero contenimento: in altre parole luoghi in cui si riproducono logiche istituzionali violente e non dove si attuano percorsi di cura e riabilitazione. Le associazioni invitano le Regioni ad abbandonare del tutto la strada delle Rems e si auspicano che i fondi già stanziati siano destinati al rafforzamento dei servizi sul territorio e alla definizione di progetti terapeutici riabilitativi individuali.

Lo scontro tra punti di vista si è palesato anche di recente con un’iniziativa del giudice del Tribunale di Roma Paola Di Nicola, che in una nota inviata qualche giorno fa all’Associazione nazionale magistrati sosteneva che la nuova norma rischierebbe di riportare in libertà soggetti “socialmente pericolosi”. Continuare però a usare la categoria della pericolosità sociale per incasellare i percorsi complessi di persone con disturbo mentale che hanno commesso reato desta non poche perplessità.

Come scrive a proposito della nuova normativa il filosofo Pier Aldo Rovatti sulla rivista aut-aut dello scorso mese, ciò che è soprattutto in gioco nella vicenda degli Opg “è la contestata cancellazione di ogni pratica di manicomializzazione”. Sottolinea sempre Rovatti, che in gioco c’è la misura storica e politica del grado di civiltà di un’epoca e di una società nel suo insieme. E a giudicare dal percorso tortuoso con cui si è arrivati all’attuale legge, non c’è dubbio che gli Opg si mostrino da una parte come il termometro più sensibile dei nostri pregiudizi nei confronti della diversità, dall’altra come lo specchio dell’azzeramento del nostro livello di civiltà.

Fu una commissione d’inchiesta parlamentare presieduta dall’attuale sindaco di Roma Ignazio Marino che nel 2011 svelò le condizioni di assoluto degrado in cui versavano le sei strutture giudiziarie distribuite sul territorio italiano. In un documentario distribuito ai giornalisti, risultato dell’indagine condotta su tutti gli ospedali del nostro paese (Barcellona Pozzo di Gotto, Aversa, Napoli, Montelupo Fiorentino, Reggio Emilia e Castiglione delle Stiviere), emergevano i fotogrammi di una realtà in cui qualunque parvenza di diritto e di rispetto per la persona umana era stata annullata. Le immagini di muffa, lenzuola sporche, letti accatastati, spazi angusti, mura incrostate, con nessuna garanzia di privacy, pulizia e persino di terapie, rimbalzarono sui media nazionali. Fu un pugno allo stomaco. Una sconfitta ancora più bruciante per l’Italia, che grazie alla famosa legge 180 e al lavoro di Franco Basaglia e della sua equipe negli anni ’60 e ’70 del secolo scorso, dispone oggi dell’assistenza alle persone con disturbo mentale più avanzata al mondo.

“Quello che colpisce come profondamente insensato di queste strutture”, afferma Giovanna Del Giudice, psichiatra e rappresentante nazionale del movimento Stopopg fortemente coinvolto nel miglioramento del decreto approvato recentemente, “è la profonda contraddizione con i principi della 180. Con questa legge in Italia siamo riusciti ad affermare un concetto tanto semplice quanto rivoluzionario: la possibilità per le persone con disturbo mentale di restare cittadini, di essere titolari dei propri diritti, di non essere espropriati della propria dignità e del senso stesso della propria vita a causa di una diagnosi di malattia mentale. Siamo riusciti a smantellare l’idea della necessità di uno “statuto speciale” per chi soffre di problemi psichici. Tutto questo è smentito dall’insensatezza dell’Opg, fondata su legislazioni che prevedono percorsi speciali per le persone con disturbo mentale che hanno commesso un reato: il famoso doppio binario”. Per tali persone l’internamento negli Opg avviene quando esse sono giudicate, attraverso perizia, “totalmente incapaci di intendere e di volere” al momento del fatto-reato. Un aspetto cruciale è che la persona incapace non viene giudicata in un processo, ma prosciolta. In tal modo le viene sottratta la responsabilità del gesto che ha commesso. Se poi è dichiarata “pericolosa socialmente”, e quindi si ritiene che possa reiterare il reato, viene internata in un Opg con una misura minima di sicurezza di 2, 5, 10 anni a seconda della gravità del reato. Prima della legge attuale non veniva definita una durata massima: la dimissione degli internati avveniva solo quando non persisteva più la pericolosità sociale. Se questa permaneva, il magistrato di sorveglianza prorogava la misura di sicurezza e la persona continuava a rimanere a tempo indefinito nell’Opg, fino a nuova revisione della pericolosità.

Sul nesso tra pericolosità sociale e disturbo mentale si palesano gli elementi di criticità più forti delle normative. È questo presunto legame che svela il percorso storico su cui è innervato l’assetto del codice penale che introduce misure di sicurezza nella prospettiva di un incontro fatale: quello fra culture giuridiche improntate alla “bonifica umana” e culture pseudoscientifiche intrise di biodeterminismo. Come spiega Peppe Dell’Acqua, a lungo direttore del Dipartimento di salute mentale di Trieste e collaboratore di Basaglia, “la ragione necessaria e dunque la motivazione di ogni invio in Opg è, in ultima analisi, il riconoscimento della pericolosità sociale all’atto dell’invio stesso; alla pericolosità sociale presunta, accertata, temuta segue la misura di sicurezza; alla misura di sicurezza consegue l’internamento in Opg o in casa di cura e custodia (che è sempre Opg); la persistenza della pericolosità è la ragione dell’internamento ‘senza fine’”.

Diverse sentenze della Corte Costituzionale hanno sancito l’inconsistenza di questo approccio sul piano giuridico e disciplinare. Esse, continua Dell’Acqua, “stabiliscono che la pericolosità sociale non può essere definita una volta per tutte, come se fosse un attributo naturale di quella persona e di quella malattia. Deve essere vista come una condizione transitoria; relativizzata, messa in relazione ai contesti, alla presenza di opportunità di cure e di emancipazione in ordine alla disponibilità di risorse e di servizi.” Nei pronunciamenti della Corte si allude all’arcaismo dell’automatismo dei meccanismi infermità/pericolosità/misura di sicurezza e si smonta l’associazione impropria, come chiarisce Dell’Acqua, “tra pericolosità sociale e ‘malattia mentale’ pregressa, presente o presunta sulla base di immagini della malattia legate a cronicità, ricorsività, processualità; legata all’incontenibile ricorrenza di comportamenti disturbanti, insubordinati, trasgressivi, eccentrici, bizzarri, incontrollabili…”.
Negli anni si è anche accumulata una corposa evidenza scientifica che dimostra l’assoluta inapplicabilità di elementi oggettivi per giustificare la possibilità di predire la pericolosità sociale in conseguenza di un disturbo mentale. Come afferma uno studio pubblicato nel 2009 sul Journal of the American Medical Association dal titolo Schizophrenia, Substance Abuse, and Violent Crime, gli atti di violenza da parte di persone con disturbi anche severi come quello schizofrenico, sono “eccezionalmente rari”.
Una meta-analisi metodologicamente corposa e rigorosa pubblicata nel 2012 sul British Medical Journal sanciva che i metodi sviluppati nel contesto della giustizia criminale per valutare il legame tra malattia mentale e “pericolosità futura” sono molto variabili nella loro accuratezza e concludeva che “il loro uso come unici determinanti di detenzione, condanna e scarcerazione non è supportato dall’attuale evidenza scientifica”. Il risultato a cui giungono queste e altre ricerche simili è che i rari atti di violenza da parte di persone con disturbo mentale, anche severi, sono determinati dalle condizioni socio-economiche o da altri fattori contestuali, più che dal disturbo stesso.

Va sottolineato che negli Opg più dei due terzi della popolazione, attualmente costituita da poco meno di un migliaio di internati, hanno commesso reati di poco conto, provengono da famiglie e contesti sociali disagiati e non abbienti. Non è un caso. “Quando i servizi di salute mentale di competenza non si fanno carico della persona”, afferma Giovanna del Giudice, “il giudice non dimette e conferma la pericolosità sociale. Quindi, in particolare per l’assenza di una famiglia, di un contesto sociale accettante e tanto più di un servizio di salute mentale che propone una presa in carico della persona, si assiste ad un protrarsi indefinito e potenzialmente illimitato del periodo di internamento”. Sul sito forumsalutementale.it sono rintracciabili alcuni casi concreti di cosiddetti ergastoli bianchi, come quelli riportati in un recente contributo da un rappresentante di associazioni di familiari, Valerio Canzian, il quale racconta ad esempio la condizione di A., 40 anni, che circa vent’anni fa entrò in Opg senza aver commesso nessun atto efferato. A. non gestisce bene le relazioni in autonomia, quando è solo nel rapporto reagisce con schiaffi e spintoni. Finì in manicomio criminale per un episodio legato a questi comportamenti. Come scrive Canzian, “ogni sei mesi ad A. viene reiterata la pericolosità sociale perché nessuno finora si è preso la responsabilità di costruire un piano individuale adeguato alla sua inclusione sociale, quella possibile consona alle sue caratteristiche, verosimilmente una comunità. Dopo 21 anni A. è ancora in Opg nonostante il magistrato di sorveglianza affermi non essere l’Opg un luogo appropriato per A.” Qualche mese fa finirono alla ribalta dei media nazionali alcune vicende simili a quella di A. dall’Opg di Barcellona Pozzo di Gotto, uno dei più tristemente famosi dopo le inchieste di questi anni. Grazie all’impegno di un prete, don Pippo Insana, che è riuscito qualche hanno fa ad aprire una Casa d’accoglienza per pochi fortunati usciti dal manicomio criminale siciliano, sono emerse storie al limite dell’incredibile. Come quella di Mario, che per una rapina di seimila lire è rimasto in Opg per ventidue anni. O quella di Salvatore, che per un’altra rapina è stato internato per trentasei anni. Piccoli reati che hanno segnato intere esistenze.

La nuova normativa vuole mettere la parola fine a tutto questo. ll decreto 52/2014 diventato legge lo scorso 28 maggio prevede infatti che i ricoveri, d’ora in poi, non potranno durare più del massimo della pena prevista per il reato commesso. Inoltre, in caso di reato commesso da persona con disturbo mentale, i giudici sono invitati, come indicano già le sentenze della Corte Costituzionale 253/2003 e 367/2004, a scegliere misure alternative all’internamento in un Opg. La nuova legge, dopo già due rinvii, oltre a fissare, come già ricordato, al 31 marzo 2015 la data ultima per la dismissione dei sei manicomi giudiziari presenti in Italia, definisce vincoli e tempi precisi per le Regioni per attuare il processo della chiusura. L’indirizzo che emerge dal dispositivo intende poi superare o limitare come ultima risorsa l’uso delle Rems, a favore di un rafforzamento dei servizi sul territorio e più in generale di un rientro nel diritto e nel contesto sociale di chi è internato o chi rischia di diventarlo: dal carcere al centro di salute mentale, alla comunità terapeutica, all’abitare assistito alla cooperativa di lavoro, alla propria casa, ai programmi riabilitativo-territoriali. Anche il carcere è un luogo di diritto all’interno del contesto sociale. Questo è uno dei punti accolti con maggiore soddisfazione da chi in questi anni si è battuto per la chiusura degli Opg. Fin dalla legge Marino 9/2012, la prima che stabiliva il superamento definitivo dei manicomi criminali, sulle Rems sono esplose infatti, come già ricordato, le criticità e le contraddizioni maggiori. I meccanismi per la costruzione delle Rems sono, ad esempio, molto complicati: appalti, capitolati, disponibilità delle risorse, tanto che in molte regioni la costruzione delle Rems non è neanche stata progettata. Allo stesso tempo, le Regioni inadempienti nella realizzazione delle strutture nei tempi previsti verranno commissariate da parte del governo.

Diverse associazioni, prima fra tutte Stopopg, non sono però preoccupate dei ritardi, anzi sostengono che i mini-Opg, non sono affatto una soluzione. “Poco conta”, continua Dell’Acqua, “che gli Opg chiudano, se al loro posto ne verranno riaperte altre, con un nome magari diverso, con una capacità di ricovero magari inferiore, se rimane intatto lo scheletro ideologico che li sorregge e giustifica la loro presenza istituzionale nella nostra società. La preoccupazione è che la costruzione dei mini-Opg rafforzi le psichiatrie della pericolosità e del farmaco, che già con prepotenza si vanno espandendo con tutta la loro riduttività.”

La partita vera che attende i medici, i politici, le associazioni si gioca insomma di nuovo, come accadde per la 180, sul campo dei diritti. La scommessa è rimettere al centro i soggetti, la possibilità per le persone con disturbo mentale di restare cittadini, “di avere la speranza di rimontare il corso delle proprie esistenze, perfino di guarire. Anche per chi ha commesso un reato”, conclude Dell’Acqua.

*Quest’articolo è stato pubblicato su Pagina99we del 14 giugno 2014. Lo riporto sul mio blog per loro gentile concessione.

RIvoluzione open science impossibile senza fama e soldi*

“Faremo scoperte scientifiche alla velocità di un tweet”. Per Michael Nielsen, esperto di quantum computing votato da anni alla causa della scienza aperta, stiamo vivendo la transizione verso una seconda era scientifica, un’epoca paragonabile alla rivoluzione seicentesca e al passaggio dall’età medievale all’età moderna. Grazie a Internet abbiamo l’opportunità di cambiare radicalmente il modo in cui la conoscenza è costruita, scrive Nielsen nel suo libro-manifesto, pubblicato nel 2012 in Italia da Einaudi col titolo Le nuove vie della scoperta scientifica. Lo scienziato americano indica l’impatto della rete sulla scienza in almeno in due direzioni: nell’accelerazione del tasso di produzione delle scoperte e in un cambiamento profondo del rapporto tra scienza e società. Eppure, a dispetto dei toni enfatici degli apologeti della rete come Nielsen, i più restii a cogliere la grande possibilità offerta da Internet sembrano proprio gli scienziati. A vent’anni dalla nascita del world wide web al CERN di Ginevra, la ricerca scientifica è più lenta di altri mondi, in primis l’impresa, nell’adottare cambiamenti radicali.

Secondo Eugenio Santoro, responsabile del Laboratorio di Informatica Medica al Mario Negri di Milano e autore di vari libri sul rapporto tra social media e medicina, “c’è ancora molta strada da fare nella direzione dell’open science. In ambito medico ci sono esperienze rilevanti a livello mondiale, come la condivisione di protocolli di sperimentazioni cliniche o di dataset per analisi statistiche, ma sui dati davvero interessanti c’è ancora molto reticenza all’apertura e alla condivisione”. Esempi importanti ci sono già, ma gli ostacoli a mettere a disposizione liberamente i dati, contribuire a progetti wiki, commentare blog, ad abbracciare insomma la scienza aperta auspicata da Nielsen, sono ancora molti. “La titubanza nei confronti dell’open science”, continua Santoro, “nasce da gelosie e dalla paura di avvantaggiare i ricercatori rivali. Il modello a cui dovrebbe aspirare la medicina in quest’ambito è quello offerto dalla fisica.”.

La disciplina di Galileo, Fermi e Einstein sembrerebbe quella che più di tutte ha colto le opportunità offerte dalle tecnologie digitali e connettive: fin dagli anni Novanta del secolo scorso, agli albori di Internet, i fisici hanno ad esempio inaugurato gli archivi di preprint, vale a dire siti in cui depositare e rendere liberamente accessibili le bozze di lavori scientifici prima di inviarli a una rivista tradizionale. Proprio nel caso della fisica però, dietro recenti iniziative dal grande impegno organizzativo e dalle forti promesse innovative, si riproducono pratiche consuete. All’inizio di quest’anno è stato inaugurato il consorzio SCOAP3: uno sforzo senza precedenti verso un modello di pubblicazione open access nell’ambito della fisica delle particelle. Il consorzio, formato da alcune delle principali realtà scientifiche del settore, CERN in testa, si presenta come un modello per assicurare la copertura dei costi di pubblicazione sulle più importanti riviste. Grazie a SCOAP3 chiunque abbia un computer connesso a internet potrà leggere gli studi più rilevanti nella fisica delle particelle. Ma le criticità sono molte. Secondo Enrico Balli, editore del Journal of High Energy Physics (JHEP), una delle riviste più autorevoli del settore, SCOAP3 è “un meccanismo di finanziamento che non solo non contribuisce ad abbattere i costi delle pubblicazioni nella fisica delle alte energie, ma addirittura li aumenta. Nessuno ha infatti mai mostrato finora il budget dell’organizzazione centrale di SCOAP3 al CERN (salari, trasferte, costi indiretti).” Oltre al problema dei costi, Balli ridimensiona la portata dell’iniziativa proprio in termini di maggiore accesso aperto. “Il risultato netto dell’operazione”, continua l’editore di JHEP, “è che una parte consistente degli articoli del campo non sono open access. Non lo sono ad esempio tutti quelli pubblicati dalle riviste dell’American Physical Society e dell’Institute of Physics britannico”, due società scientifiche importanti che non hanno ritenuto conveniente aderire al progetto e che gestiscono una fetta cospicua e rilevante di letteratura.

A queste difficoltà si aggiunga che il modello di SCOAP3 è difficilmente esportabile in altri ambiti disciplinari e che, in ogni caso, il principale cambiamento dell’iniziativa riguarda il rapporto economico tra case editrici e università, ma non le modalità di produzione della conoscenza scientifica. L’obiettivo finale di SCOAP3 resta infatti il paper scientifico, un’invenzione che risale a più di trecento anni fa. Nonostante le apparenze prevale quindi il cosiddetto fenomeno della “ri-mediazione”, cioè della trasposizione di un medium antico (il “paper” pubblicato su una rivista scientifica) in una tecnologia nuova (la rete): un processo tutt’altro che rivoluzionario. Eppure le tecnologie digitali offrono possibilità ben più ampie: scrittura e design collaborativi (Wikipedia e Linux), sistemi di rating (Amazon e Yelp), analisi automatica di big data per delineare trend (Twitter). Perché il settore che ha inventato il web tarda ad adottarne le possibilità, o addirittura non torna a guidarne l’evoluzione?
Il fatto è che nei trecento anni dalla nascita della prima rivista scientifica, la scienza ha spesso dovuto occuparsi del confine tra chi sta dentro e chi sta fuori, tra scienziati e non scienziati, tra conoscenza scientifica e altre forme di sapere. Oggi siamo di fronte a una rinegoziazione senza precedenti dei confini della “autorità cognitiva” della scienza, cioè la sua capacità di rappresentarsi come depositaria del sapere: da qui le resistenze. La scienza aperta in rete ha il potenziale per favorire una trasformazione epocale, paragonabile a quanto avvenuto con l’invenzione della stampa. Però è un processo tortuoso, che richiederà decenni per trovare un nuovo equilibrio.

Nel Seicento l’arrivo della stampa ha svelato lati nuovi della conoscenza, e ha facilitato trasformazioni sociali e politiche all’interno della ricerca. Lo stesso è l’open science: è come il cannocchiale di Galileo, ci mostra che gran parte di quello che sapevamo su che cos’è la conoscenza e su come funziona è sbagliato. Per esempio, ci mostra una scienza sempre in versione Beta, mai conclusa e sempre modificata: il contrario del paper scientifico, che ha un’autrice (o un gruppo di autori) riconosciuta, è stabile e viene depositato nelle biblioteche (o negli archivi in rete) dove attende di essere discusso e confutato ma non modificato, incrementato o migliorato.

Ma ci sono forse ragioni ancora più profonde per comprendere le difficoltà attuali di affermazione dell’open science. Ragioni che si richiamano alla storia della scienza e delle sue istituzioni. Come emerge dagli studi dell’economista Paul David, professore emerito a Oxford e Stanford, la dimensione pubblica della scienza si afferma nel Seicento perché risponde alle aspettative di successo economico e di reputazione dei filosofi naturali molto meglio di modelli chiusi di circolazione dell’informazione. Il prezzo da pagare è la mancanza di controllo della conoscenza prodotta. Ma è una controindicazione accettata volentieri perché in cambio gli studiosi guadagnano soldi e fama entrando nelle corti di ricchi e potenti mecenati europei.

L’apparente controsenso di mettere a disposizione di tutti i frutti del proprio lavoro, senza chiedere un corrispettivo economico o professionale diretto, si spiega con la crescente sofisticazione della matematica e della filosofia naturale del Cinquecento e del Seicento. I mecenati, desiderosi di fregiarsi dei migliori studiosi in circolazione, si trovano di fronte alla difficoltà di non avere conoscenze adeguate per comprendere e valutare la qualità degli studiosi, e quindi basano la loro scelta sul giudizio espresso dalla comunità degli esperti. Per questo motivo, i filosofi naturali si devono dotare di pratiche libere di scambio, circolazione e validazione della conoscenza. La conoscenza, per essere attendibile e verificabile da altri, deve essere visibile e trasparente e lo diventa attraverso lo scambio di lettere, la pubblicazione di riviste, i commenti e le critiche libere rese possibili in modo impensato rispetto ai secoli precedenti proprio grazie all’invenzione della stampa.
L’innovazione tecnologica è la precondizione necessaria per il passaggio da un mondo di conoscenze misteriose e segrete sulla Natura a una visione pubblica e collettiva della scienza.

La grande discontinuità nell’organizzazione sociale dell’indagine scientifica va di pari passo con quella intellettuale, che esprime il desiderio umano di condividere la conoscenza indipendentemente da riscontri economici e di successo. Entrambe le forze, nel Seicento come oggi, devono essere alimentate e istituzionalizzate per produrre i cambiamenti radicali prefigurati dall’open science. Wikipedia, social network, blog, sono la precondizione necessaria per la trasformazione della natura stessa della conoscenza, così come lo è stata la stampa nel Seicento, a patto però che si definiscano incentivi materiali e di reputazione che rendano significativo il loro utilizzo massiccio da parte degli scienziati. Gli apologeti attuali dell’open science si concentrano troppo spesso sulle possibilità e sul desiderio nobile e legittimo di una migliore intelligenza collettiva, trascurando però le logiche economiche delle organizzazioni deputate alla produzione della conoscenza. La storia della Rivoluzione Scientifica del Seicento insegna che i due percorsi devono andare di pari passo per produrre il cambiamento. E allora come oggi, l’open science ci mostra una nuova natura della conoscenza, un processo lungo, pieno di battaglie e di morti sul campo, e proprio per questo molto interessante.

*Quest’articolo è stato scritto insieme ad Alessandro Delfanti e pubblicato su Pagina99we del 31 maggio 2014. Lo riporto sul mio blog per loro gentile concessione.

Il ruolo della formazione nella governance della scienza


Possono le scuole di comunicazione e di giornalismo scientifico dare un contributo alla democratizzazione della scienza? Possono favorire processi partecipativi su questioni tecnoscientifiche socialmente controverse? Possono essere un centro propulsivo di cittadinanza scientifica? Sono le questioni su cui sono stato stimolato a ragionare nell’ambito di una tavola rotonda prevista per venerdì prossimo a Perugia durante la due giorni del convegno Scienza, informazione e democrazia.
Dal mio punto di vista la risposta sintetica alle domande elencate è sì, a patto che la comunicazione della scienza sia agita come un bene pubblico e si metta al servizio delle comunità per favorire l’impegno civile. È un passaggio controverso, perché siamo ancora troppo abituati a formare studenti che salvaguardino le legittime, ma non esclusive, istanze degli scienziati.

È solo una preoccupazione accademica?

Gli interrogativi posti, di primo acchitto, sono abbastanza distanti dalle preoccupazioni quotidiane di chi si occupa di formazione in comunicazione della scienza. Molto più usuale è che gli aspiranti allievi ti chiedano se troveranno lavoro. Per dare significati concreti alla discussione bisognerebbe mostrare che la definizione di uno spazio originale di innovazione democratica per le scuole porta all’acquisizione di competenze spendibili sul mercato del lavoro.

Perché bisognerebbe promuovere la cittadinanza scientifica?

C’è però una questione preliminare da sciogliere. Siamo proprio sicuri che il coinvolgimento pubblico su questioni di scienza e tecnologia sia una cosa buona? Perché (e dovremmo chiedercelo prima del come) dovremmo formare persone in grado di facilitare processi di partecipazione su decisioni che richiedono elevate competenze tecnico-scientifiche? Siamo convinti che in tal modo si prenderebbero le decisioni migliori? All’inizio di quest’anno la rivista Public Understanding of Science (PUS) ha dedicato un numero speciale a questi interrogativi. Dopo vent’anni di teorie e pratiche su quello che gli anglossassoni chiamano public engagement of science, autori celebri nel settore, come Brian Wynne, Alan Irwin, Helga Novotny e soprattutto Sheila Jasanoff, si sono chiesti a che punto siamo, dove stiamo andando e perché bisognerebbe continuare a sostenere modelli dialogici nella comunicazione della scienza.

Limiti e potenzialità del dialogo

Gli autori elencati sono tutti d’accordo nel ritenere che non tutte le promesse sono state mantenute. Le pratiche di dialogo tra scienza e società a partire dagli anni ’90 del secolo scorso si sono focalizzate su esperimenti limitati sia nel numero di partecipanti che nell’impatto concreto sulle policy. In più si sono istituzionalizzate. Da una parte si è perso quindi di vista l’obiettivo politico più ampio: quello di una governance dialogica globale della scienza, non riducibile a singole attività dagli esiti politici incerti e modesti. Dall’altra le istituzioni hanno proceduralizzato gli esercizi di dialogo per inserirli in una più vasta strategia di rassicurazione, significativamente distante da una reale apertura democratica.

Occorre cambiare le idee su scienza e pubblici

Diversi studiosi dello special issue del PUS condividono il fatto che se si vuole ridare slancio alla partecipazione bisogna riaprire le idee sui pubblici e sulla scienza.
In ormai quasi trent’anni di critica al modello top-down, è stato relativamente facile convincere gli scienziati che bisognava passare dal monologo alla conversazione. Molto più complicato è stato persuadere gli esperti che il problema non è il pubblico. Nei fatti la stragrande maggioranza delle istituzioni pratica il dialogo come uno strumento più sofisticato rispetto al passato, ma pur sempre finalizzato a mantenere inalterate le strutture di potere e le distanze fra chi sa e chi non sa.
Ma la partecipazione ha un senso solo se apre il processo decisionale ad altre voci, ad altri saperi, ad altre visioni, non se si interrompe il processo quando la discussione diventa scomoda. Aprire il processo decisionale vuol dire generare nuove conversazioni e soluzioni, significa rendere concreta la pratica della cittadinanza scientifica.

I costi della partecipazione

Tutto questo è costoso in termini di tempo e di risorse ed è soprattutto rischioso sul piano politico, perché può portare in direzioni inattese proprio per le organizzazioni che promuovono il dialogo. Il paradosso è che i benefici maggiori alla democrazia possono rappresentare gli aspetti più sgradevoli per le istituzioni.
Si è disposti ad accettare questo rischio se si ha fiducia che la partecipazione sia il metodo privilegiato per definire le scelte migliori o, più probabilmente, il meno peggio per tutti. Il dialogo può funzionare se i pubblici di non-esperti vengono considerati dei partner comunicativi con cui negoziare interessi e prospettive anche molto differenti tra di loro. Se viceversa l’idea di fondo rimane di trattare i pubblici come target da persuadere o rassicurare, in altre parole se le pratiche di coinvolgimento continuano a rispecchiare le assunzioni del modello di deficit, rimane forte la tentazione di chiudere il processo di discussione quando diventa sconveniente.

Pubblici issue-oriented

Come scrive Jasanoff, è sempre più chiaro, diversamente dalle schematizzazioni deficitarie, che i pubblici non sono realtà pre-esistenti e statiche rispetto alla scienza e alla tecnologia. I pubblici della scienza sono issue-oriented, vale a dire che essi si formano rispetto a problemi specifici che contano di più di variabili socio-demografiche e culturali: i pubblici vogliono entrare nell’arena politica perché desiderano partecipare al governo del futuro.
In parallelo alla riconsiderazione dei pubblici della scienza vanno approfondite le ragioni per cui gli scienziati continuano a rappresentarsi sotto assedio, nonostante la ricerca sociale da anni mostri che non è così. La persistenza di un’immagine della scienza poco apprezzata e poco considerata condiziona l’impostazione e la visione degli approcci dialogici.

Benefici per la democrazia, ma per la scienza?

Le conseguenze inattese e lo sviluppo di “intelligenza sociale” rappresentano certamente un beneficio per la democrazia (tenendo sempre a mente che la democrazia ci permette di individuare decisioni senza ricorrere alla violenza – ed è tanto – ma non ci consente necessariamente di trovare la scelta giusta in sé).
Ma cosa ci guadagna la scienza in tutto questo? Cosa ci guadagnano gli esperti a essere messi in discussione?
Certamente poco se lo scopo rimane la rassicurazione sociale, molto di più se gli obiettivi diventano la riflessività istituzionale e soprattutto l’aumento del capitale di fiducia sociale, la questione che a mio modo di vedere rappresenta la posta in gioco più importante nei rapporti tra scienza e società. Perché in fondo la domanda su cui i cittadini si interrogano più insistentemente di fronte all’innovazione tecnoscientifica e ai conflitti che ne scaturiscono è: di chi mi posso fidare?
Per le istituzioni, aprirsi a un dialogo vero significherebbe muoversi nella giusta direzione per essere sempre di più degli interlocutori credibili e attendibili, prim’ancora di essere dei centri di sapere comprensibili.
Difficilmente tali obiettivi possono essere raggiunti puntando a singoli e sporadici eventi di partecipazione, per di più poco coerenti con una visione di governance globale della scienza. Se però le istituzioni accettano davvero il rischio democratico allora si può forse prospettare un ruolo anche per le scuole di comunicazione della scienza.

Cosa possono fare le scuole per la cittadinanza scientifica

Non c’è dubbio che in un periodo di trasformazione come quello attuale è nostra responsabilità di formatori studiare percorsi didattici che puntino all’internazionalizzazione, all’innovazione, all’universo digitale, ai modelli economici. Non bisogna però perdere di vista il perno imprescindibile attorno a cui ruota qualunque attività di comunicazione: lavorare in funzione del pubblico.
Se crediamo di dover formare persone che favoriscano la democratizzazione della scienza, allora bisogna insegnare ai nostri studenti come organizzare l’informazione scientifica per promuovere l’impegno civile.
I nostri studenti devono acquisire le competenze tecniche e culturali per entrare nelle comunità, imparare a viverle, a capirle e a raccontarle. Dobbiamo formare studenti in grado di aiutare le istituzioni scientifiche ad abbracciare una visione più ampia dei rapporti tra scienza e società. Dobbiamo addestrare allievi in grado di ideare progetti innovativi di interazione tra media, esperti e politici. Dobbiamo pensare a figure di facilitatori che agiscano per far aumentare la consapevolezza dei diritti e dei doveri della cittadinanza scientifica nei media locali, nelle scuole, nelle piccole e medie imprese.
In ultima analisi dobbiamo far diventare le nostre scuole dei centri vivi nelle comunità, dobbiamo studiare percorsi formativi che permettano ai nostri allievi non solo di contribuire all’aumento dell’intelligenza collettiva, ma anche, come ribadisce ancora Jasanoff, di soddisfare un desiderio altrettanto legittimo: quello di partecipare al governo del futuro abilitato dalla scienza e della tecnologia. Troppo spesso i nostri insegnamenti si sono limitati al primo punto. La democratizzazione della scienza richiede di esplorare soprattutto il secondo.

Recensione – La realtà non è come ci appare

Come avrei voluto leggere un libro così lucido, profondo, rigoroso e allo stesso tempo accessibile e illuminante quando ero studente di fisica. La realtà non è come ci appare di Carlo Rovelli avrebbe cambiato il mio percorso universitario, e forse qualcosa di più. Non credo che avrei superato con meno fatica gli esami, ma sono convinto che un testo del genere mi avrebbe trasmesso un desiderio mai ravvisato in nessuno dei miei professori dell’epoca. Un desiderio che riguarda il tentativo vertiginoso della fisica teorica di cogliere l’estremo, l’essenziale, il remoto.
C’è qualcosa di tremendo nel percorso intellettuale che arriva ad abolire il tempo e l’infinito, come ci propone Rovelli nella sua splendida rilettura della storia della fisica, da Galileo ai giorni nostri, passando per la relatività generale e la meccanica quantistica, fino a farci avventurare sui bordi estremi della conoscenza rappresentati dalla gravità quantistica.
Ci coglie un’ebbrezza mista a stordimento nella descrizione di una realtà così diversa da quanto ci permettano di intravedere i nostri sensi e le nostre esperienze. “Siamo piccole talpe cieche sottoterra che sanno poco o nulla del mondo, ma continuano ad imparare…”, scrive Rovelli verso la fine del libro.
È l’azzardo di pensare l’impensabile che definisce la cifra peculiare della fisica teorica. La stragrande maggioranza di noi si ritrae, nei modi più diversi, di fronte a questa prova. E non credo solamente per motivi tecnici, per difficoltà matematiche e concettuali, che certamente esistono. Penso che ci sia anche qualcosa di profondamente comprensibile nel rifugiarsi nel dolce naufragio dell’indefinito, nell’abbandonare il culmine di un pensiero spesso insostenibile per lo sgomento che suscita.
Rovelli ci avvicina viceversa al coraggio intellettuale di chi sceglie il percorso più arduo, di chi non volta le spalle al mistero del mondo cedendo al disincanto o asservendosi al sapere costituito. La sua è una rivendicazione orgogliosa di chi accetta l’ignoranza, e allo stesso tempo la sfida della conoscenza, fino in fondo, senza sconti. La via proposta però è stretta e forse l’autore, se mi posso permettere una critica, potrebbe essere meno severo con chi decide di non percorrerla.
Detto questo, La realtà non è come ci appare è un vero e proprio manifesto della ricerca pura nella sua espressione più universale. Andrebbe letto anche solo per cogliere in termini contemporanei il monito dantesco a perseguire la conoscenza per dirci pienamente umani.

Meno giornali, meno democrazia*

L'ultima prima pagina cartacea del Seattle P-I

Quando chiude un giornale cartaceo si partecipa meno alla vita pubblica, diminuisce il coinvolgimento civico e si abbassa la qualità della democrazia. Sono i risultati di una ricerca americana pubblicata recentemente sulla rivista Political Communication con lo scopo di quantificare l’impatto sociale del declino della carta stampata.
Il costante arretramento dei quotidiani cartacei nei paesi più industrializzati è ben documentato. Il report The future of News and Internet, realizzato nel 2010 dall’Ocse, sanciva in modo inequivocabile la diminuzione dei lettori di giornali nella gran parte dei paesi sviluppati, con punte negative particolarmente significative per la stampa locale e regionale in Gran Bretagna, Stati Uniti, Italia, Grecia, Canada e Spagna.
Da anni molti analisti dei media sostengono che dovremmo preoccuparcene perché, al di là degli aspetti economici della questione, il giornalismo idealmente assolve, come è noto, due funzioni basilari per la democrazia: è strumento di controllo del potere ed è uno spazio pubblico crocevia di relazioni sociali, in particolar modo per le comunità locali. Sono considerazioni sentite ormai mille volte, ma fino ad ora non si disponeva di molti dati per smentirle o confermarle.
È sulla base di queste lacune che Lee Shaker, sociologo dei media dell’Università di Portland ha cercato di misurare i cambiamenti nel coinvolgimento civico dei cittadini americani tra il 2008 e il 2009 in diciotto tra le maggiori aree metropolitane degli Stati Uniti. Le città in cui si è registrato l’abbassamento più significativo del livello di partecipazione alla vita pubblica sono risultate Denver e Seattle, dove tra il 2006 e il 2008 sono state sospese le pubblicazioni di due importanti quotidiani cartacei.
Per arrivare a queste conclusioni Shaker ha analizzato i dati della Current Population Survey, indagine statistica periodica sull’occupazione negli Stati Uniti, che include indicatori misurabili di coinvolgimento civico, come l’acquisto o il boicottaggio di prodotti e servizi di aziende con comportamenti ritenuti scorretti o la partecipazione a gruppi, commissioni e organizzazioni di utilità sociale. Dopo aver isolato l’impatto della chiusura dei giornali da altre variabili, Shaker ha verificato che il declino civico registrato a Denver e a Seattle non si è replicato nelle altre città prese in esame e in cui, nello stesso periodo di tempo, le pubblicazioni dei quotidiani cartacei sono continuate regolarmente.
Si tratta di effetti negativi a breve termine che certamente meritano ulteriore approfondimento, ma che inseriscono elementi originali in un dibattito spesso polarizzato tra nostalgici della carta stampata e ottimisti della rete.
C’è sicuramente del vero quando si afferma che il giornale non è la sua carta e che le sue funzioni sociali possono essere non solo riprodotte ma decisamente ampliate grazie alle tecnologie connettive e digitali. Allo stesso tempo, come afferma Shaker nelle conclusioni del suo lavoro, “l’avvento di nuove opportunità di comunicazione suggerisce che si devono sviluppare anche nuove forme di coinvolgimento”. È proprio nella ricerca di rinnovati equilibri tra informazione e comunità democratiche sane che probabilmente i giornali cartacei continueranno a giocare una parte importante.

*Quest’articolo è stato pubblicato su Pagina99 week end del 22/23 marzo 2014. Lo riporto sul mio blog per loro gentile concessione.