il sonno ha le sue ragioni che la ragione non conosce*

sonnopg9912mar2016 Visioni doppie, tremori, difficoltà di movimento, un bisogno irresistibile di dormire in qualsiasi momento e in quasi la metà dei casi paralisi e morte. Subito dopo la prima guerra mondiale un morbo inquietante, l’encefalite letargica, flagellò prima l’Europa e poi il resto del mondo. Decine di migliaia di persone, secondo alcune stime addirittura un milione, furono colpite da una sonnolenza persistente contro la quale all’epoca non esistevano rimedi. Durò circa dieci anni, poi praticamente più niente: la “malattia del sonno” misteriosamente tolse il disturbo così come quasi dal nulla era comparsa. Se si escludono alcuni casi sporadici è infatti dal 1924 che non ne viene segnalata la comparsa in forme epidemiche. Eppure, come descritto in un articolo apparso su Scientific American all’inizio di questo mese, l’encefalite letargica, provocata da un virus tuttora sconosciuto, ci ha insegnato molto di quello che sappiamo oggi sul sonno, attività che riguarda indistintamente tutto il regno animale ma su cui rimane aperta la questione centrale: perché dormiamo.

Fu soprattutto l’acume di un aristocratico neurologo di origine greca, Costantin von Economo, formatosi nella tradizione culturale asburgica, a fornire in una monumentale monografia la migliore descrizione dell’ encefalite come un’infiammazione del cervello. “L’impatto dei suoi studi nella nostra disciplina”, commenta a pagina99 Ugo Faraguna, neurofisiologo del sonno all’Università di Pisa, “si può paragonare a quelli di Einstein nella fisica”. Così come continuiamo a trovare conferme sperimentali della teoria della relatività – vedi ad esempio la recente rilevazione delle onde gravitazionali – “decenni di lavori istologici non hanno fatto altro che confermare quanto von Economo aveva ipotizzato analizzando la sede dell’encefalite letargica, in particolare l’esistenza di interruttori del sonno e della veglia”.

Nonostante siano passati circa novant’anni dai lavori del neurologo viennese, sono ancora tutt’altro che chiare le ragioni per cui dormiamo. Di sicuro sappiamo che il sonno fa bene, ma al momento attuale disponiamo solo di ipotesi riguardanti i meccanismi con cui agisce, con non poco disagio da parte degli studiosi. Nicola Cellini, ricercatore all’Università di Padova esperto del rapporto tra sonno e memoria, afferma che “per alcuni dei maggiori esperti a livello internazionale la funzione del sonno è oggi la domanda più imbarazzante per le neuroscienze.” Secondo Cellini, che interverrà la prossima settimana sia a Padova che a Trieste alla Settimana del Cervello, una ricorrenza annuale con eventi in tutto il mondo per aumentare la consapevolezza pubblica nei confronti della ricerca nel settore, “probabilmente il sonno svolge più funzioni contemporaneamente, dalla rimozione delle neurotossine accumulate nel cervello durante il giorno, alla ristrutturazione delle memorie. Questo approccio è differente rispetto al passato. Per diverso tempo si è pensato ad esempio che dormire servisse a conservare o recuperare le energie cerebrali spese durante il giorno. Nel sonno però il nostro cervello non è affatto meno impegnato. Anzi, consuma quasi le stesse risorse usate quando siamo svegli.”

Negli anni il quadro delle ricerca sul sonno è cambiato sensibilmente. Le ipotesi sono aumentate e diventate più complesse. Una delle possibilità accreditate più recenti è quella secondo cui il sonno funzionerebbe da “spazzino”, servirebbe cioè a liberare il cervello da scorie potenzialmente neurotossiche, in particolare certi residui di proteine, accumulate durante la veglia. La funzione di ripulitura del cervello è stata mostrata nei topi in uno studio pubblicato sulla rivista Science nel 2013 a firma di un gruppo di ricercatori dell’Università di Rochester, negli Usa, guidati dalla neuroscienziata danese Maiken Nedergaard. Se un simile meccanismo dovesse agire anche nell’uomo si potrebbe capire meglio l’associazione tra i disturbi del sonno e malattie neurodegenerative come il morbo d’Alzheimer, in cui l’accumulo di una proteina chiamata beta-amiloide sarebbe il principale sospettato del danneggiamento e della morte delle cellule nervose.

Una seconda tendenza molto considerata attualmente vede come protagonisti due ricercatori italiani, anche se da tempo trasferitisi negli Stati Uniti. Si tratta di Chiara Cirelli e Giulio Tononi, dell’Università del Wisconsin, che nel corso degli anni hanno messo a punto la cosiddetta ipotesi dell’ “omeostasi sinaptica”. In un importante lavoro di rassegna della letteratura presentato sul giornale specialistico Neuron nel 2014, i due autori hanno prospettato che, diversamente da quanto affermato da teorie più tradizionali, il cervello dormiente non consolida le connessioni neurali utili ad esempio a fissare quanto di importante abbiamo imparato nella fase di veglia. Anzi, quando dormiamo le connessioni neurali si indebolirebbero, perché viceversa il cervello si affaticherebbe troppo. Come spiega Faraguna, per diversi anni collaboratore di Tononi negli Usa, “questa ipotesi postula la necessità del sonno come momento in cui le sinapsi, vale a dire i punti di contatto tra le cellule nervose, vengono potate. Se durante la veglia le sinapsi fioriscono, durante la notte vengono tagliate. Si eliminano così le informazioni che non servono più e si libera spazio ed energie per l’apprendimento di nuove informazioni il giorno seguente.” Il sonno sarebbe il dazio necessario per lo svolgimento di questo processo. Perché dormire non è privo di inconvenienti. Anzi. “Da un punto di vista evolutivo”, continua Faraguna, “il sonno è pericolosissimo poiché espone le prede a rischi facilmente immaginabili. Ma tutti gli animali dormono, senza eccezioni. Come ha affermato Allan Rechtschaffen, uno dei pionieri della ricerca in questo campo, se il sonno non avesse alcuna funzione allora si tratterebbe del più grande errore dell’evoluzione. Ma non è così. Dormire è il prezzo da pagare per imparare. E questo è in fondo un punto che su cui diverse ipotesi possono concordare”.

*Il testo di quest’articolo è stato pubblicato sul periodico pagina99 il 12 marzo 2016.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

oltre lo show di Zuckerberg tra i neo-filantropi californiani*

zuckpg99Sulla faraonica donazione del 99 per cento delle azioni Facebook, annunciata da Mark Zuckerberg e da sua moglie Priscilla Chan all’indomani della nascita della loro primogenita Max, circa un paio di settimane fa, si sono spese già molte polemiche. L’accusa principale rivolta ai coniugi Zuckerberg è di voler pagare meno tasse attraverso un’operazione mascherata da beneficenza. Particolarmente duro Jesse Eisinger, dell’agenzia giornalistica indipendente ProPublica. Eisinger ha spiegato che la Chan Zuckerberg Initiative, creata dal fondatore di Facebook e da sua moglie, è una limited liability company, una sorta di società a responsabilità limitata e non una società no-profit. L’iniziativa non sarebbe così soggetta alle regole e ai requisiti di trasparenza delle fondazioni caritatevoli tradizionali e soprattutto godrebbe di benefici fiscali a quest’ultime non riservate. L’amministratore delegato di Facebook ha respinto l’accusa dichiarando che la scelta di creare una società privata si giustifica semplicemente per la sua maggiore efficienza e flessibilità. Che sia davvero così o che si tratti di altruismo interessato, il progetto filantropico di Zuckerberg è la punta dell’iceberg di un fenomeno molto più ampio, che a partire dai miliardari dell’hitech della Silicon Valley fa riferimento a un movimento teorico e sociale impegnato nel ripensare il non-profit, la liberalità, l’impegno solidale e collaborativo. Uno spazio laboratoriale e interdisciplinare che va sotto il nome di Nuova Filantropia e che si presenta come una cultura visionaria del dare, in cui confluiscono tecnologia, economia e diritto alla ricerca di una sintesi innovativa.

L’espressione “nuova filantropia” nasce all’interno della generazione degli imprenditori del dot.com, giovani o molto giovani che a partire dagli anni ’90 del secolo scorso hanno guadagnato montagne di soldi nell’industria dell’informatica e del digitale. La Silicon Valley è l’ambiente naturale, sia dal punto di vista geografico che culturale, per lo sviluppo di attività di beneficenza che, diversamente dal passato, sono incentrate sulla verifica dell’impatto sociale o ambientale delle elargizioni e sulla produzione di guadagno per gli erogatori. Rispetto alle tradizionali donazioni status-symbol dispensate per avere accesso a club esclusivi, c’è l’ambizione di incidere davvero per cambiare le cose. La visione è molto più strategica. Trae le sue radici concettuali nell’etica hacker di cui sono imbevuti, loro malgrado, molti dei miliardari self made man di nuova generazione, di cui Mark Zuckerberg è il prototipo ideale.

Non a caso, la Chan Zuckerberg Initiative è solo l’ultima in ordine di tempo di una costellazione di imprese simili, magari meno note, ma realizzate col medesimo approccio: unire filantropia e tecnologia. Come ad esempio quella di Brian Chesky, Ceo e fondatore di Airbnb, che ha fatto sviluppare ai suoi programmatori una piattaforma per far entrare in contatto gli sfollati dei disastri naturali con le persone disponibili a ospitarli. O come le iniziative di Anne Wojcicki, fondatrice della società produttrice di test genetici 23andMe, che ha devoluto centinaia di milioni di dollari ad associazioni come Ashoka, la più grande comunità internazionale di imprenditori sociali nata per dare supporto alle persone, non ai progetti. O infine come l’organizzazione no-profit GiveDirectly, che tramite cellulari riesce a trasferire denaro contante direttamente, evitando burocrazia e corruzione, a persone in condizioni di estrema povertà in Kenya e Uganda. Il programma, fra l’altro, prevede l’uso di satelliti per individuare i villaggi più poveri e l’utilizzo di strumenti avanzati per monitorare come vengono spesi i soldi e qual è livello di soddisfazione di chi li riceve.

Che il mondo tecnologico libertario e individualista attorno alla South Bay di San Francisco sia diventato il luogo d’elezione dei filantropi più dinamici del ventunesimo potrebbe sembrare un paradosso. Come descritto recentemente sul New York Times dalla giornalista Alessandra Stanley, Zuckerberg e soci non sono più interessati dei loro predecessori conservatori a cambiamenti radicali nel nome dell’eguaglianza sociale. I miliardari dell’hitech sono semplicemente convinti di poter applicare “la stessa ingenuità e lo stesso entusiasmo che li ha resi ricchi per rendere il resto del mondo meno povero”. Il tecno-utopismo di matrice hacker permette di comprendere come mai i proprietari di multinazionali private monopoliste del web, spesso insofferenti alle legislazioni fiscali sovrane, mettano così tante risorse per la soluzione di problematiche di interesse pubblico. Il punto è che, come emerge sempre nell’inchiesta del New York Times, i filantropi tecnologici non “fanno lobby per la redistribuzione della ricchezza”, ma piuttosto “vedono la povertà e la disuguaglianza come un problema ingegneristico, la cui soluzione è nelle loro capacità intellettuali”.

Tutto questo non limita la portata innovativa delle tecnologie dell’informazione e della comunicazione nella definizione di nuove prospettive benefiche. Come sottolineato lo scorso 2 dicembre nel corso di un convegno dal titolo “La nuova filantropia. Economia e diritto per una società digitale collaborativa”, uno dei pochi appuntamenti strutturati sul tema nel nostro paese organizzato dall’Università Cattolica di Piacenza, la tecnologia è il primo, se non il più qualificante, elemento di discontinuità della nuova modalità di fare beneficenza.
In particolare, la rete è lo sfondo su cui si innesta un secondo elemento caratteristico delle nuove pratiche del dono: l’approccio utilitarista, vale a dire l’interesse per le conseguenze dell’azione, per l’efficacia e la quantificazione degli impatti grazie alle opportunità di trasparenza e di tracciabilità offerte dal web. Un terzo aspetto è di natura antropologica e consiste nella centralità dell’agire collaborativo, nell’affermazione di un rivisitato comunitarismo che trova rinnovato slancio nel ruolo giocato dalle comunità digitali rispetto ai valori di apertura, condivisione, partecipazione, solidarietà.

Perché si realizzi la prospettiva comunitarista bisogna però dotarsi di nuove metriche economiche, in grado di misurare ad esempio l’impatto sociale del dono, e di strutture giuridiche più flessibili, in grado di dare conto delle molteplici forme del “dare”, non più riducibili solamente al donare beni, ma che riguardano anche la messa a disposizione di attività, capacità, tempo, informazioni. Ad esempio, chi dona i propri dati genetici si può porre oltre l’attuale comprensione giuridica della privacy.

I limiti delle normative vigenti, soprattutto di natura fiscale e sul piano delle successioni, sono particolarmente significativi in Italia. Come spiega a Pagina99 Monica De Paoli, notaio milanese tra le responsabili scientifici del convegno di Piacenza, i vincoli attuali contribuiscono a determinare “il divario esistente tra le esperienze di altri Paesi, in particolar modo di matrice anglosassone, e il nostro, dove le donazioni al confronto sono modeste”. De Paoli è anche vicepresidente del consiglio di indirizzo della Fondazione Italia per il Dono ONLUS (F.I.Do), una struttura nata con l’idea di creare un nuovo strumento di intermediazione filantropica. L’aspetto innovativo di F.I.Do, continua De Paoli, consiste nel fatto che chiunque voglia operare in un progetto di beneficenza “non ha bisogno di creare una propria struttura. F.I.Do offre servizi a soggetti che non possono o non vogliono creare una propria fondazione erogativa: agisce allo stesso tempo come hub e come incubatore. Chiunque può donare alla Fondazione. Il nostro scopo principale è promuovere la cultura del dono, non molto sviluppata nel nostro paese”.
F.I.Do richiama tutti noi alla possibilità di dare un nuovo volto al capitalismo, basato su una visione etica della filantropia. Un tema su cui si è speso recentemente anche Peter Singer, considerato tra i più influenti filosofi viventi. Nel suo ultimo libro The Most Good You Can Do, pubblicato lo scorso aprile, lo studioso australiano sostiene che nei paesi ricchi per “vivere eticamente” bisognerebbe dare in beneficenza idealmente un terzo di quello che si guadagna. Non sarà il 99 per cento di Zuckerberg, ma è pur sempre tanto, soprattutto se si tratta di donare per davvero.

*Un adattamento di questo testo è stato pubblicato su pagina99 del 12 dicembre 2015.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

gli scienziati della domenica in cattedra con Obama*

pagina99-copertina-05-12-2015 Aiutano i ricercatori a scoprire nuove galassie o a “mappare” la superficie di Marte, raccolgono dati sull’ambiente e sulla qualità dell’aria, passano giornate intere negli habitat naturali più disparati per studiare volatili e poi donare le loro osservazioni agli ornitologi. In passato sono stati anche cruciali, fra le altre cose, nella soluzione della struttura di un enzima fondamentale nella diffusione del virus dell’AIDS. Sono i volontari della scienza: un esercito di milioni di persone sparse in tutto il mondo, quasi tutti non professionisti della ricerca, che poche settimane fa ha ricevuto un’insperata legittimazione addirittura dalla Casa Bianca. Un memorandum firmato in prima persona da John P. Holdren, consigliere scientifico del presidente americano, ha infatti chiarito come l’amministrazione Obama vuole imprimere una decisa accelerazione alla “scienza dei cittadini”, di cui riconosce, oltre all’importanza educativa e metodologica, il valore economico, stimato in miliardi di dollari all’anno.

La nota dell’Ufficio per la politica della scienza e della tecnologia statunitense potrebbe rappresentare un radicale cambiamento nei rapporti tra ricerca e società. “L’aspetto fondamentale del documento” spiega a pagina99 Mariachiara Tallacchini, già senior scientist presso il Joint Research Centre della Commissione Europea, “è che si tratta di un ordine esecutivo indirizzato alle organizzazioni governative e alle agenzie federali”. Non un generico invito dunque, “ma cose da fare concretamente entro tempi stabiliti”. Il memorandum individua soprattutto due azioni specifiche. Ogni agenzia deve prima di tutto individuare un coordinatore per i progetti di citizen science, successivamente deve catalogare le attività di ricerca aperte alla partecipazione di tutti i cittadini.

La discontinuità della nota di Holdren si apprezza anche nella definizione proposta di citizen science. Se genericamente con essa si intende l’attività di ricerca realizzata coinvolgendo dei volontari come “sensori” per raccogliere informazioni scientifiche o come “elaboratori” per contribuire a risolvere problemi di analisi dei dati, il memo americano assegna ai cittadini un ruolo molto più significativo. Essi, nella descrizione fornita dall’amministrazione Obama, come continua Tallacchini, “possono formulare domande di ricerca, condurre esperimenti scientifici, interpretare risultati, fare nuove scoperte, sviluppare tecnologie e applicazioni, risolvere problemi complessi, non solo raccogliere e analizzare dati. C’è il pieno riconoscimento metodologico e teoretico assegnato normalmente alla scienza svolta nei laboratori e nelle università”. La citizen science non è insomma una scienza di serie B, semmai “si caratterizza per una diversa finalità pratica e applicativa, per una marcata enfasi sul contributo alla risoluzione di questioni sociali. Senza trascurare il valore educativo a essa assegnato e soprattutto il suo impatto economico”.

I volontari della ricerca, tra contare uccelli, identificare galassie e individuare batteri forniscono un servizio il cui valore è stimato almeno attorno ai due miliardi e mezzo di dollari annui in natura. Questo dato, ottenuto grazie al lavoro di un gruppo di esperti americani di protezione ambientale, è uno dei punti di partenza del memorandum di Holdren. In un articolo pubblicato all’inizio dell’anno sulla rivista Biological Conservation, gli autori hanno per la prima volta quantificato la scala dei progetti di citizen science sulla biodiversità mediante l’analisi di più di 300 iniziative. Hanno calcolato che i volontari della scienza dedicano ogni anno tra le 21 alle 24 ore del loro tempo libero ad attività di ricerca. Considerando che sono coinvolte circa un milione e trecentomila persone, il contributo equivalente è pari ai già citati due miliardi e mezzo di dollari. Una stima peraltro al ribasso, dato che lo studio ha preso in considerazione solo progetti sulla biodiversità, on-line e in lingua inglese.

La ricerca documenta anche una crescita dei progetti di citizen science a ritmi inimmaginabili fino a qualche anno fa, una tendenza guidata dallo sviluppo di sensori a basso costo e altri strumenti di monitoraggio ormai facilmente utilizzabili e disponibili anche su uno smartphone.

L’amministrazione Obama dimostra di aver colto perfettamente le potenzialità legate all’accelerazione del fenomeno, meglio che nel vecchio continente. “L’Europa”, ci spiega ancora Mariachiara Tallacchini, filosofa del diritto all’Università Cattolica di Piacenza ed esperta dei rapporti tra scienza e democrazia, “è molto più timida. Pochi mesi fa anche la Commissione Europea ha pubblicato un libro bianco sulla citizen science. Diversamente dagli Stati Uniti è un documento molto attento alle sfumature, preoccupato di stabilire in che cosa la scienza dei cittadini sia diversa rispetto a quella tradizionale”. In altre parole, si fa più fatica a riconoscere la possibilità di produrre assieme, esperti e non-esperti, conoscenza valida. Così come non si comprende appieno che il coinvolgimento a monte dei cittadini nella ricerca scientifica, il cosiddetto upstream engagement, sia la strada maestra per ridurre i conflitti tra scienza e società. “L’idea di Holdren”, continua Tallacchini, “è che il cittadino contribuisca alla conoscenza in fase istruttoria. In questo modo, non solo riduci i costi, ma aumenti la fiducia nei confronti delle istituzioni, nonché l’efficienza e l’efficacia delle policy.” L’approccio preventivo alla citizen science permetterebbe di ridurre la crescente e ricorrente litigiosità sulle controversie scientifiche (cambiamenti climatici, fecondazione assistita, testamento biologico, nanotecnologie, nucleare, ecc.). Si tratta di conflitti ben noti anche nel nostro paese, non particolarmente all’avanguardia sulla citizen science, dove però esistono esperienze in cui le diverse dimensioni delineate dal memorandum della Casa Bianca sono ben rappresentate. Come ad esempio nel progetto di epidemiologia partecipata PM2.5 Firenze, patrocinato dalla cooperativa Epidemiologia e prevenzione Giulio A. Maccacaro, in cui da circa due anni un gruppo di cittadini del capoluogo toscano conduce un’attività di sorveglianza della qualità dell’aria. L’iniziativa propone un rapporto nuovo tra le istituzioni e i cittadini. Come recitano i suoi promotori, in pieno stile Holdren, la disponibilità di informazioni e la produzione stessa del sapere scientifico devono essere “patrimonio di più soggetti e non ristretti al solo ambito specialistico”.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 5 dicembre 2015.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

da Blade Runner a Jurassic Park la fantascienza diventa scienza*

pagina99-seconda-2015 Se avete visto The Martian, l’ultimo film di Ridley Scott, vi sarete forse chiesti, ad esempio, quanto sia realistico che Mark Watney, il marziano impersonato da Matt Demon, possa esporsi alle radiazioni solari o ai raggi cosmici senza conseguenze. Sono domande forse un po’ da nerd ma che ricorrono spesso nei film di science fiction. L’obiettivo fondamentale è capire quanta scienza ci sia nella fantascienza. Si tratta di un approccio così assodato che quasi sempre si trascura la possibilità opposta: l’impatto della fantascienza sulla ricerca scientifica. A porre parziale rimedio alla questione ci ha pensato di recente una start-up britannica, specializzata in strumenti avanzati di filtraggio della letteratura scientifica, attraverso un’analisi di big data. Secondo Sparrho, così si chiama l’azienda fondata da due ex-ricercatori, i robot di Star Wars e i dinosauri geneticamente modificati di Jurassic Park non sono entrati solo nel nostro immaginario, ma anche nei laboratori.

L’idea di identificare film di fantascienza rilevanti nella ricerca scientifica è venuta al giornalista americano Jeremy Hsu. Come racconta egli stesso in un articolo pubblicato qualche settimana fa sulla versione online del magazine Discover, Hsu è riuscito a convincere il team di Sparrho a mettere mano a un database della British Library contenente paper scientifici dal 1890 al 2010.

Prima di quest’iniziativa erano già stati condotti indagini simili, ma di natura più qualitativa. Qualche mese fa, ad esempio, la rivista Popular Mechanics aveva realizzato un sondaggio informale che decretò 2001: Odissea nello spazio come il film di fantascienza più apprezzato dagli scienziati. Risale al 2004 un lavoro analogo promosso dal quotidiano britannico The Guardian, che invece sancì il primo posto per Blade Runner nella classifica di gradimento dei ricercatori.

Rispetto a questi tentativi, il salto di qualità dell’analisi di Sparrho è stato da una parte attingere all’archivio della biblioteca di ricerca più importante al mondo. Dall’altra, e più significativamente, aver fatto ricorso alle competenze dei cosiddetti data scientist, nuovi professionisti con abilità trasversali tra matematica, informatica e statistica. Un mestiere tipico dell’era digitale che Hal Varian, chief economist di Google, ha definito “il più sexy del XXI secolo”. E se non sappiamo se sia stato sexy, certamente non deve essere stato noioso per la scienziata dei dati Katja Bego cogliere la sfida di Hsu. Bego ha prima di tutto individuato i film di science fiction più popolari nella storia del cinema, pesando sia il riscontro del botteghino che il parere dei critici. Con una lista di 100 film a disposizione, ha poi usato un algoritmo per vivisezionare i dati dell’archivio della British Library per contare quante volte i titoli delle pellicole comparivano nei titoli o nei sommari degli articoli scientifici. Ha definito così un primo elenco, a partire dal quale ha ulteriormente filtrato manualmente i risultati ottenuti prendendo in considerazione solo le ricerche che esplicitamente discutevano i contenuti dei film e non quelle che li citavano senza approfondimenti.

Il processo si è concluso con la seguente graduatoria: al primo posto Star Wars, con 18 articoli influenzati in modo rilevante dalla saga cinematografica creata da George Lucas; al secondo Jurassic Park con 11 paper, al terzo 2001: Odissea nello spazio con 9 articoli. A seguire Blade Runner, Minority Report, Ritorno al futuro e altri grandi successi. Oltre a stilare la classifica, Katja Bego ha indagato quali discipline o quali specifici problemi di ricerca hanno preso ispirazione dai film individuati. È emerso così, ad esempio, che i paper per cui Star Wars è stato rilevante hanno trattato soprattutto di robot non-umanoidi o della psicologia di Anakin Skywalker, leggendario Cavaliere Jedi, al servizio della Repubblica Galattica prima di diventare Darth Vader (in Italia Darth Fener). I ricercatori si sono interessati ai destini del maestro del lato oscuro per comprendere se nel suo caso avesse senso una diagnosi di disturbo borderline. Jurassic Park è stato considerato per le questioni etiche legate a riportare in vita specie estinte e per la computer grafica utilizzata per animare branchiosauri, tirannosauri e velociraptor vari. 2001: Odissea nello spazio per le tematiche sui rapporti tra emozioni, libero arbitrio e intelligenza artificiale, mentre Minority Report ha stimolato i ricercatori interessati alle problematiche della sorveglianza globale e al futuro dell’urbanizzazione. Per quanto riguarda i temi di fantascienza trattati con maggiore frequenza si segnalano quello dei robot, termine comparso nei paper 89 volte e l’ intelligenza artificiale, con 29 riferimenti. I viaggi nel tempo solo due volte, con buona pace di Marty McFly e del mitico Doc di Ritorno al Futuro.

Sono risultati che dimostrano quanto la cultura popolare riesca a permeare ambiti apparentemente inaccessibili come le comunità degli scienziati. Ed è bene ricordare che il team di Sparrho ha contato solo i film esplicitamente citati nei titoli e negli abstract dei lavori scientifici. È facile ipotizzare che il numero sarebbe aumentato considerevolmente se fossero state prese in considerazione le ricerche ispirate alla fantascienza senza riferimenti nel testo a una specifica pellicola. In più, il database consultato da Bego si ferma al 2010. Vale a dire che dall’analisi sono stati esclusi blockbuster come Interstellar e il già citato The Martian, per non parlare di altre importanti uscite nel 2015 come Jurassic World, Star Wars: Il Risveglio della Forza o la serie Terminator, che di sicuro avrebbero arricchito di nuovi elementi l’indagine. Il campione della start-up britannica non includeva infine l’impatto della science fiction sulla ricerca militare o nel settore privato. Insomma, la linea di confine tra scienza, tecnologia e fantascienza è probabilmente molto più sfumata di quanto si pensi e di quanto si sia misurato finora.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 28 novembre 2015.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

perché il destino di Uber è senza conducente*

pag99 21 nov Il successo di Uber sembra inarrestabile. L’azienda statunitense che fornisce tramite app un servizio di auto con conducenti privati, dopo un lancio in sordina a San Francisco poco più di cinque anni fa, è attualmente usata in più di 300 città di 63 paesi del mondo. Il fatturato stimato per la fine del 2015 è di 10 miliardi di dollari con ricavi per 2 miliardi. Numeri paragonabili a quelli di Facebook, per intenderci, ma ottenuti nella metà del tempo rispetto al social network fondato da Mark Zuckerberg nel 2004.
Risultati straordinari che pongono la questione di quali siano i limiti di crescita dell’app che sta facendo infuriare i tassisti di tutto il mondo. Contrariamente a quanto si potrebbe pensare leggendo le cronache, le minacce più significative per Uber non sono le proteste dei professionisti o leggi inadeguate. Per la società fondata da Travis Kalanick e Garett Camp, tipici smanettoni cresciuti nella Silicon Valley con la convinzione di migliorare il mondo (e il proprio conto in banca) con l’informatica, il rischio maggiore siamo noi, gli utenti stessi. Una difficoltà, che secondo gli analisti più attenti dei rapporti tra tecnologie emergenti e mobilità urbana, porta dritti a uno scenario non si sa bene quanto futuribile: quelle delle automobili che si guidano da sole.

Secondo quanto descritto recentemente dal magazine americano Nautilus, rivista di approfondimento sui rapporti tra scienza e società, il modello di business dell’azienda di Kalanick e Camp dovrà evolvere sempre di più verso le tecnologia di guida autonome per mantenere margini profittevoli come quelli attuali.
Le ragioni per il passaggio agli autisti-robot sono innanzitutto di ordine economico. Circa il 50 per cento del costo di una corsa di Uber se ne va per pagare i conducenti umani. Liberarsene potrebbe però essere un vantaggio non solo per le casse dell’azienda. Uber, a differenza di altri servizi di economia partecipativa basati sull’effetto network, presenta infatti un’asimmetria nell’amministrazione degli utenti: gli autisti sono più difficili da gestire dei passeggeri. E la complessità aumenterà ancora di più se l’app continuerà a crescere con i ritmi attuali. Le macchine che si guidano da sole sarebbero da questo punto di vista un modo per rendere scalabile Uber.
In più, sempre secondo quanto affermato da Nautilus, l’uso massiccio dell’applicazione sta portando molte persone a chiedersi se davvero valga la pena possedere un’automobile. Non è un mistero, d’altra parte, che le strategie di lungo termine di Uber mirino a far calare drasticamente il numero di autovetture di proprietà. Una posizione che produrrebbe non solo un radicale cambiamento di abitudini, ma che avvalora l’ipotesi di voler ridurre in generale i conducenti in circolazione. Sembra che Uber, in altre parole, non tolga solo il lavoro ai tassisti ma voglia progressivamente eliminare tout court la categoria degli autisti.

In ogni caso, stando a quanto riportato dal Guardian qualche giorno fa, Travis Kalanick è convinto che sarà la sua “ottimistica leadership” a facilitare la transizione verso le auto che si guidano da sole, una tecnologia dallo “sconsiderato impatto positivo” secondo il CEO di Uber. Sono parole che risuonano con quelle di Elon Musk, visionario ingegnere, imprenditore e inventore di origine sudafricana tra i fondatori di PayPal. Musk è diventato famoso a livello globale perché vuole portare l’uomo su Marte con la sua società di esplorazione spaziale SpaceX. Pochi anni fa è però entrato anche alla grande nel mercato delle auto elettriche con Tesla Motor, di cui è amministratore delegato. In un intervento riportato recentemente dalla rivista di business globale Fortune, Musk si dice convinto che nell’arco di pochi anni ci sembrerà “abbastanza strano vedere circolare automobili che non hanno una piena autonomia”. Va da sé che Tesla, nelle affermazioni di Musk, sarà la prima a raggiungere l’obiettivo della guida totalmente autonoma.

È chiaro che sulle macchine che si guidano da sole si sta giocando un’enorme partita economica che non a caso, oltre a Tesla, vede coinvolti giganti come Apple e Google, con un quota di poco inferiore al 7 per cento in Uber. Al di là degli altisonanti e interessati proclami dei CEO, vale la pena chiedersi quale sia il reale stato dell’arte delle auto a guida autonoma. Alberto Broggi, professore all’Università di Parma e pioniere dell’auto senza pilota, sentito per telefono da Pagina99, afferma che “quello che manca adesso ai veicoli automatici è la capacità di gestire tutte le situazioni”. Broggi è il fondatore di VisLab, spin off universitario che ha sviluppato progetti unici al mondo per la realizzazione di veicoli automatici molto prima di Google e che pochi mesi fa è stato acquistato per 30 milioni di dollari dalla californiana Ambarella. Sulla base della sua esperienza Broggi ritiene che “la parte più difficile è legata a problemi di tipo etico e di percezione delle diverse situazioni, a come il veicolo si deve comportare in contesti differenti. Sono questioni difficili che richiederanno non meno di 15-20 anni per essere risolte.”

Problematiche che si aggiungono al fatto che la legge non consente in nessuna parte del mondo la guida totalmente autonoma perché non esiste in questo momento una normativa in grado di disciplinare l’attribuzione di responsabilità. Il passaggio ai robot richiede poi un notevole sviluppo di infrastrutture in grado di comunicare con i veicoli e la soluzione di una serie di questioni tecnologiche in senso stretto. Sono tutti aspetti che Uber e gli altri colossi aziendali impegnati nella partita saranno obbligati a considerare se vogliono disegnare il futuro delle macchine autonome.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 21 novembre 2015.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Perché c’è chi nega il climate change*

25ott2014 Durante il Climate Summit 2014, il presidente americano Obama ha definito i cambiamenti climatici la “minaccia numero uno del secolo”. Un volume uscito da poco in Italia scritto dal saggista ed esperto di questioni ambientali Giancarlo Sturloni per la casa editrice Piano B, con l’ inequivocabile titolo Il pianeta tossico ci richiama, se possibile, a un’urgenza ancora più drastica di quella di Obama: se non facciamo qualcosa, e subito, siamo finiti. Eppure la risposta di governi e opinione pubblica internazionale rimane un misto di indifferenza e scetticismo. Come è possibile non agire di fronte ai pericoli del riscaldamento globale? Come è possibile riuscire a ignorare la crescente evidenza scientifica sulle sue cause e sulle sue conseguenze?

L’attivista ambientale George Marshall, nel suo ultimo libro Don’t Even Think About it, pubblicato di recente negli Stati Uniti per i tipi di Bloomsbury, introduce un punto di vista originale e rilevante anche per la comprensione di altre forme di negazionismo: i cambiamenti climatici non sono una battaglia della scienza contro l’ignoranza, ma una “sfida profonda al nostro modo di dare senso al mondo”. Secondo questa prospettiva, elaborata grazie a una lunga serie di interviste a scienziati e sociologi ma anche a membri del movimento conservatore Tea Party, l’evoluzione ci ha reso poco adatti alla sfida dei mutamenti del clima. I tratti psicologici e sociali ereditati in milioni di anni per interpretare le minacce dell’ambiente, e per motivarci ad agire contro di esse, premiano ad esempio le informazioni che confermano le nostre convinzioni mentre sminuiscono quelle che le contraddicono, si focalizzano sul presente, privilegiano la conformità sociale, ci spingono a procrastinare. Si tratta di caratteristiche non molto efficaci per fronteggiare un fenomeno “complesso, poco familiare, lento, invisibile e intergenerazionale”, come quello dei cambiamenti climatici. Insomma, come specie non siamo fatti per contrastare questi pericoli.

La tesi di Marshall, co-fondatore di Climate Outreach Information Network, organizzazione no-profit impegnata nella sostenibilità ambientale, si inserisce all’interno dell’intenso dibattito accademico e politico sul negazionismo, a cui non è associato certo solo il global warming. Come è noto, secondo alcuni movimenti e correnti di pensiero non c’è correlazione tra Hiv e Aids, l’Olocausto non è mai accaduto, i vaccini causano l’autismo e la teoria scientifica dell’evoluzione non ha prove sufficienti. Come ha sottolineato il fondatore della Skeptics Society Micheal Shermer, in un articolo pubblicato su un numero speciale di qualche tempo fa della rivista New Scientist, è importante comprendere che ad animare queste persone non c’è un sano dubbio.
Diversamente dagli scettici i negazionisti “continuano semplicemente a negare” anche di fronte a prove schiaccianti.

Una delle interpretazioni tradizionali di questa ostinazione è che la colpa è dell’ignoranza. Di conseguenza, se solo i non-esperti conoscessero la scienza non potrebbero fare a meno di apprezzarla e sostenerla. Numerose ricerche hanno smentito quest’approccio mostrando che il rifiuto dei risultati della ricerca è solo debolmente correlato all’alfabetizzazione scientifica. Recentemente Dan Kahan, professore all’Università di Yale ed esperto di percezione del rischio, in una ricerca pubblicata su Nature ha mostrato che ad esempio le opinioni degli americani sul riscaldamento globale sono principalmente influenzate dall’appartenenza politica. I dati raccolti da Kahan mostrano inoltre che i sostenitori del movimento Tea Party hanno un livello di alfabetizzazione scientifica leggermente superiore alla media americana.

Un’altra chiave di lettura per spiegare il negazionismo è la mancanza di fiducia nei confronti della scienza. Anche in questo caso le inchieste sociologiche rivelano un quadro più complesso. Un’indagine del Pew Research Center nel 2009 mostrava che più dell’ottanta per cento della popolazione statunitense considerava la scienza una forza positiva della società. Secondo il report The 2014 Public Attitudes to Science, pubblicato qualche settimana fa dall’istituto demoscopico Ipsos Mori, il 90 per cento dei britannici ritiene che scienziati e ingegneri forniscano un contributo prezioso alla collettività. Sono risultati in linea con la media europea, inclusa l’Italia.

Come si conciliano allora le grandi aspettative nei confronti di scienza e tecnologia con la resistenza anche tenace ad alcuni suoi risultati nel caso di vaccini, evoluzione e global warming? Il punto è che un conto è fidarsi della scienza in generale, un altro è prevedere le nostre reazioni individuali quando ci confrontiamo concretamente con i risultati della ricerca nei contesti più diversi: dai processi decisionali per la costruzione di un inceneritore a pochi passi dalle nostre case, alle scelte sulle terapie per fronteggiare il cancro o all’educazione che vogliamo dare ai nostri figli. Nell’articolo What Scientists Really Do, pubblicato qualche tempo fa sul New York Review of Books, il fisico e astronomo Priyamavda Natarajan spiega che la contraddizione nasce dall’incapacità dei non-esperti di fare i conti con la provvisorietà della ricerca. Natarajan suggerisce di leggere il libro Curiosity: How Science Became Interested in Everything, scritto da nel 2013 da Philip Ball, ex-direttore di Nature, per comprendere come questa provvisorietà sia in realtà un punto di forza della scienza, perché permette di raffinare le conoscenze sul mondo naturale in un processo senza fine di confronto con la realtà.

Sta di fatto che il negazionismo riesce a prosperare proprio nelle pieghe dell’incertezza, una parola che per gli scienziati ha un significato diverso dall’accezione comune, ma che proprio per la sua ambiguità permette alle tesi cospirazioniste di fornire spiegazioni alternative che danno l’illusione di riappropriarsi di un controllo perduto, anche se queste spiegazioni non sono supportate dai fatti.

Per contrastare complottismo e scetticismo l’approccio paternalistico è poco efficace, anzi si rivela spesso arrogante e alienante. Alla fine del suo libro sul cambiamento climatico Marshall suggerisce che bisognerebbe prendere le chiese evangeliche come modello per imparare a comunicare efficacemente sulle conseguenze del riscaldamento globale. Il senso della sua provocazione è che bisogna considerare il problema in un contesto più ampio, trattarlo come un processo che ci riguarda per tutta la vita, mettendo in conto periodi di dubbio e incertezza, ma anche di illuminazione personale. Per questo bisogna saper ascoltare, sostenere e mettersi alla pari di tutti gli interlocutori, come sanno fare da millenni le religioni.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 25 ottobre 2014.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

il porto franco triestino della fisica dell’altro mondo*

1412335022448 Cinquant’anni fa nasceva nel pieno della guerra fredda a Trieste un istituto scientifico unico al mondo: un centro di ricerca pura pensato per permettere ai paesi in via di sviluppo di svolgere attività scientifica d’eccellenza. La sua storia è stata celebrata a ottobre dell’anno scorso in un convegno a cui partecipano fra gli altri premi Nobel per la fisica, medaglie Fields per la matematica e il direttore generale dell’Unesco. Ma il Centro internazionale di fisica teorica (Ictp) Abdus Salam ha avuto origine in un contesto culturale e geopolitico che non esiste più ed è lecito chiedersi qual sia il senso della sua mission oggi.

L’ictp è il solo istituto scientifico al mondo su cui sventola la bandiera dell’Onu. Il suo fondatore, il pakistano Abdus Salam, a cui è intitolato il centro dal 1996, è stato finora l’unico scienziato di origine islamica ad aver vinto un premio Nobel per la fisica. Fortemente voluto negli anni sessanta del secolo scorso dall’allora ministro degli esteri Giulio Andreotti, l’Ictp è tuttora ampiamente sostenuto dal governo italiano con un contributo attuale di 20,5 milioni di euro all’anno, pari all’85 per cento circa del budget complessivo.

Un ottimo investimento, a leggere i numeri. Solo nel 2013, l’istituto è stato visitato da quasi seimila studenti e ricercatori provenienti da 139 nazioni, soprattutto da paesi in via di sviluppo, in primis Algeria, Nigeria, Egitto, fino a Costa Rica, Ecuador, Guatemala, di cui il 23 per cento sono donne. ln cinquant’anni di vita il centro è stato teatro di più di 140 mila visite soprattutto da paesi poveri, con una produzione scientifica costante e di livello internazionale.

Una delle caratteristiche peculiari del modello organizzativo dell’Ictp è favorire il ritorno dei visitatori nei paesi d’origine dopo il periodo di permanenza a Trieste. L’obiettivo è raggiunto attraverso una serie di programmi che, da una parte, permettono di mantenere un legame duraturo col centro triestino, dall’altra di promuovere progetti scientifici legati ai bisogni specifici del territorio di provenienza. Uno dei più consolidati è l’ Associateship Scheme, grazie al quale vengono stabiliti rapporti di lungo termine con i singoli ricercatori. Attraverso il Federation Arrangement Scheme, le istituzioni dei paesi in via di sviluppo possono invece mandare a Trieste i loro scienziati, di età inferiore ai 40 anni, per visite comprese fra i 60 e i 150 giorni, per un periodo complessivo di tre anni, durante il quale i partecipanti svolgono varie attività formative e di ricerca. In questo caso le spese sono condivise.

I primati dell’Ictp sono stati raggiunti anche grazie alla capacità, negli anni, di mutare pelle sia negli interessi di ricerca, perché alla fisica pura si sono aggiunti altri ambiti disciplinari, come la fisica del tempo e del clima, la geofisica dei terremoti o la computer science, sia sul piano strategico-istituzionale.

“I profondi cambiamenti geopolitici accaduti dal 1964 a oggi”, spiega a pagina99 Sandro Scandolo, senior scientist e delegato dell’Ictp per le relazioni con l’Italia, “hanno modificato il rapporto con diversi paesi che una volta ricevevano il nostro supporto. Nazioni come la Cina e il Brasile, diventate forze trainanti della ricerca internazionale, hanno sempre meno bisogno dei servizi tradizionali del nostro istituto, ma continuano a chiederci aiuto perché vogliono fare nel loro paese quello che abbiamo fatto a Trieste. Da diretti beneficiari sono diventati partner: per questo credo che il modello organizzativo originale sostenuto dai fondatori dell’Ictp abbia vinto”.

Nella visione del già citato Salam e del fisico triestino Paolo Budinich, i due artefici del Trieste Experiment, come lo definì all’epoca il New York Times, c’era un progetto inedito di sostegno ai paesi poveri attraverso la scienza. Non semplicemente un centro d’attrazione per i ricercatori di paesi in via di sviluppo, ma un investimento di lungo termine sul capitale umano: l’Ictp doveva essere un necessario luogo di formazione, ma di passaggio, per chi poi sarebbe ritornato in patria per assumere ruoli di leadership scientifica. Un approccio molto diverso da quello seguito da grandi istituzioni come il Mit di Boston o il College de France di Parigi, dove sapevano bene che la “fuga dei cervelli” conveniva soprattutto se unidirezionale.

Non a caso, quando nei primi anni sessanta si trattò di decidere sull’apertura del centro, tutti i grandi del mondo si schierarono contro, con un’inedita convergenza tra Stati Uniti e Unione Sovietica. Le due potenze erano divise su tutto, ma concordavano nel non voler sostenere Trieste come porto franco scientifico per la rinascita economica dei paesi del Terzo Mondo attraverso la ricerca pura. Per i detrattori si trattava di un progetto folle e visionario che però incontrò il sostegno determinante dell’ambasciatore Egidio Ortona e sopratutto dell’allora ministro degli esteri Giulio Andreotti.

Iniziò una lunga battaglia diplomatica che, come spiega Pietro Greco nel libro Buongiorno prof. Budinich, edito da Bompiani nel 2007, trovava le sue ragioni in motivi che andavano al di là della scienza. In particolare, il nostro paese dopo aver perso la guerra aveva bisogno di recuperare lo status di potenza sviluppata e per questo voleva mostrarsi come nazione donatrice. Ed è proprio la generosità del finanziamento garantito dal governo italiano che risultò infine decisiva per vincere le resistenze.

Tale stanziamento, come già accennato, continua a essere cospicuo anche oggi e se da una parte l’Ictp rimane una scommessa di successo, dall’altra bisogna confrontarsi con un contesto internazionale radicalmente cambiato e con un’Italia attraversata da una profonda crisi economica.

“Non c’è dubbio”, afferma Scandolo, “che ci dobbiamo rapportare con problemi nuovi. Rispetto al passato siamo ad esempio sempre più costretti a lavorare con governanti che prediligono aspetti applicativi e pretendono risultati immediati: in poco tempo vorrebbero costruire centri di ricerca innovativi dove adesso non c’è niente. Questo non è possibile e noi abbiamo il compito di convincerli che la formazione di base è fondamentale, richiede pazienza, ma si rivela cruciale sul lungo periodo. Credo che per questo la nostra funzione continui a rimanere fondamentale”.

Come convive la realtà del centro triestino con le difficoltà economiche italiane? Al di là dell’importante impatto scientifico, Scandolo ammette che “bisogna comunicare meglio il fatto che l’Ictp continua a essere strategico in termini di cooperazione internazionale dando la possibilità all’Italia di costruire contatti con realtà altrimenti difficilmente raggiungibili.” In altre parole l’Ictp, anche se da noi poco conosciuto, rimane un significativo braccio operativo della politica estera nazionale.

Non si può dimenticare poi che l’istituto è stato il generatore del cosiddetto Sistema Trieste, ha fatto cioè decollare la nascita dell’insieme di realtà scientifiche e tecnologiche che rende il oggi il capoluogo giuliano una delle città europee con la maggiore densità di persone impiegate nel settore ricerca e sviluppo.

Lasciata alle spalle la stagione dei “lucidi visionari” Salam e Budinich, ai successori alla guida dell’Ictp rimane quindi il compito di non far perdere il mordente a scienziati, politici e opinione pubblica per una storia scientifica e politica di successo, in controtendenza con la narrativa del declino italiano e che ha reso fra l’altro Trieste, come ha affermato il fisico ruandese Romani Maurenzi, direttore esecutivo dell’Accademia mondiale delle scienze, forse l’unica città al mondo e sicuramente l’unico posto in Italia dove “quando incontri una persona di colore pensi che sia uno scienziato”.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 4 ottobre 2014.

Tag:,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Ecco perché il calcio è sacro*

Football Fans Gather On Beach In Rio To Watch Argentina v Netherlands Semifinal Match Lo scriveva già Pasolini quando nei Saggi sulla letteratura e sull’arte affermava che il “calcio è l’ultima rappresentazione sacra del nostro tempo. È rito nel fondo, anche se è evasione”. Il genio analitico dell’intellettuale friulano trova oggi conferma nelle più recenti teorie scientifiche sulla religione, come quella dell’antropologo britannico Harvey Whitehouse. In un intervento sull’ultimo numero del magazine Nautilus, rivista sostenuta dalla Templeton Foundation e presentata come una sorta di New Yorker della comunicazione della scienza, lo studioso, in forze all’Università di Oxford, espone la sua visione sulle radici delle credenze religiose. Secondo Whitehouse, più che il bisogno di trovare risposte alle domande profonde di senso, la fede nel soprannaturale nasconde la necessità di creare legami personali e di definire un senso di appartenenza a una comunità per cui valga la pena vivere e sacrificarsi, come accade nei tifosi di calcio per la squadra del cuore.

Whitehouse ha sviluppato una teoria della religione basata sul potere che hanno i rituali nel favorire la coesione di gruppo. Per chiarire i punti cardini della sua teoria sfrutta l’analogia con quanto si vede negli stadi di tutto il mondo. “Ci sono molte situazioni che non hanno a che fare con dilemmi esistenziali”, spiega lo studioso britannico, “ma che ispirano spiegazioni soprannaturali. Probabilmente la più comune è quella dei rituali effettuati in contesti con un certo rischio di fallimento. Molte persone ad esempio vanno a vedere le partite di calcio sempre con gli stessi pantaloni e magliette perché le ritengono dei portafortuna. O si pensi ai gesti ripetitivi dei giocatori prima di tirare un calcio di rigore”. In altre parole, le esibizioni ritualistiche a cui assistiamo in uno stadio non sono differenti da quelle esplicite che si vedono nelle cerimonie in chiesa o in una moschea. Di conseguenza, la sacralità associata a una confessione religiosa non è diversa da quella che i tifosi attribuiscono alla propria squadra.

È probabile che le tesi di Whitehouse possano risultare irriverenti a molti fedeli, ma le sue argomentazioni sono basate su un’imponente raccolta di dati accumulati negli anni e inseriti in un quadro concettuale altamente interdisciplinare in cui convergono archeologia, etnografia, storia, psicologia evolutiva e scienze cognitive. Il calcio è solo un esempio per spiegare che le credenze nel soprannaturale derivano da cerimonie e legami preistorici. Gli interessi di Whitehouse per la religione risalgono agli anni ottanta del secolo scorso, quando ha iniziato a studiare i riti tradizionali della Papua Nuova Guinea.

L’antropologo di Oxford ha raccolto per anni evidenze archeologiche di rituali complessi e cerimonie di iniziazione traumatiche praticate per fondere in modo indissolubile l’identità dell’individuo con la comunità di appartenenza. Le prove consistono in materiali e oggetti che testimoniano le diverse accezioni con cui si interpreta oggi il fenomeno religioso: pendagli, monili, collane e altri materiali raccolti in vari siti sparsi nel mondo, dal Sud America all’Africa, rivelano ad esempio la fiducia nella vita dopo la morte o suggeriscono l’esperienza di stati alterati della coscienza. Le tracce di tali pratiche le ritroviamo oggi anche nelle religioni istituzionalizzate, nelle preghiere quotidiane dei musulmani o nella frequentazione della messa da parte dei cristiani almeno una volta alla settimana.

Le ricerche di Whiteouse fanno parte di una corrente di studi che cerca di spiegare la religione con la scienza. L’antropologo britannico è uno dei principali esponenti internazionali di un settore interdisciplinare che vuole chiarire diversi aspetti del fenomeno religioso facendo ricorso alle scienze cognitive e a un approccio evolutivo. È in questo milieu culturale che si inserisce uno dei testi più controversi degli ultimi anni sul rapporto tra scienza e fede, il libro L’illusione di Dio, del biologo Richard Dawkins, pubblicato in Italia da Mondadori nel 2007. Dawkins, dichiaratamente ateo e brillante divulgatore, propone numerose ipotesi evoluzionistiche che avrebbero portato gli esseri umani a credere in esseri soprannaturali: una delle più consolidate è quella che lega il pensiero religioso a un maggior sviluppo cognitivo. Il volume dello scienziato britannico è diventato un manifesto per i movimenti atei di mezzo mondo perché non si limita a fornire argomentazioni scientifiche a favore della sua tesi, ma si scaglia veementemente contro la religione, ritenuta pericolosa, causa di guerre, conflitti e azioni atroci, nonché un insulto alla dignità umana. Il testo rivendica viceversa l’orgoglio di essere atei, segno di indipendenza, salute e di una coscienza superiore. Esplicitamente Dawkins vuole fare proseliti al contrario. È inutile sottolineare che il libro è stato al centro di polemiche feroci e reazioni diametralmente opposte.

In un terreno più accademico e un po’ più sereno si colloca di recente quella che alcuni critici considerano l’opera più ambiziosa sullo studio delle mitologie dopo i lavori di Mircea Eliade, storico delle religioni rumeno considerato l’inventore della ricerca moderna nel settore. Stiamo parlando del volume The origins of the World’s Mythologies, scritto da Michael Witzel dell’Università di Harvard e pubblicato dalla Oxford University Press nel 2013. Il libro, in quasi settecento pagine, fornisce una solida base empirica sull’origini dei miti nel mondo attingendo a dati ricavati dall’archeologia, della linguistica comparativa e dalla genetica delle popolazioni. La tesi di Witzel è che esiste un’unica fonte comune africana da cui hanno origine i nostri miti collettivi. Essi non sono solo le prime evidenze di spiritualità antica ma, molto più significativamente, hanno una serie di caratteristiche essenziali che sopravvivono ancora oggi nelle principali religioni del mondo.

I lavori di Witzel e Whitehouse rappresentano alcuni degli sforzi più recenti e rilevanti di una comunità di studiosi che vuole rendere la storia delle religioni sempre di più una scienza empirica. Si tratta di un approccio che non ha necessariamente l’effetto di esacerbare il conflitto fra credenti e atei. Come spiega Whitheouse, “non penso che la scienza sarà mai in grado di dimostrare se Dio esiste o no. Questo rimarrà sempre una questione di fede. I credenti dovrebbero però essere aperti alla possibilità che alcuni fenomeni che ritengono misteriosi sul senso della vita o sul mondo possano in realtà essere spiegate dalla scienza. Allo stesso tempo credo che molto di quello che riguarda la vita umana vada oltre gli scopi dell’indagine scientifica”.

*Quest’articolo è stato pubblicato sul sito web di Pagina99we del 28 settembre 2014.

Tag:, , , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Economie emergenti, la crescita arriva dalle megalopoli*

Famoso per la teoria degli equilibri punteggiati alternativa alla visione di un’evoluzione biologica graduale e continua, lo scienziato americano Stephen Jay Gould, morto prematuramente nel 2002, era forse meno noto per una strana collezione di calzature raccolte nel corso dei suoi viaggi nel mondo in via di sviluppo. I sandali acquistati nei mercati all’aperto di Nairobi, Delhi e Quito probabilmente non erano il massimo dell’eleganza, ma avevano una caratteristica che affascinava Gould: erano fatti con pneumatici trovati tra le discariche. Dal punto di vista dell’autore di Intelligenza e pregiudizio, vincitore dell’American Book Award for Science, il passaggio dagli pneumatici alle scarpe non era solo un raro esempio di “ingegnosità umana”, ma anche la dimostrazione di come favelas e baraccopoli potessero rivelarsi a sorpresa luoghi in cui fiorisce l’innovazione. Nelle loro immense contraddizioni, i vasti agglomerati urbani abusivi sparsi su tutto il pianeta, in cui vivono attualmente circa un miliardo di persone e dove spesso mancano elettricità, fognature e impianti igienici, si mostravano come spazi privilegiati della creatività. In altre parole, Gould condivideva l’idea che l’iperurbanizzazione è un fattore di crescita nei paesi in via di sviluppo, a partire dai quartieri più illegali, poveri e irregolari. Ma è proprio così? Esiste una relazione positiva tra il grado di urbanizzazione e l’economia dei paesi emergenti?

Se nel caso dei paesi sviluppati abbiamo a disposizione una letteratura scientifica molto approfondita sul rapporto tra queste due variabili, lo stesso non si può dire per il Sud del mondo. Non sorprende allora che la discussione tra addetti ai lavori si presenti come una divisione tra apocalittici e integrati. Joel Kotkin, professore di sviluppo urbano e autore di The Next Hundred Million: America in 2050, apprezzato volume sul futuro demografico degli Stati Uniti, in un articolo apparso su Forbes nel 2011, sentenziava che “le megacittà nei paesi in via di sviluppo dovrebbero essere considerate per quello che sono: una tragica replica dei peggiori aspetti dell’urbanizzazione di massa che ha già contraddistinto il fenomeno in Occidente”. Più ottimiste studiose come Janice Perlman, fondatrice del Mega-Cities Project e autrice di testi fondamentali sulle favelas come Il mito della marginalità urbana, povertà e politica a Rio. Le sue ricerche mostrano che per quanto gli slums non siano certo posti desiderabili dove vivere, sono pur sempre luoghi migliori dei contesti rurali di provenienza per milioni di persone. A mettere un po’ ordine nella matassa di opinioni discordanti ci ha pensato di recente Gilles Duranton, professore di studi immobiliari della Wharton University, nella ricerca Growing trough Cities in Developing Countries, pubblicato sulla rivista World Bank Research Observer. Duranton ha realizzato un’accurata revisione dei lavori più approfonditi riguardanti l’impatto dell’urbanizzazione su crescita economica e sviluppo, sia nei paesi avanzati che in quelli emergenti. Il quadro che emerge, per quanto ottimistico, è complesso. I margini di miglioramento sono ampi ma impossibile prevedere cosa accadrà nei prossimi decenni. Un aspetto è certo: la posta in gioco è il nostro futuro globale.

La maggior parte della popolazione mondiale vive infatti oggi in città. Secondo le stime dell’Organizzazione Mondiale della Sanità, entro il 2050 sette persone su dieci risiederanno in aree urbane. Come certifica il rapporto Habitat del 2013 delle Nazioni Unite, le zone del pianeta in cui tale tendenza è più marcata sono Africa, Asia e America Latina: più del 90% della crescita urbana globale sta avvenendo in queste regioni. Nei paesi a basso reddito le città rappresentano la speranza di una vita migliore e più ricca per milioni di persone. Allo stesso tempo il grande afflusso di indigenti da campagne e contesti rurali ha creato dei veri e propri hub di povertà. Edward Glaser, economista di Harvard e autore del libro Il trionfo delle città, edito in Italia da Bompiani, sottolinea che le megalopoli “non sono piene di persone povere perché sono le città a renderle tali, ma perché le città attraggono persone povere”. Sempre secondo il rapporto Habitat, un terzo della popolazione urbana nei paesi in via di sviluppo risiede in baraccopoli e favelas. D’altro canto, le aree cittadine sono motori di successo economico. Lo studio Global Cities 2030 della Oxford Economics stima che le 750 città più grandi del pianeta producono il 57 per cento dell’attuale PIL mondiale.

Se questi dati lasciano pochi dubbi sul ruolo delle città nell’economia planetaria, più complessa è la decifrazione dei rapporti di causa-effetto tra crescita economica e urbanizzazione di un paese. Nella letteratura di settore si assume spesso che sia la prima a determinare l’aumento della seconda. Per questo, una delle tipiche preoccupazioni nelle scelte di policy è assicurare che la ridistribuzione di nuovi arrivi e di nuovi lavoratori avvenga in modo “bilanciato”. La ricerca di Duranton assume una prospettiva opposta: esamina in quale misura lo sviluppo economico sia influenzato dall’incremento sfrenato dell’urbanizzazione, non più trattato come un fenomeno da gestire ma come una potenziale ricchezza e comunque come parte integrante del processo di crescita. In questa cornice l’autore si chiede fra le altre cose se la produttività lavorativa aumenta quando le persone si spostano nelle città, e in caso di risposta affermativa come, in quale misura, in quanto tempo.
Anche se esistono differenze significative tra economie avanzate e nazioni in via di sviluppo. la risposta generale è che i lavoratori nelle città traggono beneficio dalle cosiddette economie di agglomerazione, vale a dire dalla concentrazione delle attività produttive in determinate regioni all’interno di un paese o di una più ampia area geopolitica. I vantaggi si suddividono in tre categorie: la condivisione di fattori produttivi; la qualità del mercato del lavoro, cioè il fatto che una concentrazione di imprese simili attira manodopera specializzata; la facilità con cui si diffonde la conoscenza necessaria a migliorare specifici processi.

Detto questo, le diversità fra Nord e Sud del mondo si manifestano in varie direzioni, a partire dal rapporto tra urbanizzazione e salari, molto più pronunciato nei paesi emergenti rispetto ai paesi ricchi. Uno studio del 2013 dell’Aix-School of Economics di Marsiglia stimava che, più in generale, gli effetti della concentrazione di molte attività in una stessa area (esternalità di agglomerazione) sono maggiori, anche fino a cinque volte, nei paesi in via di sviluppo rispetto a quelli avanzati.

Più grandi sono le città poi, più sono innovative. Con l’aumentare delle dimensioni, gli agglomerati urbani generano idee a un ritmo più sostenuto. Malgrado frastuono, folla e distrazioni, il residente medio di una metropoli con cinque milioni di abitanti è quasi tre volte più creativo del residente medio di una cittadina di centomila. Il fenomeno vale in tutto il pianeta. Anche le grandi città nei paesi in via di sviluppo agiscono come centri di innovazione, con un importante differenza però rispetto ai paesi avanzati: non sono in grado di trasferire la produzione di beni maturi in città più piccole e specializzate. Questa situazione, nota Duranton, rende le metropoli africane, asiatiche e sudamericane più grandi di quanto dovrebbero essere e aumenta la congestione delle città stesse. Aspetti negativi che si ripercuotono sui prezzi dei prodotti, realizzati a costi più alti. Le megalopoli nei paesi in via di sviluppo sono in altre parole funzionalmente molto meno specializzate di quelle dei paesi ricchi poiché risultano oppresse da attività “ancillari” che ne diminuiscono l’efficienza. I possibili rimedi potrebbero essere la realizzazione di nuove infrastrutture – in particolare nel settore dei trasporti – e la redistribuzione della produzione in centri più piccoli attraverso la riduzione dei favoritismi governativi nei confronti dei grandi contesti urbani.

Infine, il mercato del lavoro nelle città dei paesi in via di sviluppo è costituito da un ampio settore informale e fuori dalle regole, in altre parole in nero. L’OCSE ha stimato che entro il 2020 le attività economiche non censite e non autorizzate comprenderanno due terzi della forza lavoro globale. Più della metà dei lavoratori del mondo si muove in una zona d’ombra della politica e dell’economia e abita in gran parte gli enormi mercati fai-da-te e i quartieri autocostruiti delle megalopoli del Sud del mondo. Come ha scritto l’analista Robert Newirth in un articolo apparso in uno speciale della rivista Le Scienze di novembre del 2011, a “pianificatori e funzionari governativi tutto questo suona spaventoso. La loro preoccupazione è che questi quartieri e questi mercati così instabili possano produrre metastasi, che questi sterminati labirinti di strutture precarie e imprese mai registrate riescano a trascinare con sé le città nell’abisso”. Per Newirth si tratta viceversa di una visione del futuro urbano da valorizzare e accompagnare, non da respingere. La pensa allo stesso modo Duranton, secondo cui la graduale integrazione dei lavoratori in nero nelle regole del mercato formale costituisce una sfida cruciale per lo sviluppo delle megalopoli.

L’invito conclusivo dell’economista di origine francese è però resistere a qualunque tentazione di prevedere gli effetti dell’agglomerazione. Nei paesi in via di sviluppi ne sappiamo ancora troppo poco su quali siano i meccanismi reali con cui avviene questo fenomeno per poter azzardare qual è la policy giusta per affrontare i problemi di infrastrutture, economia sommersa e favoritismi governativi che impediscono alle enormi aree urbane del Sud del mondo di esprimere completamente il loro potenziale.

*Il testo di quest’articolo è stato pubblicato su Pagina99we del 2 agosto 2014. Lo riporto sul mio blog per loro gentile concessione.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Pazzi criminali a chi?*

Era l’ultimo dell’anno del 2012 quando il presidente della Repubblica Giorgio Napolitano nel consueto messaggio agli italiani definiva gli ospedali psichiatrici giudiziari (Opg) “un autentico orrore indegno di un paese appena civile”. A distanza di circa diciotto mesi dall’accorata denuncia del Capo dello Stato, la Camera ha trasformato in legge, un paio di settimane fa, il decreto 52/2014, che introduce indirizzi, dispositivi e limiti per arrivare concretamente alla chiusura degli Opg entro il 31 marzo 2015. Si tratta di un’ulteriore proroga di un anno rispetto alle scadenze precedenti. I gruppi che in questi anni si sono battute per l’abolizione degli Opg hanno accolto con favore la nuova legge, anche se rimangono criticità e polemiche. Il rischio di una riforma a metà si concentra sulle cosiddette Residenze per le misure di sicurezza (Rems), nuove strutture su base regionale che dovrebbero essere costruite al posto degli Opg. Da una parte è elevata la probabilità che le Rems non siano pronte entro le scadenze poste dalla legge, dall’altra diverse associazioni per la salute mentale, tra cui la rete Unasam, la più importante a livello nazionale, rimangono contrarie alla realizzazione di quelli che sono stati ribattezzati mini-Opg. In altre parole, non si sarebbe superato del tutto il rischio di creare, al posto degli attuali istituti, nuovi piccoli manicomi. Più piccoli, magari più belli, più puliti, più arredati, ma pur sempre spazi di mero contenimento: in altre parole luoghi in cui si riproducono logiche istituzionali violente e non dove si attuano percorsi di cura e riabilitazione. Le associazioni invitano le Regioni ad abbandonare del tutto la strada delle Rems e si auspicano che i fondi già stanziati siano destinati al rafforzamento dei servizi sul territorio e alla definizione di progetti terapeutici riabilitativi individuali.

Lo scontro tra punti di vista si è palesato anche di recente con un’iniziativa del giudice del Tribunale di Roma Paola Di Nicola, che in una nota inviata qualche giorno fa all’Associazione nazionale magistrati sosteneva che la nuova norma rischierebbe di riportare in libertà soggetti “socialmente pericolosi”. Continuare però a usare la categoria della pericolosità sociale per incasellare i percorsi complessi di persone con disturbo mentale che hanno commesso reato desta non poche perplessità.

Come scrive a proposito della nuova normativa il filosofo Pier Aldo Rovatti sulla rivista aut-aut dello scorso mese, ciò che è soprattutto in gioco nella vicenda degli Opg “è la contestata cancellazione di ogni pratica di manicomializzazione”. Sottolinea sempre Rovatti, che in gioco c’è la misura storica e politica del grado di civiltà di un’epoca e di una società nel suo insieme. E a giudicare dal percorso tortuoso con cui si è arrivati all’attuale legge, non c’è dubbio che gli Opg si mostrino da una parte come il termometro più sensibile dei nostri pregiudizi nei confronti della diversità, dall’altra come lo specchio dell’azzeramento del nostro livello di civiltà.

Fu una commissione d’inchiesta parlamentare presieduta dall’attuale sindaco di Roma Ignazio Marino che nel 2011 svelò le condizioni di assoluto degrado in cui versavano le sei strutture giudiziarie distribuite sul territorio italiano. In un documentario distribuito ai giornalisti, risultato dell’indagine condotta su tutti gli ospedali del nostro paese (Barcellona Pozzo di Gotto, Aversa, Napoli, Montelupo Fiorentino, Reggio Emilia e Castiglione delle Stiviere), emergevano i fotogrammi di una realtà in cui qualunque parvenza di diritto e di rispetto per la persona umana era stata annullata. Le immagini di muffa, lenzuola sporche, letti accatastati, spazi angusti, mura incrostate, con nessuna garanzia di privacy, pulizia e persino di terapie, rimbalzarono sui media nazionali. Fu un pugno allo stomaco. Una sconfitta ancora più bruciante per l’Italia, che grazie alla famosa legge 180 e al lavoro di Franco Basaglia e della sua equipe negli anni ’60 e ’70 del secolo scorso, dispone oggi dell’assistenza alle persone con disturbo mentale più avanzata al mondo.

“Quello che colpisce come profondamente insensato di queste strutture”, afferma Giovanna Del Giudice, psichiatra e rappresentante nazionale del movimento Stopopg fortemente coinvolto nel miglioramento del decreto approvato recentemente, “è la profonda contraddizione con i principi della 180. Con questa legge in Italia siamo riusciti ad affermare un concetto tanto semplice quanto rivoluzionario: la possibilità per le persone con disturbo mentale di restare cittadini, di essere titolari dei propri diritti, di non essere espropriati della propria dignità e del senso stesso della propria vita a causa di una diagnosi di malattia mentale. Siamo riusciti a smantellare l’idea della necessità di uno “statuto speciale” per chi soffre di problemi psichici. Tutto questo è smentito dall’insensatezza dell’Opg, fondata su legislazioni che prevedono percorsi speciali per le persone con disturbo mentale che hanno commesso un reato: il famoso doppio binario”. Per tali persone l’internamento negli Opg avviene quando esse sono giudicate, attraverso perizia, “totalmente incapaci di intendere e di volere” al momento del fatto-reato. Un aspetto cruciale è che la persona incapace non viene giudicata in un processo, ma prosciolta. In tal modo le viene sottratta la responsabilità del gesto che ha commesso. Se poi è dichiarata “pericolosa socialmente”, e quindi si ritiene che possa reiterare il reato, viene internata in un Opg con una misura minima di sicurezza di 2, 5, 10 anni a seconda della gravità del reato. Prima della legge attuale non veniva definita una durata massima: la dimissione degli internati avveniva solo quando non persisteva più la pericolosità sociale. Se questa permaneva, il magistrato di sorveglianza prorogava la misura di sicurezza e la persona continuava a rimanere a tempo indefinito nell’Opg, fino a nuova revisione della pericolosità.

Sul nesso tra pericolosità sociale e disturbo mentale si palesano gli elementi di criticità più forti delle normative. È questo presunto legame che svela il percorso storico su cui è innervato l’assetto del codice penale che introduce misure di sicurezza nella prospettiva di un incontro fatale: quello fra culture giuridiche improntate alla “bonifica umana” e culture pseudoscientifiche intrise di biodeterminismo. Come spiega Peppe Dell’Acqua, a lungo direttore del Dipartimento di salute mentale di Trieste e collaboratore di Basaglia, “la ragione necessaria e dunque la motivazione di ogni invio in Opg è, in ultima analisi, il riconoscimento della pericolosità sociale all’atto dell’invio stesso; alla pericolosità sociale presunta, accertata, temuta segue la misura di sicurezza; alla misura di sicurezza consegue l’internamento in Opg o in casa di cura e custodia (che è sempre Opg); la persistenza della pericolosità è la ragione dell’internamento ‘senza fine’”.

Diverse sentenze della Corte Costituzionale hanno sancito l’inconsistenza di questo approccio sul piano giuridico e disciplinare. Esse, continua Dell’Acqua, “stabiliscono che la pericolosità sociale non può essere definita una volta per tutte, come se fosse un attributo naturale di quella persona e di quella malattia. Deve essere vista come una condizione transitoria; relativizzata, messa in relazione ai contesti, alla presenza di opportunità di cure e di emancipazione in ordine alla disponibilità di risorse e di servizi.” Nei pronunciamenti della Corte si allude all’arcaismo dell’automatismo dei meccanismi infermità/pericolosità/misura di sicurezza e si smonta l’associazione impropria, come chiarisce Dell’Acqua, “tra pericolosità sociale e ‘malattia mentale’ pregressa, presente o presunta sulla base di immagini della malattia legate a cronicità, ricorsività, processualità; legata all’incontenibile ricorrenza di comportamenti disturbanti, insubordinati, trasgressivi, eccentrici, bizzarri, incontrollabili…”.
Negli anni si è anche accumulata una corposa evidenza scientifica che dimostra l’assoluta inapplicabilità di elementi oggettivi per giustificare la possibilità di predire la pericolosità sociale in conseguenza di un disturbo mentale. Come afferma uno studio pubblicato nel 2009 sul Journal of the American Medical Association dal titolo Schizophrenia, Substance Abuse, and Violent Crime, gli atti di violenza da parte di persone con disturbi anche severi come quello schizofrenico, sono “eccezionalmente rari”.
Una meta-analisi metodologicamente corposa e rigorosa pubblicata nel 2012 sul British Medical Journal sanciva che i metodi sviluppati nel contesto della giustizia criminale per valutare il legame tra malattia mentale e “pericolosità futura” sono molto variabili nella loro accuratezza e concludeva che “il loro uso come unici determinanti di detenzione, condanna e scarcerazione non è supportato dall’attuale evidenza scientifica”. Il risultato a cui giungono queste e altre ricerche simili è che i rari atti di violenza da parte di persone con disturbo mentale, anche severi, sono determinati dalle condizioni socio-economiche o da altri fattori contestuali, più che dal disturbo stesso.

Va sottolineato che negli Opg più dei due terzi della popolazione, attualmente costituita da poco meno di un migliaio di internati, hanno commesso reati di poco conto, provengono da famiglie e contesti sociali disagiati e non abbienti. Non è un caso. “Quando i servizi di salute mentale di competenza non si fanno carico della persona”, afferma Giovanna del Giudice, “il giudice non dimette e conferma la pericolosità sociale. Quindi, in particolare per l’assenza di una famiglia, di un contesto sociale accettante e tanto più di un servizio di salute mentale che propone una presa in carico della persona, si assiste ad un protrarsi indefinito e potenzialmente illimitato del periodo di internamento”. Sul sito forumsalutementale.it sono rintracciabili alcuni casi concreti di cosiddetti ergastoli bianchi, come quelli riportati in un recente contributo da un rappresentante di associazioni di familiari, Valerio Canzian, il quale racconta ad esempio la condizione di A., 40 anni, che circa vent’anni fa entrò in Opg senza aver commesso nessun atto efferato. A. non gestisce bene le relazioni in autonomia, quando è solo nel rapporto reagisce con schiaffi e spintoni. Finì in manicomio criminale per un episodio legato a questi comportamenti. Come scrive Canzian, “ogni sei mesi ad A. viene reiterata la pericolosità sociale perché nessuno finora si è preso la responsabilità di costruire un piano individuale adeguato alla sua inclusione sociale, quella possibile consona alle sue caratteristiche, verosimilmente una comunità. Dopo 21 anni A. è ancora in Opg nonostante il magistrato di sorveglianza affermi non essere l’Opg un luogo appropriato per A.” Qualche mese fa finirono alla ribalta dei media nazionali alcune vicende simili a quella di A. dall’Opg di Barcellona Pozzo di Gotto, uno dei più tristemente famosi dopo le inchieste di questi anni. Grazie all’impegno di un prete, don Pippo Insana, che è riuscito qualche hanno fa ad aprire una Casa d’accoglienza per pochi fortunati usciti dal manicomio criminale siciliano, sono emerse storie al limite dell’incredibile. Come quella di Mario, che per una rapina di seimila lire è rimasto in Opg per ventidue anni. O quella di Salvatore, che per un’altra rapina è stato internato per trentasei anni. Piccoli reati che hanno segnato intere esistenze.

La nuova normativa vuole mettere la parola fine a tutto questo. ll decreto 52/2014 diventato legge lo scorso 28 maggio prevede infatti che i ricoveri, d’ora in poi, non potranno durare più del massimo della pena prevista per il reato commesso. Inoltre, in caso di reato commesso da persona con disturbo mentale, i giudici sono invitati, come indicano già le sentenze della Corte Costituzionale 253/2003 e 367/2004, a scegliere misure alternative all’internamento in un Opg. La nuova legge, dopo già due rinvii, oltre a fissare, come già ricordato, al 31 marzo 2015 la data ultima per la dismissione dei sei manicomi giudiziari presenti in Italia, definisce vincoli e tempi precisi per le Regioni per attuare il processo della chiusura. L’indirizzo che emerge dal dispositivo intende poi superare o limitare come ultima risorsa l’uso delle Rems, a favore di un rafforzamento dei servizi sul territorio e più in generale di un rientro nel diritto e nel contesto sociale di chi è internato o chi rischia di diventarlo: dal carcere al centro di salute mentale, alla comunità terapeutica, all’abitare assistito alla cooperativa di lavoro, alla propria casa, ai programmi riabilitativo-territoriali. Anche il carcere è un luogo di diritto all’interno del contesto sociale. Questo è uno dei punti accolti con maggiore soddisfazione da chi in questi anni si è battuto per la chiusura degli Opg. Fin dalla legge Marino 9/2012, la prima che stabiliva il superamento definitivo dei manicomi criminali, sulle Rems sono esplose infatti, come già ricordato, le criticità e le contraddizioni maggiori. I meccanismi per la costruzione delle Rems sono, ad esempio, molto complicati: appalti, capitolati, disponibilità delle risorse, tanto che in molte regioni la costruzione delle Rems non è neanche stata progettata. Allo stesso tempo, le Regioni inadempienti nella realizzazione delle strutture nei tempi previsti verranno commissariate da parte del governo.

Diverse associazioni, prima fra tutte Stopopg, non sono però preoccupate dei ritardi, anzi sostengono che i mini-Opg, non sono affatto una soluzione. “Poco conta”, continua Dell’Acqua, “che gli Opg chiudano, se al loro posto ne verranno riaperte altre, con un nome magari diverso, con una capacità di ricovero magari inferiore, se rimane intatto lo scheletro ideologico che li sorregge e giustifica la loro presenza istituzionale nella nostra società. La preoccupazione è che la costruzione dei mini-Opg rafforzi le psichiatrie della pericolosità e del farmaco, che già con prepotenza si vanno espandendo con tutta la loro riduttività.”

La partita vera che attende i medici, i politici, le associazioni si gioca insomma di nuovo, come accadde per la 180, sul campo dei diritti. La scommessa è rimettere al centro i soggetti, la possibilità per le persone con disturbo mentale di restare cittadini, “di avere la speranza di rimontare il corso delle proprie esistenze, perfino di guarire. Anche per chi ha commesso un reato”, conclude Dell’Acqua.

*Quest’articolo è stato pubblicato su Pagina99we del 14 giugno 2014. Lo riporto sul mio blog per loro gentile concessione.

Tag:,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter