Archive for the ‘Studi su scienza e tecnologia’ Category

la legge morale nei nostri neuroni*

legge morale neuroni Kathinka Evers è una filosofa svedese esperta di neuroscienze il cui percorso non è facilmente inseribile negli schemi della tradizione accademica. Partendo dalla logica e dalla fisica, il suo interesse si è successivamente allargato a una riflessione nella turbolenta zona di confine tra scienze del cervello, filosofia morale, etica e sociologia. Evers svolge un’influente attività di ricerca espressa recentemente in un articolo-manifesto pubblicato alla fine del 2015 sul magazine letterario 3:AM, simbolo della controcultura londinese degli anni Zero. Evers si muove sulla frontiera della cosiddetta neuroetica, giovane e controversa disciplina che da un lato indaga e riflette sulle implicazioni etiche e giuridiche della ricerca neuroscientifica, dall’altro mira a comprendere le basi cerebrali dei comportamenti morali. Il peso del punto di vista della filosofa svedese deriva dalla sua carica di codirettrice dello Human Brain Project (HBP), una delle più ambiziose iniziative di neuroscienze mai intraprese a livello mondiale. Selezionato dalla Commissione europea nel 2013 tra i due i due progetti “faro” su cui l’Unione ha deciso di investire più di un miliardo di euro fino al 2023, l’HBP ha lo scopo di simulare attraverso un supercomputer il funzionamento completo del cervello umano: un obiettivo scientifico e tecnologico mastodontico che fornisce allo stesso tempo un esempio concreto dei nodi attuali tra neuroscienze e filosofia.

“È abbastanza ovvio immaginarsi che tipo di interrogativi susciterà un cervello umano simulato, se mai verrà realizzato”, afferma la studiosa dell’Università di Uppsala. “Essi riguarderanno la sfera personale, sociale ed etica (ad esempio, se si decide di interrompere il funzionamento di un cervello simulato è possibile “ucciderlo” in un modo potenzialmente pertinente sul piano morale?)”. Per rispondere a queste domande entra in gioco la neuroetica, che avrebbe gli strumenti concettuali per disinnescare il rischio di trasformare gli ambiziosi progetti sul cervello in potenziali minacce e paure per gli individui e la collettività, presunte o reali che esse siano.

“In realtà”, come spiega a pagina99 Stefano Canali, filosofo delle neuroscienze alla Sissa (Scuola internazionale superiore di studi avanzati) di Trieste, “siamo ancora molto lontani dall’avere a disposizione cervelli sintetici. Le simulazioni dell’HBP potranno riguardare a breve meccanismi fisiologici precisi o specifici disturbi neurologici. Altra cosa è usare queste macchine per comprendere i comportamenti morali, come forse pretenderebbero alcuni fautori dello Human Brain Project”. Un’ambizione che si scontra con un nodo filosofico di fondo: il fatto che, continua Canali, “per realizzare le nostre esperienze coscienti e soprattutto mediare le azioni morali il cervello ha bisogno di un corpo e di poter interagire con altri individui, abitando e allo stesso tempo costruendo e modificando insieme ad essi uno spazio di simboli e valori”.

È un aspetto che il progetto europeo del supercomputer sottovaluterebbe, ma che rappresenta efficacemente la direzione in cui, secondo Evers e colleghi, dirigere più incisivamente gli sforzi di ricerca nei prossimi anni: verso la neuroscienza dell’etica, un’area dove i dati neurologici e la riflessione filosofica s’incontrano su temi fondamentali come il libero arbitrio, l’autonomia, l’autocontrollo, i processi decisionali, la responsabilità, il conflitto tra ragione ed emozione.

Quali sono le basi neuronali del nostro senso morale? Come funziona il nostro cervello quando eseguiamo atti che associamo alla libera scelta? Sono interrogativi che hanno trovato diritto di cittadinanza scientifica grazie agli impetuosi sviluppi delle neuroscienze degli ultimi decenni. “Gli studi sul cervello”, afferma Canali, ideatore e organizzatore di una scuola di formazione in neuroetica tra le poche attività strutturate in quest’ambito nel nostro paese, “hanno dimostrato che linguaggio, memoria, emozioni, percezioni, controllo volontario del comportamento sono sistemi funzionali semi-indipendenti tra di loro, seppur integrati. La dissoluzione dell’integrità dell’Io rende assai problematica l’indagine sulla natura e il funzionamento dell’agente morale. A quale parte della nostra mente dobbiamo attribuire la responsabilità morale? Ad esempio è possibile che una lesione o una malattia, ma anche eventi traumatici o stress protratti compromettano i sistemi cerebrali che permettono il controllo volontario del comportamento. In questo caso, gli altri apparati funzionali possono continuare a operare normalmente, compreso quello che media le reazioni emotive. Può così accadere che un comportamento impulsivo, violento o immorale, non venga frenato anche quando la persona riconosce la sua inappropriatezza e desidera inibirlo”. Non è difficile comprendere la complessità delle implicazioni etiche e giuridiche che emergono in queste situazioni.

Al di là di casi estremi, le neuroscienze attuali stanno dimostrando che gli eccessi di stimoli, i sovraccarichi di microscelte, il multitasking, sembrano erodere il controllo volontario del comportamento e le capacità empatiche, mettendo costantemente a rischio le nostre competenze morali. Si pensi ad esempio alle moltiplicazioni delle interazioni digitali, all’overload informativo sul web, alle sollecitazioni appettitive a cui siamo sottoposti nei corridoi di qualsiasi supermercato. Sono tutti processi che richiedono al cervello dosi cospicue di risorse computazionali e anche tempi congrui di elaborazione. Al contrario oggi è però richiesta una velocità di analisi che può interferire con le modalità con cui interpretiamo i segnali emotivi propri e altrui. Di conseguenza i sovraccarichi cognitivi possono farci agire in modo eticamente problematico: ad esempio non prestando aiuto a qualcuno in difficoltà, manifestando apertamente un pregiudizio, agendo in modo esclusivamente utilitaristico e con questo causando danno ad altri.

La neuroetica a questo proposito sottolinea come gli studi sperimentali stiano rivalutando in termini scientifici il peso della società nella responsabilità etica personale. A rinnovare profondamente e rendere dirompenti gli interrogativi sul libero arbitrio è stato poi soprattutto lo sviluppo delle cosiddette tecniche di neuroimaging, in grado di misurare la relazione tra attività di determinate aree celebrali e specifiche funzioni.

In Italia, negli ultimi anni diversi testi hanno affrontato questi temi. Tra essi si possono segnalare Neuroetica. La morale prima della morale, edito da Raffaello Cortina nel 2008 e scritto da Laura Boella, filosofa dell’Università di Milano, e più recentemente Lo spazio della responsabilità, pubblicato nel 2015 da Il Mulino e curato da Marina Lalatta Costerbosa dell’Università di Bologna. Sono opere in cui ripetutamente si invita alla prudenza quando ci si trova di fronte ai risultati che provengono dalle tecniche di neuroimmagini, vale a dire dalle metodiche per la rappresentazione del sistema nervoso e in particolare del cervello. Tali volumi ne chiariscono limiti e ambiti d’applicazione richiamandosi a una convergenza di saperi e competenze plurali.

È un approccio che risuona con l’appello generale del manifesto di Kathinka Evers a una feconda e necessaria interdisciplinarietà di cui la neuroetica si dovrebbe fare portavoce, sia “per contribuire a una migliore definizione degli oggetti della ricerca neuroscientifica, sia per tentare di rendere sperimentalmente indagabili i problemi che la filosofia affronta da millenni soltanto in modo astratto. Questo servirebbe a far luce su concetti impervi per la scienza ed elusivi per la filosofia”, conclude Canali.

*Il testo di quest’articolo è stato pubblicato sul periodico pagina99 il 23 gennaio 2016.

Tag:,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

oltre lo show di Zuckerberg tra i neo-filantropi californiani*

zuckpg99Sulla faraonica donazione del 99 per cento delle azioni Facebook, annunciata da Mark Zuckerberg e da sua moglie Priscilla Chan all’indomani della nascita della loro primogenita Max, circa un paio di settimane fa, si sono spese già molte polemiche. L’accusa principale rivolta ai coniugi Zuckerberg è di voler pagare meno tasse attraverso un’operazione mascherata da beneficenza. Particolarmente duro Jesse Eisinger, dell’agenzia giornalistica indipendente ProPublica. Eisinger ha spiegato che la Chan Zuckerberg Initiative, creata dal fondatore di Facebook e da sua moglie, è una limited liability company, una sorta di società a responsabilità limitata e non una società no-profit. L’iniziativa non sarebbe così soggetta alle regole e ai requisiti di trasparenza delle fondazioni caritatevoli tradizionali e soprattutto godrebbe di benefici fiscali a quest’ultime non riservate. L’amministratore delegato di Facebook ha respinto l’accusa dichiarando che la scelta di creare una società privata si giustifica semplicemente per la sua maggiore efficienza e flessibilità. Che sia davvero così o che si tratti di altruismo interessato, il progetto filantropico di Zuckerberg è la punta dell’iceberg di un fenomeno molto più ampio, che a partire dai miliardari dell’hitech della Silicon Valley fa riferimento a un movimento teorico e sociale impegnato nel ripensare il non-profit, la liberalità, l’impegno solidale e collaborativo. Uno spazio laboratoriale e interdisciplinare che va sotto il nome di Nuova Filantropia e che si presenta come una cultura visionaria del dare, in cui confluiscono tecnologia, economia e diritto alla ricerca di una sintesi innovativa.

L’espressione “nuova filantropia” nasce all’interno della generazione degli imprenditori del dot.com, giovani o molto giovani che a partire dagli anni ’90 del secolo scorso hanno guadagnato montagne di soldi nell’industria dell’informatica e del digitale. La Silicon Valley è l’ambiente naturale, sia dal punto di vista geografico che culturale, per lo sviluppo di attività di beneficenza che, diversamente dal passato, sono incentrate sulla verifica dell’impatto sociale o ambientale delle elargizioni e sulla produzione di guadagno per gli erogatori. Rispetto alle tradizionali donazioni status-symbol dispensate per avere accesso a club esclusivi, c’è l’ambizione di incidere davvero per cambiare le cose. La visione è molto più strategica. Trae le sue radici concettuali nell’etica hacker di cui sono imbevuti, loro malgrado, molti dei miliardari self made man di nuova generazione, di cui Mark Zuckerberg è il prototipo ideale.

Non a caso, la Chan Zuckerberg Initiative è solo l’ultima in ordine di tempo di una costellazione di imprese simili, magari meno note, ma realizzate col medesimo approccio: unire filantropia e tecnologia. Come ad esempio quella di Brian Chesky, Ceo e fondatore di Airbnb, che ha fatto sviluppare ai suoi programmatori una piattaforma per far entrare in contatto gli sfollati dei disastri naturali con le persone disponibili a ospitarli. O come le iniziative di Anne Wojcicki, fondatrice della società produttrice di test genetici 23andMe, che ha devoluto centinaia di milioni di dollari ad associazioni come Ashoka, la più grande comunità internazionale di imprenditori sociali nata per dare supporto alle persone, non ai progetti. O infine come l’organizzazione no-profit GiveDirectly, che tramite cellulari riesce a trasferire denaro contante direttamente, evitando burocrazia e corruzione, a persone in condizioni di estrema povertà in Kenya e Uganda. Il programma, fra l’altro, prevede l’uso di satelliti per individuare i villaggi più poveri e l’utilizzo di strumenti avanzati per monitorare come vengono spesi i soldi e qual è livello di soddisfazione di chi li riceve.

Che il mondo tecnologico libertario e individualista attorno alla South Bay di San Francisco sia diventato il luogo d’elezione dei filantropi più dinamici del ventunesimo potrebbe sembrare un paradosso. Come descritto recentemente sul New York Times dalla giornalista Alessandra Stanley, Zuckerberg e soci non sono più interessati dei loro predecessori conservatori a cambiamenti radicali nel nome dell’eguaglianza sociale. I miliardari dell’hitech sono semplicemente convinti di poter applicare “la stessa ingenuità e lo stesso entusiasmo che li ha resi ricchi per rendere il resto del mondo meno povero”. Il tecno-utopismo di matrice hacker permette di comprendere come mai i proprietari di multinazionali private monopoliste del web, spesso insofferenti alle legislazioni fiscali sovrane, mettano così tante risorse per la soluzione di problematiche di interesse pubblico. Il punto è che, come emerge sempre nell’inchiesta del New York Times, i filantropi tecnologici non “fanno lobby per la redistribuzione della ricchezza”, ma piuttosto “vedono la povertà e la disuguaglianza come un problema ingegneristico, la cui soluzione è nelle loro capacità intellettuali”.

Tutto questo non limita la portata innovativa delle tecnologie dell’informazione e della comunicazione nella definizione di nuove prospettive benefiche. Come sottolineato lo scorso 2 dicembre nel corso di un convegno dal titolo “La nuova filantropia. Economia e diritto per una società digitale collaborativa”, uno dei pochi appuntamenti strutturati sul tema nel nostro paese organizzato dall’Università Cattolica di Piacenza, la tecnologia è il primo, se non il più qualificante, elemento di discontinuità della nuova modalità di fare beneficenza.
In particolare, la rete è lo sfondo su cui si innesta un secondo elemento caratteristico delle nuove pratiche del dono: l’approccio utilitarista, vale a dire l’interesse per le conseguenze dell’azione, per l’efficacia e la quantificazione degli impatti grazie alle opportunità di trasparenza e di tracciabilità offerte dal web. Un terzo aspetto è di natura antropologica e consiste nella centralità dell’agire collaborativo, nell’affermazione di un rivisitato comunitarismo che trova rinnovato slancio nel ruolo giocato dalle comunità digitali rispetto ai valori di apertura, condivisione, partecipazione, solidarietà.

Perché si realizzi la prospettiva comunitarista bisogna però dotarsi di nuove metriche economiche, in grado di misurare ad esempio l’impatto sociale del dono, e di strutture giuridiche più flessibili, in grado di dare conto delle molteplici forme del “dare”, non più riducibili solamente al donare beni, ma che riguardano anche la messa a disposizione di attività, capacità, tempo, informazioni. Ad esempio, chi dona i propri dati genetici si può porre oltre l’attuale comprensione giuridica della privacy.

I limiti delle normative vigenti, soprattutto di natura fiscale e sul piano delle successioni, sono particolarmente significativi in Italia. Come spiega a Pagina99 Monica De Paoli, notaio milanese tra le responsabili scientifici del convegno di Piacenza, i vincoli attuali contribuiscono a determinare “il divario esistente tra le esperienze di altri Paesi, in particolar modo di matrice anglosassone, e il nostro, dove le donazioni al confronto sono modeste”. De Paoli è anche vicepresidente del consiglio di indirizzo della Fondazione Italia per il Dono ONLUS (F.I.Do), una struttura nata con l’idea di creare un nuovo strumento di intermediazione filantropica. L’aspetto innovativo di F.I.Do, continua De Paoli, consiste nel fatto che chiunque voglia operare in un progetto di beneficenza “non ha bisogno di creare una propria struttura. F.I.Do offre servizi a soggetti che non possono o non vogliono creare una propria fondazione erogativa: agisce allo stesso tempo come hub e come incubatore. Chiunque può donare alla Fondazione. Il nostro scopo principale è promuovere la cultura del dono, non molto sviluppata nel nostro paese”.
F.I.Do richiama tutti noi alla possibilità di dare un nuovo volto al capitalismo, basato su una visione etica della filantropia. Un tema su cui si è speso recentemente anche Peter Singer, considerato tra i più influenti filosofi viventi. Nel suo ultimo libro The Most Good You Can Do, pubblicato lo scorso aprile, lo studioso australiano sostiene che nei paesi ricchi per “vivere eticamente” bisognerebbe dare in beneficenza idealmente un terzo di quello che si guadagna. Non sarà il 99 per cento di Zuckerberg, ma è pur sempre tanto, soprattutto se si tratta di donare per davvero.

*Un adattamento di questo testo è stato pubblicato su pagina99 del 12 dicembre 2015.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

gli scienziati della domenica in cattedra con Obama*

pagina99-copertina-05-12-2015 Aiutano i ricercatori a scoprire nuove galassie o a “mappare” la superficie di Marte, raccolgono dati sull’ambiente e sulla qualità dell’aria, passano giornate intere negli habitat naturali più disparati per studiare volatili e poi donare le loro osservazioni agli ornitologi. In passato sono stati anche cruciali, fra le altre cose, nella soluzione della struttura di un enzima fondamentale nella diffusione del virus dell’AIDS. Sono i volontari della scienza: un esercito di milioni di persone sparse in tutto il mondo, quasi tutti non professionisti della ricerca, che poche settimane fa ha ricevuto un’insperata legittimazione addirittura dalla Casa Bianca. Un memorandum firmato in prima persona da John P. Holdren, consigliere scientifico del presidente americano, ha infatti chiarito come l’amministrazione Obama vuole imprimere una decisa accelerazione alla “scienza dei cittadini”, di cui riconosce, oltre all’importanza educativa e metodologica, il valore economico, stimato in miliardi di dollari all’anno.

La nota dell’Ufficio per la politica della scienza e della tecnologia statunitense potrebbe rappresentare un radicale cambiamento nei rapporti tra ricerca e società. “L’aspetto fondamentale del documento” spiega a pagina99 Mariachiara Tallacchini, già senior scientist presso il Joint Research Centre della Commissione Europea, “è che si tratta di un ordine esecutivo indirizzato alle organizzazioni governative e alle agenzie federali”. Non un generico invito dunque, “ma cose da fare concretamente entro tempi stabiliti”. Il memorandum individua soprattutto due azioni specifiche. Ogni agenzia deve prima di tutto individuare un coordinatore per i progetti di citizen science, successivamente deve catalogare le attività di ricerca aperte alla partecipazione di tutti i cittadini.

La discontinuità della nota di Holdren si apprezza anche nella definizione proposta di citizen science. Se genericamente con essa si intende l’attività di ricerca realizzata coinvolgendo dei volontari come “sensori” per raccogliere informazioni scientifiche o come “elaboratori” per contribuire a risolvere problemi di analisi dei dati, il memo americano assegna ai cittadini un ruolo molto più significativo. Essi, nella descrizione fornita dall’amministrazione Obama, come continua Tallacchini, “possono formulare domande di ricerca, condurre esperimenti scientifici, interpretare risultati, fare nuove scoperte, sviluppare tecnologie e applicazioni, risolvere problemi complessi, non solo raccogliere e analizzare dati. C’è il pieno riconoscimento metodologico e teoretico assegnato normalmente alla scienza svolta nei laboratori e nelle università”. La citizen science non è insomma una scienza di serie B, semmai “si caratterizza per una diversa finalità pratica e applicativa, per una marcata enfasi sul contributo alla risoluzione di questioni sociali. Senza trascurare il valore educativo a essa assegnato e soprattutto il suo impatto economico”.

I volontari della ricerca, tra contare uccelli, identificare galassie e individuare batteri forniscono un servizio il cui valore è stimato almeno attorno ai due miliardi e mezzo di dollari annui in natura. Questo dato, ottenuto grazie al lavoro di un gruppo di esperti americani di protezione ambientale, è uno dei punti di partenza del memorandum di Holdren. In un articolo pubblicato all’inizio dell’anno sulla rivista Biological Conservation, gli autori hanno per la prima volta quantificato la scala dei progetti di citizen science sulla biodiversità mediante l’analisi di più di 300 iniziative. Hanno calcolato che i volontari della scienza dedicano ogni anno tra le 21 alle 24 ore del loro tempo libero ad attività di ricerca. Considerando che sono coinvolte circa un milione e trecentomila persone, il contributo equivalente è pari ai già citati due miliardi e mezzo di dollari. Una stima peraltro al ribasso, dato che lo studio ha preso in considerazione solo progetti sulla biodiversità, on-line e in lingua inglese.

La ricerca documenta anche una crescita dei progetti di citizen science a ritmi inimmaginabili fino a qualche anno fa, una tendenza guidata dallo sviluppo di sensori a basso costo e altri strumenti di monitoraggio ormai facilmente utilizzabili e disponibili anche su uno smartphone.

L’amministrazione Obama dimostra di aver colto perfettamente le potenzialità legate all’accelerazione del fenomeno, meglio che nel vecchio continente. “L’Europa”, ci spiega ancora Mariachiara Tallacchini, filosofa del diritto all’Università Cattolica di Piacenza ed esperta dei rapporti tra scienza e democrazia, “è molto più timida. Pochi mesi fa anche la Commissione Europea ha pubblicato un libro bianco sulla citizen science. Diversamente dagli Stati Uniti è un documento molto attento alle sfumature, preoccupato di stabilire in che cosa la scienza dei cittadini sia diversa rispetto a quella tradizionale”. In altre parole, si fa più fatica a riconoscere la possibilità di produrre assieme, esperti e non-esperti, conoscenza valida. Così come non si comprende appieno che il coinvolgimento a monte dei cittadini nella ricerca scientifica, il cosiddetto upstream engagement, sia la strada maestra per ridurre i conflitti tra scienza e società. “L’idea di Holdren”, continua Tallacchini, “è che il cittadino contribuisca alla conoscenza in fase istruttoria. In questo modo, non solo riduci i costi, ma aumenti la fiducia nei confronti delle istituzioni, nonché l’efficienza e l’efficacia delle policy.” L’approccio preventivo alla citizen science permetterebbe di ridurre la crescente e ricorrente litigiosità sulle controversie scientifiche (cambiamenti climatici, fecondazione assistita, testamento biologico, nanotecnologie, nucleare, ecc.). Si tratta di conflitti ben noti anche nel nostro paese, non particolarmente all’avanguardia sulla citizen science, dove però esistono esperienze in cui le diverse dimensioni delineate dal memorandum della Casa Bianca sono ben rappresentate. Come ad esempio nel progetto di epidemiologia partecipata PM2.5 Firenze, patrocinato dalla cooperativa Epidemiologia e prevenzione Giulio A. Maccacaro, in cui da circa due anni un gruppo di cittadini del capoluogo toscano conduce un’attività di sorveglianza della qualità dell’aria. L’iniziativa propone un rapporto nuovo tra le istituzioni e i cittadini. Come recitano i suoi promotori, in pieno stile Holdren, la disponibilità di informazioni e la produzione stessa del sapere scientifico devono essere “patrimonio di più soggetti e non ristretti al solo ambito specialistico”.

*Il testo di quest’articolo è stato pubblicato su pagina99 del 5 dicembre 2015.

Tag:, ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Recensione – Introduzione ai media digitali

Il libro di Adam Arvidsson e Alessandro Delfanti chiarisce perché le scienze sociali si devono interessare sempre di più ai media digitali. Fatto scontato per gli addetti ai lavori. Non tanto, forse, per chi pratica rete e dispositivi digitali anche intensamente, ma non ha gli strumenti, la voglia e il tempo per averne un quadro d’insieme.
Un primo merito di questo libro è senza dubbio quello di ordinare le idee rispetto al digitale sul piano storico, politico, economico, tecnologico. Arvidsson e Delfanti stemperano efficacemente l’eccesso di nuovismo con cui ancora troppo spesso si interpreta il fenomeno di Internet, riportando molte delle cosiddette rivoluzioni della rete, che pure non mancano, nell’alveo di categorie sociologiche note. L’effetto è una rassicurante riduzione della distanza fra online e offline, soprattutto sul piano dell’analisi.
Il volume si articola in sei capitoli densi, chiari e completi, di facile accesso anche per chi si avvicina per la prima volta alla ricerca sociologica sui media digitali. Da questo punto di vista l’utilizzo del termine “Introduzione” nel titolo è molto appropriato. Argomenti frequentemente discussi dall’opinione pubblica, più o meno a sproposito, come ad esempio la cooperazione sociale online, l’identità in rete e l’economia dei media digitali, trovano una sistematizzazione efficace, sostenuta da uno sguardo laico basato su dati e ricerche. Se la chiarezza espositiva e lo stile scorrevole costituiscono un secondo motivo per leggere il libro dei due sociologi dell’Università di Milano, una terza ragione va ricercata nell’immagine complessiva del mondo digitale restituita dal volume.
Pochi giorni fa, Mario Tedeschini Lalli ha scritto un bel post sul fatto che il digitale è una cultura e non una tecnica. Il libro di Arvidsson e Delfanti aggiunge, fra le altre cose, un tassello importante in questa direzione.
Infine, Alessandro è un mio amico e non può che farmi piacere consigliare un suo libro. Allo stesso tempo mi sembra doveroso dichiarare ai lettori di questo post il mio conflitto d’interesse.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

C’è bisogno di un’altra epistemologia per il giornalismo scientifico

Domenica scorsa, su La Lettura, l’inserto culturale del Corriere della Sera, Andrea Grignolio ha scritto un bel pezzo sulla disinformazione nei confronti delle vaccinazioni.
Sono sempre di più le persone che decidono di non vaccinarsi richiamandosi a teorie pseudoscientifiche propagandate dalla rete. Teorie che trovano un fertile terreno di diffusione nella retorica di movimenti naturisti, convinti della necessità di ritornare a un non meglio precisato tempo della felicità primordiale, con tanto di testimonial d’eccezione come Romina Power e Irene Bignardi.

L’articolo e l’argomento trattato da Grignolio sono l’occasione per me di ritornare a riflettere su un tema che da un po’ di tempo mi sta particolarmente a cuore. La discussione sui vaccini è un esempio molto chiaro del fatto che il giornalismo scientifico ha a che fare molto da vicino con quello che una società considera vero.

È vero che c’è una relazione tra autismo e vaccini? No. La comunità scientifica è unanime su questo punto. Non ci sono dubbi. Eppure proliferano siti web che, con argomentazioni non fondate empiricamente, sostengono il contrario e che trovano sempre più seguaci.
Evidentemente c’è una profonda differenza tra cio che è vero e il consenso sociale che si crea attorno a una certa verità. Questo ovviamente vale in generale, ma forse nel caso delle affermazioni scientifiche si può rimanere più colpiti da questa distanza perché, al di là di distorsioni e limiti che pure esistono, la scienza rimane una disciplina profondamente dedita alla verità.

Nel caso delle vaccinazioni, così come per i cambiamenti climatici, per la teoria dell’evoluzione e per molte altre questioni dibattute socialmente, la stragrande maggioranza dei ricercatori la pensa allo stesso modo, almeno sugli aspetti essenziali. Qual è allora la ragione per cui si afferma un consenso sociale attorno a “verità” molto distanti dai pronunciamenti degli scienziati? È tutta colpa della rete e dell’ignoranza?

La mia opinione, e vengo al dunque di questo post, è che il giornalismo scientifico tradizionale, e il suo metodo, non sono più sufficienti per reagire adeguatamente alla diffusione di bufale scientifiche clamorose che fra l’altro hanno sempre più spesso risonanza politica: c’è bisogno di una nuova epistemologia per il racconto giornalistico sulla scienza, un nuovo modo per raggiungere una conoscenza certa su qual è la conoscenza che merita di essere creduta.

L’informazione tradizionale sulla scienza ha procedure molto codificate. Le fonti principali sono i paper pubblicati su riviste con peer-review. Nell’epoca dei media broadcasting e di una visione neopositivista della scienza, gli articoli dei ricercatori erano sostanzialmente “prove” inattaccabili e rispondevano egregiamente alle logiche di funzionamento e di attribuzione di autorevolezza della comunicazione da “uno a molti”. Erano un riferimento di attendibilità e imparzialità che non aveva uguali in altri generi dell’informazione.

Nel bene e nel male, anche per questo motivo, il giornalismo scientifico ha costituito un’anomalia nel panorama della comunicazione di massa. Il prezzo pagato per l’elevata obiettività basata su fonti così pregiate è stata la marginalizzazione in un genere specialistico, spesso un compiaciuto isolamento. Percepito dagli altri giornalisti come modello inarrivabile e privilegiato di fare informazione, al giornalismo scientifico sono stati concessi i benefici di chi è rinchiuso in una gabbia d’oro. Il racconto giornalistico della scienza ha quasi sempre coinciso con la rappresentazione fornita da riviste con elevato impact factor di come la ricerca sforna nuove conoscenze. Una prospettiva cruciale, certo. Ma anche un punto di vista limitato. Tutte le altre dimensioni della scienza, quella culturale, economica, etica, sociale, necessariamente contenute negli angusti spazi a disposizione nei mezzi di comunicazione di massa, sono esplosi con il web e sono andati appannaggio dei più diversi portatori d’interesse. La mia impressione è che il giornalismo scientifico tradizionale si è trovato con pochi mezzi a disposizione per reggere quest’onda d’urto e con poca voglia di metterli in discussione. Spesso i giornalisti scientifici si sono rinchiusi ancora di più nella difesa del fortino razionalista di cui si sentono beneficiari, continuando a usare le pratiche del passato in un ambiente di lavoro molto diverso, sia socialmente che mediaticamente, popolato da cellule dormienti dell’antiscientismo a cui la rete ha dato un insperato diritto di cittadinanza.
Se la rete ha una colpa quindi è stata quella di svelare da una parte l’inganno di far coincidere l’informazione sulla scienza con la cronaca delle scoperte, dall’altra di rivelare l’inadeguatezza delle procedure con cui i giornalisti scientifici producono conoscenza e informazione rispetto a quanto è richiesto dalle dinamiche del web.

Per ritornare all’esempio iniziale, la risposta alla disinformazione sui vaccini non può più essere solo una citazione più precisa o un riferimento a una letteratura ancora più solida che confermi al di sopra di ogni ragionevole dubbio che non esiste un link tra vaccino a autismo, come peraltro fa meritoriamente Andrea Grignolio. Questa reazione non vede la rete come possibilità di costruzione di una nuova epistemologia del giornalismo. Non basta più dire “so quello che so perché è stato pubblicato un paper scientifico su quell’argomento”. E se questo non è più sufficiente per il giornalismo scientifico non è difficile immaginare quanto sia grosso il rischio di un ulteriore indebolimento per gli altri generi dell’informazione.

Non ho il nuovo metodo in tasca. Non ho questa presunzione. Ci sono però forse delle direzioni promettenti in cui intraprendere una strategia di ricerca efficace.
La prima è quella di guardare alla rete come un luogo che dà molte più possibilità rispetto al passato di avvicinare il lavoro del giornalista a quello dello scienziato. L’ho scritto già in un altro post: penso che, se davvero l’evoluzione del giornalismo è in un senso post-industriale, allora il giornalismo dei prossimi anni sarà sempre più scientifico. Un’altra via proficua secondo me è in linea con quanto sostiene David Weinberger ne La stanza intelligente, in cui il filosofo americano afferma che la conoscenza scientifica stessa si sta profondamente modificando e sta assumendo sempre di più le caratteristiche del nuovo medium (la rete) in cui vive.

Il compito di chi deve scrivere le nuove regole è insomma difficilissimo. Ma credo che sia uno sforzo necessario perché, sarò forse pessimista, ma credo che non basterà l’indignazione e lo sconcerto inscritti nel modo consueto di fare giornalismo scientifico per creare un consenso diffuso attorno al fatto che, ad esempio, non esiste alcun legame fra vaccini e autismo.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

MAPPE Trieste 2011

Il programma di MAPPE Trieste 2011 è chiuso. Potete trovare la descrizione di tutti gli eventi qui. Si tratta di quattro giorni, dal 22 al 25 novembre, in cui continueremo a dare il nostro contributo all’innovazione tra scienza, società e comunicazione come abbiamo già fatto l’anno scorso. Ovviamente ci ritornerò, ma intanto il materiale per chi vuole iniziare a dare un’occhiata è pronto.

Tag:

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Come gli scienziati vedono la sfera pubblica

Quali sono le opinioni degli scienziati riguardo ai pubblici di non-esperti, i media e i processi decisionali della politica? La pensano tutti allo stesso modo? Quali sono i fattori più importanti che influenzano i ricercatori nella loro percezione della sfera pubblica?
John Besley e Matthew Nisbet, due studiosi americani di giornalismo e comunicazione di massa, hanno dato una risposta a questi interrogativi in un articolo in uscita sul Public Understanding of Science già disponibile on-line. Besley e Nisbet hanno preso in esame studi passati integrandoli con un paio di recenti indagini sul tema effettuati su larga scala.
Dalla loro analisi risulta che gli scienziati:
-criticano in generale la copertura mediatica della scienza ma sono soddisfatti dell’interazione personale con i giornalisti;
-credono fortemente nella necessità di avere un ruolo riconosciuto nel dibattito pubblico;
-considerano i politici il gruppo più importante con cui interagire;
-ritengono di ricevere pochi benefici dal coinvolgimento individuale in iniziative di partecipazione e deliberazione pubblica su temi controversi di scienza e tecnologia.
Gli autori dell’articolo insistono sulla necessità di ulteriori ricerche che tengano conto di come l’ideologia e la selezione delle fonti di informazione influenzano le opinioni degli scienziati.

Tag:, , , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Il futuro è già qui

Non bisogna lasciarsi ingannare dal titolo. È vero che si parla di nanotecnologie, con dovizia di particolari sia storici che scientifici, ma l’operazione compiuta da Federico Neresini, sociologo dell’Università di Padova, è allo stesso tempo più ampia e più utile rispetto a una pubblicazione specialistica.
Più ampia perché il libro Il nano-mondo che verrà fornisce una chiave di lettura non banale di come si costruisce il futuro nella società della conoscenza. Più utile perché si tratta di uno dei pochi testi in italiano, attualmente in circolazione, in grado di disegnare una mappa chiara e accessibile ai risultati dei Science and Technology Studies. Chi non è accecato dai pregiudizi non potrà che riconoscere in questo programma di studi interdisciplinari un contributo fondamentale alla comprensione del ruolo della scienza nella società e alle influenze reciproche tra ricerca, tecnologia, politica, cultura, economia.
La domanda a cui vuole rispondere il libro è: perché una determinata innovazone tecnoscientifica si impone mentre altre no e quali sono i processi che ne consentono il consolidamento? Le nanotecnologie sono un caso particolarmente interessante per mostrare la debolezza esplicativa dei modelli lineari su cui si basa tanta retorica riguardo all’ “impatto della scienza”.
In realtà, l’innovazione prende forma “durante un processo all’interno del quale si mescolano conoscenza scientifiche, competenze tecniche, oggetti tecnologici, rappresentazioni sociali, coraggio imprenditoriale, disponibilità e convinzione dei suoi potenziali utlizzatori.”
In altre parole, scienza e società co-evolvono per dare forma a un futuro spesso molto diverso da quanto prefigurato da aruspici di varia estrazione. Nonostante le apparenze, la scienza non è inesorabilmente “avanti” rispetto alla società e quest’ultima non è costretta a una continua e affannosa rincorsa.
Questo non significa affatto negare il cambiamento e l’importanza decisiva della tecnoscienza nelle dinamiche di trasformazione sociale. Si tratta piuttosto di privilegiare una prospettiva che restituisce a tutti noi la speranza e la responsabilità di costruire il migliore dei mondi possibili. Se pur in modo quasi sempre inconsapevole, siamo così coinvolti come partecipanti attivi nel processo di costruzione del futuro socio-tecnico che quando l’innovazione si consolida la diamo per scontata, come se fosse sempre esistita.
Non ce ne accorgiamo, ma nel tempo dedicato a discutere, votare, ignorare, leggere, ascoltare quanto ci viene prefigurato come il “nuovo” che ci attende, spaventa o entusiasma, cambiamo sia noi che l’ “innovazione”, fino al punto da renderla possibile e invisibile.
Come conclude Neresini questo sarà anche il destino della società nanotecnologica: qualunque forma assumerà ciascuno ne sarà responsabile, ma nessuno lo sarà mai da solo.

Tag:, , ,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Conoscenza in transito

Qualche mese fa (giungo 2009) la rivista di storia della scienza ISIS ha dedicato un numero speciale al concetto della storicizzazione della Popular Science. Nell’editoriale di Johnatam Topham viene ripreso un concetto di un altro storico della scienza britannico, James Secord, molto interessante per chi si occupa di comunicazione. Secord è diventato qualche anno fa famoso nell’ambiente per la pubblicazione del libro Victorian Sensation.
Il concetto proposto da Secord può essere riassunto nell’espressione “knowledge in transit”, la conoscenza in transito. I capisaldi dell’idea di Secord sono:

1. Non c’è una netta separazione fra la produzione e la comunicazione della conoscenza. Le questioni su “come viaggia la conoscenza, a chi è resa disponibile, e come si raggiunge accordo su di essa” sono fondamentali nella produzione di conoscenza. In questo senso il processo di conoscenza riguarda, coinvolge, la comunicazione. La comunicazione non è una mera conseguenza della conoscenza, non viene dopo di essa.

2. La scienza è una forma di azione comunicativa.

Applicazione delle idee di Secord: cos’è la rivoluzione darwiniana?

Un episodio nel processo di industrializzazione della comunicazione e della trasformazione dei pubblici e dei processi di lettura.

Tag:,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter

Confini tra scienza e non-scienza

Spontaneus Generation è una rivista accademica open accesss con peer-review concepita come una piattaforma per una discussione interdisciplinare su temi di storia e filosofia della scienza. La rivista è curata da studenti di Phd. Per chi si occupa di comunicazione della scienza, nel terzo numero appena uscito, può essere interessante dare un’occhiata all’editoriale Epistemic Boundaries.
Come si distinguono i confini tra scienza e non-scienza? Come si spostano nel tempo e nei diversi contesti culturali tali confini? Quali sono le forze più importanti in gioco nel tracciarli? Gli autori fanno un resoconto dei paradigmi, programmi di ricerca, culture epistemiche, stili di ragionamento di storici, filosofi e sociologi molto utile per comprendere quale ruolo può avere la comunicazione in questo processo.

Tag:,

Condividi:
  • Print
  • del.icio.us
  • Facebook
  • Google Bookmarks
  • Add to favorites
  • email
  • MySpace
  • RSS
  • Twitter