raccolta del 15 gennaio 2014 dal sito di divulgazione scientifica dell’Associazione Italiana del Libro scienza scienza 15 gennaio 2014 Sommario Le sfide della complessità e il contributo dell'intelligenza artificiale chimica Pier Luigi Gentili pag. 3 Oltre la paura della "valutazione". Si può? Maria Grazia Riva e Viviana Vinci pag. 11 Nuove immagini e scoperte sensazionali da Curiosity su Marte Andrea Billi pag. 5 Terapia chirurgica mini-invasiva dell’emicrania: tecnica personale Edoardo Raposio, Giorgia Caruana, Elena Boschi, Nicolò Bertozzi, Eugenio Grignaffini pag. 13 Una tazza di caffè? Gli effetti benefici della bevanda in numerose patologie umane Salvatore Sutti pag. 6 Vita su Marte e dintorni Domenico Ridente pag. 8 “Buchi-verme” ed “entanglement” sulla strada dell’unificazione delle forze Paolo Di Sia pag. 9 Quando a Napoli ci fu il boom della Chimica Vincenzo Villani pag. 18 Luci che accompagnano o precedono i terremoti Andrea Billi pag. 20 Dieta mediterranea 2.0 Nadia di Carluccio pag. 31 Dalla complessità interdisciplinare alla complicazione valutativa Graziella Tonfoni pag. 32 L'Agenda digitale del Web 3.0 Valerio Eletti pag. 35 La chirurgia dell’occhio vede lontano Daniela De Vecchis pag. 36 Il mobile learning di fronte e di profilo Michelle Pieri pag. 38 All’interno: Speciale 1° Premio Nazionale di Divulgazione Scientifica I libri premiati dalla giuria pag. 21 Per collaborare con 100news Scienza Per collaborare con il sito di divulgazione scientifica dell’Associazione Italiana del Libro o per scrivere sui fascicoli di 100news Scienza inviare i propri articoli, saggi, ricerche o segnalazioni a: [email protected] Si prega di allegare un breve profilo bio-bibliografico e di indicare la propria area scientifica di riferimento secondo la classificazione del MIUR: 1 – Scienze matematiche e informatiche 2 – Scienze fisiche 3 – Scienze chimiche 4 – Scienze della terra 5 – Scienze biologiche 6 – Scienze mediche 7 – Scienze agrarie e veterinarie 8 – Ingegneria civile e architettura 9 – Ingegneria industriale e dell’informazione 10 – Scienze dell’antichità, filologico-letterarie e storico-artistiche 11 – Scienze storiche, filosofiche, pedagogiche e psicologiche 12 – Scienze giuridiche 13 – Scienze economiche e statistiche 14 – Scienze politiche e sociali 2 scienza 15 gennaio 2014 Le sfide della complessità e il contributo dell'intelligenza artificiale chimica di Pier Luigi Gentili La scienza contemporanea è chiamata a vincere le sfide della Complessità. Esistono due tipi di sfide della Complessità. Il primo tipo riguarda la comprensione e predizione del comportamento di sistemi Complessi Naturali. Esempi di sistemi Complessi Naturali sono gli ecosistemi, il clima, gli esseri viventi sia uni- che pluri-cellulari, e qualunque organizzazione sociale ed economica umana. Il secondo tipo concerne la Complessità Computazionale e consiste (i) nella soluzione accurata ed in tempi ragionevoli dei problemi NP (Polinomiali Non-deterministici) e (ii) nella formulazione generale di regole per il riconoscimento di forme variabili come i volti o le voci umane, la scrittura a mano, etc… Per cercare di vincere le sfide della Complessità, la scienza contemporanea sta adottando tre strategie differenti. La prima strategia consiste nel progettare e realizzare supercomputer sempre più potenti e veloci perché affrontare la Complessità significa in genere trattare un numero enorme di dati. A novembre di questo anno (2013), il progetto internazionale TOP500 [1] ha confermato che il supercomputer più veloce al mondo è il cinese Tianhe-2, che raggiunge la ragguardevole velocità di 33.86 petaflop/s (un petaflop per secondo corrisponde a 10^15 operazioni in virgola mobile al secondo) e ha una memoria di un milione di GB. Secondo il progetto TOP500, una velocità computazionale di un exaflop/s dovrebbe esser raggiungibile entro il 2018. Tali supercomputer permetteranno di trattare in maniera sempre più accurata la predizione del comportamento di Sistemi Complessi Naturali. La seconda strategia si basa sul programma di ricerca denominato “Natural Computing” [2]. Tale programma è interdisciplinare e coinvolge informatici, matematici, biologi, chimici, fisici, ingegneri. Il suo scopo è di proporre (i) nuovi algoritmi e nuovi materiali (alternativi ai semiconduttori inorganici che utilizziamo negli attuali computer) per affrontare le sfide della Complessità Computazionale e (ii) nuovi modelli per descrivere i Sistemi Complessi Naturali. Il tutto è eseguito traendo ispirazione dalla Natura. La terza strategia consiste nello sviluppare l’Intelligenza Artificiale. I ricercatori che lavorano nell’Intelligenza Artificiale sono guidati dal progetto ambizioso di comprendere le fondamenta ed i meccanismi di funzionamento della mente umana per cercare di riprodurli artificialmente. Questo progetto ha rice- vuto un rinnovato impulso con l’iniziativa denominata “Decennio della mente”. Tale iniziativa è stata avviata con una conferenza di scienziati americani presso la George Mason University nel maggio 2007 ed ha portato alla stesura di un manifesto pubblicato come lettera all’editore nella rivista Science [3]. Qualunque successo significativo nel campo dell’Intelligenza Artificiale avrebbe un impatto positivo nelle sfide alla Complessità. Infatti esso svelerebbe alcuni segreti della Complessità Naturale perché il sistema nervoso umano è un prototipo di sistema complesso. Inoltre fornirebbe nuovi strumenti per affrontare quelle sfide della Complessità Computazionale note come riconoscimento di forme variabili. Infatti il cervello umano è particolarmente 3 scienza 15 gennaio 2014 efficiente nel richiamare alla memoria forme anche mutevoli. In un recente libro [4], gli scienziati cognitivi Gallistel e King, in accordo con il neuro-scienziato Marr, sostengono che per comprendere un sistema biologico complesso come il nostro cervello, è necessario realizzarne un’analisi a tre livelli distinti. Il primo livello è quello computazionale e consiste nel descrivere gli input, gli output e i compiti che il sistema compie. Il secondo livello è quello algoritmico e consiste nel formulare algoritmi che possano realizzare quei compiti. Infine c’è il terzo livello che è quello di implementazione e consiste nel cercare meccanismi che possano permettere di far lavorare gli algoritmi formulati nel livello precedente. Nella mia ricerca finalizzata allo sviluppo dell’Intelligenza Artificiale Chimica [5] sto seguendo la metodo4 logia proposta da Gallistel, King e Marr. Analizzo il sistema nervoso umano ai tre livelli. A livello computazionale ed algoritmico integro la logica Fuzzy con la teoria probabilistica di Bayes per modellizzare il ragionamento umano. A livello di implementazione propongo l’uso di composti cromogenici come surrogati degli elementi sensoriali naturali e le reazioni chimiche oscillanti, come quella di Belousov-Zhabotinsky, come modelli della dinamica neuronale. L’intelligenza Artificiale Chimica si avvicinerà sempre più alla capacità umana di prendere decisioni in situazioni complesse ed a riconoscere forme variabili, quanto più sarà in grado di elaborare logica Fuzzy. Infatti la logica Fuzzy è un buon modello dell’abilità dell’uomo di “calcolare” utilizzando le parole. Riferimenti: [1] www. Top500.org [2] L. N. de Castro, Fundamentals of natural computing: an overview. Phys. of Life Rev. 2007; 4: 1–36. [3] J. S. Albus, G. A. Bekey, J. H. Holland, N. G. Kanwisher, J. L. Krichmar, M. Mishkin, D. S. Modha, M. E. Raichle, G. M. Shepherd and G. Tononi, Science, 2007, 317, 1321. [4] C. R. Gallistel, A. King, Memory and the computational brain: Why cognitive science will transform neuroscience. New York, Blackwell/Wiley; 2009. [5] P. L. Gentili, Small Steps towards the Development of Chemical Artificial Intelligent Systems. RSC Adv. 2013; 3: 25523-25549. Pier Luigi Gentili. Docente di “Indagini di Sistemi Complessi” presso il Dipartimento di Chimica, Biologia e Biotecnologie dell’Università di Perugia, possiede la Laurea in Chimica ed il Dottorato in Scienze Chimiche, conseguiti entrambi presso l’Università di Perugia. Nella sua ricerca si occupa di Complessità, Caos, Intelligenza Artificiale Chimica, logica Fuzzy, Fotochimica ed Energia solare. Attualmente lavora presso il Gruppo di Fotofisica e Fotochimica dell’Università di Perugia. Ha lavorato anche presso il “Gruppo di Biologia Digitale” dell’University College of London (UK), il “Gruppo di Dinamica Non-lineare” della Brandeis University (MA, USA), il “Laboratorio Europeo di Ottica Nonlineare” (LENS) di Firenze, il “Centro per le Scienze Fotochimiche” della Bowling Green State University (OH, USA) ed il “Laboratorio di Chimica e Fotochimica Computazionale” dell’Università di Siena. scienza 15 gennaio 2014 Nuove immagini e scoperte sensazionali da Curiosity su Marte di Andrea Billi Yellowknife Bay, Gale Crater, Marte. Fotomosaico delle immagini provenienti dal rover Curiosity. Immagine tratta da Grotzinger et alii, 2013, Sciencexpress, doi: 10.1126/science.1242777. Le nuove immagini ed i nuovi dati inviati da Marte dal rover Curiosity sono sensazionali. Le evidenze scientifiche indicano che l’area investigata, denominata Yelloknife Bay nel Gale Crater, potrebbe aver ospitato in un passato remoto un lago nel quale la vita di specie quali i microbi chemolitoautotrofi era teoricamente possibile. Gli organismi chemolitoautotrofi sono in grado di sfruttare le reazioni inorganiche redox come fonte di energia e la CO2 come fonte di carbonio necessaria per la sintesi della materia organica. Fin dall’inizio, circa 16 mesi fa, l’obiettivo principale del rover Curiosity all’interno del Gale Crater è stato quello di cercare le evidenze di una vita marziana vecchia di circa 4 miliardi di anni. Si tratta di scoprire le evidenze fossili di forme di vita minuscole, molecolari. Per fare questo, gli scienziati, attraverso Curiosity, hanno individuato degli strati rocciosi di possibile origine lacustre. Si tratterebbe di rocce formatesi dalla compattazione e cementazione di minuscoli granelli di roccia, di pulviscolo e di materia organica depositatisi sul fondo di un antichissimo lago. Tali strati potrebbero contenere le evidenze fossili di un’antica vita microbica all’interno del lago. Per cercare tali evidenze, Curiosity è stato attrezzato con strumenti analitici ad hoc. Il rover ha raccolto della polvere marziana e l’ha confrontata con la polvere proveniente da piccoli carotaggi effettuati all’interno degli strati rocciosi di possibile origine lacustre. I campioni sono stati trattati e scaldati ad alta temperatura per registrarne le emissioni di CO2. Le emissioni provenienti dagli strati lacustri hanno prodotto una quantità di CO2 maggiore di quella raccolta dal riscaldamento della polvere marziana. “Potrebbe trattarsi di combustione di materia organica” ha affermato uno degli scienziati del team che conduce le analisi. Le evidenze non sono ancora conclusive, ma la strada è quella giusta per cercare antiche forme di vita su Marte. I risultati sensazionali sono stati appena pubblicati in sette articoli scientifici sulla prestigiosa rivista Science. Andrea Billi, geologo, dal 2008 è ricercatore a Roma presso il Consiglio Nazionale delle Ricerche (CNR). Si è laureato in Scienze Geologiche presso la Sapienza Università di Roma (1994) ed ha poi conseguito un dottorato in Geodinamica presso l’Università Roma Tre (2001). È autore di più di cinquanta articoli scientifici (www.andreabilli.com) a carattere sia nazionale sia internazionale ed ha collaborato con numerose istituzioni di ricerca italiane e straniere. Prima di lavorare presso il CNR, ha lavorato a lungo presso l’Università Roma Tre. È un ricercatore versatile che si occupa di numerose tematiche di ricerca tra cui terremoti, vulcani, tsunami, frane e fluidi idrotermali. Il suo maestro è stato Renato Funiciello, indimenticato professore di geologia a Roma. 5 scienza 15 gennaio 2014 Una tazza di caffè? Gli effetti benefici della bevanda in numerose patologie umane di Salvatore Sutti Il caffè è una preparazione, dall’aroma e dal sapore inconfondibile, entrata a far parte della dieta umana già a partire dal XV secolo e viene prodotta a partire dai semi tostati della pianta del caffè. Nelle sue varie forme è una della bevande più consumate nel mondo, grazie alle sue proprietà moderatamente stimolanti, all’aroma ed al gusto. Evidenze sperimentali suggeriscono che il consumo di caffè abbia effetti benefici in numerose patologie umane, infatti è stato descritto come bevitori cronici di caffè possano avere un rischio ridotto di sviluppare diabete di tipo 2, calcolosi biliare sintomatica, malattia di Parkinson, patologie cardiache ed ictus. Le patologie epatiche croniche rappresentano uno dei maggiori problemi di salute negli Stati Uniti, dove costituiscono la dodicesima causa di morte, tanto è vero che, solo nel 2009 si sono registrati 30 000 decessi ad esse imputabili. La fibrosi epatica così come la cirrosi sono la conseguenza di processi rigenerativi continui in risposta a stimoli nocivi, quali l’infezione da parte del virus dell’epatite B, C e l’abuso cronico di alcol. La cirrosi costituisce la fase terminale ed irreversibile della reazione fibrotica e si caratterizza per la compromissione della architettura e della funzionalità epatica. Il processo fibrotico/cirrotico porta alla formazione di noduli a livello del fegato ed all’accumulo di proteine della matrice extracellulare tra cui collagene I-III, proteoglicani e glicoproteine. Nelle epatopatie croniche la perdita della funzionalità epatica inizia con una cascata di eventi che portano, dapprima al reclutamento di cellule infiammatorie, poi alla attivazione delle cellule epatiche stellate capaci, a loro volta, di pro6 durre collagene. Poiché la cronicizzazione della fibrosi/cirrosi può evolvere verso lo sviluppo di carcinoma epato-cellulare (HCC), i ricercatori hanno concentrato tutti i loro sforzi per la messa a punto di strategie volte ad inibire la deposizione di matrice extracellulare e lo sviluppo di neoplasie. Negli ultimi 20 anni numerosi scienziati hanno focalizzato la loro attenzione sui potenziali effetti benefici del caffè nei confronti di varie malattie epatiche. Nel 1992, Klatsky e Amstrong hanno descritto l’esistenza di una relazione inversa tra consumo di caffè e l’insorgenza di cirrosi alcolica, in particolare hanno evidenziato come i soggetti che consumavano 4 o più tazze di caffè al giorno mostravano 1/5 del rischio di cirrosi rispetto ai non bevitori di caffè. Queste osservazioni suggerirebbero un potenziale effetto epato-protettivo del caffè nei soggetti che abusano cronicamente di alcol. Inoltre, Modi e collaboratori hanno descritto come un’assunzione di caffè superiore alle due tazze al giorno era associata ad un tasso di fibrosi epatica più basso in pazienti affetti da epatopatie croniche. Nel mondo più di 180 milioni di persone hanno una infe- scienza zione cronica da virus dell’epatite C (HCV) e circa 350.000 persone muoiono ogni anno di complicanze ad essa correlate, tra cui cirrosi scompensata e/o HCC. Studi caso controllo hanno dimostrato come il consumo di caffè possa determinare un rischio ridotto di epatocarcinoma nei pazienti affetti da HCV. Non solo, Catalano e colleghi hanno evidenziato una associazione inversa tra l’assunzione di caffè e l’incidenza di steatosi epatica (NAFLD), obesità ed insulino-resistenza. Analisi sperimentali volte ad individuare i meccanismi molecolari alla base degli effetti benefici del caffè hanno principalmente rivolto l’attenzione verso le sue proprietà antiossidanti. Tuttavia, nella comunità scientifica è ancora in atto un ampio dibattito al fine di identificare quali siano i mediatori molecolari responsabili degli effetti protettivi di questa bevanda: il caffè di per sé, la caffeina, l’acido clorogenico, i diterpeni cafestol e kahweol? Il caffè è composto da più di 100 molecole che potrebbero mediare l’azione epato-protettiva, altresì non è possibile escludere un’azione sinergica tra più principi attivi. Altri punti oscuri rimangono ancora da decifrare: miscele diverse, gradi di tostatura, metodi di preparazioni (filtrato, non filtrato, espresso) possono influenzare le proprietà “terapeutiche” del caffè? Sebbene sia chiaro che il caffè abbia un effetto salutare sul fegato, la mancanza di una standardizzazione della dimensione della tazza (contenuto, volume) tra i diversi studi descritti sinora rende difficile identificare quale sia la quantità giornaliera di caffè necessaria 15 gennaio 2014 affinché si manifestino, diciamo così, i suoi “prodigi”. Fonti bibliografiche: Coffee and Non-Alcoholic Fatty Liver Disease: Brewing evidence for hepatoprotection? Chen S, Teoh NC, Chitturi S, Farrell GC.J Gastroenterol Hepatol.2013 Nov 7. doi: 10.1111/jgh.12422. Impact of coffee on liver diseases: a systematic review. Saab S, Mallam D, Cox Ii GA, Tong MJ. Liver Int. 2013 Salvatore Sutti. Laurea Magistrale in Scienze Biologiche Applicate, Dottorato di Ricerca in Medicina Molecolare. Aug 12. doi: 10.1111/liv.12304. Prevention of rat liver fibrosis and carcinogenesis by coffee and caffeine. Furtado KS, Polletini J, Dias MC, Rodrigues MA, Barbisan LF. Food Chem Toxicol.2013 Nov 22. doi:pii: S0278-6915(13)00756-4. 10.1016/j.fct.2013.11.011. Association of coffee and caffeine consumption with fatty liver disease, nonalcoholic steatohepatitis, and degree of hepatic fibrosis. Molloy JW, Calcagno CJ, Williams CD, Jones FJ, Torres DM, Harrison SA. Hepatology. 2012 Feb; 55 (2):429-36. 7 scienza 15 gennaio 2014 Vita su Marte e dintorni di Domenico Ridente E’ di qualche giorno fa la notizia che Curiosity, il “robottino” in missione su marte, si sia imbattuto in depositi argillosi che, secondo gli esperti, si sarebbero originati in un antico lago dalle caratteristiche fisico-chimiche adatte allo sviluppo di organismi microbici. Il posto giusto dove cercare tracce di vita, dunque…che sia la volta buona? Può darsi, ma mi verrebbe da dire agli astrobiologi, e ai tanti ottimisti col fiato sospeso: “signori, vi presento Charles Robert Darwin”. Mi sorprende, infatti, la scarsa considerazione che l’astrobiologia riserva a una delle poche teorie scientifiche che sia riuscita ad attraversare indenne 150 anni di critiche e verifiche: la teoria evolutiva di Darwin. L’idea di evoluzione è avversa al nostro senso comune, più di quanto lo sia, ad esempio, quella di un campo di forza invisibile che induca una mela a cadere dall’albero. Ma l’evoluzione non è un fenomeno meno reale della forza di gravità. E il paradigma che ne spiega il meccanismo, la selezione naturale, quand’anche non fosse l’unico principio agente, è l’unico finora plausibile. Come hanno spiegato, tra gli altri, Monod, Jacob e Gould, il caso e la contingenza sono i termini principali dell’equazione che lega la selezione naturale all’evoluzione. Ma quanto può essere fondata un’equazione che si regge su caso e contingenza? A giudicare da una lapidaria affermazione di Dobzhansky, uno degli artefici della versione moderna della teoria di Darwin, è fondata e come. Secondo Dobzhansky “nulla ha senso in biologia se non alla luce dell’evoluzione”. E’ difficile capire il senso di questa esternazione, al contempo un po’ banale e un po’ pretenziosa, se non si comprende appieno il significato della teoria darwiniana. O, peggio ancora, se la si accetta per fede, senza quel travaglio logico necessario a cogliere le 8 implicazioni in merito alla “vita possibile”. Ma se Dobzhansky non ha preso un abbaglio, gli ambiziosi e costosi programmi per la ricerca della vita su altri pianeti dovrebbero basarsi su un presupposto coerente con il paradigma evolutivo attualmente accreditato. Un tale presupposto non è stato però formulato. Del “lungo ragionamento” di Darwin, l’astrobiologia ha fatto suo soltanto (e in modo improprio) il concetto di “convergenza evolutiva”, ritenendo ciò sufficiente a presumere che un batterio possa originare, per evoluzione darwiniana, più volte e distintamente sulla Terra e su Marte. Darwin una volta si definì “cappellano del diavolo”, alludendo alla contrapposizione tra la visione del mondo che scaturiva dalla sua idea di evoluzione e quella improntata sul dio creatore. Penso che accetterebbe di essere accostato a un umile “oste”, permettendomi così di affermare che gli astrobiologi, forse, stanno facendo “i conti senza l’oste”. Se la convergenza evolutiva è il principio vitale universale per cui l’astro- biologia “ha senso alla luce dell’evoluzione”, allora credo sia ancora più lecito cercare la vita oltre la Terra in base al principio che ha ispirato il primo astrobiologo della storia, Giordano Bruno. Egli credeva che dio fosse creatore e al tempo stesso parte integrante della materia, e che in un universo così pervaso di essenza creatrice non sarebbe stato logico pensare che la Terra soltanto potesse aver beneficiato della creazione della vita. Una meravigliosa visione questa, di certo più confortante di quella di un’evoluzione in balia delle onde del caso lungo le rotte della contingenza, imprevedibile timoniere che, seguendo snodi improbabili, traccia percorsi evolutivi più unici che rari, persino a fronte dello sterminato numero di pianeti, stelle e universi possibili. “Infinite forme bellissime” chiosò Darwin riferendosi ai prodotti dell’evoluzione. Quale delusione per gli astrobiologi, e quale grande responsabilità per tutti noi se, davvero, di una tale infinita bellezza, la Terra soltanto avesse beneficiato. Domenico Ridente è Ricercatore all’Istituto di Geologia Ambientale e Geoingegneria (IGAG) del CNR di Roma. Collabora con Università Sapienza, presso cui è titolare dell’insegnamento “Geologia dei Mari Italiani” (Laurea Magistrale in Scienze del Mare e del Paesaggio Naturale). Svolge attività di ricerca in geologia marina, con particolare interesse per i temi di stratigrafia, paleoclima, geomorfologia e rischio geologico. Ha svolto campagne oceanografiche in Mediterraneo e in Antartide nell’ambito di progetti di ricerca italiani e internazionali. Attualmente è Responsabile Scientifico dell’Azione “Pericolosità Geologiche dei Mari Italiani”, nell’ambito del Progetto RITMARE (Ricerca Italiana per il Mare – CNR e MIUR). scienza 15 gennaio 2014 “Buchi-verme” ed “entanglement” sulla strada dell’unificazione delle forze di Paolo Di Sia La fisica teorico-speculativa ha scoperto un collegamento tra due realtà matematiche molto particolari studiate nella fisica teorica delle alte energie: gli “wormholes” (buchiverme) e un fenomeno quantistico chiamato “entanglement” (intreccio). Ciò potrebbe aiutare i fisici nello storico tentativo di conciliare i due pilastri della fisica moderna, ossia la meccanica quantistica e la teoria generale della relatività di Einstein. L’entanglement collega particelle quantistiche in modo tale che le azioni effettuate su una di esse influenza immediatamente l’altra, oltrepassando principi attualmente fondamentali, come quello della velocità finita della luce. Due particelle intrecciate in tal modo risultano completamente correlate, anche se sono ad anni-luce di distanza [1]. Gli wormholes sono una delle spettacolari previsioni della teoria generale della relatività di Einstein, la quale descrive come gli oggetti massivi deformano lo spazio e il tempo, o più in generale lo spaziotempo, creando gli effetti che chiamiamo gravità. Se un oggetto è dotato di una grande massa, può creare una sorta di imbuto nello spaziotempo, detto buco nero, da cui nemmeno la luce può sfuggire. In linea di principio, due buchi neri separati potrebbero connettersi come due trombe disposte una opposta all’altra, creando in tal modo una scorciatoia attraverso lo spazio-tempo chiamata “wormhole” [2]. A prima vista entanglement e wormholes sembrerebbero offrire un modo per aggirare la massima di Einstein secondo cui nulla può viaggiare a velocità superiori rispetto a quella della luce. Di fatto però l’entanglement non può essere utilizzato per inviare segnali più veloci della luce per l’impossibilità di controllo della misurazione in uscita della prima particella, problema che si riflette sull’impossibilità di controllo dello stato di quella lontana. Allo stesso modo il passaggio attraverso un wormhole non rende possibile sfuggire al buco nero all’altra estremità. Nonostante quanto detto, sembra tuttavia esserci un’interessante connessione tra questi due concetti. Juan Maldacena, teorico presso l’Institute for Advanced Study di Princeton (New Jersey) e Leonard Susskind, teorico presso la Stanford University di Palo Alto (California) hanno immaginato di “entanglare” gli stati quantistici di due buchi neri, pensando poi di allontanarli. Quando questo accade, si forma tra i due buchi neri un wormhole; tale connessione con un wormhole dovrebbe anche essere possibile tra due particelle quantistiche ordinarie, come i quark, che formano protoni e neutroni. Kristan Jensen dell’Università di Victoria (Canada) e Andreas Karch dell’Università di Washington (Seattle) hanno immaginato una coppia “entanglata” quark-antiquark nell’ordinario spazio tridimensionale [3]. I due quark si allontanano reciprocamente a velocità prossime a quella della luce, in modo che diventi irrealizzabile il passaggio di segna9 scienza 15 gennaio 2014 li da uno all’altro. In base al “principio olografico”, essi suppongono che lo spazio tridimensionale in cui i quark risiedono sia un confine ipotetico di un mondo a 4 dimensioni. In questo spazio tridimensionale la coppia entangled di quark è collegata da una sorta di stringa concettuale, ma nello spazio a 4 dimensioni la stringa diventa un wormhole. Julian Sonner del Massachusetts Institute of Technology di Cambridge, basandosi sul lavoro di Karch e Jensen, ha immaginato una coppia quark-antiquark che viene posta in un forte campo elettrico, che accelera le particelle in direzioni opposte [4], determinando che le particelle entangled nel mondo tridimensionale sono collegate da un wormhole nel mondo a 4 dimensioni. Il wormhole e la coppia entangled non vivono nello stesso spazio, ma sono matematicamente equivalenti. Il “principio olografico”, prima 10 menzionato, è stato creato da Maldacena, fisico teorico argentino; esso attesta che una teoria quantistica con gravità in un dato spazio è equivalente ad una teoria quantistica senza gravità in uno spazio con una dimensione in meno, il quale costituisce il bordo dello spazio originario [5]. Detto in altri termini, i buchi neri all’interno dello spazio a 4 dimensioni e il wormhole che li collega sono matematicamente equivalenti alle loro “proiezioni olografiche” esistenti sul confine tridimensionale. Tali proiezioni olografiche risultano particelle che seguono le leggi della meccanica quantistica, ma in assenza di gravità, più una corda (stringa) che le collega. L’intuizione di collegare entanglement con wormholes sembra davvero un grande passo in avanti, anche se Susskind e Maldacena notano che in entrambi i lavori dei colleghi ([3,4]) le particelle quantistiche originali risiedono in uno spazio senza gravità. In un modello tridimensionale semplificato, privo di gravità, non possono esserci buchi neri e/o wormholes; la connessione ad un wormhole in uno spazio di dimensione superiore potrebbe così essere solo una semplice analogia matematica. Karch e colleghi ritengono tuttavia che i loro calcoli possono essere un primo importante passo verso la verifica della teoria di Maldacena e Susskind. Il loro modello senza gravità dà una concreta realizzazione dell’idea che la geometria di wormhole e l’entanglement possono fornire differenti manifestazioni di una stessa realtà fisica. Riferimenti bibliografici: 1.http://en.wikipedia.org/wiki/Quant um_entanglement 2.http://en.wikipedia.org/wiki/Worm hole 3. K. Jensen and A. Karch, Holographic Dual of an Einstein-Podolsky-Rosen Pair has a Wormhole, Phys. Rev. Lett. 111, 211602, 5 pp., 2013 4. J. Sonner, Holographic Schwinger Effect and the Geometry of Entanglement, Phys. Rev. Lett. 111, 211603, 4 pp., 2013 5.http://en.wikipedia.org/wiki/Hologr aphic_principle Paolo Di Sia: Bachelor in metafisica, laurea in fisica teorica, dottorato di ricerca in modellistica matematica applicata alle nanobiotecnologie. Principali interessi scientifici: nanofisica classica e quantorelativistica, fisica teorica, fisica alla scala di Planck, filosofia della mente, econofisica, filosofia della scienza. Autore di 81 articoli su riviste nazionali e internazionali (pubblicati e "under revision" al 20 Ottobre 2013), di 2 capitoli di libri scientifici internazionali, di 3 libri di matematica (quarto in preparazione), revisore di 2 libri di matematica per l'universita'; in preparazione un capitolo per un'enciclopedia scientifica internazionale. scienza 15 gennaio 2014 Oltre la paura della "valutazione". Si può? di Maria Grazia Riva e Viviana Vinci Come avviene la valutazione formale e informale nei servizi educativi per adolescenti? Quali sono i modelli e gli strumenti di valutazione in atto? È possibile ri-pensarli criticamente per valutare “pedagogicamente” il lavoro educativo? A partire da tali interrogativi, sono stati presentati e condivisi, in occasione di un Seminario presso l’Università degli Studi di MilanoBicocca, i risultati della ricerca "Politiche e culture della valutazione: tra le pratiche quotidiane informali e le procedure codificate. Studio di caso di servizi educativi per l'adolescenza". La ricerca, avviata nel 2011 e proseguita per la durata di 2 anni, è stata coordinata da Maria Grazia Riva dell’Università di Milano Bicocca e si colloca all’interno di una rete di ricerca nazionale. Questa rete è costituita da 5 Università italiane, impegnate, come unità locali, nello svolgimento di ricerche affini sulle pratiche valutative in diversi contesti educativi e formativi; si tratta, oltre all’Università di Milano-Bicocca, dell’Università Cattolica di Milano, Pavia, Trento e Verona . L’ipotesi che sottende la ricerca è che la valutazione avvenga sempre in ogni gesto del quotidiano: esistono delle pratiche sommerse e invisibili a chi le adopera, indipendenti dai protocolli e dalle procedure di valutazione codificate che, pur essendo agite, restano implicite, inaccessibili alla consapevolezza e alla riflessione di chi opera nei servizi, non documentate e codificate. Diversi gli scopi della ricerca, fra cui: analizzare, in primis, i modelli di valutazione presenti nelle normative ufficiali, nazionali e regionali, dedicati alla valutazione dei servizi educativi per adolescenti, individuandone gli elementi espliciti ed impliciti; mettere a confronto, in secondo luogo, i dati emergenti dall’analisi della documentazione codificata con i dati raccolti sul campo, relativi alle concrete pratiche di valutazione messe in atto in due servizi per adolescenti nella realtà lombarda. La ricerca è strutturata come "collective case study", ossia come studio in profondità di più realtà, in questo caso rappresentative di due tipologie d'intervento presenti nel territorio lombardo: 1) servizi “tradizionali”, consolidati, come le Comunità residenziali per minori; 2) servizi definiti “innovativi”, come i Servizi sperimentali, volti a prevenire e recuperare situazioni di dispersione scolastica e ad orientare ad una scelta lavorativa ragazzi e ragazze “inattivi”, fuori dal circuito scolastico e privi di occupazione. Il protocollo di indagine ha previsto sessioni osservative, interviste, focus group, un percorso clinicopedagogico di riflessione sui significati e sulle pratiche di valutazione, incontri di approfondimento della documentazione della valutazione formale del servizio, incontri di restituzione dei risultati della ricerca. Sono stati approfonditi, in particolare, rappresentazioni e significati della valutazione da parte degli operatori nei servizi, relative ad alcuni livelli specifici individuati nel corso dell’indagine: la valutazione d e i / l l e ragazzi/e, del lavoro educativo, del servizio e dell’équipe (attraverso brainstorming, strumenti narrativi, ludici e proiettivi, scritture collettive, momenti di rielaborazione e riflessione guidata). Sono stati utilizzati approcci ispirati al metodo della ricerca partecipata, con un taglio clinico-pedagogico, attraverso metodologie di ricerca ‘attive', in grado di far emergere ciò che è più significativo per gli operatori coinvolti nella ricerca, lavorando sulle pratiche quotidianamente agite. Attraverso la costituzione di una rete di ricerca partecipata fra ricercatori e operatori dei servizi educativi, il progetto di ricerca ha inteso co-costruire un percorso per individuare modelli, pratiche e strumenti di valutazione adeguati alla complessità dei servizi educativi; decostruire il significato del concetto “valutazione”, associato nell'immaginario collettivo alla paura del giudizio, per esplorare altre connotazioni positive che essa può assumere, come risorsa; avviare processi 11 scienza 15 gennaio 2014 culturali, trasformativi e riflessivi in grado di proporre una cultura pedagogica della valutazione del lavoro educativo, più efficace anche per una sua documentazione, rappresentazione e comunicazione all’esterno. Ciò significa, in sintesi, invertire la direzione della cultura valutativa in ambito educativo, da strumento di controllo, accreditamento e rendicontazione burocratica, a strumento soprattutto utile ai servizi stessi, agli enti del territorio, agli interlocutori istituzionali. All'inaridimento delle pratiche valutative solo misurative o ridotte ad adempimento amministrativo, lontano da una prospettiva capace di entrare in dialogo con il senso dell'agire, si è contrapposta la definizione di una specifica cultura e politica della valutazione, basata su una teoria locale, cioè costruita insieme agli specifici attori di un determinato contesto sociale e territoriale (gli operatori e i dirigenti dei diversi servizi del territorio): una valutazione pensata come un insieme di attività, volte non a una mera certificazione, ma a una produzione di conoscenza, capace di indurre miglioramenti nella pratica lavorativa e di sviluppare processi autovalutativi nei contesti professionali. La ricerca ha contribuito a produrre conoscenza sullo stato attuale delle culture e dei modelli della valutazione, ha permesso di esami- nare criticamente le pratiche concrete di valutazione e ha prodotto nuovi orientamenti per la valutazione nei servizi educativi per minori. È stato possibile, ad esempio, sviluppare la consapevolezza degli operatori sulla necessità di costruire nuovi strumenti di valutazione che, Maria Grazia Riva. Professoressa Ordinaria. Pedagogia Generale, Dipartimento di Scienze Umane per la Formazione ‘Riccardo Massa’, Università di Milano-Bicocca Viviana Vinci. PHD e Assegnista di ricerca, Università di Bari 12 per un verso, esprimano la qualità del lavoro educativo nelle sue dimensioni implicite, quotidiane, emozionali (routine, valori, processi, stili, dinamiche, trasformazioni) e, allo stesso tempo, siano comprensibili anche da stakeholders esterni. I risultati hanno mostrato la complessità dei processi valutativi, in cui coesistono trasversalmente diversi soggetti, oggetti, contesti, livelli, culture, modelli, strumenti e procedure. È emersa la percezione da parte degli operatori di un valutarsi reciprocamente e quotidianamente nel lavoro educativo, di sentirsi parte di un Servizio che valuta gli altri e, allo stesso tempo, è “oggetto di valutazione” altrui, all’interno di un gioco complesso di intrecci, di rapporti e di attori coinvolti nel processo valutativo. Si è evinta la difficoltà di "dire", documentare e valutare le pratiche educative, poichè il lavoro educativo – presentato come complesso e contestualizzato, costituito da elementi eterogenei, sfuggenti e difficili da riconoscere, nominare e documentare – è poco visibile sia all’interno che all’esterno dei servizi socio-educativi. È emersa la difficoltà degli operatori dei servizi ad autovalutarsi e a riconoscere e nominare alcune dimensioni della valutazione, faticose a vedersi nelle prassi quotidiane e che, pur essendo inosservate, implicite e inconsapevoli, producono effetti sullo svolgimento delle attività del servizio. scienza 15 gennaio 2014 Terapia chirurgica mini-invasiva dell’emicrania: tecnica personale di Edoardo Raposio, Giorgia Caruana, Elena Boschi, Nicolò Bertozzi, Eugenio Grignaffini Riassunto Recenti teorie relative alla patogenesi dell’emicrania hanno confermato che essa è correlata ad un meccanismo di ipereccitabilità e infiammazione neuronale dovuto alla compressione di alcuni nervi periferici cranio-facciali da parte di strutture vascolari o muscolari circostanti, oppure in seguito all’infiammazione dei turbinati e/o dei seni nasali e paranasali, e che questi trigger points possono essere eliminati mediante un intervento chirurgico. In questo studio riportiamo l’eliminazione di questi trigger points mediante la decompressione chirurgica dei nervi Sovratrocleare e Sovraorbitario (branche periferiche del nervo trigemino) effettuata attraverso miotomie selettive effettuate per via endoscopica videoassistita dei muscoli iperattivi del gruppo glabellare: Corrugatore, Depressore del Sopracciglio e muscolo Procero. La decompressione chirurgica di questi nervi è effettuata mediante una tecnica innovativa minimamente invasiva, utilizzando un unico strumento chirurgico, ovvero un endoscopio specificamente modificato, con l’ausilio dell’anestesia locale ed un’unica incisione per l’accesso chirurgico, al fine di ridurre l’invasività della tecnica endoscopica oggi correntemente utilizzata. Ventidue pazienti che soffrivano di emicrania cronica senz’aura sono stati sottoposti alla procedura endoscopica video-assistita di miotomie selettive dei muscoli precedentemente citati. Di questi 22 pazienti inclusi nello studio (in un range di età dai 18 ai 72 anni), 18 (81.8%) hanno riportato un response positivo all’intervento: 8 (36.4%) hanno riferito la completa eliminazione degli attacchi di emicrania, 10 (45.4%) hanno riferito un significativo miglioramento (almeno il 50% di riduzione nell’intensità, nella frequenza e/o nella durata dei loro attacchi) e 4 (18,2%) non hanno ottenuto alcun beneficio. Dal momento che l’intervento non ha causato alcuna seria complicanza o effetto collaterale, esso può essere raccomandato ai pazienti che soffrono di emicrania cronica non responsiva al trattamento farmacologico. Inoltre, la procedura minimamente invasiva descritta, basandosi sull’utilizzo di un singolo strumento chirurgico, è semplice, veloce ed economica, riducendo per di più il numero delle cicatrici postoperatorie da 3 a 1. Introduzione Recenti teorie relative alla patogenesi dell’emicrania hanno confermato che essa è correlata ad un meccanismo di ipereccitabilità e infiammazione neuronale dovuto alla compressione di alcuni nervi periferici cranio-facciali da parte di strutture vascolari o muscolari circostanti, oppure in seguito all’infiammazione dei turbinati e/o dei seni nasali e paranasali, e che questi trigger points possono essere eliminati mediante un intervento chirur- gico. Il meccanismo periferico della patogenesi dell’emicrania senz’aura fu proposto per la prima volta da Guyuron et al.1, mostrando che i pazienti che soffrivano di questa patologia, quando appropriatamente selezionati, potevano beneficiare dell’eliminazione o del miglioramento dei loro attacchi dopo l’intervento. Sulla base dei riscontri dei pazienti la cui emicrania era scomparsa dopo l’intervento di ringiovanimento della regione frontale, Guyuron2 per primo riportò l’associazione tra la resezione del m u s c o l o Corrugatore d e l Sopracciglio e l’eliminazione o il significativo miglioramento negli attacchi di emicrania, con un tasso di successo del 79.5%. Anche Dirnberger and Becker3 confermarono questi risultati, riportando l’eliminazione o il significativo miglioramento in 41 dei loro 60 pazienti sottoposti all’intervento. Nel 2008 Poggi et al.4 confermarono i risultati precedentemente pubblicati utilizzando il protocollo di Guyuron, confermando l’ipotesi secondo cui l’ipereccitabilità neuronale dovuta alla compressione dei nervi periferici cranio-faciali inneschi la cascata emicranica. La procedura chirurgica decritta dai precedenti Autori5,6, solitamente effet13 scienza 15 gennaio 2014 tuata sotto anestesia generale, attualmente si basa sull’utilizzo di un numero di incisioni per l’accesso chirurgico che va dalle 3 alle 5, di dimensioni pari a 1 cm, posizionate 1 cm posteriormente alla linea anteriore del cuoio capelluto. Di queste incisioni, una è effettuata lungo la linea dell’emi-scalpo e le altre temporalmente, mediante l’utilizzo di due distinti strumenti chirurgici: un endoscopio e un dissettore. A partire da Giugno del 2011, presso l’Unità Operativa “Chirurgia della Cute e degli Annessi, Mininvasiva, Rigenerativa e Plastica” dell’Azienda Ospedaliero-Universitaria di Parma, abbiamo utilizzato un’innovativa tecnica endoscopica minimamente invasiva di miotomie selettive, effettuate grazie ad un endoscopio specificamente modificato e senza l’ausilio dell’anestesia generale, al fine di ridurre l’invasività della correntemente utilizzata tecnica chirurgica. siti trigger degli attacchi. E’ stato poi chiesto ai pazienti di compilare un questionario della cefalea prima e sei mesi dopo l’intervento, per valutare l’efficacia di questa procedura chirurgica e al fine di ottenere un valido confronto di risultati del trattamento chirurgico con i protocolli precedentemente utilizzati. Il consenso informato è stato firmato da tutti i pazienti prima dell’intervento. Pazienti e Metodi Selezione dei Pazienti I pazienti in buono stato di salute, tra i 18 e i 75 anni, che soffrivano di un’emicrania cronica senz’aura, una cefalea di tipo tensivo cronico o una cefalea cronica quotidiana, con un numero di attacchi al mese superiore a 15, sono stati considerati idonei all’intervento. Sono stati esclusi dal trattamento invece pazienti con cefalea a grappolo, cefalea tensiva episodica, cefalee secondarie e i pazienti che presentavano un disturbo psichiatrico maggiore. Tutti i pazienti erano stati precedentemente diagnosticati da neurologi certificati, come evidenziato nei criteri descritti dalla Classificazione Internazionale delle Cefalee (ICHD-II)7. Essi sono poi stati sottoposti ad una attenta valutazione per confermare la frequenza, la durata, l’intensità degli attacchi e per identificare i principali Procedura Chirurgica Tutte le procedure sono state eseguite dallo stesso chirurgo (E.R.) sotto anestesia locale come interventi in one-day surgery. Una volta posizionato il paziente in posiFig. 2: Unica incisione (2 cm) cutanea di accesso chirurgizione supina e il co endoscopico lungo la linea dell’emi-scalpo. capo in posizione neutrale, sono stati identificati i punti di repere dei nervi perife- regione glabellare, lungo la linea emirici da trattare. Il disegno preoperato- pupillare (repere del n. Sovraorbitario) rio, caratterizzato da due linee verticali e 1 cm mediamente ad essa (repere del per ciascun lato lungo la proiezione del n. Sovratrocleare) bilateralmente (Fig. 1). decorso dei nervi Sovratrocleare e Fig. 1. Disegno preoperatorio: identiSovraorbitario, è stato effettuato nella 14 Fig. 1. Disegno preoperatorio: identificazione dei punti di repere dei nervi sovraorbitario e sovratrocleare. scienza e sodio bicarbonato all’8.4%. Sebbene in passato la procedura effettuata presso la nostra UO prevedesse l’utilizzo di due incisioni nello scalpo di 2 cm, posizionate 1 cm posteriormente alla linea anteriore del cuoio capelluto, lungo la linea emi-pupillare, il nostro approccio oggi correnteFig. 3: Nervo sovraorbitario destro liberato dalla compres- mente utilizzato prevede l’utilizzo sione muscolare. di una singola incisione di 1 cm lungo la linea dell’emi-scalpo, sempre 1 cm posteriormente alla linea anteriore del cuoio capelluto (Fig.2). Fig. 2: Unica incisione (2 cm) cutanea di accesso chirurgico endoscopico lungo la linea dell’emi-scalpo. Dopo la sezione della galea aponeurotica sono stati posiFig. 4: Endoscopio utilizzato per eseguire la procedura zionati tre fili da minimamente invasiva di miotomie selettive. sutura (nylon 30) per lato nella regione sopraccificazione dei punti di repere dei nervi liare, medialmente e lateralmente ai sovraorbitario e sovratrocleare. nervi interessati, al fine di mantenere Dopo il blocco anestetico selettivo sollevata la cute frontale durante la bilaterale dei nervi Sovratrocleare e procedura endoscopica per visualizzaSovraorbitario, l’intera regione frontale re ed esporre in modo ottimale i nervi è stata infiltrata con carbocaina all’1% e i muscoli glabellari. 15 gennaio 2014 Sono state quindi effettuate le miotomie selettive dei muscoli Corrugatore del Sopracciglio, Depressore del Sopracciglio e Procero per via endoscopica video-assistita, utilizzando un endoscopio modificato per decomprimere i nervi Sovraorbitario e Sovratroclea-re, che non sono stati mai danneggiati durante la procedura (Fig.3). Fig. 3: Nervo sovraorbitario destro liberato dalla compressione muscolare. L’endoscopio modificato (Fig.4) (Karl Storz, Tuttlingen, Germania) utilizzato nella procedura è costituito da un trocar di 9 mm con una tripla valvola (aria/insufflazione/aspirazione), un telescopio rigido (Hopkins) a fibre ottiche, una camicia operativa (Wittmöser) connessa con un sistema diatermico ad alta frequenza e un’ansa metallica specificatamente progettata a punta ellittica per l’elettrocauterizzazione. Fig. 4: Endoscopio utilizzato per eseguire la procedura minimamente invasiva di miotomie selettive. Completata la procedura di miotomie, sono state posizionate suture cutanee a livello delle due incisioni dello scalpo (Nylon 4-0) ed una medicazione compressiva nella regione frontale. Risultati Dei 22 pazienti inclusi nello studio (selezionati in un range di età tra i 18 e i 72 anni), 17 erano di sesso femminile e cinque di sesso maschile. Otto dei 22 pazienti (36,4%) hanno riportato una completa eliminazione della loro cefalea, 10 (45,4%) hanno riferito una riduzione di almeno il 50% in intensità e/o frequenza e/o durata degli attacchi, e quattro (18,2%) non hanno notato alcun cambiamento. L’approccio chirurgico proposto ha ottenuto risultati positivi in 18 su 22 pazienti (81,8%), confermando la validità della procedura. Questi risultati sono stati rilevati effettuando un questionario ai pazien15 scienza 15 gennaio 2014 ti a distanza di sei mesi dall’intervento. Tutti i pazienti sono stati inoltre sottoposti ad un follow-up di sei mesi, con controlli (orali o telefonici) al primo, al terzo e al sesto mese dall’intervento per verificare l’andamento degli attacchi e le variazioni nell’intensità e nella frequenza degli stessi. Eventi avversi. Tutti i pazienti hanno riferito qualche grado di parestesia frontale o occipitale, a seconda del tipo di intervento eseguito, limitato a circa due o tre mesi dopo l’intervento. Tre pazienti hanno riportato piccole (1 cm) cicatrici cutanee frontali, come risultato del danno termico nella regione dei muscoli glabellari. 16 Discussione Questo studio dimostra che le tecniche descritte hanno permesso un significativo miglioramento o l’eliminazione dei sintomi dell’emicrania/ cefalea in 18 su 22 dei pazienti (81,8%): un motivo per cui la totale guarigione non è stata ottenuta in tutti i pazienti potrebbe essere che l’operazione è stata effettuata su un singolo sito trigger dominante, che poteva non essere l’unico. La tecnica endoscopica mininvasiva utilizzata inoltre, risulta essere semplice, rapida ed economicamente efficace, basandosi sull’utilizzo di un singolo strumento, e dovrebbe teoricamente ridurre le possibilità di danno ai fasci neuro-vascolari. Questi risultati sono stati rilevati effettuando un questionario ai pazienti a distanza di tresei mesi dall’intervento: considerando che alcuni pazienti hanno mostrato un miglioramento graduale della sintomatologia, è lecito pensare che questi risultati possano ulteriormente migliorare col passare del tempo. Sarà pertanto necessario effettuare un followup a distanza di tempo maggiore dall’intervento per rielaborare i dati ottenuti e confrontarli con quelli presenti in letteratura. Nel 2011 Guyuron et al.8 avevano ottenuto una percentuale di miglioramento a distanza di cinque anni pari all’ 88% dei casi mediante gli approcci trans-palpebrale per i trigger points frontali e trans-occipitale per i trigger points occipitali (utilizzando inoltre turbinectomia/settoplastica per i trigger points intra-nasali e la resezione di una piccola parte di nervo zigomatico-temporale per i trigger points temporali) . Di questi il 29% era guarito completamente, il 59% era migliorato e il 12% non aveva mostrato alcun miglioramento8. A fronte di questi risultati vi erano però altri fattori di cui tenere conto: il 4,5% dei pazienti operati poteva incorrere in eccessivi sanguinamenti intraoperatori9, inoltre l’intervento non endoscopico è gravato da una maggior invasività; c’è infine minor compliance da parte dei pazienti quando si propone un intervento in chirurgia “open” rispetto ad un approccio di tipo endoscopico10. Lo stesso Guyuron, nel Febbraio 201311, confrontando la tecnica chirurgica trans-palpebrale e quella endoscopica, ha dichiarato che entrambe le tecniche possono garantire la rimozione di una sufficiente quantità di muscolo, in base anche all’esperienza del singolo chirurgo, ma l’ingrandimento offerto dalla tecnica endoscopica offre una miglior opportunità di preservare i nervi, di sezionare i muscoli e di visualizzare le terminazioni secondarie dei nervi, e scienza dal momento che è stato ottenuto un maggior successo nel migliorare o eliminare gli attacchi di emicrania mediante la tecnica endoscopica, essa dovrebbe pertanto essere considerata, quando anatomicamente possibile, di prima scelta12. Considerando che questi interventi non hanno portato a serie complicazioni o effetti collaterali, bensì hanno permesso l’ottenimento di un’ottima percentuale di successo, questo studio conferma che le tecniche descritte rappresentano una valida risorsa nella terapia chirurgica dell’emicrania e della cefalea tensiva croniche, minimizzando l’invasività dell’ approccio chirurgico rispetto al protocollo precedentemente utilizzato. Assieme ai dati della letteratura precedente, questi risultati mostrano la riproducibilità dell’intervento, e dal momento che non sono stati rilevati gravi effetti collaterali o eventi avversi, il valore di questo tipo di trattamento chirurgico delle cefalee è estremamente rilevante, uno strumento estremamente promettente per quanto concerne il trattamento delle patologie in oggetto in caso di farmaco-resistenza. Bibliografia 1. Guyuron B, Varghai A, Michelow BJ, Thomas T, Davis J. Corrugator supercilii muscle resection and migraine headaches. Plast Reconstr Surg. 2000; 106(2):429-34; discussion 435-7 2. Guyuron B, Kriegler JS, Davis J, Amin SB. Comprehensive surgical treatment of migraine headaches. Plast Reconstr Surg. 2005; 115(1):1-9 3. Dirnberger F, Becker K. Surgical treatment of migraine headaches by corrugator muscle resection. Plast Reconstr Surg. 2004; 114(3):652-7; discussion 658-9 4. Poggi JT, Grizzel BE, Helmer SD. Confirmation of surgical decompression to relieve migraine headaches. Plast Reconstr Surg. 2008; 122(1):115-22; discussion 123-4 15 gennaio 2014 5. Guyuron B, Tucker T, Davis J. Surgical treatment of migraine headaches. Plast Reconstr Surg. 2002; 109(7):2183-9 6. Guyuron B, Reed D, Friegler JS, Davis J, Pashmini N, Amini S. A placebo controlled surgical trial for the treatment of migraine headaches. Plast Reconstr Surg. 2009; 124(2):461-8 7. Headache Classification Committee of the International Headache Society. Classification and diagnostic criteria for headache disorders, cranial neuralgias and facial pain. Cephalgia 1988; 8 Suppl 7:1-96. 8. Guyuron B, Kriegler J, Davis J, Amini SB. Five-year outcome of surgical treatment of migraine headaches. Plast Reconst Surg. 2011; 127:603. 9. Guyuron B, Kriegler JS, Davis J, Amini SB, Comprehensive surgical treatment of migraine headaches. Plast Reconstr Surg. 2005; 115(1):1-9. 10. Niamtu J 3rd. Endoscopic brow and forehead lift: a case for new technology. J Oral Maxillofac Surg. 2006; 64(9):1464. 11. Guyuron B. Reply: outcome comparison of endoscopic and transpalpebral decompression for treatment of frontal migraine headaches. Plast Reconstr Surg. 2013; 131(2):277e-278e. 12. Liu MT, Chim H, Guyuron B. Outcome comparison of endoscopic and transpalpebral decompression for treatment of frontale migraine headaches. Plast Reconstr Surg. 2012; 129(5):1113-1119. Edoardo Raposio, MD, PhD, FICS, Giorgia Caruana, MD, Elena Boschi, MD, Nicolò Bertozzi, Eugenio Grignaffini, MD. Dipartimento di Scienze Chirurgiche, Sezione di Chirurgia Plastica, Università degli Studi di Parma. Edoardo Raposio. Responsabile della struttura semplice dipartimentale “Chirurgia della Cute e Annessi, Mininvasiva, Rigenerativa e Plastica (Dipartimento Chirurgico) dell’Azienda Ospedaliero-Universitaria di Parma. Nato a Genova nel 1965, si laurea con lode in Medicina e chirurgia nel 1991, e si specializza, sempre con lode, in Chirurgia Plastica e Ricostruttiva presso l’Università degli Studi di Genova e in Chirurgia della Mano presso l’Università degli Studi di Firenze. Dopo stage di formazione in USA e Brasile, si trasferisce all’Università di Tromso, Norvegia, dove presta attività clinico-assistenziale presso la Cattedra di Chirurgia plastica e ottiene (con lode) il titolo di Dottore di Ricerca. Presta quindi attività assistenziale a Genova, prima come dirigente medico della struttura complessa di Chirurgia Plastica dell’Istituto Nazionale per la Ricerca sul Cancro, poi come ricercatore universitario confermato presso la Cattedra di Chirurgia plastica dell’Università. Vincitore di concorso di idoneità a Professore Associato di Chirurgia Plastica presso l’Università degli Studi di Padova, si trasferisce nel febbraio 2010 presso l’Università degli Studi di Parma, dove ricopre il ruolo di Direttore della Clinica di Chirurgia Plastica (Dipartimento di Scienze Chirurgiche) e della Scuola di Specializzazione in Chirurgia Plastica, Ricostruttiva ed Estetica. Autore di oltre 320 pubblicazioni e abstract nazionali e internazionali, partecipa, in qualità di relatore o docente, a numerosi corsi e congressi, in Italia e all’estero; responsabile di molti progetti di ricerca, è vincitore di diversi riconoscimenti internazionali. 17 scienza 15 gennaio 2014 Quando a Napoli ci fu il boom della Chimica di Vincenzo Villani Accadde negli anni ’60 con l’arrivo alla Federico II del chimico Alfonso Maria Liquori. A raccontare quegli anni straordinari, ricchi di trasformazioni e di conquiste scientifiche, sono stati i proff. Vincenzo Vitagliano, Lelio Mazzarella e Guido Barone (giovani allievi a quei tempi) ed il noto giornalista scientifico (nonché chimico) Pietro Greco, nella splendida cornice dell’Istituto Italiano per gli Studi Filosofici. Il napoletano Liquori, ritornò a Napoli nel 1960 con un curriculum unico e ricco di suggestioni internazionali. Appena laureato in Chimica a La Sapienza di Roma si catapultò al Polytechnic Institute di New York e 18 quindi al Cavendish Laboratory di Cambrige, operando in un clima di grande libertà intellettuale a stretto contatto con i chimici più brillanti del tempo, spesso Nobel laureate. In questi contesti culturalmente così effervescenti, sviluppò non solo competenze specialistiche di primo ordine in campo cristallografico, macromolecolare e di chimica teorica ma una mentalità nuova, quella interdisciplinare con incursioni (come soleva chiamarle) tra diverse discipline, con la consapevolezza della necessità del superamento delle tradizionali barriere culturali, steccati più di potere che di sapere. Non fu solo grande studioso ma, anche grande organizzatore e animatore. Arrivato a Napoli nel 1960 dall’Università di Bari, per scelta lungimirante di sua eccellenza il Prof. Francesco Giordani, illustre chimico napoletano prestato ai più grandi impegni nazionali di riorganizzazione dell’industria italiana, trovò un ambiente accademico provinciale e demotivato e avviò in qualità di direttore la rifondazione dell’Istituto Chimico. Nel 1963 fu assegnato a Giulio Natta il premio Nobel per la Chimica con la scoperta dei polimeri stereoregolari, a tutt’oggi unico premio italiano per la chimica. Erano anni di grande fermento, e grazie a menti brillanti ed intraprendenti la chimica italiana si trasformò. Napoli fu protagonista di questo rinnovamento. In questo fervore, all’interno delle università venivano istituiti centri di ricerca del CNR che lavoravano in sinergia con l’accademia. All’Istituto Chimico di via Mezzocannone 4 ve ne erano due, diretti rispettivamente da Liquori e da Paolo Corradini (nel cui gruppo ho avuto il piacere di formarmi) della scuola di Natta. Le tecniche spettroscopiche, microscopiche, diffrattometriche, calorimetriche,… che diventeranno classiche metodiche di ricerca, furono praticamente avviate da zero in quegli anni. La sua visione quanto mai moderna, di integrazione delle diverse culture, portò a pionieristiche simulazioni molecolari al computer: per la prima volta, alcuni matematici furono assunti all’Istituto Chimico per sviluppare programmi di calcolo e la complessità dell’ordine molecolare e cristallino furono affrontati con successo. Fu allora che numerosi studenti dagli States vennero a conseguire il PhD a Napoli, evento mai più ripetutosi. La città divenne meta abituale di scienza premi Nobel per seminari e convegni in cui largo spazio veniva lasciato alle discussioni franche e informali fuori dai convenevoli. Napoli così diventò capitale di una piccola rivoluzione scientifica ad opera di Liquori in chimica, Edoardo Caianiello in fisica ed Adriano Buzzati Traverso in biologia. La visione di questi illustri scienziati fu quella di integrare le loro aree di ricerca per la nascita di una scienza nuova, la Biologia Molecolare. Possiamo dire che Liquori prima che chimico fu filosofo della Natura, come amava dire. Il suo approccio non voleva essere quello dello specialista che conosce quasi tutto di quasi niente (come soleva dire) ma dello scienziato alle prese con problemi complessi, che non esita a mettere in campo tutte le competenze necessarie per avviarne la soluzione, coinvolgendo specialisti di aree diverse, sviluppando metodi innovativi e utilizzando strumenti concettuali i più ampi possibili. La sua domanda fondamentale era quella che ogni vero uomo di Scienza dovrebbe sempre porsi con immutato stupore: in che modo accade ciò che accade? Come mai osserviamo proprio questa struttura, questa trasformazione e non un’altra? E’ il desiderio e il piacere di capire il carattere necessario (proprio ciò e non altro) della realtà sperimentale che osserviamo. Con questa visione unificata della scienza in mente, Liquori affrontò e 15 gennaio 2014 piantò molte milestone, dal problema della stabilità delle molecole, all’analisi conformazionale delle macromolecole biologiche e sintetiche, alla struttura molecolare dei cristalli. Utilizzando strumenti sperimentali e di calcolo che oggi apparirebbero Il Prof. Vincenzo Villani, laureato in Chimica all’Università Federico II di Napoli, è ricercatore e docente di Scienze dei Materiali Polimerici al Dipartimento di Scienze dell’Università della Basilicata. E’ autore di circa settanta pubblicazioni scientifiche e altrettante comunicazioni a convegni. Nell’ambito delle Scienze Chimiche si occupa di modellistica molecolare delle reazioni di catalisi e polimerizzazione, proprietà fisiche dei polimeri, sintesi di emulsioni polimeriche nanostrutturate. E’ impegnato in filosofia e comunicazione della Scienza (Storie di Chimica e oltre, Aracne Editrice). insufficienti, seppe intravedere la via multi-culturale nella ricerca della soluzione dei problemi complessi. In questo coraggioso originale approccio risiede la sua attualità. Questo fu Alfonso Maria Liquori, uno scienziato avanti, forse ancora avanti sui tempi, uno scienziato romantico, come l’ha definito Pietro Greco. Una visione così innovativa suscitò grandi entusiasmi ma, non mancarono resistenze e opposizioni da parte dell’accademia e della politica più conservatrici. Furono anche queste avversioni che segnarono la fine del sogno napoletano con la partenza nel 1967 di Liquori alla volta di Roma ma…questa è un’altra storia. 19 scienza 15 gennaio 2014 Luci che accompagnano o precedono i terremoti di Andrea Billi La predizione e piena comprensione dei fenomeni sismici rappresenta sicuramente un sacro Graal per la scienza. È noto da secoli che i terremoti, soprattutto quelli più forti, possano essere accompagnati se non anticipati da fenomeni particolari quali variazioni delle portate delle sorgenti acquifere, emissione di gas o addirittura strani comportamenti di comunità animali. Purtroppo, il nesso causale, ove tale sia, tra i terremoti e questi fenomeni non è ancora ben compreso. Esiste inoltre una lunga letteratura e numerose testimonianze che riguardano fenomeni luminosi comparsi prima, durante o subito dopo forti terremoti. R. Mallet, uno dei padri della moderna sismologia, catalogò e studiò a lungo i fenomeni luminosi avvenuti tra il XVII e XIV Secolo d.C. in concomitanza con forti terremoti. I. Galli, un prete italiano vissuto nel XX Secolo, ampliò tali studi riferendo di 148 terremoti associati a fenomeni luminosi tra l’89 a.C. ed il 1910 d.C. È chiaro che la piena comprensione di tali fenomeni potrebbe aprire la strada alla predizione dei terremoti anche se solo per pochi attimi. Fenomeni luminosi sono stati osservati anche in concomitanza con il terremoto de L’Aquila del 6 aprile 2009 e nei mesi precedenti sempre nel territorio aquilano. L’area sismica di Tagish Lake, Yukon, Canada, dove sono stati fotografati fenomeni luminosi associati a terremoti. Un team di geologi e geofisici canadesi ed americani ha recentemente condotto uno studio sistematico su 65 terremoti accompagnati da fenomeni luminosi in America ed Europa. I ricercatori hanno compreso che tali fenomeni sono più comuni li dove le faglie e fratture generatrici del terremoto hanno una geometria vicina alla verticale. La frizione tra le rocce nei pressi dell’ipocentro genererebbe cariche elettriche in grado di risalire lungo la crosta terrestre proprio lungo le fratture subverticali. Le correnti elettriche fluite fino alla superficie si ionizzerebbero al con- Andrea Billi, geologo, dal 2008 è ricercatore a Roma presso il Consiglio Nazionale delle Ricerche (CNR). Si è laureato in Scienze Geologiche presso la Sapienza Università di Roma (1994) ed ha poi conseguito un dottorato in Geodinamica presso l’Università Roma Tre (2001). È autore di più di cinquanta articoli scientifici (www.andreabilli.com) a carattere sia nazionale sia internazionale ed ha collaborato con numerose istituzioni di ricerca italiane e straniere. Prima di lavorare presso il CNR, ha lavorato a lungo presso l’Università Roma Tre. È un ricercatore versatile che si occupa di numerose tematiche di ricerca tra cui terremoti, vulcani, tsunami, frane e fluidi idrotermali. Il suo maestro è stato Renato Funiciello, indimenticato professore di geologia a Roma. 20 tatto con le molecole d’aria dando luogo alle improvvise luci osservate. Il fenomeno è ancora misterioso e molto rimane da capire. L’associazione con i fenomeni sismici ed in molti casi l’osservata evenienza prima dei terremoti stessi costituiscono elementi forse promettenti nel campo della previsione dei terremoti. Con il loro studio, Thériault et alii gettano nuove basi su cui avanzare in questa incerta disciplina. Articoli di riferimento: Freund, F.T., 2007. Pre-earthquake signals-Part II: Flow of battery currents in the crust. Natural Hazards and Earth System Sciences, 7, doi:10.5194/nhess-7-543-2007. Fidani, C., 2010. Natural Hazards and Earth System Sciences, 10, doi:10.5194/nhess-10-967-2010. Thériault, R., et alii, 2014, Prevalence of earthquake lights associate with rift environments, Seismological Research Letters, 85, doi: 10.1785/0220130059 1. scienza Speciale 1° Premio Nazionale di Divulgazione Scientifica I 9 libri premiati dalla giuria Con il libro “Il cervello gioca in difesa. Storie di cellule che pensano”, edito da Mondadori Education, il neurologo GIANVITO MARTINO, direttore della Divisione di Neuroscienze del San Raffaele di Milano, ha vinto il 1° Premio Nazionale di Divulgazione Scientifica bandito dall'Associazione Italiana del Libro con il patrocinio del CNR (Consiglio Nazionale delle Ricerche) e delle Biblioteche di Roma. Al secondo e terzo posto si sono classificati rispettivamente UGO AMALDI, figura di spicco della fisica italiana, con il libro Sempre più veloci. Perché i fisici accelerano le particelle: la vera storia del bosone di Higgs, pubblicato da Zanichelli, e GIOVANNI CAPRARA, responsabile delle pagine scientifiche del Corriere della Sera, con Storia italiana dello spazio. Visionari, scienziati e conquiste dal XIV secolo alla stazione spaziale, edito da Bompiani. Il Premio Speciale riservato ai Giovani Autori è stato assegnato a Fabrizio Mastromartino per il libro Il diritto di asilo. Teoria e storia di un istituto giuridico controverso (G. Giappichelli Editore) La giuria del premio ha anche assegnato 5 premi nelle diverse aree scientifiche: Premio per le Scienze matematiche, fisiche e naturali a Stefano Mancuso e Alessandra Viola, Verde Brillante. Sensibilità e intelligenza del mondo vegetale (Giunti Editore) Premio per le Scienze del territorio e dell'ambiente a Giovanni Vittorio Pallottino, La fisica della sobrietà. Ne basta la metà o ancora meno (Edizioni Dedalo) Premio per le Scienze della salute a Giovanni Maga, Occhio ai virus. Se li conosci sai come difenderti (Zanichelli editore) Premio per le Scienze giuridiche ed economiche a Giorgio Resta e Vincenzo Zeno-Zencovich, curatori del libro Riparare Risarcire Ricordare. Un dialogo tra storici e giuristi (Editoriale Scientifica) Premio per le Scienze umanistiche, sociali e della formazione a Elio Cadelo e Luciano Pellicani, Contro la modernità. Le radici della cultura antiscientifica in Italia (Rubbettino) 15 gennaio 2014 1° classificato Gianvito Martino Il cervello gioca in difesa. Storie di cellule che pensano Mondadori Education, 2013 «L'attacco è la miglior difesa». Il nostro organismo è un'imponente macchina biologica predisposta ad attaccare per difendersi dai numerosi aggressori che ci circondano. In questa lotta, il cervello gioca un ruolo strategico per la nostra salute e per la nostra sopravvivenza come specie. Siamo dove viviamo e ciò che incontriamo giorno dopo giorno; siamo la conseguenza di un incontro (galante?) tra l'uomo di Neanderthal e i Denisoviani, ma anche dello stress che quotidianamente affrontiamo. Noi «siamo», solo perché siamo capaci di interagire con l'ambiente che ci circonda e che orchestra la nostra evoluzione di esseri viventi. L'ambiente è però mutevole e inquinato da pericoli, inaspettati e imprevedibili, che mettono a repentaglio il nostro «io biologico». Perciò, in miliardi di anni, abbiamo sviluppato un imponente congegno di difesa, il sistema immunitario, che discrimina tra ciò che si deve combattere e ciò di cui non possiamo fare a meno. Un gioco rischioso e molto più raffinato di quanto ci si potesse aspettare solo pochi anni fa: un gioco sofisticato di tatticismi e strategie, che deriva dall'azione sinergica e concertata di tutti gli organi e tessuti, cervello in primis. Proprio sulle inedite interazioni tra cervello (fisico e psichico) e sistema immunitario intende soffermarsi questo libro: anticorpi e cellule staminali, ghiandole e ormoni, certo, ma anche sorprendenti meccanismi di contrattacco, esperienze accumulate nel tempo e nei tessuti come cicatrici indelebili, che vengono ricordate per poter essere ripercorse o accuratamente evitate, tra automatismi biologici e riflessività Gianvito Martino, medico, neurologo, dirige la Divisione di Neuroscienze dell'Istituto Scientifico Universitario San Raffaele di Milano. È Honorary Professor alla Queen Mary University of London, presidente della International Society of Neuroimmunology, fondatore e coordinatore scientifico della European School of Neuroimmunology. È tra i fondatori di BergamoScienza. Tra le sue pubblicazioni: Il cervello. La scatola delle meraviglie (2008), La medicina che rigenera. Non siamo nati per invecchiare (2009), Identità e mutamento. La biologia in bilico (2010), libro vincitore del Premio Fermi Città di Cecina 2011 per la divulgazione scientifica. 21 scienza 15 gennaio 2014 Mondadori Education è la casa editrice del gruppo Mondadori dedicata al mondo dell'educational e della formazione. 2° classificato Ugo Amaldi, con la collaborazione di Adele La Rana Sempre più veloci. Perché i fisici accelerano le particelle: la vera storia del bosone di Higgs Zanichelli editore, 2012, Al Cern di Ginevra in molti si sono chiesti quale sia la reale utilità degli acceleratori di particelle e che ricaduta possono avere sulla nostra vita quotidiana. A che servono quelle due enormi macchine, nate solo per far scontrare a velocità della luce un fascio di protoni? Prova a rispondere Ugo Amaldi nel suo libro "Sempre più veloci", rivolto soprattutto ai non addetti ai lavori, incuriositi dall' argomento. Amaldi ripercorre in sette capitoli gli ultimi cento anni di traguardi nella fisica moderna. Perché dunque si accelerano le particelle? La risposta ha del fantascientifico. «Per creare una specie di macchina del tempo. Aumentando l' energia riusciamo a ricreare le condizioni iniziali dell'universo, per capire cosa sia successo già un milionesimo di milionesimo di secondo dopo il Big Bang». E nei vari impatti di protoni negli ultimi 50 anni, si è arrivati nel 2012, con la scoperta di piccole tracce del cosiddetto "Bosone di Higgs", la micro particella detta "di Dio", che determina la massa della materia. Una rivelazione che ha risvolti molto più pratici di quanto si possa credere. Pagina dopo pagina, Amaldi spiega infatti come la "fisica bella", quella di teorie e formule abbia sempre una ricaduta pratica, per tutti. Basti pensare al campo medico. Una conoscenza sempre più stratificata delle particelle subatomiche, ha ad esempio agevolato l' evoluzione di macchinari più precisi e compatti, come nel caso degli apparecchi per le risonanze magnetiche. E ha aperto nuovi capitoli per la cosiddetta "Adroterapia", una sperimentazione clinica in cui gli adroni (protoni) vengono utilizzati al posto dei raggi x, poiché riescono a focalizzarsi con più precisione su determinate masse tumorali, senza danneggiare organi vitali. Ugo Amaldi, nipote del matematico Ugo, figlio del fisico Edoardo e della scrittrice Ginestra Giovene,si è laureato nel 1957 in fisica presso l'Università di Roma, specializzandosi nel campo degli acceleratori di particelle. Ha 22 lavorato per quindici anni presso il Laboratorio di Fisica dell'Istituto Superiore di Sanità. Successivamente ha lavorato per venticinque anni al CERN di Ginevra. Già direttore dell'Istituto Nazionale di Fisica Nucleare e membro delle maggiori accademie scientifiche, è tra i maggiori studiosi delle particelle elementari. Dal 1982 lavora presso l'Università di Milano. Adele La Rana, dottoressa di ricerca in Fisica, ha dato la caccia alle onde gravitazionali nell'ambito dell'esperimento spaziale LISA. Ha collaborato con l'Agenzia Spaziale Italiana e il Planetario di Caserta. La casa editrice Zanichelli, fondata nel 1859 dal libraio modenese Nicola Zanichelli, ha in catalogo oltre 2000 opere, tra cui alcuni dei più diffusi vocabolari di lingua italiana e dizionari di lingue straniere, in versione cartacea e digitale. 3° classificato Giovanni Caprara Storia italiana dello spazio. Visionari, scienziati e conquiste dal XIV secolo alla stazione spaziale Bompiani, 2012 La storia dello spazio italiano inizia alla fine del Trecento, prosegue con i fuochi pirotecnici, ma sarà l'Ottocento a segnare l'avvio delle ricerche sui razzi in chiave più scientifica, seguendo gli inglesi che per primi li costruivano e li impiegavano a scopo bellico. Dopo la Seconda guerra mondiale la Marina e l'Aeronautica “arruolano” due scienziati tedeschi per affrontare la tecnologia dei razzi. E negli anni Sessanta sarà Luigi Broglio a diventare il vero “padre” dello spazio italiano realizzando il primo satellite “San Marco” per indagare l'atmosfera. Un'avventura straordinaria per un'Italia coraggiosa che amava le sfide: in quel periodo il Paese conquisterà il suo ultimo Nobel scientifico con Giulio Natta. La nascita nel 1988 dell'Agenzia Spaziale Italiana darà il via a un vero programma di esplorazione su vari fronti di ricerca cosmica e all'importante collaborazione per la stazione spaziale internazionale. Un libro documentato e appassionante che è una lunga storia di uomini: visionari, scienziati, tecnologi e politici che hanno sostenuto l'idea dell'esplorazione dello spazio. Una storia che, sempre confrontata con le imprese di altre nazioni, ha generato nuova scienza, nuove tecnologie e favorito lo sviluppo del Paese a livello internazionale in un campo d'avanguardia. scienza Giovanni Caprara è responsabile della redazione scientifica del “Corriere della Sera”. È autore di vari libri sulla storia della scienza, della tecnologia e dell'esplorazione spaziale. Dal 2011 è presidente dell'UGIS, Unione Giornalisti Italiani Scientifici. Un'asteroide tra Marte e Giove porta il suo nome. La casa editrice Bompiani fa riferimento al gruppo Rcs Libri. Premio Giovani Autori (under 35 anni di età) Fabrizio Mastromartino Il diritto di asilo. Teoria e storia di un istituto giuridico controverso G. Giappichelli Editore, 2012 La tesi proposta nel volume è che l'asilo è un diritto rivendicabile sul piano internazionale a garanzia della vita e della libertà degli individui. Nel volume vengono ricostruiti i momenti fondamentali in cui si svolge la storia del diritto di asilo sulla base di due linee di analisi. Da un lato, la direttrice volta a delineare il contesto politico entro cui il diritto di asilo si afferma nelle sue prime fasi di sviluppo: come garanzia internazionale della libertà di coscienza, nel quadro delle persecuzioni religiose e delle guerre di religione; come garanzia internazionale della libertà di espressione, nel quadro della battaglia contro l'ancien regime e il dispotismo. Dall'altro, la direttrice intesa a illustrare le fasi di sviluppo dell'ordine giuridico entro il quale si svolge l'intera parabola storica del diritto di asilo, il diritto internazionale: dalla sua fondazione teorica secentesca e settecentesca, alla costruzione dottrinale del diritto internazionale classico, dove soggetti di diritto sono esclusivamente gli Stati, fino all'odierno ordine internazionale, in cui i singoli individui acquisiscono finalmente un inedito protagonismo. Fabrizio Mastromartino (Roma, 1979 è dottore di ricerca in Filosofia analitica e Teoria generale del diritto presso l'Università degli Studi di Milano. Attualmente è docente a contratto di Filosofia del diritto presso la Facoltà di Giurisprudenza dell'Università degli Studi Roma Tre. Giappichelli Editore, casa editrice torinese fondata nel 1921, è specializzata in pubblicazioni giuridiche, economiche e legislative, per uso professionale e di studio universitario. 15 gennaio 2014 Premio nel campo delle Scienze matematiche, fisiche e naturali Stefano Mancuso, Alessandra Viola Verde Brillante. Sensibilità e intelligenza del mondo vegetale Giunti Editore, 2013 Le piante sono esseri intelligenti? Sono in grado di risolvere problemi? Comunicano con l'ambiente che le circonda, con le altre piante, con gli insetti e gli animali superiori? O sono invece organismi passivi, privi di sensibilità e di qualsiasi barlume di comportamento individuale e sociale? Per rispondere a queste domande bisogna risalire addirittura all'antica Grecia. Già allora, infatti, simili interrogativi occupavano le più accese dispute tra i filosofi, divisi in opposte scuole di pensiero, a favore e contro la possibilità che le piante avessero un'«anima». Cosa muoveva le loro argomentazioni, e soprattutto perché secoli di scoperte scientifiche non sono bastati a dirimere la questione? Sorprendentemente, molti degli argomenti oggi in campo sono gli stessi già sollevati diversi secoli fa, e più che sulla scienza fanno leva sul sentire comune e su numerosi preconcetti che appartegono alla nostra cultura ormai da millenni. Nonostante che un'osservazione superficiale sembri suggerire per il mondo vegetale un livello di complessità decisamente basso, l'idea che le piante siano organismi senzienti in grado di comunicare, avere una vita sociale, risolvere problemi difficili utilizzando raffinate strategie, che siano in una sola parola «intelligenti», ha fatto capolino nel corso dei secoli a diverse riprese. In epoche differenti e in contesti culturali eterogenei, filosofi e scienziati hanno fatto propria la convinzione che le piante siano dotate di abilità molto più raffinate di quelle comunemente osservabili. Stefano Mancuso è una tra le massime autorità mondiali nel campo della neurobiologia vegetale. Professore associato presso la Facoltà di Agraria dell'Università di Firenze e accademico ordinario dell'Accademia dei Georgofili, dirige il Laboratorio Internazionale di Neurobiologia Vegetale ed è membro fondatore della International Society for Plant Signaling & Behavior. Alessandra Viola, giornalista scientifica freelance, collabora con numerosi quotidiani, settimanali e con la Rai. E' dottore di ricerca in Scienze della Comunicazione all'Università di Roma La Sapienza. La casa editrice Giunti, fondata nel pieno delle battaglie 23 scienza 15 gennaio 2014 risorgimentali, è nata dal progetto di formare la nuova società dell'Italia unita. Da allora la vocazione di Giunti Editore è divulgare il sapere e la cultura attraverso libri scientificamente rigorosi e con un linguaggio che li renda facilmente accessibili e interessanti per i lettori di ogni livello culturale e sociale. Premio nel campo delle Scienze del territorio e dell'ambiente come affiliata della Dedalo Litostampa che ne è tuttora la società controllante._Il progetto editoriale aveva quale obiettivo il "superamento delle due culture": la sua attenzione era rivolta soprattutto verso le scienze umane e le scienze "dure", l'architettura e l'urbanistica, le tecnologie dell'edilizia._La casa editrice ha mantenuto, nel corso degli anni, il suo programma iniziale evitando sperimentazioni ed avventure in campi quali la letteratura e la narrativa, pubblicando sempre volumi di saggistica. Giovanni Vittorio Pallottino La fisica della sobrietà. Ne basta la metà o ancora meno Edizioni Dedalo, 2012 Premio nel campo delle Scienze della Salute Possiamo continuare nella crescita dei consumi di beni materiali e di energia che ha caratterizzato gli ultimi decenni? La risposta è no. Per una lunga serie di valide ragioni, che vanno dal rispetto per l'ambiente e per le generazioni future alla futilità inappagante di questa insostenibile corsa verso lo spreco. La verità è che si può vivere benissimo consumando meno, anche molto meno. E infatti l'idea che «ne basta la metà» (di che cosa? di quasi tutto) è il filo rosso che attraversa tutta l'opera. Le modalità e i mezzi di cui disponiamo per ridurre gli sprechi di energia e non solo ci vengono insegnati dalla fisica, nei suoi termini più semplici ed elementari, quando la applichiamo alle situazioni quotidiane della vita comune, per cercare di capire come funzionano gli oggetti e i dispositivi che ci circondano: si va dal riscaldamento delle case all'illuminazione degli ambienti, dai modi di cucinare i cibi all'impiego dell'automobile e alla gestione dei rifiuti. È possibile innescare un sistema virtuoso di nuove abitudini, avvalendosi delle innovazioni che ci offre una sana applicazione dei ritrovati della scienza, ma anche con qualche balzo nel passato, nel recupero di comportamenti di sobrietà quasi perduti ma non del tutto dimenticati. Giovanni Vittorio Pallottino, già ordinario di Elettronica al Dipartimento di Fisica dell'università Sapienza di Roma, nella sua attività professionale ha lavorato al CNEN (oggi ENEA), al CNR, al MIT, al CERN, occupandosi di elettronica nucleare, elettronica spaziale e strumentazione per la rivelazione delle onde gravitazionali. E' autore di oltre 170 lavori pubblicati su riviste scientifiche internazionali e di numerosi lavori riguardanti la didattica della fisica e delle scienze. La Edizioni Dedalo ha iniziato la sua attività nel 1965 Giovanni Maga Occhio ai virus. Se li conosci sai come difenderti Zanichelli editore, 2012 24 I virus sono dappertutto: ogni giorno ne assorbiamo milioni, respirando e mangiando, e portiamo perfino antiche tracce virali nel nostro stesso genoma. Sperimentiamo da migliaia di anni i danni che i virus provocano alla salute, ma ancora non sappiamo rispondere del tutto a domande fondamentali come: i virus sono organismi viventi? Da dove vengono? Come ne nascono di nuovi? In un mondo sempre più affollato, mobile e veloce, i virus hanno tante opportunità per infettarci. Epidemie come l'AIDS, l'influenza, ebola o la SARS preoccupano gli esperti di salute pubblica e di bioterrorismo: è una minaccia reale o un'esagerazione dei media? Anche se i virus ci fanno paura, in molti casi abbiamo imparato a difenderci grazie a farmaci e vaccini che interferiscono con il loro ciclo vitale. Ma se vogliamo che per i virus sia più difficile infettare animali ed esseri umani, dobbiamo limitare l'impatto delle nostre attività sull'ambiente. Giovanni Maga è nato a Pavia nel1965. E' ricercatore presso l'Istituto di Genetica Molecolare del CNR di Pavia, dove dirige la sezione di Enzimologia del DNA e Virologia Molecolare, studiando i meccanismi di replicazione del genoma nei virus e nelle cellule animali, per sviluppare nuovi farmaci antivirali e antitumorali. È' anche professore a contratto di Biologia Molecolare presso l'Università degli Studi di Pavia, dove insegna la virologia molecolare agli studenti di Scienze Biologiche. È' autore di numerose pubblicazioni su riviste a diffusione nazionale. Tiene spesso lezioni sui virus nelle scienza scuole per sensibilizzare gli adolescenti sul problema dell'AIDS. La casa editrice Zanichelli, fondata nel 1859 dal libraio modenese Nicola Zanichelli, ha in catalogo oltre 2000 opere, tra cui alcuni dei più diffusi vocabolari di lingua italiana e dizionari di lingue straniere, in versione cartacea e digitale. Premio nel campo delle Scienze giuridiche ed economiche Giorgio Resta e Vincenzo Zeno-Zencovich (a cura) Riparare Risarcire Ricordare. Un dialogo tra storici e giuristi Editoriale Scientifica, 2012 Il volume raccoglie alcuni dei risultati di un Progetto di Ricerca di Interesse Nazionale finanziato dal Ministero per l'Università, promosso e svolto dalle Università di Roma Tre, di Bari “Aldo Moro”, di Napoli “Federico II” e del Salento, con la collaborazione della Fondazione Centro di Iniziativa Giuridica Piero Calamandrei, sul tema “Le ferite della storia e il diritto riparatore: un'indagine storico-comparatistica”. Vincenzo Zeno-Zencovich è ordinario di diritto comparato nell'Università di Roma Tre e Rettore dell'Università degli Studi Internazionali di Roma (UNINT) 15 gennaio 2014 Giorgio Resta, insegna presso il Dipartimento di Giurisprudenza dell'Università di Bari Aldo Moro L'Editoriale Scientifica è una casa editrice di Napoli. Premio nel campo delle Scienze umanistiche, sociali e della formazione Elio Cadelo, Luciano Pellicani Contro la modernità. Le radici della cultura antiscientifica in Italia Rubbettino, 2013 Nel libro gli autori documentano che la società italiana, pur essendo entrata nella famiglia delle società industriali avanzate, continua ad essere caratterizzata da un diffuso e radicato analfabetismo scientifico quotidianamente alimentato dalla esiziale presenza attiva di ideologie radicalmente ostili alla scienza, alla tecnica e al mercato. Il che costituisce uno sconcertante paradosso storico, dal momento che sono proprio la scienza, la tecnica e il mercato i potenti motori di quella epocale rivoluzione in permanenza che siamo soliti chiamare modernizzazione. Il risultato è un libro indispensabile per prendere coscienza di ciò che il nostro Paese ha bisogno per evitare la deriva della regressione storica e per garantire un futuro alle nuove generazioni. 25 15 gennaio 2014 scienza Elio Cadelo, giornalista, divulgatore scientifico, inviato speciale del Giornale Radio Rai per la Scienza e l'Ambiente. Ha lavorato al Corriere della Sera, al Il Mattino, è stato collaboratore di Panorama, Scienza Duemila, Epoca. Autore e coautore di numerose pubblicazioni. E' stato membro del Gruppo di lavoro sulla Informazione e Comunicazione in Biotecnologia del Comitato Nazionale per la Biosicurezza e le Biotecnologie della Presidenza del Consiglio dei Ministri. Luciano Pellicani, già direttore di «Mondoperaio», è fra i sociologi italiani più conosciuti a livello internazionale grazie alla pubblicazione dei suoi saggi nelle principali lingue europee. La Casa Editrice Rubbettino nasce nel 1972 a Soveria Mannelli, in Calabria, grazie all'impegno e la caparbietà di Rosario Rubbettino. Il primo nucleo aziendale era costituito inizialmente da una tipografia e da una piccola casa editrice. Negli anni immediatamente successivi allo start-up la stamperia si è trasformata in una moderna azienda tipografica che offre oggi servizi di stampa a molte altre case editrici italiane mentre la produzione editoriale è diventata sempre più intensa e qualificata fino a riuscire a imporsi come punto di riferimento imprescindibile per quanti a vario titolo si occupano di economia, politica e scienze sociali. Il Premio Nazionale di Divulgazione Scientifica Nato con l'obiettivo di contribuire a divulgare la ricerca oltre i confini della cultura accademica e scientifica, il Premio Nazionale di Divulgazione Scientifica che l'Associazione Italiana del Libro ha bandito con il patrocinio del CNR sta superando il suo primo esame con numeri di tutto rispetto: 378 opere in gara, tra libri e pubblicazioni, per un totale di 739 autori coinvolti. Le donne rappresentano il 35%. Per quanto riguarda l'età, 115 partecipanti, il 16% del totale, hanno invece meno di 35 anni: segno che le preoccupazioni da tempo sollevate sul futuro e lo spazio riservato ai giovani ricercatori in Italia sono più che concrete. I libri presentati nell'ambito di questa prima edizione del Premio sono ben 314, la maggior parte dei quali afferiscono alle Scienze umanistiche, sociali e della formazione (38%), alle Scienze del territorio e dell'ambiente (22%) e alle Scienze matematiche, fisiche e naturali (18%). Gli altri volumi appartengono all'ambito delle Scienze della Salute e delle Scienze giuridiche ed economiche. L'ampio spettro di opere presentate segna un punto a vantaggio di una concezione della scienza che travalica i confini tradizionali delle discipline scientifiche per caratterizzare anche altri ambiti della conoscenza, non meno importanti, affrontati e descritti molto spesso con ugual rigore metodologico. Non solo numeri comunque. Notevole è anche la qualità dei contributi proposti, la maggior parte dei quali ben 26 strutturati e affrontati con competenza, taluni di evidente impatto e interesse scientifico, coinvolgenti, efficaci, originali, attuali, qualcun altro forse meno organico ed equilibrato, altri ancora, pur meritevoli, un po' troppo specialistici, meno divulgativi, se ci è consentito il termine. Un insieme di opere, in ogni caso, variegato e composito che lascia intravedere buone potenzialità di mercato per un settore - quello della divulgazione scientifica che non ha ancora pienamente trovato nel nostro Paese la sua giusta dimensione e buone opportunità di valorizzazione. Speriamo che il Premio possa costituire in questa direzione uno stimolo per tutti, anche per quegli autori e per quegli editori che non si sono ancora misurati su questo terreno. Le case editrici che partecipano a questa edizione del Premio sono oltre 170. Vi sono rappresentati un po' tutti: dai nomi storici dell'editoria italiana ai marchi più recenti, compresi quelli a maggiore vocazione universitaria e scientifica, qualcuno con un solo testo, altri con un'adesione particolarmente massiccia. Significative anche le esperienze di self publishing, nei diversi modi in cui questo fenomeno si manifesta, il più delle volte convincenti, che la dicono lunga sulle difficoltà di udienza che i lavori e le ricerche di divulgazione scientifica sono costrette a subire talvolta in campo editoriale. Partecipano al Premio anche alcuni libri rivolti ai ragazzi e molti articoli giornalistici, di grande efficacia, su quotidiani o riviste. scienza Tutti i libri in finale (in ordine di presentazione al Premio) Scienze matematiche, fisiche e naturali Marco Ciardi, Terra. Storia di un’idea, Editori Laterza, 2013 Tommaso Castellani, Equilibrio. Storia curiosa di un concetto fisico, Edizioni Dedalo, 2013 Marco Fabbrichesi, Delle cose semplici. Pianeti, piselli, batteri e particelle elementari, pubblicato in proprio, 2012 Domenico Signorelli, Fisica, delitti e digressioni. 7 casi da risolvere, 7 insolite lezioni di fisica, un numero imprecisato di peregrinazioni della mente, Matematicamente.it, 2012 Mauro Dorato, Che cos’è il tempo? Einstein, Gödel e l’esperienza comune, Carocci editore, 2013 Roberto Lucchetti, Scacchi e scimpanzé. Matematica per giocatori razionali, Bruno Mondadori, 2012 Andrea Baldassarri, Temperatura, energia, entropia, Ediesse, 2012 Massimo Inguscio, Fisica atomica allo zero assoluto, Di Renzo Editore, 2012 Ugo Amaldi, Sempre più veloci. Perché i fisici accelerano le particelle: la vera storia del bosone di Higgs, Zanichelli editore, 2012 Sandro Pandolfi, Il paradosso coerente. Il futuro teorico della nuova fisica, Armando Editore, 2013 Cosimo Marrone, Federico Mari, Davide Passaro, Le parole della fisica. Dieci letture per (ri)scoprire la fisica, Edizioni CompoMat, 2012 Corrado Lamberti, Il bosone di Higgs. Il trionfo del Modello Standard o l’alba di una nuova fisica?, Aliberti editore, 2012 Stefano Ossicini, L’universo è fatto di storie non solo di atomi. Breve storia delle truffe scientifiche, Neri Pozza Editore, 2012 Daniele Gasparri, Vita nell’Universo. Eccezione o regola?, CreateSpace, 2013 Luciano Maiani con la collaborazione di Romeo Bassoli, A caccia del bosone di Higgs. Magneti, governi, scienziati e particelle nell’impresa scientifica del secolo, Mondadori Education, 2013 Roberto Lucchetti, Giuseppe Rosolini, Matematica al bar. Conversazioni su giochi, logica e altro, Franco Angeli, 2012 Giovanni F. Bignami, Il mistero delle sette sfere. Cosa resta da esplorare, dalla depressione di Afar alle stelle più vicine, Mondadori, 2013 Marco Bastoni, Eclissi! Quando Sole e Luna danno spettacolo in cielo, Springer - Verlag Italia, 2012 15 gennaio 2014 Roberto Fieschi, Sul limitare della fisica. Una scienza pervasiva, MUP Editore, 2013 Claudio Bartocci, Una piramide di problemi. Storie di geometria da Gauss a Hilbert, Raffaello Cortina Editore, 2012 Giovanni Caprara, Storia italiana dello spazio. Visionari, scienziati e conquiste dal XIV secolo alla stazione spaziale, Bompiani, 2012 Alessandra Celletti, Ettore Perozzi, Pianeti per caso, UTET, 2012 Emiliano Ricci, La fisica fuori casa. Un fantastico viaggio alla scoperta delle leggi della natura, Giunti Editore, 2013 Paola Monari (a cura), Giochi d’azzardo e probabilità, Editori Riuniti university press, 2012 Vincenzo Balzani, Margherita Venturi, Chimica! Leggere e scrivere il libro della natura, Scienza Express edizioni, 2012 Federico Peiretti, Il grande gioco dei numeri, Longanesi, 2013 Alessandro De Angelis, L’enigma dei raggi cosmici. Le più grandi energie dell’universo, Springer, 2012 Davide Coero Borga, La scienza del giocattolaio, Codice edizioni, 2012 Massimo Capaccioli, Silvia Galano, Arminio Nobile e la misura del cielo ovvero Le disavventure di un astronomo napoletano, Springer, 2012 Vincenzo Barone, L’ordine del mondo. Le simmetrie in fisica da Aristotele a Higgs, Bollati Boringhieri, 2013 Stefano Mancuso, Alessandra Viola, Verde Brillante. Sensibilità e intelligenza del mondo vegetale, Giunti Editore, 2013 Scienze del territorio e dell’ambiente Enrico Giovannini, Nel nome, la storia: toponomastica di Roma antica. Archeologia, storia e tradizione tra le strade dell’Urbe, Editrice Apes, 2012 Marco Armiero, Le montagne della patria. Natura e nazione nella storia d’Italia. Secoli XIX e XX, Einaudi, 2013 Guido Chelazzi, L’impronta originale. Storia naturale della colpa ecologica, Einaudi, 2013 Leonella De Santis, I segreti di Roma sotterranea. Alla scoperta di un mondo misterioso e sommerso dove passato e presente si fondono fino a diventare un’unica realtà, Newton Compton editori, nuova edizione aggiornata, 2012 Pierluigi Altea (a cura), Controllo sui geni o geni fuori controllo? Genetica, filosofia e diritto a confronto sul caso OGM, Mimesis Edizioni, 2013 Alessandro Coppola, Apocalypse Town. Cronache dalla fine della civiltà urbana, Editori Laterza, 2012 Giovanni Vittorio Pallottino, La fisica della sobrietà. Ne basta la metà o ancora meno, Edizioni Dedalo, 2012 Simona Epasto, Geografia e sviluppo globale. Itinerari e prospettive verso un approccio olistico e multidisci27 scienza 15 gennaio 2014 plinare, Aracne editrice, 2013 Duilio Contin, Piergiorgio Odifreddi, Antonio Pieretti, Antologia della Divina Proporzione di Luca Pacioli, Piero della Francesca e Leonardo da Vinci, Aboca Edizioni, 2012 Società Italiana di Scienze Sensoriali, Atlante sensoriale dei prodotti alimentari, Tecniche Nuove, 2012 Antonio Lopez, Tracce di animali, Giunti Editore, 2012 Roberto Danovaro, Biologia marina. Biodiversità e funzionamento degli ecosistemi marini, Città Studi Edizioni, 2013 Fausto Cavallaro, Energia dal sole. Aspetti tecnologici e di mercato, Aracne editrice, 2012 Paolo Aldo Rossi, Ida Li Vigni, Non di solo pane... piuttosto di gola. Scienze dell’alimentazione e arte culinaria dall’età tardo-classica a quella medievale, Aracne editrice, 2013 Eleonora Maria Viganò, Dilemma OGM. A tavola con ricerca, mercato e società, Informant, 2012 Raffaello Cecchetti (a cura), La Via Francigena. Società e territorio nel cuore della Toscana medievale, Pisa University Press, 2012 Marica Di Pierri, Laura Greco, Lucie Greyl, Miguel Angel de Porras Acuña, Isotta Carraro, Giulia Dakli, Maria Marano, Lucilla Salvia, Donne in difesa dell’ambiente. Emergenza ambientale, crisi climatica e ruolo delle donne nei processi di articolazione sociale e di difesa dei territori, CDCA. Centro di Documentazione sui Conflitti Ambientali, 2012 Paolo Rovati (a cura), L’acqua: diritto per tutti o profitto per pochi?, eum - edizioni università di macerata, 2013 Stefano Caserini, Aria pulita, Bruno Mondadori, 2013 Luca Valera, Ecologia Umana. Le sfide etiche del rapporto uomo/ambiente, Aracne editrice, 2013 Franco Gambale, Marilena Spertino, Quando la terra trema. Sopravvivenza, emozioni e scienza tra Fukushima e l’Emilia, Scienza Express edizioni, 2012 Antonella Pellettieri, Marcello Corrado, Le Città dei 28 Cavalieri. Grassano e i suoi Cinti, Edizioni Centro Grafico Foggia, 2013 Federica Ottoni, Delle cupole e del loro tranello. La lunga vicenda delle fabbriche cupolate tra dibattito e sperimentazione, Aracne editrice, 2012 Mihaela Gavrila (a cura), L’Onda anomala dei media. Il rischio ambientale tra realtà e rappresentazione, Franco Angeli, 2012 Luca Lombroso. Apocalypse Now? Clima, ambiente, cataclismi. Possiamo salvare il mondo. Ora, Edizioni Artestampa, 2012 Scienze della salute Italo Sannicandro, Le attività motorie per i senior. Caratteristiche del senior. Evidenze scientifiche. Aspetti metodologici, Edizioni Correre, 2013 Fabrizio Benedetti, L’effetto placebo. Breve viaggio tra mente e corpo, Carocci editore, 2012 Giovanni Maga, Occhio ai virus. Se li conosci sai come difenderti, Zanichelli editore, 2012 Marta Baiocchi, Cento micron, minimum fax, 2012 Eugenio Fiorentino, Il reflusso acido. Conoscerlo per controllarlo. Una guida pratica per tutti, Aracne editrice, 2012 Gianvito Martino, Il cervello gioca in difesa. Storie di cellule che pensano, Mondadori Education, 2013 Margherita Enrico, La scienza della giovinezza. Come ridurre età biologica, peso e stress, Sperling & Kupfer, 2013 Silvio Garattini, Fa bene o fa male? Salute, ricerca e farmaci: tutto quello che bisogna sapere, Sperling & Kupfer, 2013 Fabio Lugoboni, Aiutare a smettere di fumare? E’ più facile di quanto pensi, SEEd, 2012 Antonello Taurino, Miles gloriosus. Morire di uranio impoverito, Scienza Express edizioni, 2013 scienza Scienze giuridiche ed economiche Marco Ruotolo, Sicurezza, dignità e lotta alla povertà, Editoriale Scientifica, 2012 Massimo Pollifroni, Lineamenti di etica aziendale, G. Giappichelli Editore, 2012 Maria Romana Allegri, Informazione e comunicazione nell’ordinamento giuridico italiano, G. Giappichelli Editore, 2012 Saverio Gentile, La legalità del male. L’offensiva mussoliniana contro gli ebrei nella prospettiva storico-giuridica (1938-1945), G. Giappichelli Editore, 2013 Ettore Battelli, Il valore legale dei documenti informatici, Edizioni Scientifiche Italiane, 2012 Francesco Menoncin, Negli ingranaggi della finanza, Academia Universa Press, ristampa aggiornata 2013 Riccardo Omodei Salè, La detenzione e le detenzioni. Unità e pluralismo nelle situazioni di fatto contrapposte al possesso, CEDAM, 2012 Fabrizio Mastromartino, Il diritto di asilo. Teoria e storia di un istituto giuridico controverso, G. Giappichelli Editore, 2012 Elena Cedrola, Loretta Battaglia, Storia, economia, cultura, modelli di business e di marketing per operare con successo in Cina. La via verso la Terra di Mezzo, CEDAM, 2012 M. Eugenia Bartoloni, Politica estera e azione esterna dell’Unione Europea, Editoriale Scientifica, 2012 Ennio Grassini, Rodolfo Pacifico, Il consenso informato. Le basi, la pratica e la difesa del medico, Terza edizione, SEEd, 2012 Giorgio Resta e Vincenzo Zeno-Zencovich (a cura), Riparare Risarcire Ricordare. Un dialogo tra storici e giuristi, Editoriale Scientifica, 2012 Gabriele Pepe, Principi generali dell’ordinamento comunitario e attività amministrativa, Eurilink Edizioni, 15 gennaio 2014 2012 Leandro Limoccia, Diritto penitenziario e dignità umana, Edizioni Scientifiche Italiane, 2012 Ilaria Amelia Caggiano, Circolazione del denaro e strumenti di tutela, Editoriale Scientifica, 2012 Loredana Mura, Il diritto internazionale privato italiano nei rapporti con il diritto internazionale, europeo e straniero, G. Giappichelli Editore, 2012 Stefano Agosta, Bioetica e Costituzione, I vol. (Le scelte esistenziali di inizio-vita) - II vol. (Le scelte esistenziali di fine-vita), Giuffrè Ed., 2012 Scienze umanistiche, sociali e della formazione Giuseppe Solaro, Il mistero Democrito, Aracne editrice, 2012 Lucia Ciampi, Media e produzione culturale. Focus sull’opinione pubblica, Aracne editrice, 2013 Silvano Fuso, La falsa scienza. Invenzioni folli, frodi e medicine miracolose dalla metà del Settecento a oggi, Carocci editore, 2013 Assunta Viteritti, Scienza in formazione. Corpi, materialità e scrittura in laboratorio, Guerini & Associati, 2012 Antonio Scornajenghi, L’Italia di Giovanni Paolo II, Edizioni San Paolo, 2012 Anna Curir, I processi psicologici della scoperta scientifica. L’armoniosa complessità del mondo, Kim Williams Books, 2012 Alberto Guasco, Cattolici e fascisti. La Santa sede e la politica italiana all’alba del regime (1919-1925), Società Editrice il Mulino, 2013 Adriano Zecchina, Alchimie nell’arte. La chimica e l’evoluzione della pittura, Zanichelli editore, 2012 Giancarlo Infante, L’altra faccia del sole, Armando Editore, 2013 29 15 gennaio 2014 Luciano Celi, Cervelli che fuggono e cervelli che restano. Appunti di viaggio nell’Italia del brain drain, Lu::Ce edizioni, 2013 Paolo Di Lazzaro, Daniele Murra, L’anamorfosi tra arte, percezione visiva e “prospettive bizzarre”, ENEA, 2013 Andrea Frova, Lo scienziato di cartapesta, Edizioni Dedalo, 2013 Valerio Eletti, Complessità, cambiamento, comunicazioni. Dai social network al Web 3.0., Guaraldi, 2012 Giovanni Farese, Luigi Einaudi, Rubbettino, 2012 Laura Di Nicola, Intellettuali italiane del Novecento. Una storia discontinua, Pacini Editore, 2012 Bruna Donatelli, Paradigmi della modernità. Letteratura, arte e scienza della Francia del XIX secolo, Artemide, 2012 Giulio Palermo, Baroni e portaborse. I rapporti di potere nell’università, Editori Internazionali Riuniti, 2012 Stefano Perfetti, Animali pensati nella filosofia tra medioevo e prima età moderna, Edizioni ETS, 2102 Stefano Roncoroni, Ettore Majorana, lo scomparso e la decisione irrevocabile, Editori Internazionali Riuniti, 2013 Roberto Inchingolo, Perché ci piace il pericolo. Adrenalina, paura, piacere, Sironi Editore, 2013 Carmelo Occhipinti, L’arte in Italia e in Europa nel secondo Cinquecento, Einaudi, 2012 Maria Cinque, In merito al talento. La valorizzazione dell’eccellenza personale tra ricerca e didattica, Franco Angeli, 2013 Aurelia Camparini (a cura), Emilio Sereni, Cultura nazionale e cultura popolare. Scritti e discorsi, Aracne editrice, 2013 Claudio Bartocci, Il numero che non si calcola. Storie di scienze e di scienziati, Doppiozero, 2012 Barbara Barcaccia, Francesco Mancini (a cura), Teoria e clinica del perdono, Raffaello Cortina Editore, 2013 Rossella Palomba, Guida pratica per ragazze in gamba. Come fare ricerca e vivere felici, Scienza Express edizioni, 2013 Elio Cadelo, Luciano Pellicani, Contro la modernità. Le radici della cultura antiscientifica in Italia, Rubbettino, 2013 Giulio Fanti, Saverio Gaeta, Il mistero della Sindone. Le sorprendenti scoperte scientifiche sull’enigma del telo di Gesù, Rizzoli, 2013 Le pubblicazioni di divulgazione scientifica rivolte ai ragazzi Cristiana Pulcinelli, Pannocchie da Nobel. Storia e storie di Barbara McClintock, Editoriale Scienza, 2012 Umberto Guidoni, Andrea Valente, Così extra, così terrestre. A che cosa servono le missioni spaziali?, Editoriale Scienza, 2013 Federico Taddia intervista Bruno D'Amore, Perché diamo i numeri? E tante altre domande sulla matematica, 30 scienza Editoriale Scienza, 2012 Margherita Hack, Massimo Ramella, Stelle, pianeti e galassie. Viaggio nella storia dell'astronomia dall'antichità ad oggi, Editoriale Scienza, 2013 Luca Novelli, Pitagora e il numero maledetto, Editoriale Scienza, 2012 Bruno d'Amore, Martha Isabel Fandiño Pinilla, La nonna di Pitagora. L'invenzione matematica spiegata agli increduli, Edizioni Dedalo, 2013 Elena Ioli, Nero come un buco nero, Edizioni Dedalo, 2013 Eva Pisano, Il pesciolino argentato. Viaggio alla scoperta del mare nell'Antartide, Sagep Editori, 2013 Lara Albanese, Tutti i numeri del mondo, Sinnos editrice, 2013 Alessio Palmero Aprosio, Pinocchio nel paese del paradossi. Viaggio tra le contraddizioni della logica, Sironi Editore, 2012 Margherita Hack, Gianluca Ranzini, Stelle da paura. A caccia dei misteri spaventosi del cielo, Sperling & Kupfer, 2012 I giovani autori di libri (under 35 anni di età) entrati in finale Marco Bastoni, Eclissi! Quando Sole e Luna danno spettacolo in cielo, Springer - Verlag Italia, 2012 Ettore Battelli, Il valore legale dei documenti informatici, Edizioni Scientifiche Italiane, 2012 Tommaso Castellani, Equilibrio. Storia curiosa di un concetto fisico, Edizioni Dedalo, 2013 Davide Coero Borga, La scienza dal giocattolaio, Codice edizioni, 2012 Alessandro Coppola, Apocalypse Town. Cronache dalla fine della civiltà urbana, Editori Laterza, 2012 Giovanni Farese, Luigi Einaudi, Rubbettino, 2012 Daniele Gasparri, Vita nell'Universo. Eccezione o regola?, CreateSpace, 2013 Saverio Gentile, La legalità del male. L'offensiva mussoliniana contro gli ebrei nella prospettiva storico-giuridica (1938-1945), G. Giappichelli Editore, 2013 Enrico Giovannini, Nel nome, la storia: toponomastica di Roma antica. Archeologia, storia e tradizione tra le strade dell'Urbe, Editrice Apes, 2012 Roberto Inchingolo, Perché ci piace il pericolo. Adrenalina, paura, piacere, Sironi Editore, 2013 Cosimo Marrone, Federico Mari, Davide Passaro, Le parole della fisica. Dieci letture per (ri)scoprire la fisica, Edizioni CompoMat, 2012 Fabrizio Mastromartino, Il diritto di asilo. Teoria e storia di un istituto giuridico controverso, G. Giappichelli Editore, 2012 Federica Ottoni, Delle cupole e del loro tranello. La lunga vicenda delle fabbriche cupolate tra dibattito e sperimentazione, Aracne editrice, 2012 Antonello Taurino, Miles gloriosus. Morire di uranio impoverito, Scienza Express edizioni, 2013 scienza 15 gennaio 2014 Dieta mediterranea 2.0 di Nadia di Carluccio La Facoltà di Farmacia Federico II di Napoli chiudeva mercoledì 11 dicembre in Aula Sorrentino il Ciclo di Seminari del Prof. Giorgio Calabrese nel migliore dei modi organizzando un Convegno dal titolo: “Dieta Mediterranea 2.0”. A coordinare relatori di notevole importanza era Gigi Marzullo Capostruttura per la Cultura Rai 1. Si sono confrontati Vito Amendolara, Presidente dell’Osservatorio Regionale per la Dieta Mediterranea che sottolineava l’importanza dello stile di vita e dell’ambiente ecosostenibile ricordando che la Regione Campania ha grandi potenzialità essendo la più giovane d’Italia e la più ricca di parchi verdi del ben 34% rispetto al 22% del territorio nazionale e al 17% di quello europeo come afferma il Ministro dell’Ambiente. Il Prof. Giorgio Calabrese ha evidenziato che la dieta mediterranea è una “ghost diet “ cioè non avente solo proteine, lipidi e glicidi ma anche una componente fantasma fatta di micronutrienti salutistici. Inoltre è convinto che bisogna recuperare l’antica dieta mediterranea rendendola moderna. Il modo giusto? Arricchire i prodotti di componenti così come si pone l’obiettivo la nuova scienza Nutraceutica che nasce da questo Ateneo con il direttore Ettore Novellino. Il primo a mettere in luce la relazione tra dieta mediterranea e calo di incidenza di malattie cardiovascolari è stato Ancel Keys ha ricordato il Prof. Gabriele Riccardi del Dipartimento di Medicina e Chirurgia e non a caso è prevenzione di diabete e di malattie dismetaboliche mentre la Prof.ssa Silvia Savastano si è soffermata su un’altra nostra ricchezza: il pomodoro. Non poteva mancare Pierluigi Pecoraro Presidente dell’Ordine Nazionale dei Biologi Consigliere e Delegato Settore Nutrizione che ha evidenziato dati sconvolgenti riguardo l’aumento di obesità. Basti pensare che nel 2008 la percentuale totale era intorno al 21% mentre oggi tale 21% è il dato dei soli bambini obesi nella Regione Campania. L’obiettivo del Prof. Pecoraro è quello di creare una ristorazione collettiva nelle scuole promuovendo la dieta mediterranea in modo da indottrinare al meglio le nuove generazioni. A chiudere il simposio è stato Ettore Novellino Direttore della Facoltà di Farmacia Federico II di Napoli rispondendo alla domanda che qualsiasi studente potrebbe porre nel proprio ego: “Perché parlare di dieta mediterranea nella Facoltà di Farmacia?”. “Ebbene, risponde il Prof. Ettore Novellino, per il tipo di professione che facciamo dovremmo augurarci che le persone si curino sempre ma considerando che il 40% sono affette da patologie sintomatiche e il 60% da quelle asintomatiche quest’ultime essendo convinte di stare bene in salute arrivano ad avere un danno d’organo senza preavvisi gravando in questo modo con più significatività sulla spesa pubblica sanitaria quindi sarebbe meglio allargare il nostro spazio professionale anche sulle sindromi dismetaboliche. Proprio ricordandomi un antico proverbio che reputo essere il consolidamento dell’osservazione nel tempo di un determinato fenomeno che si stanzia nella tradizione popolare per poi tramandarsi alle nuove generazioni ho trovato riscontro nei miei ultimi studi. Mi riferisco a quello che recita “Una mela al giorno toglie il medico di torno”. Partendo da qui abbiamo constatato che esistono micronutrienti elaborati dalla pianta che hanno una funzione biologica per la stessa ma che potrebbero avere effetti benefici anche sull’uomo. Ma i micronutrienti di oggi risultano essere ridotti rispetto al passato dato che abbiamo perso la stagionalità dei prodotti a favore delle coltivazioni intensive e delle serre. Se vogliamo utilizzare tali alimenti per il loro effetto salutistico dobbiamo riportare le giuste concentrazioni di micronutrienti supplementando l’ alimento. Da questa idea nasce la Nutraceutica e a conferma di ciò sono gli studi recenti sulla melannurca che abbassa notevolmente il famigerato LDL innalzando l’HDL superando l’atorvastatina farmaco di sintesi”. In realtà il Prof Ettore Novellino intende sottolineare l’importanza di incapsulare tali sostanze benefiche in quanto per raggiungere una dose efficace di melannurca ne servirebbero cinque al giorno creando meno aderenza alla terapia e avendo soprattutto un innalzamento di glicemia. Il suo pensiero è racchiuso nella frase “beyond diet befor drug” che vuole essere un monito per intervenire prima del danno d’organo in quei casi dove lo stile di vita non riesce a mantenere gli esatti parametri fisiologici. Quindi il significato del numero 2.0 è nel recupero della dieta mediterranea modernizzandola ed è giusto che tale messaggio provenga dalla Facoltà di Farmacia aprendo un nuovo spazio terapeutico fatto non più da una “medicina di attesa” ma da una “medicina di iniziativa”. Nadia Di Carluccio laureata in Farmacia presso la Facoltà Federico II di Napoli, interessata a tutto ciò che esiste intorno al mondo farmaceutico e alimentare in quanto prossima nel conseguire una seconda laurea presso la Facoltà di Scienze della Nutrizione Umana Tor Vergata di Roma. 31 scienza 15 gennaio 2014 Dalla complessità interdisciplinare alla complicazione valutativa di Graziella Tonfoni Sono una scienziata 'all'antica': ho imparato a fare ricerca avanzata, ed a praticarla incessantemente, quotidianamente, nei primi anni ottanta, del secolo scorso, andando, come si dice in pittura, 'a bottega' lavorando quindi presso i più grandi maestri del sapere umanistico e tecnologico. Si trattava di una era particolarissima, talmente lontana dall'oggi accelerato e frantumato, da richiedere un trattamento storico per farne intendere le coordinate. Erano, in fondo, i buoni tempi andati, durante i quali si riteneva che un direttore di rivista unico, se davvero competente, come di fatto sempre risultava alla prova, fosse più che sufficiente a cogliere l' importanza di un certo articolo proposto, da pubblicare urgentemente, perfino dando la precedenza rispetto ad altri contributi temporaneamente in sosta, che erano correttamente giudicabili come meno rilevanti, che non significa meno importanti, e che per contenuti esposti, potevano comunque attendere. Nella capacità di visione e previsione di una direzione editoriale, coerente, saggia ed illuminata, risiedeva il prestigio della rivista; esisteva una redazione competente, sempre in grado di emendare eventuali refusi, ed un comitato editoriale accessorio, era visto spesso come un inutile appesantimento sia per gli eventuali membri invitati ad esserlo che per la gestione oculata della stessa rivista. Se un direttore ha le idee chiare, non si assiepino tanti altri colleghi a confondere seppur involontariamente le pagine- questo era il principio di base. Gli autori rapidamente pubblicati, contribuivano con i loro articoli, alla qualità della rivista. Non era necessario introdurre le lettere maiuscole dell'alfabeto per qualificare la sostanza degli interventi e degli intervenuti. 32 Gli innovatori ardimentosi, non necessariamente riscuotevano subito i risultati accademici auspicabili, ma assicuravano ai propri concetti quella stabilità cartacea, che un capitolo pubblicato in tempi ragionevoli e senza refusi, garantiva, specialmente se comprendeva perfino la possibilità di avere un certo numero fisso di estratti da fare circolare presso quei lettori che si prevedesse potessero avere tempo e motivazione per volerne restare aggiornati. La reazione accademica locale, aveva sempre un peso effettivo nella accettazione delle teorie innovative: era auspicabile la riduzione dei tempi di avanzamento nella disciplina, cui il singolo scienziato avesse apportato numerose e stabili innovazioni, anche se si trattasse di un crocicchio di settori,, ma era parte del rischio imprenditoriale di chi produceva innovazione interdisciplinare, attendersi una forte resistenza a metodi, che poi sarebbero comunque stati valutati sul lungo termine. In sintesi, il rischio di dovere poi lasciare passare avanti gli autori di quegli articoli lasciati in attesa prima, studiosi che si erano visti passare su corsia preferenziale teorie del tutto diverse dalle loro, era non solo del tutto prevedibile ma anche comprensibile. Meglio un articolo solido pubblicato ieri, da una scienziata che resta ricercatrice a vita, di chiara fama, che un inedito perenne della medesima, divenuta ordinaria per non averlo mai pubblicato. Questo era il principio regolatore che aveva una sua accettabilità. La ricerca scientifica era infatti basata sul concetto che nella vita della costante investigazione, seria e non seriale, tutto allo stesso tempo, non si può avere, e non si deve neppure cercare di conseguire. Ma erano quelli i tempi in cui ancora il globo terrestre non era globalizzato, e si credeva giustamente, che ci fossero centri di ricerca di numero assai limitato, mondialmente visibili, universalmente riconosciuti, per certe discipline, particolarmente addensati negli Stati Uniti, da cui uscivano metodi che arrivavano poi successivamente in Europa, per essere visionati, non tradotti alla lettera, ma piuttosto mediati, studiati, integrati quando giusto fosse, nelle particolarità vigenti, oppure perfino rigettati, se non consoni rispetto alle diverse esigenze territoriali, variegate e linguisticamente differenziate. La divulgazione corretta avveniva quando il test di validazione di ogni novità ideata o importata fosse stato effettuato con dichiarato successo. In sintesi, esisteva ancora il rispetto per l'utente che non si voleva rendere cavia di esperimenti rischiosi o anche solo fastidiosi per inutile perdita del suo tempo. Ovviamente, le procedure per la verifica delle novità scientifiche, erano estremamente accurate e di disamina assai esigente. In quell'era, che è giusto conoscere per ammirare, come si possa fare con una ricostruzione tridimensionale di una archeologia del sapere, ad una scienziata come la sottoscritta, era continuamente richiesto di provare la esattezza delle proprie teorie, e se ci fossero controindicazioni di non uscire mai all'esterno con un prodotto solo semilavorato o che seppur completo potesse di fatto risolvere un problema, ma aprirne poi tanti altri imprevisti tutti intorno. L'era pre-globalistica, che era anche l' epoca pre-europeistica, era vissuta all'insegna dell'impegno e della responsabilizzazione personale di ogni operatore scientifico. La autovalutazione sincera, basata comunque su verifiche, che non scienza sfuggivano ai controlli di autorità precise, nei vari settori disciplinari, era anche la base certa, per una garanzia nella qualità della divulgazione successiva, che poteva prevedere un dosaggio accorto, più fasi e più livelli. Non a tutti serve sapere tutto, ed il tutto non è la somma delle parti. Ma a tutti è giusto fornire un compendio, di quanto potrebbe loro essere utile sapere, ed eventualmente poi approfondire da esperti in formazione. Il filtro e la gradazione delle conoscenze, scelte fra quelle stabili e significative, costituivano motivo di orgoglio personale per gli scienziati, che differenziavano come sarti che lavorano su misura, a seconda dei richiedenti, i loro prodotti, corredandoli volentieri di propri diari di ricerca, a fare fede di quanta passione, e dedicazione sincera, ci debba essere nella ricerca vera, ed anche di quanto sacrificio ogni tappa del percorso faticoso, possa richiedere. La globalizzazione ha portato la divulgazione scientifica ad assumere spesso la forma di autentica propaganda, sulla base di una corsa sfrenata alla notiziabilità spicciola, al ricorso costante ad una teatralizzazione del non ancora verificato, ma già sancito e proclamato come dato reale. Il danno di una ipotesi teorica instabile, circolata ampiamente oggi come metodo stabile ha proporzioni enormi e ricadute evidenti. Una sele- 15 gennaio 2014 zione scientifica mal valutata, che venga poi riabilitata alla luce delle evidenze documentali complete, con il tempo risentirà sempre e comunque della pesante ipoteca iniziale. Una terminologia frettolosamente introdotta, globalmente diffusa, quando ancora mancavano i dati complessivi significativi, già tanto diffusa da rendere gravosa la rettifica impiegherà anni e forse secoli per un riaggiustamento lessicale effettivo. Se il global warming (riscaldamen- to globale) viene oggi ad essere riconosciuto da tutti come un morfologico refuso evidente, di un ben più significativo global warning – climate change (allarme globale, complessivo per un cambiamento climatico che ha punte di calore ma altrettanto forti picchi di gelo), ci si chiede quanto tempo ci vorrà per ricondurre l'inconscio collettivo, per anni subissato dal refuso vigente, ad una considerazione bilanciata, che pur non sottovalutando la entità del 33 scienza 15 gennaio 2014 fenomeno lo riconduca alla sua completa dimensione di dichiarato estremismo delle temperature sia per eccesso, che per difetto. Ammettere che le frettolosità della ricerca estemporanea, asincronica, ubiquita, ai tempi di internet hanno lasciato indietro la valutazione dei dati sulle altrettante freddolosità accertate, costantemente emergenti, perché erano elementi significativi, arrivati troppo tardi ci porta a dovere ripensare il quadro completamente, anche per altri settori del sapere ove si sono verificati fenomeni analoghi, con errori non meno sconcertanti. Le domande di ogni scienziato, che deve essere anche vigile nei confronti della divulgazione dei propri risultati, sono oggi del tutto diverse da quelle che gli attuali comitati paiono avere standardizzato in questionari web, senza tempo e senza luogo. Innanzitutto deve essere rivisto il concetto di 'rilevanza di un prodotto scientifico'. che non significa aderenza sincronica di un concetto esposto in un sommario, o parola chiave, rispetto ad un settore disciplinare attuale, ma piuttosto deriva dal conteggio diacronico sull' asse di previsione della utilità potenziale di un certo percorso scientifico, introdotto in un articolo, in relazione alla traiettoria virtuale e livello possibile, che la disciplina scelta come riferimento, si immagina riesca a raggiungere nel giro di una decina di anni dalla data, di inizio della ricerca rappresentata e compattata nel testo stesso. Non ci può essere scienza corretta in tempo reale. La complessità interdisciplinare negata e non intesa come valore aggiunto, ha provocato uno spread inutile fra capacità di tecnica esposizione di nuove metodologie e portabilità effettiva delle innovazioni introdotte nella realtà accademica. Ciò si deve alla rigidità imposta ai 34 settori disciplinari attuali, dai conteggi ubiquiti e frammentati che si applicano in modalità automatiche e generiche, per permettere a comitati di referee anonimi di gestire comunitariamente la complicazione valutativa, cui si è giunti in un parossismo di micro-detrazioni lessicali destinato a crescere senza limite. Nella globalizzazione che annulla le territorialità, in una europeizzazione costrittiva, si nota una perdita progressiva di spessore teorico, un calo netto verticale nella qualità della scienza, e quindi anche una erosione successiva di attendibilità nella divulgazione. La compressione coatta di tempi di ideazione, compattazione dei risultati provvisori, collettivizzazione degli articoli tecnici, momentaneamente predisposti, portano ad una destabilizzazione costante dei parametri di riferimento, ad una aleatorietà delle conclusioni raggiunte senza verifica allegata, dando luogo ad un fenomeno di deriva accademica di proporzione assai estesa, proprio nel secondo decennio del terzo millennio. Le ricadute sulla divulgazione scientifica sono evidenti e si materializzano in uno scetticismo assoluto, nei confronti di asserzioni a climax ascendente e discendente nelle contraddittorie direttive, nelle guide provvisorie fra gli utenti. Ai divulgatori di oggi spetta il nuovo compito ed imprevisto ruolo di responsabili della trasmissione di asserzioni scazonti, che sono spesso fra di loro in palese contrasto e costante contraddizione, nei confronti di un pubblico di lettori demotivati ed altrettanto spaesati nel villaggio globale. Se la caduta delle pareti divisorie fra aree del sapere, era un fatto positivo nell'ultimo decennio del secolo scorso, e come tale è stata apprezzata, è altrettanto vero che nei secondo decennio del terzo millennio, si devono considerare muri disciplinari, divisorie tematiche come la sola garanzia possibile al dilagare delle imprecisioni, ed aleatorietà, che hanno valenza devastante. Oggi quindi, sia proprio la divulgazione territoriale attenta alle esigenze dei singoli lettori da riconquistare, ad avere la precedenza assoluta, nei confronti della plateale e pletorica disseminazione di dati spuri, di coacervi errori, non più riconducibili ad una matrice, che li risolve riassorbendone gli effetti collaterali, date la proporzioni e propagazioni raggiunte. Possa il buon senso riprendere quella centralità equilibrata che solo si raggiunge con la introduzione di filtri selettivi e di imbuti concettuali precisi e rigorosi. Sia la divulgazione corretta oggi la forza motrice di tale rinnovamento e rinsaldamento di antichi valori non obsolescenti né obsoleti, solo temporaneamente obliterati nella congestione centrifuga dell'oggi iperconnesso, iperaccessoriato, ipercinetico. Graziella Tonfoni. Ricercatrice Universitaria dal 1983, presso l'Alma Mater Studiorum dell'Università di Bologna. Per le sue teorie sulla traduzione e i suoi modelli per la mediazione culturale e la didattica divulgativa responsabile le è stato assegnato nel 1984 il Premio Minerva Donna per la Ricerca Scientifica e la Cultura. E' autrice scientifica e letteraria, fondatrice dei contenuti del Corso di Linguistica Computazionale (1994-2005), docente per Programmi Interdisciplinari Accademici Avanzati (1994-2013). scienza 15 gennaio 2014 L'Agenda digitale del Web 3.0 di Valerio Eletti Il fermento teorico e pratico che avvolge e spinge oggi l'Agenda Digitale ci porta, certo, a riflettere operativamente sulle opportunità offerte dallo sviluppo attuale di Internet, della banda larga e larghissima, dei social network e in generale delle reti sociali, economiche, commerciali, e tecnicoscientifiche che catalizzano fenomeni emergenti capaci di attivare nuove transizioni socio-economiche imprevedibili. Ma, attenzione, in una corretta prospettiva strategica, e non solo tattica, non bisogna rinunciare a guardare contemporaneamente anche più avanti: non verso un lontano futuro, ma nei prossimi anni del decennio in corso, in cui si materializzeranno nuovi sconvolgimenti, causati da fenomeni oggi in crescita silenziosa ma impetuosa: primo, l'esplosione dei big data (conseguenza anche della diffusione dell'Internet delle cose); secondo, l'emergere del Web semantico (il cosiddetto Web 3.0); e, terzo, lo sviluppo e l'affermazione (nel management, nel marketing, nella politica, nella finanza) di un approccio sistemico, complesso e reticolare, con metodi di calcolo e di elaborazione delle informazioni che fa leva su una modalità nuova di pensiero, quella basata sul paradigma cognitivo complesso, circolare, che considera i tradizionali ragionamenti lineari basati sul principio di causa-effetto solo come un sottoinsieme di un più ampio e variegato ventaglio di nuove possibilità del progettare e dell'agire. Proviamo dunque a tracciare qui una primissima mappa della situazione attuale delle reti e delle potenzialità e prospettive emergenti a medio termine, per poter poi passare nei prossimi interventi a mettere a fuoco e a riflettere in profondità e con efficacia pratica sugli strumenti cognitivi con cui dobbiamo attrezzarci per orientarci nel labirinto dei comportamenti delle reti complesse e per capire così come cogliere le opportunità che via via emergeranno dagli scenari in evoluzione. Il tutto mantenendo uno sguardo attento su quelle esperienze concrete che anticipano i trend in atto e che si possono utilizzare quindi come casi di studio significativi per individuare già oggi nuovi filoni di azioni innovative. Fotografia attuale delle reti e del loro uso Sono quattro i filoni principali in cui possiamo suddividere le situazioni e le azioni che generano oggi gran parte delle opportunità di creazione d'impresa e di innovazione grazie al digitale in rete. Il primo “generatore di opportunità” viene dalla diffusione in parallelo indipendente - sia di Internet che della telefonia smart. Il secondo - altrettanto interessante - è il movimento inarrestabile, sempre più veloce ed efficace, che fa convergere le grandi strutture reticolari Internet/www e rete telefonica smart. Il terzo “generatore di opportunità” si può individuare nell'enorme accumulo di data base (pur se non ancora collegati tra loro) che si stanno raccogliendo nelle più disparate memorie delle reti digitali. A lato di tutto ciò continua ad agire capillarmente un'utilizzazione diffusa a livello sempre più globale sia del Web 1.0 (quello ormai “storico” dei sitivetrina, che costituisce ancora l'ossatura del sistema Web), sia del Web 2.0 (quello che, basato sulla bi-direzionalità dei segnali, ha dato vita al formarsi e al moltiplicarsi di social network sempre più interconnessi). Quest'ultimo possiamo considerarlo il quarto “generatore di opportunità”, trasversale agli altri grazie al fatto che attraverso il Web 2.0 si possono realiz- zare indagini di mercato on line, azioni di marketing virale, azioni di organizzazioni dal basso (gruppi d'acquisto, ecc), azioni di organizzazioni dall'alto (e-gov, e-pub, ecc), azioni di speculazione e pirateria (borsa, politica, ecc, in cui il Www si pone come amplificatore e acceleratore di segnali, con feedback sia positivi che negativi, e in genere non controllabili con i mezzi attuali). Potenzialità e prospettive emergenti. E siamo al secondo passaggio di questo mio intervento d'apertura: mettere a fuoco le potenzialità e le prospettive emergenti a breve e medio termine. Come abbiamo visto, i fenomeni che aggiungeranno ancora nuove opportunità all'agenda digitale prossima ventura sono in sostanza due, strettamente intrecciati tra loro: primo, l'affermarsi del cosiddetto Web 3.0, la struttura di comunicazione e informazione che si basa sull'efficacia di motori semantici e agenti intelligenti per “capire” i contenuti dei messaggi postati on line o nelle reti telefoniche smart; secondo, lo sviluppo e lo sfruttamento dei cosiddetti big data, accumulo di enormi data base interconnettibili, ancora difficili da processare, ma visibilmente carichi di pattern nascosti che - individuati con gli strumenti del soft computing - possono rivelare trend e situazioni non altrimenti visibili (nei big data non si cercano risposte a domande precostituite, ma si osserva l'emergere di nuove domande, in una inedita visione di “serendipity sistematizzata”). (l’articolo - presentato al 1° Premio Nazionale di divulgazione Scientifica dell’Associazione Italiana del Libro - è pubblicato nel magazine on line http://www. agendadigitale.eu) Valerio Eletti è direttore scientifico del Complexity Education Project, Laboratorio LABeL Cattid, Università Sapienza di Roma. 35 scienza 15 gennaio 2014 La chirurgia dell’occhio vede lontano di Daniela De Vecchis Non si è ancora all'occhio bionico, ma a un occhio che, in molti casi, può fare a meno di occhiali e lenti a contatto sì, qui ci si è arrivati. A cristallini artificiali che, dall'interno del bulbo, proteggono dai raggi solari pure e, in generale, a soluzioni chirurgiche studiate su misura per il singolo paziente, impensabili fino a non molto tempo fa. Il tutto grazie a microincisioni in regime ambulatoriale, laser sempre più sofisticati e lenti intraoculari. Con poche gocce di anestesia e senza dover tornare a casa con l'occhio bendato. Si può dire che l'oculistica oggi fa davvero miracoli, complice uno sviluppo tecnologico senza pari, più rapido in questo settore che in altre branche della medicina. «L'evoluzione in oculistica è stata continua e costante specialmente dagli anni 80», afferma Luca Iacobelli, oculista responsabile dell'Oftalmologia del Gruppo Ini (l'Istituto neurotraumatologico italiano di Roma), e con docenza presso l'Università di Chieti G. D'Annunzio. «Questo perché vi è molta tecnologia applicata con apparecchiature diagnostiche e terapeutiche, laser e materiale bio-ingegneristico». In-somma, un concentrato hi-tech in grado di cancellare definitivamente i disturbi più comuni, i cosiddetti difetti di refrazione, quelli cioè che non consentono alla retina di focalizzare bene le immagini. Miopia «Miopia, astigmatismo e ipermetropia possono essere eliminati con il laser a eccimeri attraverso tecnica di superficie Prk o tecnica i-Lasik con il nuovo laser a femtosecondi. Questo agisce emettendo impulsi che creano microscopiche bolle, le quali separano il tessuto corneale a profondità prestabilite. I vantaggi non sono da poco: assenza di complicanze dovute al taglio, perfetta qualità visiva per la 36 precisione con cui viene separato il lembo corneale e scomparsa quasi totale dei fastidi per il paziente. Per di più, nei casi in cui è utile, tali tecniche si eseguono in forma personalizzata, consentendo una correzione individuale dei difetti di vista grazie a un esame di aberrometria con il quale si traccia una mappa dell'occhio che evidenzia eventuali alterazioni delle strutture». Tuttavia, non sempre ci si può sottoporre al laser. Per esempio, se si ha una cornea troppo sottile o un difetto di vista molto elevato o nei ritrattamenti di vecchi interventi. «In tutti questi casi è possibile impiantare una lente con una piccola incisione, posizionandola davanti all'iride grazie a quattro piedini che le danno stabilità, senza ricorrere a ulteriori manovre invasive, riuscendo così a correggere miopie fino a 17 diottrie», spiega Iacobelli, tra i pochi in Italia ad avere ottenuto la licenza per l'impianto di queste lenti. Un'operazione che, oltre tutto, è reversibile: la lente si può togliere in pochi minuti senza danni, sempre in regime ambulatoriale e usando un collirio come anestesia. Presbiopia scienza Non è un difetto di refrazione, ma la perdita fisiologica di efficienza del cristallino, e si può correggere. «Due i modi possibili: la tecnica di i-Lasik con il programma PresbiLasik o l'impianto di cristallini artificiali multifocali. La prima consiste nell'applicare ai laser un software in grado di associare al trattamento dei difetti di vista da lontano la correzione del difetto da vicino. Un intervento rivoluzionario, possibile in pazienti che hanno un cristallino trasparente e non presentano patologie oculistiche importanti». Invece l'impianto di cristallini multifocali si esegue in pazienti presbiti e con un importante difetto di vista da lontano o in presbiti con iniziale cataratta: si aspira il cristallino opacizzato e si inserisce il nuovo cristallino multifocale. Il paziente ottiene così l'eliminazione della cataratta e degli occhiali con lo stesso intervento. Questi cristallini hanno inoltre un filtro giallo per i raggi UV, tossici per la retina. Così da ridurre lo sviluppo delle maculopatie senili, dovute anche all'esposizione cronica a raggi solari, e l'eventuale presenza di fotofobia, cioè di fastidio alla luce». Cataratta Il trattamento chirurgico è tra i più diffusi, riguardando ogni anno circa 500mila italiani. «Tradizionalmente la chirurgia della cataratta consiste nell'aspirare il cristallino opaco, dopo averlo frantumato con ultrasuoni tramite un facoemulsificatore, e introdurne uno artificiale. Oggi non si usano quasi più gli ultrasuoni, ma si frantuma e aspira il cristallino con un sistema di microvibrazioni della punta del facoemulsificatore». L'altra 15 gennaio 2014 grande novità è l'applicazione del laser a femtosecondi con il quale si possono eseguire alcune fasi prettamente chirurgiche dell'intervento quali la microincisione iniziale, l'apertura del cristallino e la frantumazione dello stesso, senza dover toccare l'occhio con i ferri chirurgici. «Una volta asportata la cataratta, il cristallino artificiale corregge il difetto di vista presente precedentemente, ma solo in caso di miopia o ipermetropia». Oggi, invece, ed ecco un'altra novità, esiste una vasta categoria di lenti intraoculari, chiamate IOL multifocali o lenti premium, che correggono definitivamente anche l'astigmatismo e la presbiopia». Glaucoma È un'altra tra le patologie oculari molto diffuse e tra le più subdole, perché compromette la vista senza dare sintomi. «Oltre a visite periodiche che possono prevenire il problema, una volta fatta la diagnosi esiste Daniela De Vecchis, giornalista e divulgatrice scientifica, lavora presso l’Istituto Superiore di Sanità un'infinita varietà di colliri efficaci nel ridurre la pressione dell'occhio, i quali, insieme a una terapia orale neuro-protettiva, garantiscono al paziente quasi sempre di non subire una riduzione del visus e del campo visivo. Dove però la terapia con colliri risulti inefficace, esistono tecniche laser parachirurgiche o chirurgiche (trabeculectomia o impianto di valvole) che risolvono spesso il problema in maniera definitiva». Prevenzione Ma se la tecnologia dà un grande aiuto, alla base della buona salute degli occhi sta pur sempre la prevenzione. «Il consiglio è di portare dall'oculista i bambini entro i quattrocinque anni, a meno che non ci siano sintomi che facciano sospettare patologie a carico dell'occhio. Queste ovviamente vanno studiate il prima possibile. La comparsa di strabismo, come pure di continui mal di testa, sono anch'essi validi motivi per portare il piccolo dallo specialista prima del dovuto». (l’articolo - presentato al 1° Premio Nazionale di divulgazione Scientifica dell’Associazione Italiana del Libro - è pubblicato nel numero di aprile 2013 di Class) 37 scienza 15 gennaio 2014 Il mobile learning di fronte e di profilo di Michelle Pieri Introduzione “Finalmente, la rivoluzione mobile è arrivata. Ovunque si guardi, vi sono le prove irrefutabili della penetrazione e dell'adozione dei dispositivi mobili. Telefoni cellulari, Personal Digital Assistant, mp3 player, console di videogiochi portatili, handheld, tablet e laptop abbondano. Nessuna fascia demografica è immune da questo fenomeno. Dai bambini agli anziani, le persone sono sempre più connesse, e comunicano digitalmente in modi che sarebbero stati impossibili da immaginare soltanto alcuni anni fa” (Wagner 2005, p. 42). Di fatto, i dispositivi mobili, che sono diventati parte integrante del nostro quotidiano, a livello globale hanno rapidamente, profondamente e sorprendentemente alterato molti aspetti della vita umana dal punto di vista sociale, economico, culturale e politico. Attualmente nel mondo ci sono più di 5,9 miliardi abbonamenti di telefonia mobile attivi e per la prima volta nella storia, grazie ai dispositivi mobili, la maggioranza degli abitanti della terra, sia nei paesi avanzati che in quelli in via di sviluppo, ha accesso alla tecnologia della comunicazione, e questo apre opportunità educative decisamente interessanti in ambito educativo. Il filone di studi relativo all'uso delle tecnologie mobili nei contesti educativi come strumenti di formazione è il mobile learning. In Europa, come ricordano Kukulska-Hulme et al. (2009), le prime esperienze di mobile learning risalgono agli anni Ottanta e sono state realizzate in alcune scuole del Regno Unito. A partire dagli anni Novanta sono stati realizzati, sempre in ambito anglosassone, i primi progetti di ricerca per approfondire l'uso dei dispositivi mobili nella didattica. Uno dei primi progetti è HandLeR (Handheld Learning Resource) promosso nel 1998 dall'Università di Birmingham 38 (Sharples, Corlett & Westmancott, 2002). Il mobile learning è ora un tema di estrema attualità e rilevanza, dall'inizio del nuovo secolo ad oggi, gli studi e le ricerche in questo campo sono in continuo e rapido aumento. Laouris e Eteokleous (2005), ad esempio, hanno condotto una ricerca su Google inserendo come parole chiave “mobile learning” + “definition”: nel gennaio 2005 i risultati sono stati 1.240, nel luglio dello stesso anno 22.700. Ripetendo la stessa ricerca nel febbraio 2012 i risultati sono stati 19.700.000. Per quanto riguarda i più importanti convegni internazionali sul mobile learning, il convegno mLearn, che si è tenuto per la prima volta nel 2002 nel Regno Unito presso l'Università di Birmingham, dove è nato il già citato progetto HandLeR, e la conferenza internazionale IADIS Mobile Learning, che è stata organizzata per la prima volta nel 2005 a Qawra (Malta), sono ormai diventati eventi annuali. Se a livello internazionale i progetti e i convegni sul mobile learning sono in continuo aumento, in Italia invece le esperienze di mobile learning su larga scala e gli eventi dedicati al mobile learning non sono ancora molto numerosi. Tra gli eventi nel nostro Paese si ricorda, a titolo di esempio, la prima “Giornata di studio sul mobile learning” in Italia, organizzata nel 2010 dal Collaborative Knowledge Building Group (CKBG) in collaborazione con il Centro Interdipartimentale Qua_si dell'Università degli Studi di MilanoBicocca e la Exact Mobile di Sestri Levante, alla quale hanno preso parte diversi ricercatori provenienti da molteplici settori scientifico-disciplinari portando le loro esperienze di mobile learning, per lo più ancora su scala ridotta ma con grandi potenzialità di crescita. Il mobile learning Il mobile learning si differenzia dall'e-learning in quanto “non è solo elettronico, è mobile” (Shepherd, 2001) e viene visto come la sua naturale evoluzione. Di fatto, se con l'e-learning è stato possibile distribuire la formazione direttamente sulla scrivania dei discenti, grazie al mobile learning è possibile mettere a disposizione la formazione e le informazioni ai discenti ovunque essi si trovino e, infine, il wireless mobile learning ha permesso non solo di mettere a disposizione ma anche di aggiornare il training, le informazioni e i dati “in mano” ai discenti ovunque essi si trovino e possano accedere ad una rete wireless. Con il mobile learning la fase di apprendimento non è quindi più vincolata ad un luogo con caratteristiche specifiche, diventando così un apprendimento potenzialmente onnipresente. Il mobile learning, di fatto, dall'inizio del nuovo secolo ad oggi è stato utilizzato negli ambiti più svariati e per le popolazioni più diverse. Tra i principali ambiti di applicazione del mobile learning Kukulska- Hulme et al. (2009) hanno individuato: - scuola, si veda, ad esempio, il progetto ENLACE (Verdejo et al., 2007). - università, si veda, ad esempio, il progetto myPad (Whittlestone et al., 2008). - musei e ambienti di apprendimento informale, si veda, ad esempio, il progetto MyArtSpace (Vavoula et al., 2007). sviluppo professionale e ambienti di lavoro, si veda, ad esempio, il progetto Flex-Learn (Gjedde, 2008). Senza voler mettere in secondo piano i vantaggi offerti dai dispositivi mobili nella formazione, come, ad esempio, il ruolo delle tecnologie mobili nel situare l'apprendimento in contesti autentici, di norma nelle esperienze di apprendimento non vengono utilizzati solo i dispositivi mobili, ossia nella maggior parte dei casi si opta per soluzioni di tipo blen- scienza ded nelle quali si alternano strumenti mobili, tecnologie fisse e/o momenti di formazione in presenza. Tra i fattori che hanno favorito la nascita e la crescita del mobile learning, e che contribuiscono al suo successo, vi sono indubbiamente la larga, e sempre crescente, diffusione dei dispositivi mobili, la loro trasportabilità e la loro versatilità, in molti casi lo stesso dispositivo mobile può essere utilizzato per telefonare, ascoltare musica in formato mp3, accedere alla rete, fare fotografie e prendere annotazioni. La possibilità di accedere ad una rete wireless per lo scambio di informazioni e la creazione di reti di comunicazione tra i partecipanti ad un corso (Corlett, Sharples, Bull & Chan, 2005) e ovviamente la crescente diffusione delle reti wireless sono altri due elementi che concorrono alla diffusione di questa nuova metodologia formativa. Tra i punti deboli del m-learning, che sono principalmente legati all'usabilità dell'hardware, vi sono: la ridotta grandezza dello schermo, la memoria limitata, la breve durata della batteria e la tastiera di piccole dimensioni o talvolta assente (per un approfondimento sul tema si veda, ad esempio, Kukulska-Hulme, 2007). Tuttavia sia i 'nativi' che i 'migranti' digitali sono già abituati ad utilizzare quotidianamente dispositivi mobili, con schermo e tastiera di dimensioni ridotte. Verso una teoria del mobile learning Come osservano Sharples, Taylor e Vavoula (2005), quasi tutte le teorie dell'apprendimento elaborate fino ad oggi partono dal presupposto che l'apprendimento avvenga all'interno di un luogo, di norma un'aula, in cui docente e discente sono fisicamente co-presenti, e ad opera di un docente, ossia di una persona che ha avuto una formazione ad hoc per insegnare. 15 gennaio 2014 Esiste solo un ridotto numero di teorie (si vedano, ad esempio, Illich, 1971; Freire, 1972; Argyris & Schön, 1996) che prendono in considerazione l'apprendimento al di fuori dell'aula, ma nessuna di queste teorie prevede la possibilità che il docente e/o il discente siano in movimento. Per colmare questo vuoto Sharples, Taylor e Vavoula (2005) propongono una teoria del mobile learning che non deve essere considerata alternativa alle teorie classiche dell'apprendimento ma deve essere vista come una loro integrazione, dal momento che apporta un valore aggiunto dato dalla peculiarità degli strumenti e delle modalità che supportano la trasmissione della conoscenza in questa metodologia formativa. Sharples, Taylor e Vavoula (2005) per sviluppare questa teoria partono dai progetti che hanno realizzato nel campo del mobile learning e dalle seguenti considerazioni. In primis, secondo questi ricercatori per elaborare una teoria del mobile learning bisogna comprendere quali sono le differenze che intercorrono tra il mobile learning e le altre metodologie formative, ossia quali sono le specificità che contraddistinguono il mobile learning. La prima evidente differenza M. Pieri, Il mobile learning di fronte e di profilo 5 tra il mobile learning e le altre metodologie formative è data dal fatto che coloro che sono coinvolti nel processo di apprendimento (discenti e/o docenti) possono essere in movimento, ossia l'apprendimento avviene attraverso lo spazio e il tempo. Di norma le persone, nell'arco della giornata svolgono molteplici attività diverse in molteplici luoghi diversi e hanno un contatto altalenante con le tecnologie. Bisogna quindi comprendere come progettare e utilizzare le tecnologie mobile per supportare la formazione in una società come quella attuale nella quale le persone si muovono sempre di più e hanno sempre più bisogno di utilizzare gli attimi liberi dagli impegni quotidiani a fini formativi per un apprendimento lungo tutto l'arco della vita (lifelong learning). Per elaborare il loro framework teorico Sharples, Taylor e Vavoula (2005) tengono in considerazione i parametri elaborati dall'US National Research Council (1999). Secondo questi parametri l'apprendimento efficace deve essere centrato su: - studenti: l'apprendimento deve essere costruito partendo dalle capacità e dalle conoscenze degli studenti, per porre gli studenti nelle condizioni migliori per riflettere e ragionare sulla propria esperienza; - conoscenze: la formazione deve basarsi sulla trasmissione di nozioni solide e scientificamente validate attraverso l'uso efficace di metodi appropriati; - valutazione: il fine della valutazione deve essere quello di fornire consigli e suggerimenti utili allo studente per raggiungere l'obiettivo prefissato; - comunità: gli studenti con i risultati migliori, ad esempio, devono condividere le conoscenze e supportare i compagni in difficoltà. Questi parametri si basano su un approccio di matrice socio costruttivista nel quale l'apprendimento viene concepito come un processo attivo di costruzione della conoscenza e delle abilità tramite la pratica esperita all'interno di una comunità che supporta il discente. Secondo Sharples, Taylor e Vavoula (2005) un approccio di questo tipo si adatta a una teoria del mobile learning in cui teoricamente, tramite un forum o una chat, i discenti possono, ad esempio, chiedere chiarimenti e suggerimenti in qualsiasi momento e da qualsiasi luogo e il docente e/o gli altri discenti partecipanti al percorso di apprendimento possono potenzialmente rispondere loro in qualsiasi momento 39 scienza 15 gennaio 2014 e da qualsiasi luogo. In quest'ottica, il ruolo di docente/di-scente può risultare meno netto rispetto a quello proprio del “classico” apprendimento in presenza. Inoltre in questi ultimi anni, si sta assistendo alla convergenza delle tecnologie mobili, come già accennato, ci sono sul mercato dispositivi mobili che hanno contemporaneamente più funzioni, ad esempio sono telefono e videocamera al tempo stesso. Un'altra importante convergenza si sta avendo tra le nuove tecnologie mobili personali e il lifelong learning, ad esempio, da una parte, l'apprendimento è stato riconcettualizzato come un'attività personalizzata e centrata sul discente (Leadbetter, 2005), dall'altra, le tecnologie offrono sempre più servizi personalizzati, basti pensare al music play list e al calendario digitale. L'apprendimento è stato riconcettualizzato come un'attività situata e collaborativa (Brown, Collins & Duguid, 1989), che avviene ovunque le persone, collettivamente o individualmente, hanno problemi da risolvere o conoscenze da condividere, ugualmente le tecnologie connesse in rete permettono alle persone di comunicare indipendentemente dal luogo in cui si trovano, la tecnologia, al pari dell'apprendimento, è ubiquitaria. Sharples, Taylor e Vavoula (2005) per elaborare la loro teoria si basano sui risultati del progetto MOBIlearn, a cui si è già accennato in questo capitolo: - È il discente a essere in movimento piuttosto che la tecnologia. Dagli studi condotti all'interno del progetto MOBIlearn sull'apprendimento quotidiano emerge che le interazioni fra l'apprendimento e la tecnologia sono complesse: il dispositivo utilizzato per l'apprendimento non sempre è di proprietà del soggetto ma spesso il soggetto, che è in movimento, ad esempio in trasferta, utilizza il dispositivo di qualcun altro. Questo implica che una 40 teoria del mobile learning debba tenere in considerazione le seguenti situazioni: 1. sia l'utilizzatore che il dispositivo sono “in movimento”, 2. solo l'utilizzatore è “in movimento”. - Non è possibile scindere l'apprendimento dalle attività che il soggetto svolge quotidianamente come, ad esempio, parlare con altre persone o leggere un libro dato che anche queste due attività possono essere considerate delle situazioni nelle quali il soggetto apprende. - Il controllo e la gestione dell'apprendimento possono essere distribuiti: mentre in una classe la gestione dell'apprendimento è completamente nelle mani del docente, nel mobile learning può essere distribuita fra i discenti, i docenti e le risorse che vengono fornite o che il soggetto cerca autonomamente e mette a disposizione degli altri partecipanti al percorso di apprendimento. M. Pieri, Il mobile learning di fronte e di profilo 7 - Il contesto viene costruito dai discenti attraverso l'interazione: il contesto di apprendimento non è facilmente rappresentabile nel mobile learning, non solo in quanto non è fisicamente delimitato ma anche perché è qualcosa di estremamente dinamico che muta a seconda delle mutevoli esigenze dei discenti. - Il mobile learning può, al tempo stesso, integrare, ma anche eventualmente entrare in conflitto con l'educazione formale. Si può parlare di integrazione, quando, ad esempio, il discente approfondisce le nozioni ricevute dal docente tramite l'utilizzo di dispositivi mobili. Si può parlare invece di conflitto quando si assiste all'utilizzo indiscriminato delle tecnologie mobili da parte dei discenti durante l'apprendimento frontale che determina una diminuzione della loro attenzione nei confronti dell'insegnante. - Il mobile learning può avere anche delle ricadute etiche sulla privacy e sulla proprietà: sono stati creati dei dispositivi che consentono la registrazione di voci e immagini; questo se, da una parte, può essere molto utile, dall'altra, può generare delle problematiche legate alla violazione della privacy. - Il mobile learning idealmente dovrebbe raggiungere il potenziale discente utilizzando un dispositivo che il discente già possiede. In questo caso al soggetto non viene richiesto di acquistare un dispositivo che utilizzerà esclusivamente per una funzione ma il mobile learning si propone come un ampliamento delle funzioni che il soggetto può svolgere con il suo dispositivo. Alcuni degli assunti sopra riportati non si riferiscono esclusivamente al mobile learning, mentre altri si riferiscono in modo specifico al mobile learning: la mobilità, con riferimento allo strumento utilizzato e alla persona che lo utilizza, e l'interazione fra colui che apprende e la tecnologia utilizzata a tale scopo. È importante evidenziare che ciò che caratterizza il mobile learning non è tanto il fatto che venga utilizzato un nuovo strumento come tramite fra il docente e il discente, quanto le specifiche interazioni che i nuovi dispositivi consentono di creare; a questo proposito Sharples, Taylor e Vavoula (2005) parlano di una vera e propria “conversazione all'interno di un contesto, resa scienza possibile dalle continue interazioni tra coloro che apprendono e fra questi ultimi e la tecnologia”. Sharples, Taylor e Vavoula (2005) applicano la teoria dell'attività storico-culturale all'analisi del sistema di attività del mobile learning, 8 Mobile learning. Esperienze e riflessioni “made in Italy” descrivendo una relazione dialettica tra la tecnologia e l'apprendimento attraverso una versione riadattata del modello dell'attività espansiva di Engeström (1987). Sharples, Taylor e Vavoula (2005), in linea con la teoria dell'attività, analizzano l'apprendimento come un sistema di attività storico-culturale, mediate dai mezzi che vincolano e supportano i discenti nella trasformazione e nell'acquisizione di conoscenze e competenze. Nell'analisi delle attività del mobile learning Sharples, Taylor e Vavoula (2005) individuano due livelli di attività mediate dal mezzo. Il livello semiotico descrive l'apprendimento come un sistema nel quale le azioni orientate all'oggetto del discente sono mediate da segni e mezzi culturali. Il discente internalizza il linguaggio comune, scritto e parlato, come pensiero privato che gli fornisce le risorse per controllare e sviluppare l'attività (Vygotsky, 1978). Il livello tecnologico rappresenta l'apprendimento come un coinvolgimento con la tecnologia, nel quale i mezzi, ad esempio i telefoni cellulari, fungono da agenti interattivi, nel processo di apprendimento, creando un sistema di tecnologia umano, per mediare la collaborazione tra i discenti e per favorire la riflessione. Questi due livelli possono essere presi in considerazione separatamente, per fornire o un framework semiotico agli esperti di educazione come base per analizzare l'apprendimento nell'era della mobilità, o un framework tecnologico agli esperti di tecno- 15 gennaio 2014 logie per proporre i requisiti per la progettazione e la valutazione dei sistemi di mobile learning. O i due livelli possono essere sovrapposti per prendere in considerazione il sistema olistico dell'apprendimento. In questo caso, il livello semiotico si fonde nel livello tecnologico per formare una categoria più ampia delle tecnologie piuttosto che degli artefatti fisici. Seguendo Dewey (Hickman, 1990), si potrebbe descrivere la tecnologia come qualsiasi mezzo che serve per apprendere, dando alle persone la capacità di affrontare problemi nel loro contesto, risolverli e trasformarli in nuovo sapere. Perciò i computer, le lingue e le idee possono tutti essere qualificati come tecnologie per l'apprendimento e non c'è nessuna chiara distinzione tra il livello semiotico e quello tecnologico. Sharples, Taylor e Vavoula (2005) nel loro framework non propongono la separazione del livello semiotico e di quello tecnologico, né tanto meno la fusione dei due livelli, ma vogliono instaurare una dinamica continua nella quale il livello tecnologico e quello semiotico possono essere messi insieme o separati creando un motore che porta avanti l'analisi del mobile learning. M. Pieri, Il mobile learning di fronte e di profilo 9 L'apprendimento è un sistema socio-culturale, all'interno del quale molti discenti interagiscono per creare un'attività collettiva basata su vincoli culturali e pratiche storiche. Engeström (1987) analizza l'attività collettiva attraverso un framework esteso che mostra l'interazione tra attività mediate da mezzi e regole, comunità e divisioni del lavoro culturali. Sharples, Taylor e Vavoula (2005) hanno rinominato i fattori culturali con i termini: controllo, contesto e comunicazione. Questi nuovi termini potrebbero essere usati sia da esperti di educazione che da esperti di tecnologie; naturalmente, questo comporta l'eventualità che i termini vengano interpretati in modo diverso dai due gruppi di esperti e portino a fraintendimenti e incomprensioni reciproche. Per questo motivo Sharples, Taylor e Vavoula (2005) sottolineano l'importanza di chiarire il significato di questi termini. Il controllo dell'apprendimento può rimanere fondamentalmente nelle mani di una persona, ad esempio l'insegnante, o può essere distribuito tra i discenti, o può passare dai discenti alle tecnologie (si pensi alla computerbased instruction). Il benefit tecnologico nasce dal modo in cui l'apprendimento viene distribuito: i discenti possono, da una parte, accedere al materiale quando lo desiderano, dall'altra, controllare l'andamento dell'interazione. L'uso della tecnologia avviene all'interno di un sistema sociale formato da persone e da tecnologie. Le regole sociali e le convenzioni stabiliscono ciò che è accettabile e ciò che non è accettabile (ad esempio: come scrivere una e-mail ad una determinata persona in un determinato contesto). Le 41 scienza 15 gennaio 2014 attitudini di una persona nei confronti della tecnologia possono essere influenzate da quello che le altre persone che la circondano pensano riguardo a questa tecnologia. Ad esempio, vi sono persone che presentano molte resistenze nei confronti di una determinata tecnologia, altre che sono entusiaste all'idea di sperimentarla. Le persone e i gruppi possono anche costruire norme informali relative al modo in cui vogliono lavorare e apprendere. Il contesto dell'apprendimento è un costrutto importante ma il termine «contesto» ha connotazioni diverse per i diversi teorici. Dalla prospettiva tecnologica c'è stato un dibattito per comprendere se il contesto possa essere isolato e modellato in un sistema computazionale o se dipende dall'interazione. Il contesto include anche le molteplici comunità di attori, le persone e le tecnologie interattive, che interagiscono intorno a un obiettivo condiviso (Sharples, 2005). La relazione dialettica tra il livello semiotico e il livello tecnologico è forse più semplice da vedere in relazione alla comunicazione. Se il sistema tecnologico permette certe forme di comunicazione (come, ad esempio, l'e-mail), i discenti iniziano ad adattare le loro comunicazioni e le loro attività di apprendimento di conseguenza. I bambini e gli adolescenti, ad esempio, stanno sempre più spesso «andando on-line» a casa, creando network di interazione attraverso le conversazioni telefoniche, i messaggi di testo, le e-mail, i social network e le messaggerie istantanee che fondono lo svago e lo svolgimento dei compiti nello stesso flusso di conversazione. Così i bambini e gli adolescenti prendono confidenza con la tecnologia e si abituano alla tecnologia, inventano nuovi modi di interagire, basti pensare alle emoticon e al gergo utilizzato, ad esempio, in determinati gruppi on42 line. Questo crea nuove regole e comunità esclusive. Questa appropriazione della tecnologia non solo porta alla creazione di nuovi modi di apprendere e di lavorare, ma può anche entrare in conflitto con le tecnologie e le pratiche esistenti. Per esempio, i bambini possono minare l'interazione costruita con attenzione all'interno dell'aula comunicando tra di loro via sms all'insaputa dell'insegnante. Dall'al-tro lato, su scala più ampia, le compagnie telefoniche spingono verso un mercato per le tecnologie che supportano l'interazione come, ad esempio, la condivisione dei file e le messaggerie istantanee. In tal modo, quindi, c'è una continua co-evoluzione di tecnologia e comunicazione umana. Il framework elaborato da Sharples, Taylor e Vavoula (2005) è di estrema utilità sia per l'analisi dell'apprendimento nel mondo mobile sia per la progettazione delle nuove tecnologie e dei nuovi ambienti per l'apprendimento. Sharples, Taylor e Vavoula (2005) descrivono l'apprendimento come un processo labile di coming to know attraverso la conversazione in un contesto, per mezzo della quale i discenti in cooperazione con i pari e i docenti, costruiscono interpretazioni transitorie del loro mondo. L'apprendimento è mediato dalla conoscenza e dalla tecnologia come strumenti per produrre ricerca, in una relazione di reciproco sostegno e dinamicamente mutevole. La mediazione può essere analizzata dalla prospettiva tecnologica dell'interazione uomocomputer, del contesto fisico e della comunicazione digitale, e può essere analizzata da una prospettiva umana che include le convenzioni sociali, la comunità, la conversazione e la divisione del lavoro. Queste due prospettive interagiscono per promuovere una co-valutazione dell'apprendimento e della tecnologia. M. Pieri, Il mobile learning di fronte e di profilo 11 Sharples, Taylor e Vavoula (2005) sottolineano che le implicazioni di questa riconcettualizzazione dell'educazione sono profonde. Ciò descrive un processo cibernetico dell'apprendimento attraverso una continua esplorazione del mondo e una negoziazione del significato, mediate dalla tecnologia. Questo può essere visto come una sfida per l'apprendimento formale, ma anche come un'opportunità per connettere l'apprendimento formale e l'apprendimento informale, aprendo così, ad esempio, nuove possibilità per il lifelong learning. (il saggio - presentato al 1° Premio Nazionale di Divulgazione Scientifica dell’Associazione Italiana del Libro - è pubblicato in Mobile Learning, Esperienze e riflessioni “made in Italy”, a cura di Michelle Pieri, Progedit, 2012) Michelle Pieri ha conseguito il dottorato di ricerca presso l’Università degli Studi di Pavia. Specializzata in Analisi e gestione della comunicazione pubblica e d’impresa e in Insegnamento secondario (SSIS), indirizzo linguistico letterario, dal 2005 collabora con il Centro Interdipartimentale QUA_SI (Qualità della vita nella Società dell’Informazione) e lavora presso il Dipartimento di Scienze Umane per la Formazione «Riccardo Massa» dell’Università degli Studi di Milano-Bicocca. I suoi interessi di ricerca si focalizzano principalmente sulle tecnologie in ambito educativo, nello specifico si occupa di e-learning, mobile learning, tecnologie per l’inclusione scolastica degli studenti con disabilità e tecnologie nel rapporto casa-scuola.
© Copyright 2024 Paperzz