TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ” ANNO XII N. 02 ƒ 2 010 EDITORIALE Il ghiaccio è rotto! GRUPPO MISURE ELETTRICHE ED ELETTRONICHE AFFIDABILITÀ & TECNOLOGIA IL TEMA: TRASFERIMENTO TECNOLOGICO Il trasferimento di Tecnologia - I Il consorzio In.Bio Conosciamo i Business Angels! Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 2 - Anno 12 - Giugno 2010 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi TUTTO_MISURE - ANNO 12, N. 02 - 2010 ALTRI TEMI Termografia lock-in Microscopia SHG Caratterizzazione UV-Vis-IR di plastiche Test di vibrazione su microsatellite ALMASat-1 Test interoperabilità DSL ARGOMENTI Compatibilità e.m.: analizzatori di spettro IMP: La ridefinizione del kelvin Manipolazione degli oggetti nella 17025 Metrologia legale: competenze Camere Torino 13-15 aprile 2011 Torino Metrologia & Qualità 13-14 aprile 2011 WWW.AFFIDABILITA.EU TUTTO_MISURE ANNO XII N. 02 ƒ 2010 IN QUESTO NUMERO Il Consorzio In.Bio: trasferimento tecnologico nel settore delle Biotecnologie The In.Bio Consortium: technology transfer in biotechnology P. Polito S. Procacci S. Canese Editoriale: Il ghiaccio è rotto! (F. Docchio) 85 Comunicazioni, Ricerca e Sviluppo dagli Enti e dalle Imprese Ricerca e Sviluppo nel campo delle misure e della strumentazione Notizie da Enti e Associazioni 87 91 Il tema: Trasferimento Tecnologico Il trasferimento di tecnologia (F. Docchio) Il Consorzio In.Bio (P. Polito, S. Procacci, S. Canese) Conosciamo i Business Angels! In breve: il CSMT 95 101 105 107 Gli altri temi: la Microscopia Microscopia SHG (R. Cicchi, L. Sacconi, F. Vanzi, F.S. Pavone) 109 Gli altri temi: la Misura del Colore Caratterizzazione UV-Vis-NIR di plastiche (C. Cucci, M. Picollo) 113 Gli altri temi: Misure e Prove non distruttive Termografia lock-in (E. Dati, L. Manduchi) 119 A. Merlone F. Moro Gli altri temi: Misure Meccaniche Test di vibrazione condotti sul microsatellite ALMASat-1 (D. Bruzzi et al.) 123 139 Gli altri temi: Misure per le TLC Test di interoperabilità DSL (D. Bao, A. Cavuoto, D. Nardone, G. Truglia) 129 Campi e Compatibilità elettromagnetica Disturbi Impulsivi (C. Carobbi, M. Cati, C. Panconi) 133 101 La ridefinizione del kelvin mediante la determinazione del valore della costante di Boltzmann An upgrade of the definition of the kelvin through the Boltzmann constant Le Misure e la loro evoluzione. Parte II - Un linguaggio mondiale Measurements and their historical evolution part II: a global language Lo spazio del GMEE e del GMMT Il Gruppo di Misure Meccaniche dell’Università di Padova (E. Lorenzini, S. Debei, F. Angrilli) 136 Notizie dal GMEE 137 M. Savino Lo spazio degli IMP La ridefinizione del kelvin (A. Merlone, F. Moro) 139 151 Manifestazioni, eventi e formazione VII edizione di Metrologia & Qualità: Call for papers Affidabilità & Tecnologie 2010: l’evento cresce ancora! Eventi 2010-2011 Metrologia per capillarità (G. Miglio) 143 144 146 147 Norme e decreti Manipolazione degli oggetti nella 17025 Parte II (N. Dell’Arena) Scheda: la Metrologia Legale (E. Perrotta) 149 151 Storia e curiosità Le misure e la loro evoluzione. Parte II (M. Savino) Il patrimonio strumentale del Liceo Reale di Lucca (E. Borchi, R. Nicoletti, G. Juculano) 152 156 Abbiamo letto per voi 160 Galvanometri e strumenti di Nobili The instrumental treasure of the royal lycaeum of Lucca Part III: galvanometers and nobili’s instruments E. Borchi R. Nicoletti G. Juculano 156 News 118-127-128-134-142-148-150-159 T_M N. 2/10 ƒ 83 Franco Docchio EDITORIALE ▲ Il ghiaccio è rotto! We’re on the go! Cari lettori! Per ironia della sorte, sono stato l’ultimo a ricevere il primo numero della rivista: mi trovavo negli Stati Uniti per un viaggio di studio e ho potuto “toccar con mano” la mia “creatura” solo al mio ritorno. Ho ricevuto invece alcuni lusinghieri commenti riguardo alle (poche) innovazioni apportate all’impianto solido della rivista. Queste, e la contestuale mancanza di critiche, mi rasserenano: confesso di essere stato abbastanza preoccupato! Non nascondo la mia soddisfazione nel constatare quanto significativo stia diventando il contributo delle imprese alla rivista: aumentano le inserzioni pubblicitarie ma soprattutto aumenta il numero d’imprese che invia contributi (articoli, memorie), segno dell’interesse verso la rivista ma soprattutto (speriamo!) del rinnovato interesse verso la ricerca applicata, ora che la profonda crisi economica sembra allentare la sua morsa. Riportiamo, a onore del nostro Editore che lo organizza, il successo dell’Edizione 2010 di “Affidabilità e Tecnologie”, che ha bissato l’incremento del 2009 e ha visto la partecipazione di numerose imprese operanti nel campo dell’ottica, della visione e dell’Automazione Industriale. Ora l’Editore ha già iniziato a lavorare all’edizione 2011, che si svolgerà in concomitanza alla VII edizione della Mostra Convegno “Metrologia e Qualità”. Anche qui, mi è gradito l’onere di stimolare contributi al convegno da parte d’imprese attive nel settore delle misure, dei sensori, della metrologia e del Controllo qualità! A livello nazionale, archiviate le Elezioni Regionali, il mondo accademico sta seguendo con particolare attenzione l’iter legislativo del D.D.L. 1095 sulla riforma della Governance di Ateneo (la cosiddetta riforma Gelmini dell’Università), in questi giorni al vaglio del Senato. A parte un diffuso scetticismo da parte delle Università (ma non solo) sul fatto che si possa impostare una coraggiosa e impegnativa (e soprattutto necessaria) riforma dell’Università “senza oneri per lo Stato” (non sto a tediarvi su quanto il Governo Federale U.S.A. ha investito e sta investendo nelle Università americane per combattere la recessione e per rilanciare l’economia!), preoccupa non poco l’atteggiamento “livellatore” dei legislatori nei confronti di una delle categorie più importanti dell’Università (almeno per quanto riguarda i lettori di questa rivista): quella dei Ricercatori Universitari. Il passaggio dal ruolo di “Ricercatore a tempo indeterminato” a quello di “Ricercatore a tempo determinato” (6 anni) è invero in linea con le maggiori realtà estere (anche se i livelli retributivi a confronto ci penalizzano alquanto): ciò che i legislatori non stanno tutelando abbastanza (nella versione attuale del Disegno) è invece la figura dell’attuale Ricercatore a tempo indeterminato nella fase di transizione dal vecchio al nuovo. Auspichiamo una definizione della materia a breve: in caso contrario assisteremmo a giustificate forme di protesta dei Ricercatori già pesantemente impegnati nel supporto alla Didattica. Il secondo numero di Tutto_Misure ha come leitmotiv (come promesso) il Trasferimento Tecnologico. Mettiamo qui a vostra disposizione alcune delle nostre competenze (e convinzioni) sul tema della gestione della Proprietà Intellettuale, sperando che ciò possa aprire un dibattito sul tema, e presentiamo due iniziative di Centri per la Ricerca Applicata e Trasferimento Tecnologico: In.Bio e CSMT. Infine apriamo il sipario sulla figura dei Business Angels a supporto del finanziamento di giovani Start-up imprenditoriali. Ancora una volta, buona lettura! Franco Docchio T_M N. 2/10 ƒ 85 COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE ▲ La Redazione di Tutto_Misure ([email protected]) Ricerca e Sviluppo nel campo delle Misure e della Strumentazione R&D IN MEASUREMENT AND INSTRUMENTATION This article contains an overview of relevant achievements of Italian R&D groups, in the field of measurement science and instrumentation, at both theoretical and applied levels. Sources of information are the main Measurementrelated journals, as well as private communications by the authors. Industries are the main targets of this information, as it may be possible to find stimuli towards Technology Transfer. RIASSUNTO L’articolo contiene una panoramica dei principali risultati scientifici dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Fonte delle informazioni è costituita dalle principali riviste di misure, e da comunicazioni private degli autori. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. RICERCA DI BASE IN METROLOGIA INRIM-POLITO: le caratteristiche metrologiche del laboratorio di taratura dell’anemometro rotante dell’INRIM A. Piccato, R. Malvano e P.G. Spazzini1: Metrological features of the rotating low-speed anemometer calibration facility at INRIM, Metrologia 47, 47-57, 2010. Viene presentata la strumentazione standard di INRIM a braccio rotante (RA) per anemometria a bassa velocità (da 0,20 ms–1 a 5,00 ms–1), basata sul principio di reciprocità. Lo strumento è montato all’estremità di un braccio lungo circa 3,5 m, che ruota intorno a un asse. La misura della velocità dell’estremità è riferibile a campioni primari di lunghezza e tempo, in quanto ottenuta da misure del raggio e della frequenza angolare. L’articolo discute degli errori sistematici e della loro compensazione e calcola il budget d’incertezza. macchine a coordinate per metrologia a larga scala F. Franceschini, D. Maisano, L. Mastrogiacomo, B. Pralio2: Ultrasound Transducers for LargeScale Metrology: A Performance Analysis for Their Use by the MScMS, IEEE Trans. Instrum. Meas. 59, 110-121 (2010). Viene descritto un sistema mobile di misura di coordinate spaziali (MScMS) basato su una rete di sensori a ultrasuoni distribuiti, per la misura di oggetti di larga scala. Un insieme di ricetrasmettitori a ultrasuoni (grilli) si trasmettono mutuamente segnali, e la distanza reciproca è determinata dal tempo di volo dei segnali. Il MScMS è in grado di calcolare le coordinate cartesiane dei punti della superficie dell’oggetto toccata dalla sonda mobile. L’articolo descrive la caratterizzazione dei singoli ricetrasmettitori, e identifica i principali fattori che influenzano le prestazioni degli stessi, con suggerimenti riguardo al miglioramento di queste ultime. STRUMENTAZIONE DI MISURA Dal Politecnico di Torino l’uso di sensori a ultrasuoni abbinato a Carobbi Misure di corrente a R.F. dall’Università di Firenze C. Carobbi, L.M. Millanta3: Circuit Loading in Radio-Frequency Current Measurements: The Insertion Impedance of the Transformer Probes, IEEE Trans. Instrum. Meas. 59, 200204 (2010). Effetti di carico delle sonde di corrente a RF a trasformatore possono influenzare l’accuratezza delle misure a RF. Gli autori studiano un modello fisico del sistema che consiste in un’impedenza in serie al flusso di corrente, correlata alle caratteristiche fisiche della sonda. Gli studi teorici e sperimentali su questo modello vengono applicati al miglioramento dell’accuratezza delle misure d’impedenza del tipo V/I. Incertezza in mammografia digitale da Roma Tor Vergata A. Mencattini, G. Rabottino, S. Salicone, M. Salmeri4: Uncertainty Modeling and Propagation through RFVs for the Assessment of CADx Systems in Digital Mammography, IEEE Trans. Instrum. Meas. 59, 27-38, 2010. Viene descritta la gestione e la propagazione dell’incertezza mediante variabili casuali fuzzy (RFVs) attraverso un sistema di diagnosi digitale (CADx) per la diagnosi precoce di tumori al seno, con particolare riferimento all’effetto delle microcalcificazioni. Il sistema è analizzato dal punto di vista metrologico. Si assume che l’incertezza associata a ogni pixel dell’immagine RX sia costituita da una componente casuale e da una sistematica non trascurabile. Di conseguenza viene effettuata una stima preliminare della varianza di rumore e successivamente, mediante operatori nelle RFVs, si valuta la propagazione dell’incertezza attraverso il sistema. Caratterizzazione metrologica di emissioni elettromagnetiche dall’Università di Genova A. Mariscotti6: Assessment of Elec- T_M N. 2/10 ƒ 87 N. 02ƒ ;2010 mo, corredato di una sua sorgente di potenza (normalmente una batteria). Dunque è importante limitare qualsiasi causa di spreco di energia. In genere I nodi spendono la maggior parte del tempo nella modalità low-power, per massimizzare la durata di vita: tuttavia in questo caso è necessario attendere qualche tempo per il transitorio di accensione del nodo, specie se le misure sono ad alta accuratezza. Gli autori discutono l’implementazione di un algoritmo di filtro per ridurre questo tempo, algoritmo basato sulla combinazione ibrida di un filtro a media e di uno a mediana, e che combina i vantaggi del filtraggio lineare e di quello non lineare. I risultati vengono applicati a due protoCastellanza e Trento: Raffronto tipi wireless per misure di temperature e di estimatori umidità, con test delle prestazioni in terD. Macii, L. Mari, D. Petri7: Compa- mini di tempo di calcolo, consumo e rison of Measured Quantity capacità di filtrare il rumore. Value Estimators in Nonlinear Models, IEEE Trans. Instrum. Meas. SENSORI E RETI DI SENSORI 59, 238-246 (2010). Il criterio per la scelta del metodo per stimare i valori del misurando nel caso di Roma Tor Vergata in collaboramisure ripetute non è trattato con chia- zione con Linköping (Svezia) rezza nella Guida all’Espressione dell’In- nel campo dei sensori analitici certezza di Misura (GUM). Gli autori per sostanze alimentari prospettano che ciò sia dovuto a man- L. Tortora9a, M. Stefanellia, M. Macanza di una chiara distinzione tra i con- stroiannia, L. Lvovaa, C. Di Nataleb, cetti d’incertezza di definizione e di A. D’Amicob, D. Filippinic, I. Lundacquisizione. Mentre una distinzione tra strömc, R. Paolessea: The hyphenale due non è necessaria quando il model- ted CSPT-potentiometric analylo di misura è lineare, può diventare cri- tical system: an application for tica quando il valore della quantità misu- vegetable oil quality control, rata è risultato di una funzione non linea- Sensors and Actuators B – Chemical. re. Dunque, nel lavoro sono confrontati i La ricerca nel settore dei sensori analitidue metodi raccomandati nella GUM ci per l’identificazione di sostanze aliper la stima di un misurando risultante da mentari è più che mai attiva in Italia, una funzione di una singola quantità anche in collaborazione con prestigiosi d’ingresso; ciò porta ad alcuni criteri per istituti Universitari e imprese esteri. I selezionare il metodo più opportuno ricercatori di Tor Vergata hanno utilizzasulla base del rapporto tra incertezza di to la “computer screen photo-assisted technique” (CSPT) per lo sviluppo di un definizione e di acquisizione. array di sensori ottico-potenzometrico, Filtraggio di segnale in nodi di basato su materiali profirinoidi dispersi in membrane di PVC. Gli strati sensibili sensori autonomi da Brescia A. Depari, A. Flammini8, D. Marioli, M. sono stati depositati su vetrini di ITO Serpelloni, E. Sisinni, A. Taroni: Efficient (indium tin oxide), che costituivano gli Sensor Signal Filtering for Autono- elettrodi, al fine di eseguire misure mous Wireless Nodes, IEEE Trans. potenziometriche e ottiche di cromofori. Il comportamento dei sensori, sperimenInstrum. Meas. 59, 229-237 (2010). Le reti di sensori wireless sono oggi una tato dapprima su analiti campione, è realtà. Tuttavia, un nodo wireless dev’es- stato poi sperimentato per la discriminasere un vero e proprio sistema autono- zione di oli di oliva da oli di semi. I risul- ▲ tromagnetic Emissions From Synchronous Generators and its Metrological Characterization, IEEE Mariscotti Trans. Instrum. Meas. 59, 450-457 (2010). Viene studiata una classe di macchine elettriche, cioè i generatori sincroni, con ampio uso per la produzione di energia. Le emissioni e.m. vengono valutate sui risultati di campagne di misura, insieme alla caratterizzazione metrologica; il rapporto S/N, incertezza, la riproducibilità e la ripetibilità sono valutate in diverse condizioni di esercizio, posizioni di misura e generatori sotto test. COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE tati dimostrano che i sistemi ifenati costituiscono un deciso passo in avanti rispetto a sensori singoli di tipo sia potenziometrico che ottico. Amplificatori lock-in per sensori di gas da L’Aquila e Roma A. D’Amico, A. De Marcellis10, C. Di Carlo, C. Di Natale, G. Ferri, E. Martinelli, R. Paolesse, V. Stornelli: Low-voltage low-power integrated analog lock-in amplifier for gas sensor applications. Sensors and Actuators B: Chemical 144, 400-406 (2010). Viene proposto un amplificatore lock-in a bassa tensione (±1 V) e potenza (3 mW), prodotto in tecnologia standard CMOS (AMS 0,35 µm) con caratteristiche analogiche e usato per applicazioni a sensori di gas a bassa frequenza. L’architettura lock-in proposta, che lavora a una frequenza fissa del segnale d’ingresso (77 Hz) con basso rumore (solo 34 nV/(sqrt(Hz)) @ 77 Hz), può essere utilizzata per rivelare quantità molto piccole di gas reagenti, specie se combinata con altre tecniche. Il sensore è stato montato su un singolo chip con area ridotta (circa 5 mm2). I risultati sperimentali hanno confermato la capacità della soluzione proposta di rivelare segnali molto bassi, nel caso di sensori di gas è dimostrata la capacità di rivelare concentrazioni inferiori a 1 ppm. 1 INRIM—Fluid Dynamics Unit c/o DIASP, Politecnico di Torino. E-mail: [email protected] 2 DISPEA, Politecnico di Torino 3 Dip. Elettronica & Telecomunicazioni, Università di Firenze 4 Dip. Ingegneria Elettronica, Università di Roma Tor Vergata 5.ON Energy Research Center, RWTH Aachen University, Germania 6 Dip. Ingegneria Elettrica, Università di Genova 7 DISI, Università di Trento 8 Dip. Elettronica per l’Automazione, Università di Brescia 9 aDip. Scienze e Tecnologie Chimiche, Università di Roma Tor Vergata; bDip. Ingegneria Elettronica, Università di Roma Tor Vergata; cDiv. of Applied Physics, Dept. of Physics, Chemistry and Biology, Linköping University, Svezia 10 Dip. Ingegneria Elettrica e Informazione, Università dell’Aquila T_M ƒ 89 COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE ▲ La Redazione di Tutto_Misure ([email protected]) Notizie da Enti e Associazioni dal mondo delle misure, della strumentazione e delle Norme te tecnologici ai più “tradizionali” (tessile, costruzioni, calzaturiero, ecc.). L’obiettivo strategico di NMP è sostenere la trasformazione del settore produttivo europeo, favorendo il passaggio da un’industria ad alta intensità di RIASSUNTO risorse ad un sistema industriale basaQuest'articolo contiene tutte le notizie recenti degli Enti e delle Associazioto sulla conoscenza. Una particolare ni nell’ambito delle misure e della strumentazione. Aiutateci a mantenere attenzione, all’interno del bando, è aggiornate le notizie inviandole al Direttore! rivolta alle piccole e medie imprese (PMI) con progetti a loro dedicati. AIPND - ASSOCIAZIONE ITALIANA approfondire contenuti e applicazio- www.apre.it/ricerca-europea/ VIIPQ/Cooperazione/NMP/ PROVE NON DISTRUTTIVE ne del documento UNI TR 11331. (WWW.AIPND.IT) Il gruppo di lavoro GL1 UNI "Sistemi Bandi.htm di gestione ambientale" in collaboraL’Associazione Italiana Prove non zione con ACCREDIA ha infatti realizDistruttive Monitoraggio Diagnostica zato un rapporto tecnico - UNI TR COMITATO ELETTROTECNICO – AIPnD – è un’organizzazione a 11331, che rivede il documento Sin- ITALIANO (CEI) (www.ceiuni.it) carattere scientifico, culturale e pro- cert RT-09 e raccoglie le principali fessionale, senza fini di lucro. É stata indicazioni per favorire la migliore Premio CEI – Miglior Tesi di Laufondata nel 1979, si colloca tra le pri- comprensione dei requisiti dell’UNI rea (In palio 2.600 € per 3 Tesi missime nel mondo nel suo settore e EN ISO 14001 e di conseguenza la di laurea) 14 gennaio 2010 annovera Soci appartenenti a circa maggiore uniformità di applicazione Il Premio CEI – Miglior Tesi di Laurea, 1000 Aziende, Istituti, Centri di Ricer- in Italia, fondendo le competenze spe- giunto quest’anno alla sua XV edizioca, Organizzazioni, Scuole, Universi- cifiche sugli aspetti tecnici e su quelli ne, è stato istituito allo scopo di stità, Studi Professionali, Società Produt- della certificazione. Per informazioni: molare la ricerca in ambito accadetrici e venditrici di strumentazione e www.accredia.it/events_detail. mico sui temi legati all’attività normaprodotti PnD e di Società di Servizi jsp?IDAREA=11&ID_EVENT=50 tiva nei settori elettrotecnico, elettronico e delle telecomunicazioni. PnD. >EMPLATE=default.jsp Possono partecipare al bando i lauNorme reati e laureandi (laurea magistrale È possibile scaricare dal sito, all’indirizzo vecchio ordinamento o laurea speciaAPRE – AGENZIA PER LA www.aipnd.it/files/normativa. listica) delle Cattedre nazionali delle pdf, l’elenco aggiornato delle norme in PROMOZIONE DELLA RICERCA seguenti Facoltà: Scienze dell’ingeEUROPEA (www.apre.it) materia di prove non distruttive. gneria edile, civile, ambientale, induBandi in Nanoscienze, nanotec- striale, dell’informazione, Scienze nologie, materiali e nuovi pro- giuridiche e dei servizi giuridici, ACCREDIA (GIÀ SINAL, SINCERT) Scienze dell’economia e della gestiocessi di produzione (www.accredia.it) Il programma di Lavoro 2010 presen- ne aziendale, Scienze e tecnologie ta al suo interno l’importante novità chimiche, Scienze e tecnologie inforMilano - Atti del convegno Il 29 gennaio 2010, ACCREDIA e delle Public Private Partnership che matiche, Scienze economiche e Scienze politiche. UNI hanno organizzato l'incontro di hanno topics correlati all’iniziativa. aggiornamento: Sistemi di gestio- All’interno del più ampio 7° Program- Il premio si rivolge a tesi dedicate in ne ambientale. Nuove norme e ma Quadro di Ricerca e Sviluppo Tec- modo esplicito e diretto a sviluppare e nologico dell’Unione Europea, la approfondire tematiche connesse alla regolamenti tecnici. Hanno partecipato organizzazioni tematica NMP è probabilmente quella normazione tecnica nazionale, comucertificate UNI EN ISO 14001, orga- che coinvolge la più vasta tipologia nitaria ed internazionale, anche con nismi di certificazione accreditati, d’imprese e settori produttivi, da quel- riferimento alle ricerche preparatorie ispettori, auditor, consulenti per li ad alto valore aggiunto e fortemen- per garantire il rispetto della regola NEWS FROM INSTITUTES AND ASSOCIATIONS This article contains an overview of all the recent news from Measurementrelated Institutes and Associations. Please help us to feed the content of the article by sending all pertinent news to the Director! T_M N. 2/10 ƒ 91 dell’arte. Le tesi potranno interessare tutti i campi di applicazione della normativa: da quello strettamente tecnico o tecnologico, alle conseguenze sul piano giuridico, economico, sociale, storico, urbanistico, dei rapporti internazionali, dei costumi, ecc. ed essere state discusse e conseguite tra l’1-122009 e il 15-12-2010. Il CEI darà riconoscimento ufficiale a 3 Tesi di Laurea con un gettone di € 2.600,00 ciascuna. I tre vincitori saranno avvisati entro la fine dell’anno e verranno premiati in occasione di una cerimonia ufficiale nel corso di un momento pubblico rilevante del settore. Il bando del Premio CEI – Miglior Tesi di Laurea 2010 XV edizione è scaricabile dal sito www.ceiweb.it alla voce “Prima Pagina > Premi CEI”. Per ulteriori informazioni: Segreteria Organizzativa del Premio CEI – Miglior Tesi di Laurea, Via Saccardo 9 – 20134 Milano, Tel. 02 21006.231, E- T_M ƒ 92 N. 02ƒ ; 2010 ▲ COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE mail: [email protected] sono fornite per un funzionamento sicuro della lampada; esse devono Nuova pubblicazione CEI in essere considerate normative quando materia di apparecchi d’illumi- si prova un apparecchio d’illuminanazione (da CEI Magazine di zione in conformità alla presente Aprile, scaricabile dal sito norma”. www.ceiweb.it) La conseguenza dell’introduzione di La recente pubblicazione della nona questa modifica è che tutte le indicaedizione della Norma CEI EN 60598- zioni per una corretta progettazione 1:2009 ha introdotto molti cambia- degli apparecchi d’illuminazione menti nel progetto e nella realizzazio- diventano vincolanti per la conformità ne degli apparecchi d’illuminazione. dell’apparecchio d’illuminazione. Molte sono le prescrizioni che i Il CEI, in considerazione della comcostruttori dovranno valutare per ade- plessità dell’argomento e della framguare i propri prodotti e per proget- mentarietà delle informazioni contetarne di nuovi. Tra queste il paragrafo nute in molte norme di lampada, ha 0.4.2 “Generalità sulle prove”: “In pubblicato la Guida CEI 34-119 che accordo con le guide IEC, le nuove raccoglie in un documento tutti gli elenorme IEC sono divise in norme menti per una corretta valutazione. La riguardanti la sicurezza e le norme “guida per la progettazione degli riguardanti le prestazioni. Nelle apparecchi d’illuminazione – informanorme di sicurezza delle lampade, le zioni per il funzionamento sicuro e informazioni per la progettazione corretto delle sorgenti luminose” è la degli apparecchi d’illuminazione prima guida pubblicata dal CT 34 del N. 02ƒ ;2010 IAEA - INTERNATIONAL ATOMIC ENERGY AGENCY (IAEA) (www.iaea.org) Nuovo manuale: IAEA TRS 472 Handbook of Parameter Values for the Prediction of Radionuclide Transfer in Terrestrial and Freshwater Environments disponibile su: www-pub.iaea.org/MTCD/ publications/PubDetails.asp? pubId=8201 Nuovo documento: Rapid determination of Pu isotopes & Am-241 in soil & sediment Pubblicato sul sito IAEA il documento "A procedure for the Rapid Determi- ■ CEI “Lampade e relative apparecchiature” ed è stata elaborata da uno specifico gruppo di lavoro. Essa è costituita da 6 sezioni, ognuna delle quali riporta il testo delle “Informazioni per la progettazione degli apparecchi d’illuminazione” contenute nelle norme di sicurezza, per ogni specifico tipo di lampada: • Sezione 1 lampade a incandescenza • Sezione 2 lampade ad alogeni per sostituzione lampade a incandescenza • Sezione 3 – lampade ad alogeni • Sezione 4 lampade fluorescenti a doppio attacco • Sezione 5 lampade fluorescenti ad attacco singolo • Sezione 6 lampade a scarica, escluse le fluorescenti. La Guida include 7 allegati che contengono i requisiti prestazionali per un corretto funzionamento delle lampade all’interno degli apparecchi d’illuminazione, derivati dalle Norme di prestazione. La Guida CEI 34-119 è disponibile presso tutti i punti vendita CEI e il CEI WebStore al prezzo di € 75,00 (prezzo Soci € 60,00). COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE nation of Pu isotopes and Am-241 in soil and sediment by Alpha Spectrometry" (IAEA AQ/11): www-pub. iaea.org/MTCD/publications/ PDF/IAEA-AQ-11_web.pdf Nuovo document: Rapid determination of Po-210 in water samples by Alpha Spectrometry Pubblicato sul sito IAEA il documento "A procedure for the Rapid Determination of Po-210 in water Samples by Alpha Spectrometry" (IAEA AQ/12) www-pub.iaea.org/MTCD/ publications/PDF/IAEA-AQ-12_ web.pdf ISO – INTERNATIONAL STANDARD ORGANIZATION (www.iso.org) New ISO RFID standard will help trace products in the supply chain - 2010-02-12 For reasons of safety and reliability, the importance of being able to trace products throughout the supply chain has strongly increased in recent years. The new ISO 17367:2009 standard will help manufacturers and distributors to track products and to manage their traceability thanks to standardized RF tags. Traceability is defined as the tracking and tracing of product and information related to it at each stage of a chain of production, processing, distribution, and selling. The development of radio frequency identification (RFID), including peripheral devices and their applications, is indispensable for increasing the safety and reliability of products for consumers. ISO 17367:2009, Supply chain applications of RFID – Product tagging, defines the basic features of RFID for use in the supply chain when applied to product tagging. ISPRA (www.apat.gov.it) Incertezza e analisi di conformità Un nuovo documento di ISPRA contiene le linee guida (ad uso di Laboratori che effettuano attività di monitoraggio e controllo ambientale) per l'analisi di conformità con i valori di legge, mettendo in evidenza come l'incertezza di misura, calcolata in conformità ai principi generali dell’UNI13005:2000 e associata a risultati analitici, rappresenti uno strumento indispensabile per la valutazione di conformità, nei casi in cui la norma di riferimento non dia indicazioni sulle regole decisionali da adottare. w w w. a p a t . g o v. i t / s i t e / _ contentfiles/00157200/ 157285_mlg52_2009.pdf UNI – ENTE NAZIONALE ITALIANO DI UNIFICAZIONE (www.uni.it) Progetti di norma EN e ISO in inchiesta pubblica: ecco la banca dati online Per tutti gli utenti del sito internet è ora online un nuovo servizio. Si tratta della banca dati dei progetti di norma EN: una fonte d’informazione particolarmente importante perché fornisce una visione costantemente aggiornata dei lavori normativi in atto in ambito europeo. I Soci effettivi UNI hanno la possibilità, attraverso le pagine della propria Area Riservata, di consultare e scaricare gratuitamente – in formato PDF – tutti i testi dei progetti di norma EN e ISO in fase d’inchiesta pubblica. Chi non è socio può invece acquistare i progetti di norma EN e ISO contattando l’Ufficio Diffusione: fax 02 5515256 Email: [email protected]. I progetti EN e ISO in inchiesta pubblica possono essere acquistati contattando l’Ufficio Diffusione: fax 02 5515256 email: [email protected]. Tutto su: http://catalogo.uni. com/pii/ricerca.html T_M ƒ 93 ▲ TRASFERIMENTO TECNOLOGICO IL TEMA Franco Docchio Il trasferimento di tecnologia tra Università e Impresa per l’innovazione tecnologica – I TECHNOLOGY TRANSFER BETWEEN UNIVERSITY AND INDUSTRY IN THE ROADMAP TO INNOVATION – PART I This first article of a series is intended to stimulate the interaction between University and Industry through Technology Transfer, as a tool to promote technological innovation and to disseminate research results in a way that can be fruitful for the economic and industrial system. The concept of Technology Transfer is here illustrated, and the various tasks that compose it highlighted. RIASSUNTO Questo primo articolo di una serie intende stimolare l’interazione tra Università/Centri di Ricerca e Imprese attraverso il meccanismo del Trasferimento Tecnologico, come strumento per la promozione dell’innovazione tecnologica e per la disseminazione dei risultati di ricerca in una modalità che arricchisce il sistema economico e industriale. S’illustra qui il concetto di Trasferimento Tecnologico e si delineano le varie fasi che lo compongono. TRASFERIRE PER COMPETERE Uno dei compiti che questa rivista intende assolvere è quello di stimolare l’interazione tra Università/Centri di Ricerca e Imprese, con riferimento al settore delle misure, della strumentazione e dei sensori. La collaborazione tra un’Università moderna e una rete di Imprese nel territorio è una delle chiavi che, da un lato, consentono all’Università di qualificarsi ben altro che semplice “fabbrica di laureati” (critica che le viene mossa da più parti, soprattutto dopo l’introduzione del doppio livello di Laurea). Dall’altro essa consente alla rete delle Imprese di compiere il proprio viaggio verso un’innovazione di prodotto e di processo che le mettano in grado di competere a livello globale. La collaborazione Università-Impresa si esplicita principalmente in due modalità: • La ricerca applicata, in altre parole l’esecuzione di ricerche d’interesse aziendale in Università in modalità congiunta o anche solo a carico dell’Impresa, con successivo trasferimento dei risultati all’Impresa committente. È questa la modalità di lavoro più conosciuta e più sfruttata dalle Impre- zazione di beni tangibili e servizi. Nella fattispecie del Trasferimento Tecnologico dall’Università alle Imprese, esso è l’insieme di azioni, anche complesse, che portano dalla produzione di PI, da ricerche di base o applicate, alla sua divulgazione agli organi competenti dell’Ateneo, alla sua valutazione, alla ricerca di partner interessati al trasferimento, alla stipula di accordi di sfruttamento con relative royalties, alla brevettazione e alla difesa della PI e al successivo followup. La Proprietà Intellettuale è uno dei principali asset (beni) intangibili dell’Università. Spesso trascurato dalle Università Italiane in nome del principio che “l’Università deve produrre cultura accessibile a tutti”, questo bene sta acquisendo sempre maggiore importanza alla luce di due aspetti: la sempre maggiore carenza di fondi all’Università, che comporta sempre più la necessità di fonti alternative di finanziamento e una mutata sensibilità (anche se ancora in embrione) dell’Impresa verso la figura dei Docenti e dei Ricercatori universitari come attori del processo di trasformazione tecnologica. Brevetti, royalties, start-up, spin-off, Liaison Offices: sono tutti termini che stanno entrando sempre più nel lessico quotidiano dei Ricercatori Universitari e popolano i dibattiti sui rispettivi ruoli UniversitàImpresa. Il settore delle Misure non può non essere presente a questa “rivoluzione culturale”. La comunità dei misuristi universitari sta dunque lasciandosi pervadere da questo “vento dell’innovazione”, in alcune sedi maggiormente, in altre in misura minore, ma ovunque con un positivo trend d’interesse. se (e più apprezzata dalle Università); • Il Trasferimento Tecnologico, in altre parole, secondo la semplice definizione di A.E. Muir, la “cessione d’invenzioni da un’entità a un’altra allo scopo di commercializzazione e sfruttamento delle stesse”1. Il termine “Trasferimento Tecnologico”, in Italia, sembra a volte usato impropriamente, forse anche alla luce della ancor bassa capacità espressa dalle Università Italiane di creare, valorizzare, negoziare e difendere la sua Proprietà Intellettuale. Una definizione alternativa comune è “trasferimento pratico di una tecnologia all’interno dei processi di produzione industriale o di sviluppo di un prodotto”2. Questa definizione è più consistente con il concetto di ricerca applicata (che innova un processo o prodotto) che con quello di Trasferimento Tecnologico. Il Trasferimento Tecnologico riguarda dunque la commercializzazione di Proprietà Intellettuale (PI), che si pone Direttore di Tutto_Misure sullo stesso piano della commercializ- [email protected] T_M N. 2/10 T_M ƒ 95 N. 02ƒ ;2010 Con questa serie d’interventi (i prossimi verranno pubblicati nei numeri successivi) la Rivista vuole contribuire alla presa di coscienza della mutata realtà da parte sia delle Università e dei suoi Ricercatori sia delle Imprese, nella speranza che questo contributo permetta di chiarire alcuni concetti, sfatare luoghi comuni o errori d’interpretazione, basandosi su quanto accade in Nazioni che fanno del Trasferimento Tecnologico una vera e propria leva verso l’innovazione. LE FASI DEL TRASFERIMENTO TECNOLOGICO Come qualunque altro processo di commercializzazione, immissione sul mercato e vendita di un prodotto, il Trasferimento Tecnologico è il frutto di una ben definita sequenza di eventi. Essi sono: • L’individuazione di un atto inventivo; • La sua comunicazione all’autorità Universitaria (divulgazione); • La definizione della titolarità della Proprietà Intellettuale; • La ricerca di partner interessati a negoziare l’acquisizione dei diritti di sfruttamento dell’invenzione; • La negoziazione dei compensi sotto forma di royalties; • La protezione dell’invenzione; • La stipula dell’atto di cessione dello sfruttamento. In questa lista, molti obietteranno, qualcosa non torna: l’ordine delle voci. I più sono portati a pensare che la fase brevettuale sia da porre prima della ricerca dei partner. Questo è forse uno degli errori più eclatanti ed è probabilmente la causa di una certa disaffezione da parte delle Università che, dopo aver soddisfatto i Ricercatori nella loro richiesta di proteggere qualsiasi invenzione, stanno tornando sui loro passi sfiduciate dalla mancanza di un adeguato ritorno degli investimenti fatti per i depositi brevettuali. Questo ha come conseguenza anche una perdita d’interesse (e di fiducia) da parte del Ricercatore, stanti gli indubbi sforzi necessari per gestire un brevetto. Andiamo con ordine, partendo dalla definizione dell’invenzione. La definizione dell’invenzione Un’Università è, in Italia come all’estero, la più “anarchica” delle istituzioni preposte alla Ricerca e Sviluppo. Al suo interno i Ricercatori si muovono liberamente, quasi sempre in maniera non coordinata dall’alto, e accedono a fondi di ricerca pubblici o privati per loro iniziativa, svolgendo ricerche di base e applicate. Ne consegue che è il Ricercatore stesso ad “accorgersi” della validità dei risultati della sua ricerca e della loro potenziale attrattività per il contesto industriale. Quindi la fase d’identificazione e definizione dell’invenzione parte sempre dal Ricercatore. In questa fase, il Ricercatore, per essere convincente nella successiva fase di comunicazione, dovrebbe aver chiara la dimensione di novità dell’invenzione rispetto allo stato dell’arte nel settore. 43. verticale Azienda leader di strumenti e sistemi di misura... se cercate la soluzione giusta per risolvere qualsiasi problema di misura e controllo, voltate pagina! T_M ƒ 97 N. 02ƒ ; 2010 ▲ IL TEMA La comunicazione dell’invenzione Il Ricercatore, definita l’invenzione, la comunica alle strutture preposte per la loro gestione: le Commissioni di Ateneo per i Brevetti o i Centri di Trasferimento Tecnologico, ove esistenti. Nei Regolamenti Brevetti delle varie sedi è spesso presente la dicitura “Il Ricercatore è tenuto a comunicare…”, segno della crescente attenzione alla Proprietà Intellettuale da parte delle Amministrazioni. La valutazione dell’invenzione Definita l’invenzione e comunicatala all’Amministrazione, ha inizio la fase di “valutazione” dell’invenzione. Questa, in alcune sedi, avviene a carico dello stesso Ricercatore; in altre, è curata direttamente dagli organi tecnici preposti, che possono essere affiancati da esperti esterni. In questa fase vengono definiti, spesso in modo approssimato, il potenziale di sfruttamento dell’invenzione e la sua commerciabilità. La definizione della titolarità della Proprietà Intellettuale e del Diritto al Brevetto In Italia, come vedremo in uno dei prossimi numeri, il Decreto Legislativo 10.02.2005, n. 30 (Codice della Proprietà Intellettuale) assegna in prima istanza al Ricercatore Universitario il Diritto al Brevetto di una sua invenzione. Il Ricercatore ha dunque la Facoltà di depositare l’invenzione a proprie spese. Tuttavia, nel caso che il deposito a titolo personale non sia di suo interesse o alla sua portata, egli può cedere all’Università la proprietà intellettuale e il Diritto al Brevetto, fatto salvo il suo diritto a venire menzionato come inventore e a percepire una quota percentuale (variabile da sede a sede) sui proventi della commercializzazione e delle licenze. In questo caso sarà l’Università a prendersi carico delle fasi successive. punto che partono le operazioni per il deposito del Brevetto. Negli USA no. La ragione è semplice: la mole di richieste di Brevetti da parte degli inventori è incompatibile con le disponibilità di bilancio per Brevetti delle Amministrazioni o dei loro Centri di Trasferimento Tecnologico. A questo si aggiunge il fatto (non trascurabile) che solo meno del 30% delle invenzioni porta utili, l’80% dei quali derivano da poche, significative invenzioni. Dunque, le Università americane subordinano spesso il deposito del Brevetto alla stesura di un accordo di commercializzazione con un partner e questo avviene solo a valle delle due fasi che seguono. Fanno eccezione i casi in cui esista un’Impresa già da subito disposta ad accollarsi le spese brevettuali (è questo il caso di un potenziale start-up o spin-off). Questo modo di procedere può funzionare, in verità, con strutture di Trasferimento Tecnologico consolidate. In Italia, stante anche la sostanziale “giovinezza” del sistema di Trasferimento Tecnologico Universitario, il deposito (in via cautelativa) di un primo Brevetto Italiano può essere un primo passo utile per una protezione dell’invenzione a monte della negoziazione. Ricerca del Partner La ricerca dei Partner avviene, almeno negli USA, mediante divulgazione dei contenuti di massima dell’invenzione attraverso opportuni strumenti (lettere, fiere del Trasferimento Tecnologico, web, newsletter). Ciò che viene divulgato a questo stadio non dischiude l’invenzione (se il Brevetto non è ancora stato depositato). É un’attività che le Università italiane fanno ancora in misura insufficiente e lasciano spesso in carico al Ricercatore. Questi si trova così nella duplice veste d’inventore e commerciale, trovandosi spesso impreparato. La ricerca di un partner può essere un processo lungo e faticoso: è opportuno indirizzare la richiesta al maggior numero di Imprese, poiché la percentuale di quelle che si dimostrano interessate è generalmente bassa e la percentuale, tra Brevetto o non brevetto? queste ultime, di Imprese che lo siano Convenzionalmente, in Italia è a questo veramente, è ancora inferiore. T_M ƒ 98 La fase di ricerca di partner è, per le Università che non dispongono di un Ufficio di Trasferimento Tecnologico, demandata a Società esterne o broker di proprietà intellettuale. Negoziazione dell’invenzione La negoziazione dell’invenzione è ovviamente la fase più critica di tutte le fasi del Trasferimento Tecnologico. Nell’accezione più comune essa consiste nella definizione delle condizioni per cui l’Impresa ottiene una licenza, esclusiva o non esclusiva, per lo sfruttamento commerciale e industriale dell’invenzione. Si parla qui di licenza di sfruttamento, non di cessione della proprietà intellettuale (brevettata o non): quest’ultima dovrebbe restare patrimonio dell’Università e non essere alienata (salvo casi eccezionali). La negoziazione dovrebbe avvenire con Imprese selezionate tra quelle che hanno risposto positivamente. Deve essere sempre preceduta dalla stipula di un Accordo di Segretezza (NDA, in inglese), dove le parti si impegnano a non divulgare particolari dell’oggetto della trattativa a terzi e a non utilizzarli per uso interno se non a ciò autorizzati dal successo nella negoziazione. Università e Imprese hanno obiettivi radicalmente diversi: le prime hanno come obiettivo prioritario l’avanzamento del sapere e della conoscenza, non un ritorno economico dei risultati della ricerca. Le Imprese, viceversa, hanno nel ritorno economico della propria attività la loro ragione di vita. Dunque non è infrequente che una fase di negoziazione UniversitàImpresa sia viziata, da parte universitaria, dalla reale incapacità a negoziare in modo opportuno l’invenzione. Questo avviene in particolar modo se è il Ricercatore stesso a esser incaricato dall’Università di negoziare con l’Impresa. In uno dei prossimi articoli tratteremo più in dettaglio questo aspetto. Ora, il Brevetto Nell’accezione canonica, l’avvenuta negoziazione dell’invenzione e la successiva stipula di un accordo di sfruttamento dell’invenzione, di tipo esclusivo N. 02ƒ ;2010 o non esclusivo, sono i prodromi per il deposito del Brevetto. Se, come detto poc’anzi, il deposito di un Brevetto Italiano viene considerato come una modalità necessaria di protezione preliminare alla negoziazione, questo è il momento di estendere all’estero il Brevetto, per dargli un maggiore spessore. Start-up o non start-up? La creazione, incubazione e promozione di società di start-up sono considerate in modo sempre crescente obiettivi dell’Università. Molti Atenei si sono dotati d’incubatori tecnologici, hanno emanato Regolamenti e promuovono gli start-up a livello del territorio. Gli start-up dell’Università entrano a buon diritto nel flusso del Trasferimento Tecnologico, come vedremo in seguito. Infatti se un Ricercatore, titolare di un’invenzione, vuole sfruttare in proprio l’invenzione a fini commerciali, ha la possibilità di intraprendere un’attività imprenditoriale creando uno start-up. L’Università di appartenenza può decidere di entrare nella compagine sociale e allora si parla di Start-up universitario; in caso contrario si parla di Start-up accademico. I regolamenti per gli Start-up, in genere, sanciscono un diritto di prelazione dello start-up all’interno dei possibili candidati alla negoziazione di un’invenzione. É peraltro vero che, in termini generali, i partner commerciali più ambiti da un’Università per la commercializzazione di proprietà industriale sono Imprese consolidate: uno start-up, se non supportato da un valido management e da un solido piano industriale e di business, può costituire a tutti gli effetti un rischio. Ne è prova la decisione, da parte di molti atenei, di ridurre il numero di nuove start-up a fronte delle esperienze non proprio ottimali di molte delle prime iniziative. ... la soluzione giusta è CONTINUA… Il Trasferimento Tecnologico è una serie consolidata e matura di procedure, almeno all’estero. L’Università Italiana si affaccia al processo da poco tempo. Molto resta ancora da fare, in due direzioni principali. La prima è quella di far crescere i propri Ricercatori nella consapevolezza di essere parte del processo di sviluppo economico, non solo culturale, del Paese. La seconda, forse più importante, è quella dell’acquisizione, da parte delle Amministrazioni Universitarie, di una mentalità imprenditoriale volta a incrementare, valorizzare, promuovere e commercializzare la propria Proprietà Intellettuale fuori da schemi tipici della Pubblica Amministrazione. Le sfide, nella Società della Conoscenza, ci attendono: dobbiamo saperle cogliere. RIFERIMENTI [1] Albert E. Muir: “The Technology Transfer System. Latham Book Publishing, Latham, NY, 1997, Cap. 1 [2] Si veda, p. es., www.csmt.it Dal micrometro alle Macchine di Misura Ottiche e Multisensore 3D. Da oltre 50 anni la soluzione giusta. www.rupac.com Via Alamanni, 14 - 20141 Milano - tel 02.53.92.212 r.a. - fax 02.56.95.321 [email protected] ▲ IL TEMA Paola Polito, Silvia Procacci, Stefano Canese Il Consorzio In.Bio Trasferimento tecnologico nel settore delle Biotecnologie THE IN.BIO CONSORTIUM: TECHNOLOGY TRANSFER IN BIOTECHNOLOGY The main goal of the In.Bio Consortium is promoting and supporting the start of new potential entrepreneurial initiatives in the field of Biotechnologies, including start-ups and spin-offs created to develop and transfer to the market the results of R&D initiatives born inside research Centres. To this aim, the Consortium offers to future entrepreneurs three incubators, plants and technological equipment, scientific skills and technical-managerial support for start-up of innovative biotechnology enterprises, spin-offs included. RIASSUNTO Il Consorzio In.Bio ha come finalità principale la promozione e il sostegno dell’avvio di iniziative imprenditoriali innovative nel campo delle Biotecnologie, incluse start-up e spin-off nate per sviluppare e trasferire sul mercato i risultati di iniziative di RST&D maturate all’interno dei Centri di Ricerca. A tal fine mette a disposizione dei potenziali imprenditori tre incubatori, dotazioni impiantistiche e tecnologiche di avanguardia, competenze scientifiche e supporto tecnicogestionale per lo start-up di imprese innovative biotecnologiche, inclusi spin-off. UN NUOVO CONSORZIO PER L’INNOVAZIONE E IL TRASFERIMENTO Il “Consorzio per la creazione di Incubatori di imprese innovative Biotecnologiche – In.Bio”, costituito nel dicembre del 2006 per l’attuazione del Progetto “Creazione di incubatori d’impresa innovativa nel campo delle Biotecnologie”[1], ha come finalità principale la promozione e l’avvio di iniziative imprenditoriali innovative operanti nel campo delle Biotecnologie, incluse startup e spin-off nate per sviluppare e portare sul mercato risultati di iniziative di RST&D maturate all’interno dei Centri di Ricerca. Il Consorzio mette a disposizione dei potenziali imprenditori, nelle fasi di costituzione e avvio di nuove realtà imprenditoriali, gli incubatori di pertinenza dei partner scientifici del Consorzio stesso: prestigiose infrastrutture tecnico-scientifiche e competenze qualificate. In.Bio costituisce, quindi, un importante punto di riferimento infrastrutturale, tecnico-scientifico, organizzativo e manageriale nell’offerta di servizi tecnologici avanzati e specialistici nei confronti degli operatori del settore. La disponibilità di tali grandi infrastrutture e di qualificate professionalità tende a stimolare l’emersione e lo sviluppo di nuove idee progettuali. Il Consorzio seleziona le idee migliori dopo aver realizzato studi di fattibilità tecnica, economica e finanziaria basati su criteri quali il valore scientifico del Progetto, il potenziale del mercato di riferimento, i costi di sviluppo, le effettive esigenze di finanziamento e un’approfondita valutazione tecnologica delle stesse. Il Consorzio supporta le iniziative selezionate nella predisposizione di Business Plan analitici e analisi di mercato più approfondite per una valutazione oggettiva delle possibilità di successo, basata sui criteri di brevettabilità e protezione della proprietà intellettuale, analisi del mercato di riferimento, valutazione economico-finanziaria e analisi delle possibili soluzioni alternative. Le imprese selezionate e ospitate negli incubatori, durante la fase di avvio della loro attività, possono usufruire dei servizi di consulenza e assistenza forniti dal Consorzio: verifiche tecnico-eco- T_M nomiche dei processi produttivi, tutoraggio e temporary management, reperimento di venture capital e risorse agevolate a livello locale, nazionale e internazionale, attività di marketing, ecc. L’assistenza organizzativa alle neo imprese consente di garantire loro una corretta valutazione del portafoglio brevetti e la definizione di una conseguente strategia brevettuale, nonché l’implementazione dei progetti di ricerca o la valorizzazione degli stessi attraverso accordi con altri enti di ricerca e contratti con imprese industriali, unitamente alla ricerca di partner industriali sul territorio regionale e nazionale. Un’altra attività del Consorzio è la formazione, che prevede sia iniziative specifiche di aggiornamento delle competenze dei ricercatori e degli operatori scientifici delle imprese in incubazione, sia attività rivolte ai neo imprenditori, creando occasioni di incontro e di scambio di esperienze con i colleghi di altri Centri di Ricerca e di altri incubatori e di partecipazione a forum specialistici. I PRIMI RISULTATI Le attività di scouting fino a oggi realizzate hanno permesso di individuare diverse idee innovative relative ad applicazioni biotecnologiche in campo agro-alimentare, industriale, ambientale e biomedico, sottoposte ai successivi studi tecnico-economici di fattibilità. Il Consorzio, dopo le prime fasi di valutazione, ha individuato per ogni idea progettuale le migliori modalità di trasferimento tecnologico e di valorizzazione economica, anche alternative all’incubazione. In tale ottica il Consorzio ha partecipato alla elaborazione di diverse nuove proposte progettuali a ENEA - C.R. Casaccia [email protected] N. 2/10 ƒ 101 valere su fondi sia nazionali sia europei. Fra queste, la proposta progettuale MAN-GMP-ITA (Validation of risk management tools for genetically modified plants in protected and sensitive areas for Italy), presentata al bando LIFE+ della UE, è risultata ammissibile al finanziamento (a fronte di circa 1 200 candidature presentate). Con riferimento a una richiesta di finanziamento formulata per il progetto ECOVIA, a valere sul Bando della Regione Lombardia “Sviluppo della Competitività 2008” (L.R. 1/2007), il progetto è stato selezionato tra le iniziative finanziate dalla Commissione valutatrice. Il Consorzio In.Bio, inoltre, ha collaborato con ENEA nell’elaborazione dei Progetti Esecutivi di due programmi presentati nell’ambito del Bando Industria 2015 - Nuove Tecnologie per il Made in Italy/Sezione Alimentare; in particolare uno T_M ƒ 102 N. 02ƒ ; 2010 ▲ IL TEMA di questi, il progetto ORTOFRULOG - “Piattaforma logistica innovativa per le produzioni ortofrutticole destinate ai mercati interni ed esteri”, è stato ammesso al finanziamento. Il Consorzio In.Bio, in stretta collaborazione con ENEA, è impegnato nella valorizzazione di un recente Brevetto depositato da ricercatori dell’Agenzia e concernente “Vaccini basati su chimere genetiche tra antigeni virali e/o tumorali e proteine vegetali”. Le valutazioni in corso riguardano sia la possibilità di ottenere finanziamenti, nazionali o europei, per attuare uno specifico progetto di ricerca e sviluppo, sia verificare le migliori opportunità per l’eventuale costituzione di un’impresa spin off, supportata dallo stesso ENEA. Infine, il Consorzio In.Bio ha collaborato con lo spin-off ENEA intriga S.r.l., società di servizi in campo ambientale e agricolo, nella presentazione di una proposta progettuale nell’ambito di un recente bando promosso dal Ministero dello Sviluppo Economico, a favore delle imprese start-up. GLI ENTI CONSORZIATI IN IN.BIO La compagine sociale del Consorzio è articolata in modo funzionale al raggiungimento degli obiettivi del Progetto sulla base delle competenze che ognuno può apportare in termini di conoscenze e infrastrutture scientifiche e tecnologiche (laboratori ed impianti sperimentali, brevetti, patrimonio progetti), di supporto organizzativo e finanziario, di relazioni e collegamenti con le realtà imprenditoriali a livello locale, nazionale e internazionale. Il Consorzio è costituito da: • ENEA - Agenzia nazionale per le nuove tecnologie, l’energia e lo svi- N. 02ƒ ;2010 luppo economico sostenibile, il cui settore Biotecnologie, Agroindustria e Protezione della Salute svolge attività di RST&D finalizzate a promuovere e sostenere lo sviluppo e la competitività del sistema produttivo agro-alimentare e agro-industriale e a fornire risposte scientifiche ai problemi derivanti dall’impatto antropico e tecnologico sulla salute e sull’ambiente. • CRAB - CONSORZIO DI RICERCHE APPLICATE ALLA BIOTECNOLOGIA, che svolge attività di sviluppo e ottimizzazione di processi e prodotti biotecnologici, analisi chimiche, biochimiche e microbiologiche, produzioni di microorganismi, vitamine e proteine da matrici naturali e formazione nei settori agroalimentare, ambientale e farmaceutico. • CRS - CONOSCENZA RICERCA SVILUPPO SRL, società di consulenza e organizzativa la cui missione è aiutare le aziende private e pubbliche a migliorare i propri risultati nella prospettiva del mercato unico europeo. • SVILUPPO ITALIA ABRUZZO, che promuove, accelera e diffonde lo sviluppo produttivo e imprenditoriale nella regione. È controllata da Sviluppo Italia, l’Agenzia nazionale per lo sviluppo d’impresa e l’attrazione d’investimenti. Altri azionisti sono la Regione, alcune CCIAA, Associazioni industriali e Banche. • CONFINDUSTRIA ABRUZZO, che è l’espressione a livello regionale dei quattro Territori provinciali e dell’Ance Abruzzo ad essa aderenti. Confindustria si propone di contribuire, insieme alle istituzioni politiche e alle organizzazioni economiche, sociali e culturali, alla crescita economica e al progresso sociale della Regione, predisponendo e sviluppando contestualmente sul territorio servizi utili alle imprese. • CONFINDUSTRIA BRINDISI, che svolge il proprio ruolo di soggetto attivo dello sviluppo del territorio, stimolando la nascita di nuove piccole e medie imprese e individuando nuove opportunità imprenditoriali inerenti, in particolare, i punti di eccellenza produttiva, di ricerca e innovazione tecnologica, realizzando incontri di sensibilizzazione sul territorio. GLI INCUBATORI DEL CONSORZIO Il Consorzio In.Bio mette a disposizione tre grandi infrastrutture d’incubazione di pertinenza dei consorziati che svolgono attività di RST&D (ENEA C.R. Casaccia, Centro Agrobiopolis di ENEA, C.R. Trisaia, CRAB), competenze qualificate e servizi tecnologici avanzati. Tali Centri operano in collegamento con una rete di Centri di RST&D sia dei consorziati sia di altre istituzioni convenzionate, per un proficuo scambio di esperienze, professionalità e strumenti. Il Centro Ricerche Casaccia, dove il Consorzio In.Bio ha sede legale, è un Centro di Ricerca, sviluppo, applicazione (anche con impianti dimostrativi) e trasferimento di tecnologie innovative. Le attività di ricerca e sviluppo vengono svolte in collaborazione con centri di ricerca e Università, con l'industria e con enti regionali e locali nell'ambito di programmi nazionali e internazionali. Nel Centro sono presenti competenze ad ampio spettro e avanzate infrastrutture impiantistiche e strumentali, che operano a supporto dei programmi dell'Ente ma sono anche a disposizione del mondo scientifico e imprenditoriale locale e nazionale. Il Centro Agrobiopolis, presso il C.R. Trisaia (MT) dell’ENEA, costituisce un Polo Tecnologico con valenza multidisciplinare ed è quindi un importante punto di riferimento infrastrutturale e tecnicoscientifico nei confronti delle collaborazioni con il sistema privato, offrendo servizi tecnologici avanzati e specialistici e favorendo all’interno del centro la presenza di laboratori di RST&D di imprese e l’ospitalità di società di spin-off e startup. Agrobiopolis è articolato in tre aree funzionali: il Complesso Impiantistico Multifunzionale, i Laboratori Specialistici e il DemoCenter. Quest’ultimo, collegato in rete con una pluralità di soggetti operanti sul territorio, Figura 2 – Il Centro Agrobiopolis è l’area funzionale di Agrobiopolis dedicata principalmente alla diffusione e al trasferimento dell’innovazione e all’offerta di servizi avanzati, dimostrazione, informazione e formazione. Nell’ambito del DemoCenter sono operativi, tra l’altro, sistemi per la formazione a distanza attraverso una piattaforma di e-learning che consente la fruizione di corsi di formazione erogati via internet, rivolti innanzitutto ai ricercatori e agli operatori scientifici delle imprese incubate. Il terzo incubatore del Consorzio è localizzato nel Centro di Ricerca del CRAB che costituisce un Polo Tecnologico di valenza multidisciplinare, aperto alle collaborazioni con soggetti pubblici e privati. Il Centro è articolato in tre aree funzionali, comprendenti: il Laboratorio di Processo, i Laboratori Biochimico e Figura 3 – La hall tecnologica del Centro Agrobiopolis Figura 4 – Il DemoCenter del Centro Agrobiopolis Figura 5 – La hall tecnologica del CRAB Figura 1 – Il Centro Enea – Casaccia T_M ƒ 103 N. 02ƒ ; 2010 ▲ IL TEMA Paola Polito, laureata in Economia e Commercio, è ricercatrice presMicrobiologico e il Laboratorio Elaboraso il Centro di Ricerche ENEA Casaccia di Roma dove svolge attività zione Dati. I comparti di competenza di studio ed elaborazione di dati tecnico-economici, di elaborazione sono l’alimentare, l’agro-industriale, di metodologie e predisposizione di proposte progettuali di trasferil’ambientale e il farmaceutico nell’ambimento dell’innovazione tecnologica e gestione di finanziamenti nazioto dei quali è attuata l’introduzione di nali ed europei per la ricerca nel settore agro-alimentare e agro-induelementi d’innovazione nei sistemi prostriale, nonché della valorizzazione dei risultati di attività di ricerca e duttivi attraverso attività sia di RST&D sia sviluppo, inclusa la creazione di nuove imprese. di lavorazione conto terzi. PER L’INNOVAZIONE E L’HI-TECH Il fine ultimo dell’iniziativa descritta è quello di poter contribuire all’innovazione e alla crescita di un settore produttivo high-tech di importanza strategica per la competitività dell’industria italiana. Così come è strutturato, infatti, il Consorzio In.Bio rende le istituzioni di ricerca capaci di collaborare in modo efficace con il mondo produttivo, riuscendo altresì a individuare gli effettivi bisogni in termini di ricerca e sviluppo da parte delle imprese. T_M ƒ 104 Silvia Procacci, laureata in Scienze Biologiche, è ricercatrice presso il Centro di Ricerche ENEA Casaccia di Roma, dove svolge indagini e studi relativi ai processi di trasferimento tecnologico e collabora alle attività di scouting e fund raising di idee progettuali nell’ambito del Consorzio In.Bio Ha prestato servizio presso i laboratori del Centro, dove ha svolto attività di monitoraggio della condizione ecologica delle aree fragili costiere, eseguendo campagne di campionamento di acque e sedimento, nonché analisi chimiche, microbiologiche e zoologiche dei campioni prelevati. Stefano Canese, laureato in Scienze Biologiche, è ricercatore presso il Centro di Ricerche ENEA Casaccia di Roma, dove si occupa di predisposizione di proposte progettuali e gestione di progetti di ricerca industriale e sviluppo sperimentale nei settori agro-industriale e delle biotecnologie, oltre a partecipare ai processi di trasferimento tecnologico nell’ambito del Consorzio In.Bio. ▲ IL TEMA Intervista del Direttore al Dott. Magnino, Responsabile del Business Angel Network (BAN), Brescia Conosciamo i Business Angels! La rete IBAN per il finanziamento di imprese High-Tech LET US INTRODUCE YOU THE BUSINESS ANGELS! In the context of Technology Transfer, it is imperative to have access to Institutions, banks or even single businessmen that can provide adequate access to funding for Start-ups. Tutto_Misure interviews Dr. Ferdinando Magnino, since 2004 head of the Business Angel Network of Brescia, who currently collaborates with the local Industrial Association to provide adequate funding to entrepreneurial initiatives and Ideas. RIASSUNTO Nel contesto del Trasferimento Tecnologico la disponibilità di enti, di istituzioni o anche solo di singoli finanziatori è essenziale per consentire un adeguato accesso a finanziamenti per neoimprese. Intervistiamo qui il Dott. Ferdinando Magnino, responsabile dal 2004 del Business Angel Network di Brescia, che collabora anche con l’Associazione Industriali della Provincia di Brescia per consentire a iniziative di start-up un adeguato finanziamento delle idee imprenditoriali. L’INTERVISTA D.: Dott. Magnino, perché i Business Angels e perché una rete che li riunisce? Era importante, per il tessuto imprenditoriale bresciano, avere un Network di Business Angels (B.A.N.) territoriale aderente al circuito nazionale IBAN, che a sua volta aderisce al circuito europeo EBAN. Infatti, la disponibilità di capitali aventi un buon equilibrio tra rischio e remunerazione, nonché un serio coinvolgimento degli investitori, figurano tra le risorse chiave che permettono a un’azienda di svilupparsi. Fin dagli anni ottanta, in particolare in Gran Bretagna e Olanda, si è potuto constatare che i Business Angels (altrimenti detti “investitori privati informali”), giocano un ruolo importante nel senso sopra descritto; essi infatti hanno un ruolo catalizzatore in mate- trare imprenditori alla ricerca di capitale e di competenze manageriali. D.: A che cosa serve la rete dei Business Angels? Il successo di una PMI dipende: • da un buon Business Plan, • dai mezzi finanziari disponibili, • dalla capacità dell’imprenditore. Un Business Angels Network (B.A.N.) può fornire le soluzioni in quanto: • assiste alla redazione e sviluppo di un Business Plan, • funge da intermediario finanziario, • accompagna l’imprenditore nelle sue decisioni. Questo avviene, in particolare: • identificando i Business Angels della propria zona (provincia o regione); • mettendo in contatto i Business Angels e gli imprenditori; • organizzando dei “forum” con gli investitori; • redigendo e diffondendo pubblicazioni specializzate. L’organizzazione dei B.A.N. è costituita da più soggetti, i quali possono intervenire in maniera visibile e continuativa, direttamente o come sponsor. Ogni rete locale si attiene rigidamente alle regole di comportamento indicate dalle associazioni italiana (IBAN) ed europea (EBAN) dei Business Angels. Quindi, le attività e il ruolo di IBAN possono così riassumersi: • Sviluppare e coordinare l’attività di investimento nel capitale di rischio in Italia e in Europa da parte degli investitori informali; • Incoraggiare lo scambio di esperienze tra i B.A.N.; • Promuovere il riconoscimento dei Business Angels e dei B.A.N. come ria finanziaria e gestionale e possono stimolare fortemente lo sviluppo delle PMI. D.: Dunque chi sono i Business Angels? Sono ex titolari di impresa, manager in attività o in pensione, che dispongono di mezzi finanziari (anche limitati), di una buona rete di conoscenze, di una solida capacità gestionale e di un buon bagaglio di esperienze. Essi hanno il gusto di gestire un business, il desiderio di acquisire una partecipazione in aziende con alto potenziale di sviluppo e l’interesse a monetizzare una significativa plusvalenza al momento dell’uscita. L’obiettivo dei Business Angels è quello di contribuire alla riuscita economica di un’azienda e alla creazione di nuova occupazione. Investitori “informali” nel capitale di rischio è la definizione italiana del termine anglosassone Business Angels. D.: Come si organizzano? È previsto che i Business Angels si organizzino in reti locali, conosciute come B.A.N. (Business Angels Network): strutture permanenti che consentono ai Business Angels di incon- [email protected] T_M N. 2/10 ƒ 105 N. 02ƒ ; 2010 ▲ IL TEMA soggetti di politica economica; • Promuovere l’incontro dei Business Angels, degli imprenditori, dei neoimprenditori e delle aziende; • Contribuire alla realizzazione di programmi locali/nazionali/comunitari finalizzati alla creazione e allo sviluppo di un ambiente favorevole all’attività degli investitori informali; • Mantenere gli opportuni contatti con le organizzazioni internazionali e non, per la realizzazione dei sopracitati obiettivi. Inoltre, l’Associazione Italiana dei Business Angels cura l’attività culturale, associativa, editoriale; costituisce comitati o gruppi di studio e di ricerca e svolge qualsiasi altra azione che si riconosca utile, lecita e aderente agli scopi dell’Associazione. D.: Si può dunque parlare di una “Mission” dei Business Angels? Le imprese, in particolare le nuove attività, trovano una crescente difficoltà a ottenere risorse finanziarie, poiché non sempre sono in grado di apportare le necessarie garanzie. Gli attori del capitale di rischio ritengono che non sempre le idee imprenditoriali riescano a tradursi in progetti d’impresa profittevoli. La rete dei Business Angels fornisce capitale di rischio e strumenti concreti a imprenditori e investitori per costruire imprese vincenti. D.: Con queste premesse, a chi può interessare la rete dei Business Angels? A nuovi imprenditori, a dirigenti di azienda già avviata o a manager di grande esperienza, a chi ha già creato una propria azienda o l’ha appena ceduta e, in generale, a chi è sensibile al fatto di creare nuove imprese e nuova occupazione. A tutti costoro l’IBAN si rivolge, per farli entrare nella sua rete. D.: Qualche numero…? Negli scorsi mesi di gennaio e febbraio, IBAN ha condotto l’indagine per la raccolta dei dati sulle operazioni fatte in Italia nel settore dell’Informal Venture Capital. Esaminando i dati del 2009, è possibile affermare che il mercato italiano dell’Angel Investing ha registrato una sostanziale tenuta rispetto all’anno precedente, con particolare riferimento all’ammon- T_M ƒ 106 tare investito (circa 31 M/€). Significativo, invece, il numero dei deal chiusi (più di 200), quasi un raddoppio su base annua (120 nel 2008). Si può quindi evidenziare un aumento delle operazioni, ma con un taglio medio investito inferiore. Nel corso del periodo gennaio-marzo 2010 sono state ricevute circa 100 proposte di business; l’80% provenienti dalle regioni dell’Italia settentrionale; i principali settori sono ICT, Servizi alle Imprese e Clean-tech; l’80% è collocato nelle fasi seed e start-up. Si ricorda che, per ogni progetto in arrivo, l’Associazione si fa carico di un primo screening valutativo, volto all’ottenimento degli approfondimenti per una maggiore chiarezza e omogeneità dell’idea di business. D.: Come si relaziona la rete dei Business Angels con la rete del Venture Capital? Lo scorso 25 marzo a Roma, in occasione dell’evento “Emerging Companies”, IBAN e Rete Venture, società controllata dal CNR e che agisce come soggetto specializzato nella valorizzazione della proprietà intellettuale, hanno siglato un Protocollo di Intesa per lo svolgimento di iniziative e programmi a favore di operazioni di trasferimento tecnologico e creazione di impresa dalla ricerca. Nello specifico, IBAN si adopererà nella valutazione, scouting e formazione di proposte progettuali del CNR, che Rete Venture avrà preventivamente selezionato, con l’impegno poi a organizzare congiuntamente appositi Forum di Investimento Early Stage, al fine di testare i risultati conseguiti. Ferdinando Magnino, dottore commercialista in Brescia, è il responsabile del B.A.N. Brescia dal 2004. Ha contribuito a creare start up per diverse iniziative imprenditoriali, convogliando capitali e managerialità su idee di business in nuce. Ha partecipato a svariate presentazioni di IBAN presso Università Italiane, anche quale Presidente alla premiazione del Master MBA della Fondazione CUOA di Padova. ■ IL TEMA Franco Docchio In breve: il CSMT Centro Servizi Multisettoriali e Tecnologici di Brescia IN SHORT: THE CENTRO SERVIZI MULTISETTORIALI E TECNOLOGICI (CSMT) OF BRESCIA We present here in short the CSMT of Brescia, a novel and active Centre for Applied Research and Technology Transfer, collaboration among the major institutions of Brescia and the University. RIASSUNTO Presentiamo qui in breve il CSMT di Brescia, nuovo e attivo Centro per la Ricerca Applicata e il Trasferimento Tecnologico, in collaborazione tra le maggiori istituzioni della Città e la locale Università. Il giorno 25 febbraio 2010, presso la Facoltà d’Ingegneria dell’Università di Brescia, si è svolta la giornata di presentazione, ad uso precipuo dei Docenti e dei Ricercatori dell’Università ma aperta alla cittadinanza, del Centro Servizi Multisettoriali e Tecnologici (CSMT), che ha sede all’interno del Campus Universitario, ed è stato creato con l’intento di costituire una cerniera di raccordo tra il mondo universitario e il mondo delle imprese per favorire l’innovazione e il trasferimento tecnologico. Ha aperto i lavori il tessuto industriale locale, focalizzando sulle opportunità offerte da Industria 2015. Il CSMT, cui partecipano tutte le istituzioni della provincia di Brescia, e le sue attività, sono stati oggetto dell’Intervento del Responsabile TecnicoCommerciale Ing. Romano Miglietti, che ha rimarcato lo sforzo costante di promozione alle imprese dei risultati della ricerca dei Dipartimenti dell’Università, ma anche quello inverso di portare all’Università le richieste di nuove tecnologie da parte delle Imprese. Importante per il contesto Bresciano è anche il ruolo del CSMT di incubatore di nuove imprese (Start-up), in cui il CSMT funge anche da supporto di marketing. Ha illustrato infine la struttura dei Centri di Competenza, che rispondono a esigenze ben definite da parte delle imprese ma che nel contempo stimolano nuove esigenze. Ha concluso la presentazione il Direttore Generale di CSMT Ing. Francesco Tamburini, che ha illustrato i progetti in corso o presentati a Industria 2015 e alla UE (7PQ). Alla presentazione ha fatto seguito una nutrita serie di domande e commenti da parte di numerosi Docenti dell’Università, sia coinvolti in iniziative comuni con il CSMT, ma anche desiderosi di saperne di più riguardo a questo utile strumento per l’innovazione tecnologica, per il trasferimento, e per la ricerca applicata. Per saperne di più, visitate il sito www.csmt.it, inviate una mail a [email protected], o scrivete alla Redazione di Tutto_Misure! Preside della Facoltà di Ingegneria, Prof. Aldo Zenoni, che ha rilevato come sia sentita la necessità di dotare la provincia di strumenti operativi che promuovano la ricerca industriale (Azione Bandiera 2 dell’Assemblea degli Stati Generali della Provincia) e come si punti sul CSMT per questa funzione. Il Sig. Ennio Franceschetti, titolare di Gefran S.p.A. e Presidente del Consiglio di Amministrazione del CSMT, ha tracciato la storia del suo successo imprenditoriale a partire da sensori e misure elettroniche, concretizzatosi anche grazie alle profonde collaborazioni con l’Ateneo bresciano, e del sogno di un più generale, saldo e continuativo raccordo tra Università e mondo delle imprese, sempre più allargato alle imprese del territorio. È seguito un appassionato intervento del Prof. Pier Luigi Magnani, membro del Consiglio di Amministrazione ed exPreside della Facoltà, ma soprattutto promotore del nuovo CSMT a partire dal preesistente INN.TEC., che ha illustrato gli obiettivi dell’iniziativa con riferimento sia alle politiche nazionali ed europee per l’innovazione, sia al con- Direttore di Tutto_Misure testo e alle vocazioni del [email protected] T_M N. 2/10 ƒ 107 L'INTERFACCIA UTENTE CHE SEMPLIFICA LA CREAZIONE E SIMULAZIONE DI MODELLI MULTIFISICI COMSOL srl ha annunciato la prossima disponibilità della nuova versione 4.0 del suo software di simulazione multifisica. Presentata in anteprima agli utenti nel 2009, la nuovissima interfaccia utente metterà a disposizione la potenza della simulazione multifisica a un pubblico ancora più ampio di ingegneri e ricercatori. Il processo di modellazione è stato ottimizzato e reso facilmente accessibile a un’ampia base di utilizzatori, grazie a un nuovo layout completamente riorganizzato e al processo di modellazione di tipo grafico. Contemporaneamente al rilascio della versione 4.0 COMSOL annuncia anche il rilascio dei prodotti LiveLink™ che permettono un’integrazione sempre più profonda di COMSOL Multiphysics nel processo di progettazione industriale. I nuovi prodotti LiveLink sono disponibili per Autodesk® Inventor®, Pro/ENGINEER®, SolidWorks® e MATLAB®. “È una bella sensazione rilasciare la versione 4.0” commenta Svante Littmark, Presidente e CEO di COMSOL, Inc. “Crediamo che essa rappresenti un coraggioso passo in avanti verso un’usabilità mirata all’incremento della produttività e alla reale soluzione di problemi industriali. Una piattaforma che ci permetterà lo sviluppo di nuove funzionalità a un passo decisamente sostenuto. I clienti se ne accorgeranno nel prossimo futuro: la versione 4.0a sarà disponibile già in giugno e includerà tre nuovi moduli: CFD, Plasma e Batteries & Fuel Cells”. COMSOL Desktop – L’interfaccia utente che porterà a una svolta nella modellazione multi fisica La creazione di un modello è così scorrevo- T_M ƒ 108 N. 02ƒ ; 2010 ▲ NEWS le e lineare che applicazioni una volta complesse e tediose da modellare sono ora veloci e semplici da risolvere. La Versione 4.0 porta a un livello di chiarezza senza precedenti nello sviluppo di prodotto, grazie alla combinazione di una visione chiara e globale del modello e di un flusso di lavoro assistito dalle nuove funzionalità di COMSOL Desktop. Questa nuova interfaccia è stata progettata per soddisfare l’utente sotto diversi punti di vista: usabilità dei menu, ristrutturazione del processo di modellazione e design patinato sono i mezzi con i quali si possono modellare facilmente realtà fisiche complesse. Ad esempio, tool specifici per il task di modellazione che si sta eseguendo in un dato momento appaiono sul Desktop solo quando sono necessari: in questo modo sono messe a disposizione dell’utente solo le uniche azioni possibili per il passo di modellazione che si sta affrontando. Da questo punto di vista il processo di modellazione e simulazione è strutturato e privo d’incertezze. ZINK Imaging, l’inventrice della ZINK Technology e produttrice della ZINK Paper™ (un approccio rivoluzionario alla stampa a colori di ineguagliabile semplicità) utilizza frequentemente COMSOL Multiphysics all’interno dei suoi processi innovativi, di sviluppo e di fabbricazione. Il Dr. Bill Vetterling, Research Fellow e Direttore dell’Image Science Lab di ZINK Imaging, ha partecipato alla Conferenza COMSOL 2009 dove ha provato la nuova interfaccia, affermando: “La Versione 4.0 è un capolavoro! È stato un privilegio provare già nel 2009 la sua nuova interfaccia così fresca e intuitiva dal punto di vista della gestione dei dati necessari per la simulazione. Secondo la mia esperienza, COMSOL Multiphysics è un prodotto che ogni anno stupisce per le sue continue innovazioni”. Integrazione con CAD e MATLAB grazie alla famiglia di prodotti LiveLink I software CAD possono finalmente rappresentare in modo realistico gli effetti del cambiamento del design di un prodotto grazie alla simulazione con COMSOL. La famiglia di prodotti LiveLink della Versione 4.0 è stata creata appositamente per perseguire questo obiettivo. Ciascun LiveLink permette la connessione di COMSOL Multiphysics direttamente a programmi CAD leader del mercato in modo che i parametri specificati nel modello CAD possano essere usati e connessi in maniera interattiva alla geometria simulata in COMSOL. La famiglia di prodotti LiveLink include oggi LiveLink™ per SolidWorks®, LiveLink per Inventor ® e LiveLink per Pro/ENGINEER®. In aggiunta a questi c’è Livelink per MATLAB® che è stato pensato per chi ha bisogno di incastonare i modelli creati con COMSOL Multiphysics in un ambiente di calcolo tecnico e di programmazione più esteso. Per ulteriori informazioni: www.it.comsol.com GLI ALTRI TEMI ▲ LA MICROSCOPIA Riccardo Cicchi, Leonardo Sacconi, Francesco Vanzi, Francesco Saverio Pavone Microscopia SHG Dai singoli atomi alle strutture di volume tubi fotomoltiplicatori o fotodiodi a valanga) la densità di energia necessaria per determinare livelli di fluorescenza misurabili sia raggiungibile solo con l’impiego di laser impulsati e limitatamente al fuoco di obiettivi ad alta apertura numerica. Di conseguenza, la fluorescenza rivelata proviene da una porzione del campione molto ben circoscritta nelle tre dimensioni spaziali (con un volume dell’ordine del femtolitro). La localizzazione del volume d’eccitazione è mantenuta anche in mezzi torbidi in quanto la densità di energia dei fotoni diffusi è troppo bassa per produrre una transizione non-lineare. Di conseguenza solo i fotoni balistici che raggiungono il fuoco sono in grado di eccitare il campione. Questa peculiare proprietà rende la microscopia non lineare una tecnica in grado di eseguire imaRIASSUNTO ging ad alta risoluzione (dell’ordine del La misura della conformazione e della dinamica delle proteine rappresenµm) in campioni torbidi, quali i tessuti ta un aspetto fondamentale nello studio di problemi biologici. Alcune tecnibiologici. Inoltre, cromofori che a un foche sono state sviluppate per misurare la struttura delle proteine e la loro tone vengono eccitati nello spettro visidinamica strutturale in vitro e in vivo. L’attuale investigazione con cristallobile, a due fotoni vengono eccitati nel vigrafia X è in grado solo di fornire informazioni statiche, mentre notevole cino infrarosso (700-1 000 nm), che peinteresse è riposto nello sviluppo di tecniche in grado di misurare la dinanetra più in profondità all’interno di tesmica delle strutture proteiche in cellule viventi. suti biologici, consentendo l’acquisizioPresentiamo qui i recenti sviluppi di una nuova tecnica microscopica (Genene di immagini tridimensionali di tessuti razione di Seconda Armonica, SHG) che si dimostra promettente per invein vivo con risoluzione sub-micrometrica stigare le dinamiche atomiche strutturali in tessuti, con applicazioni alla diafino a circa 800 µm al di sotto della gnostica. In particolare le moderne tecniche non lineari (che comprendono superficie del campione. Queste caratla SHG) hanno proprietà quali un’elevata penetrazione nei tessuti (centiteristiche rendono queste tecniche ideali naia di micron) e una risoluzione sub-micrometrica, che le rende particoper applicazioni dirette in dermatologia larmente attraenti e adatte per lo sviluppo di tool diagnostici. o in endoscopia. Tra le varie tecniche di microscopia nonlineare la generazione di seconda LA FLUORESCENZA A DUE FOTONI descrizione teorica: a differenza dei armonica (SHG) ha proprietà tali da E LA GENERAZIONE fenomeni lineari (fluorescenza conDI SECONDA ARMONICA venzionale a un fotone), la fluorescenza a due fotoni è caratterizzata Con l’avvento dei laser impulsati si è da una dipendenza quadratica della European Laboratory for Non Linear resa possibile l’implementazione su probabilità di assorbimento dall’inten- Spectroscopy, Sesto Fiorentino campioni biologici di metodi di spet- sità della radiazione d’eccitazione. Relazione presentata troscopia non lineare. I vantaggi deri- Questo fa sì che, anche con l’impiego al Convegno Congiunto DGaO-SIOF vanti dall’uso di questo tipo di eccita- di rivelatori ad altissima sensibilità Brescia, 2-5 Giugno 2009 zione erano chiari fin dalla prima (sensibili a singoli fotoni: per esempio [email protected] FROM SINGLE ATOMS TO BULK STRUCTURES WITH SECOND-HARMONIC GENERATION MICROSCOPY The measurement of protein conformation and dynamics represents a fundamental task in the study of biological problems. For this reason several techniques have been developed to determine protein structures and structural dynamics in vitro and in vivo. Currently, protein structures can be determined with atomic resolution by x-ray crystallography, which, however, can only provide static structures. Great interest is devoted to the development of techniques capable of measuring the dynamics of protein structures in living cells, to define the exact mechanism by which each protein performs its function in physiological conditions. Here we present recent developments of a new microscopy technique (Second Harmonic Generation, SHG) which holds great promise for probing atomic structural dynamics in living tissue, with potential applications in diagnostic measurements. In particular, non-linear microscopy technologies (including SHG) have features such as deep tissue penetration (several hundred microns in living tissues) and micron-scale resolution, which make them particularly suited for the development of biomedical diagnostic tools. We present SHG applications for the diagnostic imaging of connective tissue, and for the study of molecular conformation of muscle myosin. T_M N. 2/10 T_M ƒ 109 renderla una metodologia ideale per lo studio dell’ordine molecolare. A differenza della fluorescenza a due fotoni, la SHG non coinvolge assorbimento fotonico ma duplica la frequenza incidente senza nessuna perdita energetica e temporale. Questo processo produce quindi, mediante una transizione istantanea, un fotone con energia uguale alla somma dei due fotoni incidenti. La SHG produce quindi un fotone esattamente in fase con i fotoni incidenti, garantendo una somma coerente tra fotoni emessi da diversi emettitori. Infatti, se all’interno del volume focale sono presenti vari emettitori, i fotoni SHG emessi da ogni emettitore possono interferire costruttivamente tra di loro evidenziando particolari simmetrie spaziali o, più in generale, stati di ordine molecolare. Se si considera che, nei campioni biologici, la transizione ha luogo nel legame covalente C-N del legame T_M ƒ 110 N. 02ƒ ; 2010 ▲ GLI ALTRI TEMI Figura 1 – Rappresentazione di un’alfa-elica in cui alcuni legami peptidici C-N sono evidenziati per mostrare i dipoli coinvolti nella transizione SHG. peptidico (Fig. 1) questi fenomeni di interferenza, ovvero la misura del segnale SHG in vivo, possono essere interpretati in termini di conformazioni strutturali delle proteine emettitrici, sulla base delle strutture atomiche note dalla cristallografia a raggi x. In questo modo, le misure SHG consentono, in determinati campioni di studiare le conformazioni strutturali (e le loro dinamiche) in vivo. LE APPLICAZIONI DELLA SHG Applicazioni in campo biomedico diagnostico In campo biomedico e diagnostico la SHG si propone come strumento molto promettente per indagare la morfologia e l’organizzazione di diversi tipi di tessuto come il derma cutaneo, i muscoli, la cornea, le ossa e le cartilagini, i legamenti e in generale tutti i tessuti connettivi contenenti collagene di tipo I. Il collagene è costituito da unità molecolari di circa 30 nm di diametro (denominate fibrille), a loro volta raggruppate in unità più complesse che possono assumere la forma di fibre (derma cutaneo) o di lamelle (cornea). Il collagene di tipo I, oltre a costituire la matrice strutturale del tessuto, svolge il ruolo di terreno su cui i diversi tipi di cellule crescono. Lo studio della sua morfologia, non- N. 02ƒ ;2010 ché delle alterazioni dovute alle diverse patologie, è quindi importante non solo per le malattie che colpiscono direttamente il collagene (ad esempio i keloidi o la sclerodermia) ma anche per chiarire il ruolo che il collagene stesso svolge nel condizionare il grado di invasività di un tumore. L’elevata anisotropia della molecola di collagene fa sì che l’intensità del segnale generato dipenda dalla mutua organizzazione delle singole fibrille all’interno del volume focale. La SHG si offre quindi come uno strumento molto sensibile per rivelare alterazioni nell’organizzazione del collagene su scala microscopica [3]. Il primo esempio di utilizzo della SHG in campo biomedico-diagnostico è illustrato in Fig. 2. Un campione di cornea è scaldato in un bagno termico a diverse temperature per indurre la disorganizzazione o la denaturazione delle lamelle di collagene (oltre i 6065 °C). Le immagini SHG dei campioni scaldati a diverse temperature (Fig. 2.a) sono state analizzate con un metodo statistico di analisi d’immagine, basato sulla matrice di co-occorrenza dei livelli di grigio (GLCM). L’analisi di questa matrice permette di calcolare una serie di parametri legati al contrasto, all’ordine e alla distribuzione statistica dei livelli di grigio. In particolare, sono stati parametrizzati il momento angolare secondo (ASM) e l’omogeneità (HOM). Il grafico in Fig. 2.b mostra come entrambi i parametri decrescano (così come l’organizzazione reciproca delle lamelle) al crescere della temperatura. Nella regione lineare del grafico, la misura dei parametri in questione potrebbe essere utilizzata come un sensore ottico di temperatura. In particolare, la SHG potrebbe essere utilizzata per monitorare in tempo reale sia la morfologia delle lamelle che la temperatura raggiunta nel campione durante operazioni di chirurgia laser della cornea. Nel secondo esempio, focalizzato sul derma cutaneo, sono stati usati campioni di derma sano e di keloide (cicatrice patologica caratterizzata da iperproduzione di collagene); la SHG è stata utilizzata per classificare legate all’alterazione del collagene, come le cicatrici o lo stroma che racchiude una massa tumorale. Esso rappresenta quindi una possibile metodologia di classificazione per tessuti biologici in diverse condizioni fisiologiche e patologiche. Studio di dinamiche strutturali di proteine Figura 2 – 2.a – Immagini SHG di campioni di cornea scaldati in vivo a diverse temperature. Scala: 10 µm. 2.b: Grafico di momento Come il collagene, anche angolare secondo (ASM) e omogeneità (HOM) della matrice il muscolo è caratterizzato GLCM in funzione della temperatura. 2.c-d: Immagini SHG da intensi segnali di SHG di un campione di derma sano (c) e di keloide (d). 2.e: Grafico della correlazione della matrice GLCM in funzione [4, 5]. L’immagine SHG di della distanza in derma sano (nero) e in keloide (grigio) una miofibrilla muscolare (Fig. 3.a) mostra il caratteil livello di ordine e di organizzazione ristico pattern striato del muscolo sche(Figg. 2.c, 2.d e 2.e). L’analisi dei letrico, determinato dall’alternanza di parametri statistici della matrice bande di actina (bande I) e di miosina GLCM, come la correlazione (R), ha (bande A). La localizzazione del sepermesso di caratterizzare i due gnale SHG nei sarcomeri corrisponde diversi tipi di tessuto sulla base della alle bande A. L’origine del segnale loro lunghezza di correlazione. Il gra- dalle molecole di miosina è confermata fico in Fig. 2.e, in particolare, rap- mediante estrazione della miosina attrapresenta i valori calcolati per la cor- verso il trattamento della miofibrilla con relazione spaziale R. I due fit espo- una soluzione ad alta forza ionica (Fig. nenziali forniscono valori della lun- 3.b). Al contrario, la marcatura in fluoghezza caratteristica in ottimo accor- rescenza dei filamenti di actina (Fig. do con le dimensioni medie delle fibre 3.c) mostra che questi non danno luogo di collagene dei due tipi di tessuto, a SHG, come evidenziato dalla loro misurate mediante analisi istologica. presenza dopo estrazione della miosiIl metodo presentato è stato applicato na e completa scomparsa del segnale con successo anche ad altre patologie SHG (Fig. 3.d). Figura 3. – 3.a-b – Immagine SHG di una miofibrilla prima (a) e dopo (b) estrazione biochimica della miosina. 3.c-d: Immagini in fluorescenza (dopo marcatura dei filamenti di actina) della stessa miofibrilla prima (c) e dopo (d) estrazione della miosina T_M ƒ 111 La provenienza del segnale SHG dalla miosina è di grande interesse per lo sviluppo di tecniche per la diagnosi di patologie che implichino una perdita di ordine nell’array acto-miosinico dei sarcomeri (per esempio le distrofie muscolari) e anche per lo sviluppo di nuove tecniche per lo studio delle dinamiche strutturali in vivo. Infatti, la produzione di forza nel muscolo avviene attraverso interazioni cicliche della miosina con l’actina: durante queste interazioni, la miosina utilizza l’energia chimica ricavata dall’idrolisi di una molecola di ATP per eseguire una serie di variazioni conformazionali che costituiscono il “power stroke”, cioè il movimento di trazione dell’actina alla base della produzione di forza e spostamento. Gli studi mirati alla comprensione dei meccanismi della contrazione muscolare si sono in larga parte concentrati sulla misura della conformazione della miosina in vari stati biochimici e delle dinamiche di conversione tra questi stati. La SHG è in generale molto sensibile alla polarizzazione della luce incidente. Il processo di duplicazione è infatti legato a un’asimmetria della densità elettronica dell’emettitore. Generalmente buoni generatori di seconda armonica sono molecole asimmetriche che possono garantire una traslocazione unidirezionale di carica elettronica (molecole push and pull). Supponendo quindi di eseguire una scansione in polarizzazione di un singolo emettitore dovremmo aspettarci una modulazione dell’efficienza di SHG di tipo sinusoidale con un massimo di efficienza quando la polarizzazione della luce è allineata all’asse di trasferimento di carica della molecola. In generale la situazione è più complessa, in quanto all’interno del volume di fuoco sono presenti molti emettitori con una complessa distribuzione angolare. Nel caso che gli emettitori abbiano una distribuzione a simmetria cilindrica (come nella fibra muscolare) la modulazione della SHG può essere predetta analiticamente. In tali circostanze la modulazione predetta può essere confrontata con i dati speri- T_M ƒ 112 N. 02ƒ ; 2010 ▲ GLI ALTRI TEMI mentali al fine di ricavare delle informazioni sulla distribuzione angolare degli emettitori o, in altri termini, per ricavare delle informazioni strutturali delle molecole di miosina all’interno della fibra muscolare. La Fig. 4.a mostra, in una fibra muscolare, la dipendenza del segnale SHG dalla polarizzazione della luce incidente. In Fig. 4.b si mostra il fit (linea continua) dei dati di intensità delle immagini (Fig. 4.a) con un modello matematico di distribuzione cilindrica degli emettitori. Il fit consente la misura di un fattore geometrico correlato alla conformazione strutturale delle molecole di miosina, come indicato da prove eseguite in diversi stati fisiologici. Figura 4. – 4.a – Dipendenza della intensità di SHG in una fibra muscolare al variare della polarizzazione della luce incidente (indicate dalle frecce bianche). 4.b: Plot delle intensità misurate nel pannello a, con fit del modello (linea continua) RINGRAZIAMENTI Si ringraziano per i loro contributi sperimentali: C. Stringari, V. Nucciotti, V. Lombardi, G. Piazzesi, M. Linari, C. Poggesi, C. Tesi, N. Piroddi, D. Kapsokalyvas, A. Cosci, A. Van Wiechen, V. De Giorgi, D. Massi, T. Lotti, P. Matteini, R. Pini. BIBLIOGRAFIA [1] Campagnola PJ, Loew LM (2003) Second-harmonic imaging microscopy for visualizing biomolecular arrays in cells, tissues and organisms. Nat Biotechnol 21, 1356-1360. [2] Zipfel WR, Williams RM, Webb WW (2003) Nonlinear magic: multiphoton microscopy in the biosciences. Nat Bio- technol 21, 1369-1377. [3] Matteini P, Ratto F, Rossi F, Cicchi R, Stringari C, Kapsokalyvas D, Pavone FS, Pini R (2009) Photothermally-induced disordered patterns of corneal collagen revealed by SHG imaging. Opt Express 17, 4868-4878. [4] Both M, Vogel M, Friedrich O, von Wegner F, Kunsting T, Fink RH, Uttenweiler D (2004) Second harmonic imaging of intrinsic signals in muscle fibers in situ. J Biomed Opt 9, 882-892. [5] Vanzi F, Capitanio M, Sacconi L, Stringari C, Cicchi R, Canepari M, Maffei M, Piroddi N, Poggesi C, Nucciotti V, Linari M, Piazzesi G, Tesi C, Antolini R, Lombardi V, Bottinelli R, Pavone FS (2006) New techniques in linear and non-linear laser optics in muscle research. J Muscle Res Cell Motil 27, 469-479. Francesco Saverio Pavone è laureato in Fisica all’Università di Firenze e ha il titolo di PhD in Ottica all’Istituto Nazionale di Ottica. Dopo un periodo di un anno e mezzo alla Ecole Normale Superieure (ENS) di Parigi con il Prof. Claude Cohen-Tannoudji, e dopo un periodo come Professore Associato di Fisica al dipartimento di Fisica di Perugia, dal 2005 è Professore Ordinario all’Università di Firenze (Facoltà di Agraria) e Responsabile Scientifico del Laboratorio di Biofisica presso il Laboratorio Europeo di Spettroscopia non Lineare (Firenze, Italia). GLI ALTRI TEMI ▲ LA MISURA DEL COLORE Costanza Cucci, Marcello Picollo Caratterizzazione UV-Vis-NIR di plastiche nell’arte contemporanea: problematiche PROBLEMS RELATED WITH UV-VIS-NIR CHARACTERIZATION OF PLASTIC MATERIALS WITH DIFFERENT TRANSPARENCY LEVELS OCCURRING IN CONTEMPORARY ARTWORKS This work deals with the application of UV-Vis-NIR reflectance spectroscopy to the characterization of plastic materials used by contemporary artists. This well-established technique is non-invasive and is commonly used in the investigation of artworks, but its application to the analysis of contemporary collections is still unexplored. Specific questions related to the reflectance measurement on plastic materials, which can have different levels of transparency, are discussed. RIASSUNTO Questo contributo studia l’applicabilità della spettroscopia di riflettanza UVVis-NIR per la diagnostica su oggetti d’arte in materiale plastico. Sebbene si tratti di una tecnica non invasiva consolidata e comunemente applicata nel settore dei beni culturali, il suo utilizzo su collezioni d’arte contemporanea è ancora limitato. Si discutono qui alcune questioni specificamente legate alla caratterizzazione in riflettanza dei materiali plastici, che possono presentare un livello di trasparenza variabile. I BENI CULTURALI E LE PLASTICHE: co (ad esempio pellicole a base di aceUN CONNUBIO MODERNO tati di cellulosa). La caratterizzazione dei materiali plastici è divenuta negli ultimi anni un tema di grande interesse e attualità nel settore della conservazione del patrimonio culturale, che non può più esimersi dal dedicare particolare attenzione alla tutela dell’arte contemporanea. Infatti, un numero sempre crescente di opere e oggetti-culto della produzione artistica contemporanea, erroneamente considerati durevoli, è interessato da gravi alterazioni causate da processi di invecchiamento, non preventivati. L’analisi di questo problema è di vastissimo interesse, poiché riguarda non solo la tutela di opere di arte contemporanea, ma anche la conservazione di oggetti considerati testimonianze di importanza storica (come ad esempio alcuni pezzi da collezione conservati nel museo aerospaziale della NASA, o prototipi di oggetti di design entrati poi nell’uso comune), nonché la salvaguardia di settori del patrimonio fotografico e cinematografi- si delle problematiche più rilevanti connesse alla conservazione di oggetti d’arte realizzati con materiali plastici (in particolare poliuretani, PVC, acetato e nitrato di cellulosa, ecc.), e la messa a punto di strategie di intervento e conservazione. Nell’ambito del progetto, l’Istituto di Fisica applicata “Nello Carrara” del Consiglio Nazionale delle Ricerche (IFAC-CNR) di Firenze sta portando avanti uno studio basato sull’utilizzo di tecniche spettroscopiche noninvasive nell’intervallo delle regioni ultravioletta (UV), visibile (Vis) e del vicino infrarosso (NIR) per la caratterizzazione di materiali plastici di interesse in ambito storico-artistico. Le tecniche spettroscopiche UV-Vis-NIR sono ben consolidate per applicazioni su beni culturali di tipo tradizionale, poiché offrono la possibilità di effettuare una diagnostica non invasiva basata sull’utilizzo di strumentazione portatile e maneggevole e, grazie all’utilizzo di fibre ottiche, consentono misure in situ, ovvero direttamente sull’oggetto. La caratterizzazione UV-Vis-NIR, pur non sostituendosi a tecniche analitiche di laboratorio, è spesso in grado di fornire sia informazioni composizionali, utili sia a una classificazione del materiale analizzato, sia a una caratterizzazione colorimetrica della superficie, che è spesso utilizzata per un monitoraggio del degrado [5,6,7]. Tuttavia, il buon esito di questo tipo di analisi è subordinato alla disponibilità di archivi spettrali di riferimento che permettano di interpretare i dati acquisiti direttamente sull’oggetto, e di classificarli in base al confronto con sostanze note. Mentre per i materiali artistici tradizionali sono stati ormai compilati consistenti archivi spettrali di standard di riferimen- È quindi facile intuire come la sola operazione di classificazione e caratterizzazione delle plastiche più ricorrenti in ambito artistico sia tanto necessaria quanto complessa. Dal momento che le tipologie di materiali classificati come plastiche sono molteplici, e caratterizzate da strutture di differente complessità, la conoscenza di queste sostanze e la comprensione degli aspetti che intercorrono tra i processi di degrado e le variazioni delle loro proprietà macroscopiche sono essenziali per affrontare il problema della conservazione delle “plastiche artistiche” [1,2]. Queste considerazioni hanno indotto sia istituzioni museali, sia gruppi di ricerca operanti nel settore dei beni culturali a cercare di definire protocolli di misura e possibili indicatori dello stato di degrado delle sostanze polimeriche. In questo contesto si colloca il Progetto Europeo “Preservation of Plastic Artifacts in museum collections” (POPART) [3,4], avviato nel 2008 e attualmente IFAC-CNR “Nello Carrara“ in corso, che ha come obiettivo l’anali- [email protected] T_M N. 2/10 T_M ƒ 113 ▲ GLI ALTRI TEMI to nelle regioni UV-VIS-NIR, per le plastiche di interesse artistico l’utilizzo di queste metodologie diagnostiche è, a conoscenza degli autori, ancora inedito. Per questo motivo è stato avviato uno studio su una serie di campioni di riferimento di materiali plastici certificati, selezionati nell’ambito del Progetto POPART in base alle indicazioni di esperti operanti nel campo della conservazione delle opere d’arte contemporanea. I risultati preliminari presentati in questo contributo rappresentano un primo stadio di analisi delle problematiche connesse alle misure di riflettanza in situ su manufatti in plastica. In particolare, tramite un confronto interstrumentale e l’analisi comparativa di spettri acquisiti con diverse geometrie di misura, si analizza il ruolo del fattore “trasparenzaopacità” nella caratterizzazione spettroscopica dei polimeri selezionati nell’intervallo UV-Vis-NIR. T_M ƒ 114 Figura 1 – Campioni Resinkit® 8 tipologie di polipropilene con proprietà fisiche e ottiche diverse I MATERIALI E LA METODOLOGIA DI MISURA Le misure sono state effettuate su una serie di standard di plastiche certificate, commercializzate con il nome Resinkit ® [8]. Questa raccolta di campioni comprende 50 diversi tipi di plastiche, selezionate tra i polimeri più diffusi industrialmente, molti dei quali ricorrenti anche nelle collezioni artistiche. I campioni Resinkit® hanno dimensione e forma standardizzati, sono accompagnati da una scheda descrittiva, e si presentano con il colore e l’apparenza originali della resina (trasparente, opaca, colorata, ecc., illustrata in Fig. 1). Come noto, molte proprietà fisiche dei materiali plastici, come la consistenza, la durezza, le proprietà ottiche, ecc., possono essere variate includendo additivi diversi nella stessa matrice polimerica, in modo da N. 02ƒ ;2010 ▲ ottenere, anche con l’ausilio di opportuni processi di lavorazione, materiali chimicamente simili ma con caratteristiche finali molto diverse. In questo studio sono stati investigati alcuni aspetti legati alla misura della riflettanza nella regione UVVis-NIR su materiali appartenenti a una stessa classe polimerica, ma diversi per colore e livello di opacità/trasparenza a causa della presenza di differenti additivi e/o plastificanti. È stato quindi selezionato un sottoinsieme di campioni, costituito da otto varietà di polipropilene, con proprietà ottiche e meccaniche (Tab. 1). Le caratterizzazioni spettroscopiche sono state eseguite in riflettanza, utilizzando due strumentazioni diverse in modo da poter studiare, in base al confronto interstrumentale, come la geometria di misura e le procedure sperimentali possano influire sul dato spettrale, modificandolo. Sono state utilizzate una strumentazione da banco e una portatile: a) uno spettrofotometro a doppio raggio, mod. Perkin-Elmer Lambda 1 050, operante nell’intervallo spettrale 200-2 500 nm ed equipaggiato con una sfera integrante da 60 mm, con geometria di illuminazione/ripresa 0°/d, tale da escludere la componente speculare della componente riflessa; b) un sistema portatile FORS (Fibre Optic Reflectance Spectroscopy) integrato, costituto da una coppia di spettroanalizzatori Zeiss MCS 601 e MCS 611 NIR 2.2 W, operante nell’intervallo spettrale 350-2 100 nm. Tale sistema è corredato di fibre ottiche e testa di misura con geometria di illuminazione/ripresa 0°/2x45° (Fig. 2). Per ciascuna strumentazione, le misure su ogni campione sono state ripetute in due diverse configurazioni, al fine di estrarre informazioni sul diverso grado di trasparenza dei vari campioni. È evidente che la comprensione di questo aspetto è importante quando si debbano misurare campioni semi-opachi, in cui non sono realizzate le condizioni ideali né per una misura in trasmittanza né per una misura in riflettanza. La prima configurazione utiliz- GLI ALTRI TEMI impossibile effettuare una caratterizzazione spettrale apponendo una superficie riflettente dietro l’area di misura. Riassumendo per ogni campione sono quindi stati acquisiti quattro spettri medi, relativi alle quattro diverse geometrie di misura: 1) spettrofoFigura 2 – Strumentazione FORS (Zeiss tometro, 0°/d, con Spectralon® 99%; MCS600 e MCS611 NIR 2.2 W) equipaggiata 2) spettrofotometro, 0°/d senza con fibre ottiche e sonda di misura 0°/2x45° per acquisizione di spettri di riflettanza in situ Spectralon® 99%; 3) spettroanalizzatore, 0°/45° con Spectralon® 99%; 4) spettroanalizzatore, 0°/45° senza Spectra® Tabella 1 – Campioni di polipropilene Resinkit analizzati lon® 99%. N. Resinkit® 26 27 28 36 38 44 45 46 Nome L’ANALISI Polypropylene homopolimer SPETTRALE: RISULTATI Polypropylene copolimer Polypropylene barium sulfate L’analisi delle caratteriPolypropylene glass filled stiche spettrali nell’interPolypropylene flame retardant vallo esteso UV-Vis-NIR Talc reinforced polypropyilene (200-2 500 nm) consenPolypropylene calcium carbonate reinforced te di osservare simultaMica reinforced polypropylene neamente diverse pro- zata ha previsto il posizionamento di uno standard bianco di riflettanza (Spectralon® 99%) dietro il campione di plastica. Questo standard era lo stesso utilizzato anche per la taratura della strumentazione. Nella seconda configurazione i campioni sono stati misurati tal quali, senza apporvi dietro alcun materiale riflettente. Nel caso delle misure FORS, basate sull’utilizzo della sonda collegata allo strumento mediante fibre ottiche, questa configurazione è stata realizzata poggiando il campione su un apposito supporto cavo in materiale non riflettente. Con il primo tipo di configurazione è stato possibile massimizzare il segnale di riflettanza per i campioni trasparenti o semitrasparenti, migliorando notevolmente il rapporto segnale/rumore rispetto alle misure effettuate senza lo standard bianco dietro al campione. La seconda configurazione, senza Spectralon® dietro al campione, ha avuto invece lo scopo di simulare una condizione più realistica di misura su un oggetto d’arte. È infatti evidente che nella maggior parte dei casi reali è prietà del materiale. La regione 200-380 nm evidenzia eventuali bande di assorbimento della radiazione UV, e dà un’indicazione sulla suscettibilità del materiale al degrado foto-indotto; la regione del visibile (380-750 nm) permette di caratterizzare il materiale dal punto di vista del colore e delle proprietà ottiche (trasparenza, lucentezza, opacità, ecc.); la regione del NIR (7502 500 nm) fornisce indicazioni composizionali relative alla presenza di gruppi funzionali caratteristici del materiale analizzato e utili sia per l’identificazione dei composti sia per monitorare eventuali alterazioni chimiche, indici di fenomeni di degrado. In Fig. 3 è riportato un grafico comparativo degli otto spettri di riflettanza acquisiti sugli standard di polipropilene con spettrofotometro nella configurazione 0°/d e con lo Spectralon® 99% dietro al campione. Si può osservare che, a parte un fattore di intensità, gli spettri non presentano differenze nella regione NIR, indicativa delle caratteristiche composizionali dei campioni. Questo è in accordo con quanto atteso, poiché tutti i campioni appartengono alla stessa classe chi- T_M ƒ 115 mica. Viceversa, le diverse caratteristiche ottiche e cromatiche, che i campioni di polipropilene presentano in virtù della diversa tipologia e quantità di additivi, danno luogo a differenze di banda osservabili nella regione UV-Vis. Si può inoltre osservare che, trattandosi di campioni con spessore identico e analoga composizione chimica, la variazione d’intensità del segnale di riflettanza è ovviamente legata al diverso grado di trasparenza alla radiazione nell’intervallo considerato. Le misure sono state effettuate con Spectralon® 99% posizionato dietro il campione. Per analizzare il ruolo della trasparenza nel modificare il dato spettrale sono stati invece confrontati spettri acquisiti con geometrie e configurazioni diverse su uno stesso campione. Tale confronto è qui riportato in tre T_M ƒ 116 N. 02ƒ ; 2010 ▲ GLI ALTRI TEMI Inoltre, anche le due diverse configurazioni strumentali (FORS e Perkin-Elmer) danno spettri praticamente equivalenti, anche se è presente una lieve diminuzione Figura 3 – Spettri di riflettanza acquisiti con spettrofotometro nella riflettanza nel caso in configurazione 0°/d degli spettri FORS dovuta alla differente geometria di misura. casi rappresentativi: il campione n. Nel campione n. 36 si osserva invece 46, di colore scuro e del tutto opaco una differenza, particolarmente mar(non trasparente), il n. 36 di aspetto cata nel caso della misura con geolattiginoso e trasparenza intermedia, metria 0°/d, tra gli spettri acquisiti con il n. 26 bianco trasparente. Gli spettri e senza Spectralon® 99% dietro il di riflettanza nella regione UV-Vis, campione. In questo caso la semi-traottenuti con le quattro configurazioni sparenza del campione, apprezzabile descritte sopra, sono riportati nelle a occhio nudo, si manifesta con una Figg. 4-6. forte diminuzione d’intensità del seNel campione n. 46, totalmente gnale di riflettanza nella configurazioopaco (non trasparente), gli spettri ne senza Spectralon® 99%. Il ruolo acquisti con e senza Spectralon® 99% dello Spectralon® 99% dietro al camdietro sono sostanzialmente identici. pione è infatti quello di “intensificare” ottenere il massimo segnale di misura, ma non è utilizzabile per misure di tipo quantitativo, poiché in questo caso l’intensità non è direttamente correlabile allo spessore attraversato utilizzando la legge di Lambert-Beer. Infine, i dati ottenuti sul campione n. 26, quasi totalmente trasparente, mostrano come Figura 4 – Resinkit® n. 46 Polipropilene rinforzato con Mica di colore marrone scuro e non trasparente una variazione sia di strumento sia di configurazione (con e senza Spectralon® 99% dietro) possano influenzare lo spettro in modo ancora più marcato (Fig. 6). Infatti, nel caso della misura FORS, in cui la radiazione retro-diffusa dalla plastica è raccolta soltanto lungo la direzione 45° rispetto a quella di incidenza, il valore di riflettanza è molto debole (inferiore al 10%), anche quando si utilizzi lo Spectralon® 99% per recuperare parte della radiazione dispersa. Questo perché in condizioni di forte trasparenza il segnale retro-diffuso è debole Figura 5 – Resinkit® n. 36 Polipropilene rinforzato con fibra e sono necessari accorgimenti vetro di colore bianco e aspetto lattiginoso e semi-trasparente per incrementarlo, sommandone i contributi su varie direzioni. In effetti, si osserva che realizzando queste condizioni di misura, ossia utilizzando lo Spectralon® 99% e la sfera integrante è possibile ottenere uno spettro attendibile. Lo studio effettuato evidenzia come lo spettro di riflettanza nelle plastiche possa essere considerato attendibile e informativo purché si riesca a separare il contributo delle proprietà ottiche macroscopiche (trasparenza – opacità) da quello degli assorbimenti molecolari nel determinare la forma spettrale. Questo è particolarmente im® Figura 6 – Resinkit n. 26 Polipropilene co-polimero portante nella regione UV-Vis e, di colore bianco e trasparente quindi, ogni qualvolta si voglia fare una caratterizzazione colorimeil debole segnale che raggiunge il rive- trica e un monitoraggio delle alteralatore. zioni cromatiche del materiale è Occorre sottolineare che questo ac- necessario confrontare spettri ottenuti corgimento è senz’altro ottimale per in configurazioni di misura diverse, ▲ GLI ALTRI TEMI tali da evidenziare quanto segnale sia perso a causa della parziale trasparenza, e come questa perdita possa influenzare lo spettro. Nei casi in cui la trasparenza risulti giocare un ruolo non trascurabile, occorrerà quindi adottare accorgimenti e geometrie di misura che ne minimizzino l’impatto in considerazione di misure da effettuarsi su opere d’arte e in situ. RINGRAZIAMENTI Il presente studio si inquadra nella ricrea svolta nell’ambito del Progetto EC POPART, finanziato dalla Comunità Europea nell’ambito del 7° Programma Quadro FP7/2007-2013 (grant agreement n° 212218). BIBLIOGRAFIA 1. Y. Shashoua, Conservation of Plastics, Butterworth-Heinemann Elsevier, Oxford (2008). 2. O. Chiantore, Le materie plastiche dell’arte contemporanea e la loro trasformazione e decadimento, in Arte Contemporanea. Conservazione e restauro a cura di S. Angelucci, Nardini Editore, Firenze (1994), 131-156. 3. http://popart.mnhn.fr 4. P. Walter, "Preserving the plastic past", Chemistry & Industry (GB) 8th Feb. 2010, 14-15 5. M. Bacci, A. Casini, M. Picollo, B. Radicati, L. Stefani, Integrated non-invasive technologies for the diagnosis and conservation of the cultural heritage, Journal of Neutron Research, 14/1, (2006), 1116. 6. M. Bacci, R. Bellucci, C. Cucci, C. Frosinini, M. Picollo, S. Porcinai and B. Radicati, Fiber Optics Reflectance Spectroscopy in the Entire VIS-IR Range: a Powerful Tool for the Non-invasive Characterization of Paintings, in Materials Issues in Art and Archaeology VII, edited by Pamela B. Vandiver, Jennifer L. Mass, and Alison Murray (Mater. Res. Soc. Symp. Proc. 852, Warrendale, PA, (2005), pp. 297 302. 7. M. Bacci, D. Magrini, M. Picollo, M. Vervat, A Study of the Blue Colors used by Telemaco Signorini (1835-1901), Journal of Cultural Heritage, 10 (2009), 275280. 8. www.resinkit.com T_M ƒ 117 N. 02ƒ ; 2010 ▲ NEWS NUOVI ENCODER OTTICI RIVOLUZIONANO IL FEEDBACK DI POSIZIONE Renishaw, leader mondiale nel settore degli encoder e delle tecnologie di misura, ha sviluppato Resolute™, un encoder ottico assoluto, a passo fine che garantisce un'eccellente protezione dalle contaminazioni e, grazie alle sue straordinarie specifiche, apre nuovi orizzonti nel settore del feedback di posizione. Resolute™ è il primo encoder assoluto al mondo in grado di fornire una risoluzione di 27 bit a 36 000 giri/min. Inoltre può raggiungere l'incredibile risoluzione di 1 nanometro alla velocità di 100 m/s, in applicazioni sia angolari sia lineari. Il nuovo sistema legge un'esclusiva traccia ottica singola ed è in grado di acquisire la posizione assoluta già all'accensione, senza batterie tampone, eliminando completamente la necessità di eseguire una procedura di zero. Grande robustezza, velocità e una risoluzione senza pari rendono i nuovi encoder estremamente inte- vuol anche dire scansioni migliori, un controllo ottimale della velocità e la massima rigidezza nel mantenimento della posizione di sistemi lineari o rotativi a motorizzazione diretta. Resolute™ non utilizza la tecnica convenzionale, che prevede l'utilizzo di due tracce affiancate (una incrementale e l'altra assoluta) che producono inevitabilmente problemi di sfasatura in presenza di lievi disallineamenti angolari. Questo nuovo encoder assoluto adotta invece una riga ottica assoluta a traccia singola, che combina in un unico codice tutte le informazioni sulla posizione assoluta e sulla fase incrementale. Ciò permette di godere di tolleranze più ampie, per installazioni semplici e rapide, e di una maggiore affidabilità a lungo termine, anche nei casi in cui le strutture si assestino nel corso del tempo. Per semplificare ulteriormente le operazioni di installazione e diagnostica, Resolute™ include un LED di allineamento integrato nel lettore. ressanti, ad esempio, per i produttori di torni ad alte prestazioni, ma anche di assi più lenti, con altissimi requisiti di precisione e integrità di controllo. L'encoder assoluto Resolute™ utilizza una nuova e sofisticata ottica che consente di leggere la traccia di passo 30 µm con un bassissimo rumore (jitter <10 nm RMS) e raggiunge una stabilità di posizionamento stupefacente. Il metodo di rilevamento avanzato produce intrinsecamente un errore sottodivisionale ridottissimo (±40 nm) per garantire una migliore finitura della superficie alle Per ulteriori informazioni: parti lavorate con le macchine CNC. Questo www.renishaw.it NUOVI STRUMENTI PER LA MISURA DI UMIDITÀ, TEMPERATURA E PRESSIONE I principali dati sulle condizioni ambientali, ma anche data e ora, sempre a portata di mano: grazie ai nuovi strumenti Testo per umidità e temperatura, non è più necessario eseguire complicate analisi dei dati su PC, risparmiando così tempo e denaro. Il nuovo termoigrometro testo 623 è lo strumento ideale per i Facility Manager, grazie alla funzione di registrazione delle misure. I valori impostati sono realmente tali? Con testo 623 è possibile rispondere rapidamente a questo tipo di domande. Lo strumento visualizza le misure in corso e i valori precedentemente rilevati sull’ampio display, facilmente leggibile. L’utente può vedere sull’istogramma i valori di umidità o temperatura divisi in intervalli di un’ora, 2 ore, 12 ore, un giorno o 12 giorni. La memoria dello strumento è in grado registrare i dati delle ultime dodici settimane. Misura precisa di umidità, temperatura e pressione Oltre a temperatura e umidità, il modello testo 622 misura anche la pressione ed è particolarmente indicato per i laboratori. Sull’ampio display, facilmente leggibile, visualizza le misure in corso, data e ora. Fornisce quindi in modo istantaneo tutti i valori principali per i protocolli. Un’apposita funzione di recall segnala quando effettuare la taratura. Grazie al software opzionale Testo per la taratura, l’utente può effettuare queste operazioni direttamente in campo. Per ulteriori informazioni: www.testo.it/clima T_M ƒ 118 GLI ALTRI TEMI ▲ MISURE E PROVE NON DISTRUTTIVE Enrico Dati, Laura Manduchi Termografia lock-in e sue applicazioni a controlli di particolari aerodinamici LOCK-IN THERMOGRAPHY AND ITS APPLICATIONS TO THE CONTROL OF AIRCRAFT COMPONENTS Lock-in thermography shows promises among thermographic techniques for a number of applications, due to its inherent noise-free nature. Modern detectors allow the applicability of this technique in a compact set-up, suitable for applications such as the monitoring of defects on aircraft components, and extend its potential to composite materials. The paper describes two examples of non-destructive measurements of aircraft parts with induced defects by means of the technique, and discusses the main sources of measurement errors and the means of overcoming them. RIASSUNTO Tra le tecniche termografiche, la termografia Lock-in si dimostra promettente per un gran numero d’applicazioni, a causa della sua intrinseca insensibilità al rumore. I moderni rivelatori consentono set-up compatti, idonei per applicazioni quali il monitoraggio di difettosità in componenti aeronautici. L’articolo descrive due esempi di misure non distruttive su parti aeronautiche con difettosità indotte, utilizzando la tecnica Lock-in, e discute le principali sorgenti di errori di misura e le modalità di correzione. TERMOGRAFIA LOCK-IN: UN’EVOLUZIONE DELLA TERMOGRAFIA IR La termografia si basa sulla rivelazione delle radiazioni infrarosse che vengono emesse da qualsiasi corpo a una temperatura superiore allo zero assoluto. Tale rivelazione avviene attraverso opportuni sensori che operano senza contatto con il corpo in esame, permettendo, attraverso un’opportuna elaborazione del segnale, di determinarne la temperatura. Le applicazioni della termografia coprono i settori più diversi: da quello energetico alle infrastrutture, dai trasporti e dal settore aeronautico alla conservazione dei beni culturali e al medicale. Nel settore aeronautico la termografia può essere utilizzata come metodologia di controllo non distruttivo nelle ispezioni periodiche di particolari per la rilevazione di eventuali difetti che si possono generare durante la vita operativa del velivolo. Infatti, se il pezzo viene opportunamente stimolato, la presenza di un difetto costituisce un ostacolo alla normale diffusione del calore, producendo locali disomogeneità nella distribuzione delle temperature superficiali, evidenziabili mediante l’uso di videocamere nell’infrarosso. L’uso della termografia nel settore delle misure e dei controlli non distruttivi è oggi in rapida crescita, in relazione ai grandi vantaggi che questa tecnica può offrire: le mappe termiche sono ottenibili in pochi secondi e consentono di ispezionare grandi superfici senza alcun contatto con i particolari controllati con una notevole riduzione dei tempi di fermo macchina. Inoltre la tecnica è applicabile anche al controllo di materiali innovativi, quali i materiali compositi, per i quali molte delle tecniche classiche non sono applicabili. La maggior parte dei sensori termici utilizzati finora (siliciuro di platino, antimoniuro di indio o telluriuro di cadmio e mercurio) operavano nella prima finestra atmosferica (λ = 2 ÷ 5 µm) e richiedevano complessi sistemi di raffreddamento, ad es. con azoto liquido. I recenti sensori microbolome- T_M trici non richiedono raffreddamento e operano nella seconda finestra atmosferica (λ = 8 ÷ 14 µm). Inoltre i sensori più recenti sono di tipo Focal Plane Array (FPA) e permettono di ottenere, senza sistemi di scansione meccanica, una vera e propria mappatura (termogramma) della distribuzione superficiale della temperatura, dalla quale si possono ricavare utili informazioni sui particolari in esame. La termografia tradizionale risente tuttavia di alcuni limiti dovuti a disturbi quali disomogeneità di riscaldamento, riflessioni di sorgenti di calore presenti dell’ambiente di lavoro e coefficienti di emissività non omogenei, che possono inficiare l’esito del controllo. Inoltre, materiali a elevata conducibilità sono soggetti a propagazioni termiche troppo rapide, che portano ad ottenere immagini poco contrastate o non rilevabili con sistemi convenzionali. L’evoluzione della tecnica termografica è pertanto passata attraverso l’elaborazione del segnale termico, che mediante il processo di modulazione individua e separa il segnale reale dai segnali di rumore. Nel caso della termografia, viene modulato il calore che investe il particolare in esame e si analizzano le immagini termografiche dell’evento sulla base dei parametri di modulazione. Nella Termografia Lock-in, che si sta maggiormente diffondendo sia per le applicazioni nel campo dei controlli non distruttivi sia per gli impieghi nel settore della stress-analysis, la modula- Centro sperimentale di Volo di Pratica di Mare, Aeronautica Militare - Articolo presentato al Convegno Annuale dell’Associazione Italiana Prove non Distruttive (AIPnD) – Roma 2009 [email protected] N. 2/10 ƒ 119 N. 02ƒ ; 2010 ▲ GLI ALTRI TEMI zione di temperatura indotta da un riscaldatore con andamento sinusoidale sulla superficie del particolare si propaga come “onda termica”. Questa subisce riflessioni, pertanto la modulazione di temperatura sulla superficie è modificata dall’onda termica che ritorna dall’interno del particolare. In corrispondenza di ogni pixel dell’array, mediante una semplice analisi di quattro immagini con sfasamento reciproco di un quarto di periodo, è possibile ottenere lo sfasamento tra l’energia immessa e la risposta termica locale (φ), e l’ampiezza massima del segnale termico periodico (A), secondo le seguenti formule: −1 φ( x , y ) = tan ( S1( x , y ) − S3( x , y ) ) S2 ( x , y ) − S 4 ( x , y ) 2 2 A( x , y ) = (S1( x , y ) − S3( x , y )) + (S2 ( x , y ) − S 4 ( x , y )) T_M ƒ 120 Mentre l’immagine in ampiezza è ancora dipendente da disomogeneità d’assorbimento della superficie, d’emissione infrarossa e di distribuzione del riscaldamento, l’immagine in fase ne è immune, risultando più affidabile e sensibile. Inoltre con l’analisi in fase la profondità teorica alla quale un difetto può essere rilevato (µ) è circa il doppio di quella ottenibile con l’analisi in ampiezza e vale: µ= già da alcuni anni presso il Centro Sperimentale di Volo dell’Aeronautica Militare, si è operato con lampade alogene collegate a un generatore di segnale variabile in ampiezza e frequenza (Fig. 1). Al PC arrivano sia i segnali provenienti dalla termocamera sia il segnale di controllo del gene- 2k ωρC p dove k è la conducibilità termica del materiale, ω è la velocità angolare dell’onda sinusoidale, ρ la densità e Cp la capacità termica. La modulazione sinusoidale può essere ottenuta con diversi metodi. In particolare negli studi che sono in corso Figura 1 – Set-up strumentale utilizzato per la tecnica termografica Lock-in con stimolazione ottica N. 02ƒ ;2010 L’ampiezza dello sfasamento tra il centro del difetto e la zona senza difetti dipende dalla frequenza di modulazione del segnale termico. Essa è evidenziata sperimentalmente dal grafico di Fig. 3, ottenuta per i fori del campione n. 2, per frequenze di modulazione che variano da 0,03 a 1 Hz. Si nota che la differenza di fase presenta un massimo nella zona compresa tra 0,1 e 0,2 Hz. ▲ ratore che regola la potenza delle lampade. Un apposito software elabora i dati in modo da fornire le due immagini in fase e ampiezza. Il set-up strumentale è stato impiegato per valutare disomogeneità di varie dimensioni e profondità presenti su particolari aeronautici. Il primo studio è stato effettuato su particolari in Al, mentre il secondo è stato effettuato su materiali compositi in fibra di carbonio. In entrambi i casi sono state effettuate prove preliminari per trovare le condizioni migliori per il controllo del punto d’inizio acquisizione, del periodo di preriscaldamento, della potenza delle lampade e del numero dei cicli di acquisizione. Si è quindi valutata l’influenza della frequenza di acquisizione sulla rilevabilità dei difetti. GLI ALTRI TEMI Figura 3 – Campione n. 2: differenza tra le fasi dei segnali termici in corrispondenza dei centri dei fori a diversa profondità e nelle zone sane in funzione della frequenza di modulazione del riscaldamento (riscaldamento effettuato con lampada da 1000 W posta a 60 cm dal blocco) STUDIO SUI PARTICOLARI IN ALLUMINIO Nella Fig. 2 sono riportati i risultati dello studio effettuato sui particolari in Al. Le Figg. 2.a e 2.b mostrano le immagini di fase (rappresentate a falsi colori) ottenute alla frequenza di modulazione di 0,1 Hz su due blocchi di Al preventivamente verniciati con una pittura a elevata emissività. Il primo blocco (n. 1) presentava quattro difetti (fori a fondo piatto) di diverso diametro (fra 15 e 40 mm) posti a uguale profondità (1 mm dalla superficie in esame). Il secondo (n. 2) presentava quattro difetti di uguale diametro (40 mm) posti a differenti profondità (tra 1,5 e 4 mm dalla superficie d’esame). Come si evince dalle immagini, a questa frequenza tutti i difetti risultano ben rilevabili. Figura 4.a – Andamento dello sfasamento del segnale termico lungo la linea congiungente i centri dei fori a frequenza 0,125 Hz per il blocco campione in Al n. 1 Nelle Figg. 4.a e 4.b sono poi rappresentati gli andamenti dello sfasamento del segnale termico sulla superficie dei campioni n. 1 e n. 2 rispettivamente, lungo la linea congiungente i centri dei fori alle frequenze di picco. Questi andamenti, e le corrispondenti derivate, consentono d’evidenziare i bordi dei fori e di misurare i diametri. Per confrontare i risultati sperimenta- Figura 2 – Termografia in fase dei blocchi campione alla frequenza di 0,1 Hz. 2.a: blocco n. 1; 2.b: blocco n. 2 Figura 4.b – Andamento dello sfasamento del segnale termico lungo la linea congiungente i centri dei fori a frequenza 0,1 Hz per il blocco campione in Al n. 2 Figura 5 – FEA del blocco campione in alluminio n. 2 tenendo conto del contributo della riflessione della lampada li con i valori teorici, gli sfasamenti e le variazioni di ampiezza dei segnali termici dovuti alla presenza di difetti per diverse frequenze sono stati calcolati mediante analisi agli elementi finiti (FEA). Il grafico di Fig. 5 mostra l’ampiezza dello sfasamento nelle condizioni di Fig. 3 ed evidenzia un buon accordo con i valori sperimentali, a condizione di T_M ƒ 121 considerare anche il contributo di riflessione della lampada, valutato come segnale termico in fase con il riscaldamento e con ampiezza intorno agli 0,5 °C. L’approccio numerico ha permesso di evidenziare come il segnale riflesso causa una consistente riduzione dello sfasamento del segnale termico che aumenta all’aumentare della frequenza. In realtà piccoli difetti produrrebbero, in assenza di riflessione, una maggior differenza di fase soprattutto ad alte frequenze, ma la bassa intensità del segnale prodotto all’aumentare della frequenza fa sì che, in condizioni reali, il contributo del segnale riflesso mascheri quasi completamente l’indicazione. Pertanto quanto più si riesce a minimizzare l’effetto della riflessione, applicando per esempio una pittura con emissività molto elevata o facendo uso di una fonte di riscaldamento a ultrasuoni o laser, tanto maggiore potrà essere la frequenza di lavoro, con aumento della differenza di fase tra difetto e zona sana. A titolo di esempio, per le tipologie di difetti esaminati le condizioni ottimali individuate cadono nel campo tra 0,1 e 0,3 Hz. STUDIO SUI PARTICOLARI IN FIBRA DI CARBONIO N. 02ƒ ; 2010 ▲ GLI ALTRI TEMI no difetti di diverso diametro e posti a diverse profondità. Nel caso dei compositi è stato necessario effettuare un preriscaldamento di diversi cicli prima di avviare l’acquisizione: infatti operando in regime transitorio si era rilevata un’eccessiva variabilità dei risultati in funzione del punto d’inizio acquisizione, e una mancanza di riproducibilità delle misure. La Fig. 6 mostra i risultati ottenuti alla frequenza di 0,015 Hz per i due blocchi utilizzati per il controllo. Al pari dei campioni precedenti, anche in questo caso si è valutata l’influenza della frequenza di lavoro sulla rilevabilità dei difetti nei due diversi blocchi utilizzati. Si è potuto rilevare come vi sia uno spostamento del massimo sfasamento verso frequenze più alte al diminuire delle dimensioni del difetto e al diminuire della profondità. Riassumendo i risultati ottenuti per i diversi provini è stato possibile ottenere, per ciascuna frequenza, curve che esprimono la differenza di fase in funzione della profondità e delle dimensioni dei fori. Dall’esame di questi risultati è possibile notare come un provino in materiale composito di 4 mm di spessore possa essere controllato per tutto il suo spessore applicando frequenze inferiori a 0,03 Hz. All’aumentare della frequenza i difetti più profondi non sono più rilevabili, mentre si evidenziano meglio i difetti subsuperficiali anche di piccole dimensioni. TERMOGRAFIA LOCK-IN: UNA VALIDA ALTERNATIVA Le prove effettuate hanno messo in evidenza come la termografia Lockin consenta di ottenere risultati affidabili e abbia una sensibilità comparabile con quella di altre tecniche d’indagine non distruttive per il controllo di particolari in alluminio e in materiale composito. In particolare, nei controlli di questi ultimi materiali la termografia Lock-in rappresenta una valida alternativa al controllo mediante ultrasuoni presentando, rispetto a questi ultimi, i vantaggi di non richiedere il contatto con il pezzo e di permettere di ottenere mappature di superfici anche estese in tempi notevolmente ridotti. Enrico Dati, T. Col. GARN. Laureato in Chimica Industriale. In servizio presso il Reparto Chimico del Centro Sperimentale Volo. Dal 1/2/01 Capo Sezione Tecniche Ottiche e Termografiche, dal 1/9/09 Capo Gruppo CND. Attività: Elaborazione procedure di controllo CND su particolari e strutture aeronautiche, effettuazione di controlli CND straordinari su particolari aeronautici e studi e sperimentazione di tecniche CND avanzate. Laura Manduchi, Cap. Laureata in Chimica, DotI blocchi campione utilizzati per lo torato di Ricerca in Scienstudio sui materiali compositi in ze Chimiche. In servizio fibra di carbonio erano simili a presso il Reparto Chimico quelli utilizzati per l’Al e contenevadel Centro Sperimentale Volo. Dal 10/10/07 Capo Sezione Tecniche Ottiche e Termografiche. Attività: Elaborazione procedure di controllo CND su particolari e strutture aeronautiche, effettuazione di controlli CND straordinari su particolari aeronautici e studi e sperimenFigura 6. – 6.a – Termografia in fase del blocco campione in CFRP con fori di diverso diametro tazione di tecniche e uguale profondità alla frequenza di 0,1 Hz. 5.b: Termografia in fase del blocco campione CND avanzate. in CFRP con fori di diametro uguale e diversa profondità alla frequenza di 0,1 Hz T_M ƒ 122 GLI ALTRI TEMI ▲ MISURE MECCANICHE Davide Bruzzi*, Alberto Corbelli*, Alessandro Rivola*, Paolo Tortora*, Giulio Camauli** Test di vibrazione condotti sul microsatellite ALMASat-1 Una collaborazione Università-Industria di successo VIBRATION TESTS CONDUCTED ON THE ALMASAT-1 SATELLITE The article presents activities for space flight qualification of ALMASat-1 satellite’s subsystems, conducted by the vibration test laboratory of the 2nd Faculty of Engineering, Bologna University, Forlì branch. Vibration tests have been conducted on the individual subsystems that are part of the university microsatellite, to verify the robustness of the different components under stress during the space launch that will be made by the Vega launcher, which will host ALMASat-1. To run the tests the laboratory used the electrodynamic shaker Dongling ES-2-150 and its control and acquisition platform LMS Test.Lab/SCADAS III, provided by LMS Italiana. RIASSUNTO Il presente articolo illustra e riassume l’attività di qualifica al volo spaziale dei sottosistemi del satellite ALMASat-1 svolta presso il laboratorio per prove di vibrazione della Seconda Facoltà di Ingegneria dell’Università di Bologna, sede di Forlì. Nello specifico, vengono presentati i test di vibrazione condotti sui singoli sottosistemi che compongono il microsatellite universitario, allo scopo di verificare la robustezza dei diversi componenti alle sollecitazioni previste durante il lancio, che avverrà mediante il lanciatore VEGA, a bordo del quale ALMASat-1 sarà alloggiato. Per l’esecuzione dei test il laboratorio ha utilizzato uno shaker elettrodinamico Dongling ES-2150 e la relativa piattaforma di controllo e acquisizione LMS Test.Lab/SCADAS III, forniti da LMS Italiana. IL MICROSATELLITE ALMASAT-1 di puntamento tipica di payload quali camere ottiche e multispettrali. Il sistema di determinazione d’assetto è composto da quattro sensori di Sole (progettati e sviluppati da UniBO) e due magnetometri. Il sistema di controllo d’assetto è invece composto da una ruota di momento in rotazione attorno all’asse di pitch e da tre coppie di bobine magnetiche tra loro ortogonali. ALMASat-1 include anche un sistema di micropropulsione come payload tecnologico, anch’esso interamente progettato, sviluppato e assemblato presso l’UniBO, in collaborazione con Carlo Gavazzi Space, la quale ha prodotto i microthruster. Tale impianto impiegherà per la propulsione gas freddo inerte (azoto) e sarà in grado di produrre una spinta prevista costante di 0,75 mN ad una pressione costante di 0,1 MPa. Il sistema di comunicazione è composto da tre blocchi principali che lavorano a diverse bande di frequenza: un sistema in banda VHF verrà utilizzato come canale di uplink per dati e telecomandi dalla stazione di terra, mentre un secondo sistema in banda UHF costituirà il canale principale di downlink per le informazioni di telemetria del satellite. La missione ALMASat-1 ospiterà a bordo anche un sistema di comunicazione in banda S (sempre sviluppato da UniBO) ad elevato data-rate (fino a 38 400 bps). Il sistema di potenza di ALMASat-1, infine, si compone di tre parti principali: pannelli solari, batterie e una scheda dedicata alla gestione della potenza in gioco. Mentre i primi due di volume, puntamento e potenza. Molti dei sottosistemi di ALMASat-1 venALMASat-1 è il primo microsatellite gono assemblati impiegando tecnolointeramente progettato, prodotto e gie disponibili in commercio, garantenassemblato presso l’Università di Bolo- do in questo modo la capacità di allegna (UniBO). ALMASat-1 è stato pro- stire missioni low-cost e con rapida gettato come una piattaforma multi- risposta. Il microsatellite consiste in un scopo che può, con piccoli aggiusta- prisma cubico, con una struttura modumenti, essere utilizzata per diverse lare di cassetti in alluminio e quattro missioni, grazie alla capacità di allog- pannelli laterali in nido d’ape di fibra di giare payload con differenti proprietà carbonio e Nomex (Fig. 1). Il sistema di determinazione e controllo d’assetto fornisce una stabilizzazione a tre assi con puntamento * verso Nadir Seconda Facoltà di Ingegneria, in modo da Università di Bologna, sede di Forlì. soddisfare la **LMS Italiana, Novara Figura 1 – Il microsatellite ALMASat-1 performance [email protected] T_M N. 2/10 ƒ 123 N. 02ƒ ; 2010 sono stati sviluppati presso l’UniBO, la scheda di gestione potenza è stata sviluppata presso l’Università di Roma “La Sapienza” nell’ambito di una collaborazione con Aerospower Group avviata nel 2005. Il sistema fotovoltaico del satellite è basato su celle solari a tripla giunzione (TJ). Il satellite possiede quattro pannelli in honeycomb di fibra di carbonio e Nomex con celle solari all’Arseniuro di Gallio posizionate sui lati. Sul coperchio superiore del satellite è posizionata una ulteriore serie di celle solari per un numero totale di celle pari a sedici. Per il sistema di immagazzinamento della potenza sono impiegate batterie agli ioni di Litio: tre pacchi da 2 600 mAh sono connessi in parallelo per aumentare la ridondanza. SPECIFICHE DI PROVA E PROFILI DI CARICO Sfruttando le potenzialità offerte dal sistema di test allestito presso il laboratorio per prove di vibrazioni della Seconda Facoltà di Ingegneria, è stato possibile soddisfare pienamente le richieste del lanciatore per la qualifica al volo dei componenti di ALMASat-1. Grazie infatti alla piattaforma composta dallo shaker elettrodinamico Dongling ES-2-150 e relativo controller LMS SCADAS III, abbinato al software LMS Test.Lab, si sono applicate rigorosamente le specifiche imposte sia dal lanciatore VEGA, sia dalle norme ECSS, nell’ambito di test di vibrazione relativi a sollecitazioni random e shock. Per quanto riguarda le sollecitazioni di tipo random, le specifiche imposte dal lanciatore dettano chiaramente i profili di vibrazione in termini di PSD, sia a livello di accettazione, sia di qualifica (Fig. 2). Le prove descritte nel presente articolo sono relative a livelli di qualifica per le schede elettroniche e i pannelli solari, mentre magnetometro e ruota di momento sono stati testati secondo i livelli di accettazione in quanto in configurazione di volo. Sempre in accordo con le specifiche imposte dal lanciatore VEGA, la verifica a shock deve essere effettuata lungo tutti e tre gli assi, con uno spettro di shock equivalente a un impulso semi-sinusoidale della durata di 0,5 ms ed ampiezza di picco di 200 g. A tale scopo, è stato impiegato il modulo di Shock Response Synthesis (SRS) del software LMS Test.Lab. Figura 2 – Profili PSD per prove di vibrazione random T_M ƒ 124 N. 02ƒ ;2010 ▲ GLI ALTRI TEMI HARDWARE Nella Fig. 3 è possibile osservare la piattaforma per l’esecuzione dei test di vibrazione allestita presso il laboratorio per prove di vibrazione della Seconda Facoltà di Ingegneria (sede di Forlì). Da sinistra verso destra sono visibili nell’ordine: il PC dedicato alla gestione del software LMS Test.Lab e al post-processing dei dati, il frontale di controllo ed acquisizione LMS SCADAS III, lo shaker elettrodinamico Dongling ES-2-150 e l’amplificatore dedicato. Figura 4 – 4.a: Magnetometro; 4.b: PSD target (blu) e PSD del segnale di controllo (rosso) per il test di vibrazione random dello shaker. Relativamente al test di vibrazione random, la Fig. 4.b riporta, in termini di PSD, il profilo desiderato per il test di accettazione (linea blu), sovrapposto al PSD del segnale di controllo dello shaker (linea rossa): come si può osservare il sistema shaker/controllo segue fedelmente il profilo impostato all’interno del software LMS Test.Lab. La verifica a shock compiuta sugli stessi magneFigura 3 – La piattaforma utilizzata per i test di vibrazione tometri è stata condotta per mezzo del modulo di SRS del software di controllo ed acquiTEST DEI SOTTOSISTEMI sizione LMS Test.Lab. In particolare, in Fig. 5.a è riportato il raffronto tra lo Per fissare correttamente i diversi com- spettro nominale imposto dal lanciatore ponenti del microsatellite ALMASat-1 (linea blu) e quello ottenuto attraverso alla testa dello shaker sono stati impie- sintesi equivalente (linea viola), all’intergati due expander di dimensioni oppor- no dei confini di validità della sintesi tune appositamente studiati e realizzati nel laboratorio dell’Università di Bologna. Sono state quindi condotte le qualifiche dei componenti di ALMASat-1, secondo i requisiti precedentemente descritti. Magnetometri – In Fig. 4.a è mostrato un magnetometro di ALMASat-1 fissato, attraverso uno dei due expander, alla testa stessa (tratteggio rosso). La Fig. 5.b mostra la sequenza di impulsi risultante. Ruota di momento – Come per le prove di vibrazione dei magnetometri, anche la ruota di momento, mostrata in Fig. 6.a, è stata testata per il lancio a bordo del lanciatore VEGA, mostrando la capacità di soddisfare i requisiti imposti. La Fig. 6.b mostra la risposta rilevata dall’accelerometro collocato sulla ruota durante l’esecuzione del test di vibrazione random. Tale rilievo è utile per la stima dei carichi agenti sui componenti più delicati dell’oggetto, motore elettrico e cuscinetti a sfere su tutti. Elettronica di bordo – Anche le schede elettroniche, interamente progettate e realizzate all’interno del Laboratorio di Microsatelliti della Seconda Facoltà di Ingegneria, sono state verificate nei confronti delle sollecitazioni dovute alle vibrazioni previste al momento del lancio. Un esempio di test è riportato in Fig. 7.a: la scheda dedicata alla telemetria del satellite è ancorata in configurazione di volo all’interno di un singolo cassetto di ALMASat-1 e testata sullo shaker. Un dato interessante è emerso dalla ricerca delle frequenze naturali del sistema, le quali si sono dimostrate ben superiori alle minime richieste dal lanciatore per la qualifiFigura 5 – Test di shock sui magnetometri: 5.a: SRS; ca dell’intero sistema 5.b: sequenza di impulsi nel tempo (60 Hz). T_M ƒ 125 Figura 6 – 6.a: Ruota di momento; 6.b: Risposta rilevata dall’accelerometro posto sulla ruota di momento durante il test di vibrazione random T_M ƒ 126 N. 02ƒ ; 2010 ▲ GLI ALTRI TEMI Pannelli solari – Sono stati infine condotti test su un provino di pannello solare composto di tre celle a tripla giunzione all’arsenurio di gallio, al fine di verificare la bontà sia degli incollaggi sia del supporto in fibra di carbonio e Nomex (Fig. 7.b). In questo caso si è analizzato il comportamento del provino sia in configurazione orizzontale (distesa sull’expander), sia in posizione verticale. N. 02ƒ ;2010 ▲ GLI ALTRI TEMI lo è impiegato con ottimi risultati nell’esecuzione di test su componenti ad uso terrestre in studio presso la Seconda Facoltà di Ingegneria dell’Università di Bologna. RINGRAZIAMENTI Figura 7 – 7.a: Scheda di telemetria e relativo cassetto; 7.b: Provino di pannello solare CONCLUSIONI NEWS ▼ L’analisi critica dei risultati ottenuti durante l’intera campagna di test ha permesso di valutare positivamente la qualità del dimensionamento e delle tecniche produttive utilizzate per la realizzazione dei sottosistemi del microsatellite ALMASat-1. La campagna di test stessa è stata condotta positivamente, IL GRUPPO KISTLER SI AGGIUDICA “BIG CONTRACT” PER 3 CRASH CENTER IN INDIA Il Gruppo Kistler si è aggiudicato il contratto per tre centri completi di crash per lo sviluppo dell’industria automobilistica indiana. Il cliente finale di questo progetto (da oltre venti milioni di Franchi Svizzeri) è il National Automobile Testing and R&D Infrastructure Project (NATRIP), centro nazionale di Ricerche e Sviluppo nell’ambito Automotive. Le acquisizioni fatte da Kistler l’anno scorso nella divisione Automotive sono subito risultate vincenti per questa applicazione. L’industria automobilistica indiana sta crescendo a un ritmo superiore rispetto al resto del mondo. Per permettere la commercializzazione dei veicoli indiani in tutto il mondo, i costruttori devono dimostrare di adempiere a tutte le normative a livello mondiale riguardanti l’impatto ambientale e gli standard di sicurezza. Per questo motivo il Governo indiano ha creato il NATRIP, che realizzerà tre crash grazie alle possibilità offerte dall’intera piattaforma di test allestita, la cui facilità di utilizzo, unita alla bontà degli strumenti installati (shaker, amplificatore e sistema di controllo) ha permesso di realizzare in maniera semplice e rapida un’intera sessione di qualifica per il volo di numerose parti dell’intero satellite. Attualmente, il sistema shaker/control- Gli autori ringraziano lo staff di LMS Italiana per il supporto offerto durante le fasi di installazione, avvio e introduzione all’impiego dello shaker elettrodinamico e del software di controllo e acquisizione. RIFERIMENTI 1. European Cooperation for Space Standardization, ECSS-E-10-02A Verification, ESA-ESTEC, November 1998. 2. European Cooperation for Space Standardization, ECSS-E-10-03C-Draft Testing, March 2009. 3. VEGA User Manual, Arianespace, March 2006. center all’avanguardia a Chennai, Pune e per l’industria automobilistica, offrendo Delhi. Per l’assegnazione della strumenta- soluzioni e servizi al cliente come fornitore zione da installare è stato istituito un unico di riferimento”. I centri di crash a Chennai (GARC), Pune bando internazionale. L’offerta del Gruppo Kistler ha vinto una (ARAI) e Delhi (iCAT) saranno costruiti e competizione a livello planetario sia dal messi in funzione entro i prossimi 18 mesi. punto di vista tecnico sia da quello economico. Le acquisizioni, effettuate lo scorso anno, di MSC Automotive, Corrsys-Datron e KT Automotive hanno decisamente rafforzato la posizione del gruppo nel comparto Automotive, permettendo di fornire una soluzione chiavi in mano per l’industria automobilistica. Come sottolineato da Rolf Sonderegger, CEO del Gruppo Kistler, l’assegnazione di questo enorme contratto conferma la correttezza della strategia di sviluppo che la multinazionale sta sviluppando nei mercati in forte crescita ed espansione, come India e Cina. “Stiamo plasmando noi stessi Stretta di mano dopo la sigla del contratto tra Saurabh Dalela come partner globali (Direttore NATRIP) e Rolf Sonderegger (CEO Gruppo Kistler) T_M ƒ 127 NUOVO AMPLIFICATORE DI MISURA UNIVERSALE A 8 CANALI Cercate una soluzione flessibile per la misurazione di grandezze meccaniche, elettriche o termiche? Il nuovo amplificatore di misura MX840A di HBM supporta ponti interi e semiponti per trasduttori ad ER e induttivi, tensione elettrica e corrente, trasduttori a resistenza, i comuni tipi di termocoppie, trasduttori rotativi, un ingresso per il CAN-Bus e molto altro. Tutti gli 8 ingressi dispongono di un convertitore AD a 24 bit, vengono acquisiti in modo sincrono e sono isolati galvanicamente, il che garantisce un’elevata precisione di misurazione. Grazie all’universalità del MX840A e al supporto della tecnologia APM (Advanced Plug & Measure) i vostri trasduttori dotati di TEDS configurano automaticamente il canale. Questo comporta, in termini di vantaggi per l’utente, tempi minimi di ripreparazione nell’uso quotidiano e quindi efficienza e maggiore qualità. Nel caso non si usino TEDS, è disponibile un’ampia e aperta banca dati sensori. Il collegamento ethernet TCP/IP e la configurazione automatica consentono di collegarlo in modo semplice e veloce al PC. Il completo pacchetto software comprende i pacchetti gratuiti QuantumX Assistent, biblioteche per l’inserimento in LabView® o in ambienti di programmazione come Visual Studio .NET per programmatori. QuantumX offre un’elevata flessibilità, che permette all’utente di eseguire numerosi compiti di misurazione, di test e di verifica. Campi di impiego tipici sono ad esempio i test automatizzati dei componenti di sistema, l’acquisizione mobile dei dati di misura, i monitoraggi di lunga durata e le applicazioni di laboratorio. Ulteriori informazioni sono reperibili all’indirizzo web www.hbm.com/QuantumX T_M ƒ 128 N. 02ƒ ; 2010 ▲ NEWS MISURE DI FORZA CON CELLE DI CARICO IN MINIATURA PER IMPIEGHI GRAVOSI Le celle di carico a trazione/compressione serie 8416 e 8417 burster, già testate in migliaia di applicazioni, sono ora disponibili in range di misura più piccoli da 0…20 N a 0…100 N. Ideali per applicazioni nel settore della meccanica di precisione, nell’industria ottica o nella costruzione di strumenti di misura, le celle sono disponibili a magazzino fino a un range di 0…5000 N. Con un diametro esterno di soli 8-9 mm si qualificano in modo eccellente per l’integrazione in strutture piccole, limitate e strette. Grazie al corpo del sensore (che ha un peso di soli 2 g) possono essere applicate anche su componenti leggeri e delicati. Il loro montaggio su componenti mobili e vibranti non causa alcun problema, in quanto la piccola massa addizionale non influenza in modo significativo il comportamento della vibrazione delle parti della macchina. Nonostante la loro miniaturizzazione, le celle di carico 8416/8417 sono estremamente adatte a impieghi industriali, grazie al cavo di connessione resistente e adatto per applicazioni robot, all’ottima qualità di misura e al range operativo di temperatura di 0…80 °C. La cella di carico 8416, grazie al suo design piatto, è destinata all’utilizzo nella micro-tecnologia o alle misure nel settore ricerca e sviluppo. La cella 8417, integrabile meccanicamente meccanicamente in fili a tensione Bowden, cavi e barre di tensione, può essere usata anche per misure di compressione: ad esempio, con l’aiuto di un’adeguata meccanica, consente di monitorare la forza di connessione e rilascio di contatti plug-in, controllare la forza di regolazione su bracci meccanici o classificare molle in direzione compressione e trazione. Per ulteriori informazioni: www.burster.it NUOVA TERMOCAMERA: ELEVATE PRESTAZIONI A UN OTTIMO PREZZO INPROTEC presenta sul mercato italiano la nuova termocamera NEC Avio modello Thermo GEAR G100/G120 con sensore infrarosso radiometrico da 320 x 240 pixel. Questa è la prima termocamera, in un fascia di prezzo inferiore a 10 000 Euro, con prestazioni e funzioni che permettono l’utilizzo ideale in qualsiasi applicazione e situazione. Oggi il mercato offre una grande varietà di termocamere tutte simili in prestazioni ed ergonomia. La Thermo GEAR G100/ G120 è stata progettata per facilitare le riprese all’operatore anche in situazioni difficili, con la termocamera non ad altezza degli occhi (con il braccio alzato ad esempio). Le principali caratteristiche per soddisfare questa esigenza sono: – display da 3,5” brandeggiabile in tutte le direzioni per poter inquadrare oggetti in basso ed in alto, con ottima visione anche angolare; – ottica motorizzata con autofocus; – autorange temperatura; – allarme a vibrazione, sonoro e a contatto aperto; – registrazione immagini termiche automatica temporizzata. I progettisti della nuova termocamera hanno realizzato uno strumento che pesa appena 800 g, con le massime prestazioni sul mercato e completo di tutti gli accessori e software per l’analisi termica su PC e la compilazione automatica rapporti necessari per operare in modo autonomo. Visitando il sito www.termografi.it è possibile analizzare le eccezionali prestazioni della Thermo GEAR e scaricare il catalogo. GLI ALTRI TEMI ▲ MISURE PER LE TLC Doris Bao, Alessio Cavuoto, Dario Nardone, Gioacchino Truglia Test di interoperabilità DSL Valutazione della conformità ai TR-067 e TR-100 DSL INTEROPERABILITY TESTS - TESTING CONFORMANCE AGAINST TR-067 AND TR-100 Equipment interoperability is a key factor for the development of Digital Subscriber Line (DSL) technologies and services. The paper describes the efforts of Telsey S.p.A. in acquiring knowledge and competences for the validation of DSL equipment against standard requirements. The collaboration with the University of Sannio has been essential to make the validation activities competitive in terms of efficiency, reliability and repeatability. RIASSUNTO Essenziale per lo sviluppo delle tecnologie Digital Subscriber Line (DSL) e dei servizi offerti è la verifica, secondo procedure standard, dell’interoperabilità dei dispositivi di accesso DSL. L’articolo descrive come il problema dell’interoperabilità DSL è affrontato dalla Telsey S.p.A. che in collaborazione con l’Università del Sannio ha avviato un’attività di validazione dei propri dispositivi DSL acquisendo le competenze specifiche necessarie a garantire affidabilità ed efficienza nelle procedure eseguite. INTEROPERABILITÀ DEI DISPOSITIVI DSL Telsey [1], azienda leader nella progettazione e produzione di dispositivi per l'accesso e l'uso di servizi di comunicazione multimediale a banda larga, investe fortemente nella validazione dei propri prodotti per garantire le conformità agli standard emergenti e sviluppare soluzioni sempre migliori e competitive per il mercato delle telecomunicazioni. Nel corso degli ultimi anni l’utilizzo della tecnologia Digital Subscriber Line (DSL) sta mostrando un notevole incremento, tanto che approssimativamente il 66% dell’accesso a larga banda è fornito da questa soluzione [2]. Tale diffusione è dovuta alla possibilità offerta dalle tecnologie DSL che permettono trasmissioni ad alta velocità attraverso la comune linea telefonica, così che i servizi a larga banda possono essere forniti senza che i provider investano ulteriormente nelle infrastrutture di rete. L’installazione presso la casa o ufficio dell’utente di un modem DSL o di un Customer Premises Equipment (CPE), utilizzando la terminologia pro- pria degli standard DSL (Tabella 1), permette la codifica digitale del segnale anche nella parte della linea telefonica lato utente (subscriber line). Viene così garantito l’accesso a servizi integrati di video, voce e dati basati sul protocollo IP resi possibili dall’alta velocità della connessione. L’interoperabilità delle CPE e la loro conformità agli standard è un fattore chiave per assicurare la riuscita del dispositivo e lo sviluppo delle tecnologie e dei servizi DSL. La necessità di una valutazione secondo procedure standard dell’interoperabilità dei dispositivi di accesso DSL e della loro conformità spinge aziende del settore a rivolgersi a laboratori di test indipendenti oppure a dotarsi delle apparecchiature e delle competenze necessarie ad affrontare la fase di validazione. Questo articolo descrive la stazione di validazione e le procedure di prova utilizzate da Telsey per testare i propri dispositivi DSL. Frutto della cooperazione tra Università degli Studi del Sannio, Dipartimento di Ingegneria, e l’Amministrazione Provinciale di Benevento è il TLC Sannio T_M Testing Laboratory [3, 4], un laboratorio di prove che intende fornire servizi di validazione, certificazione e consulenza per aziende che producono dispositivi e sistemi per le telecomunicazioni. La stretta collaborazione tra Telsey e Università del Sannio ha dato inizio all’attività di validazione di apparati DSL nel TLC Sannio Testing Laboratory grazie alla condivisione delle esperienze nel settore e delle conoscenze degli standard e delle specifiche tecniche. Gli standard considerati nell’articolo sono il Technical Report TR-067 [5] e il TR-100 [6], rilasciati dal Broadband Forum [2], rispettivamente, per il test di dispositivi ADSL (Asymmetric Digital Subscriber Line) e ADSL2/ADSL2+. STAZIONE DI VALIDAZIONE E PROCEDURE DI TEST Gli standard DSL (Tab. 1) definiscono un’interfaccia comune per dispositivi realizzati da differenti aziende produttrici così che caratteristiche specifiche possano essere fornite agli utenti. Gli stessi standard di riferimento possono però condurre a implementazioni e prodotti differenti sviluppati indipendentemente da aziende diverse e solo i test di interoperabilità in fase di sviluppo di una CPE permettono di garantire un prodotto conforme agli standard e competitivo sul mercato. D. Bao (Univ. del Sannio, Dip. Ingegneria) A. Cavuoto, D. Nardone, G. Truglia (Telsey Communications spa) [email protected] N. 2/10 ƒ 129 N. 02ƒ ; 2010 ▲ GLI ALTRI TEMI Tabella1 – Standard xDSL Technology Standard Maximum Speed ANSI T1.413, ITU-T G.992.1/2 8 Mbps down, 800 kbps up ADSL2 ITU-T G.992.3, ITU-T G.992.4 12 Mbps down, 1 Mbps up ADSL2+ ITU-T G.992.5 24 Mbps down, 1 Mbps up SHDSL ITU-T G.991.2 5.6 Mbps down & up ADSL Figura 1 – Stazione di test utilizzata per il Packet Throughput Test per CPE esterna ADSL/ADSL2/ADSL2+ con interfaccia Ethernet c a r a t t e r i s t i - ATM e permette l’interfacciamento che, funzioni ATM-Ethernet; quando la CPE sotto e opzioni, in test ha solamente la connessione USB, VDSL2 ITU-T G.993-2 100 Mbps down & up una rete reale è necessario un PC con interfacce dove le condi- USB e Ethernet per immettere il traffiIl laboratorio di validazione Telsey zioni di esercizio, la lunghezza del co della CPE sulla LAN; generatori di grazie al supporto e alla collabora- doppino, il tipo e livello di rumore rumore per entrambi i lati della linea zione del TLC Sannio Testing Labora- possono cambiare. Per esempio, il immettono il rumore richiesto dallo tory, ha acquisito le competenze ne- “Bit-swap Performance Test” valuta la specifico test. La Fig. 1 rappresenta cessarie a realizzare le procedure di capacità della CPE di gestire il pro- una configurazione di test usata per test indicate dai TR per la validazione tocollo di bit swap allo scopo di rial- la validazione dell’interoperabilità di dispositivi della famiglia ADSL. Gli locare i bit tra le sottoportanti quan- DSL di CPE con interfaccia Ethernet, lo strumenti di test e le attrezzature spe- do una sottoportante viene affetta da schema è generale sia per il livello cifiche messe a disposizione dal TLC segnale a frequenza radio (RFI – fisico sia per i test dei livelli superiori. Sannio Testing Laboratory hanno per- Radio Frequency Interference); scopo messo di avviare un’attività di valida- del “DSL Noise Spikes/Surges Tests” ALCUNI DEI TEST REALIZZATI zione dei dispositivi di accesso com- è di verificare che le funzionalità DA TELSEY petitiva in termini di efficienza, affida- della CPE non siano influenzate da improvvisi picchi di rumore sulla li- In accordo col TR-067 e col TR-100, i bilità e ripetibilità. I TR redatti dal Broadband Forum for- nea (per esempio burst di rumore test realizzati da Telsey si focalizzano niscono la terminologia, i parametri AWGN isolati, rumore impulsivo di sul livello fisico e sulla validazione di di test e i criteri di interoperabilità alto livello che si ripete, rumore di funzioni di più alto livello rilevanti ai fini dello studio dell’interoperabilità. per le differenti specifiche DSL. Il TR- crosstalk). 067 e il TR-100 sono stati redatti allo I TR raccomandano i dispositivi da uti- Nel seguito, alcuni dei test del TR-067 scopo di testare l’interoperabilità dei lizzare per ricreare le condizioni di e TR-100 vengono presentati sottolidispositivi della famiglia ADSL. Defi- rete per i test di interoperabilità. Il neando la strumentazione e i disposiniscono il piano di test per effettuare simulatore di linea permette di confi- tivi usati (Tab. 2). la validazione dell’interoperabilità gurare l’approCPE/DSLAM, quindi, la corretta priata lunghezza comunicazione tra il dispositivo di di linea richiesta Tabella 2 – Lista degli strumenti più importanti utilizzabili presso il TLC Sannio Testing Laboratory accesso lato utente (Customer Premi- dal test; il simulases Equipment - CPE) e il Digital Sub- tore/analizzato- Instrument Role scriber Line Access Multiplexer re di traffico con (DSLAM) che, lato centrale, effettua interfacce di rete Spirent DLS 410 Loop Simulator la multiplazione digitale di più linee adatte è usato Noise Generator DSL su un canale di comunicazione a per misurare il Spirent DLS 5500 velocità maggiore. I test si focalizza- throughput end- Spirent DLS5405 Noise Injection Unit no sullo strato fisico e sulla verifica di to-end, la latenTraffic Generator/Analyzer alcune funzionalità non oltre il livello za e la perdita di Agilent N2X 3 della pila protocollare. Obiettivo è pacchetti; l’Asyn- Agilent E4404B ESA-E Series Spectrum Analyzer la verifica dell’Interoperabilità dina- chronous TransSerial data Analyzer mica dei dispositivi DSL: una coppia fer Mode (ATM) LeCroy SDA600 CPE-DSLAM deve supportare un s w i t c h / r o u t e r Tracespan DSL Xpert 2208A DSL Analyzer insieme comune e compatibile di gestisce il traffico T_M ƒ 130 N. 02ƒ ;2010 Test di livello superiore al fisico Il “Packet Throughput Test” (TR067 sezione 9.2.1, TR-100 sezione 8.1.1) e il “Packet Latency Test” (TR-067 sezione 9.2.2) coinvolgono il livello 3 (livello IP) della pila protocollare. Il primo verifica il throughput per una lista di rate di linea in downstream e up-stream, attraverso la trasmissione di Frame IP di diversa lunghezza (il test passa se la percentuale di frame raggiunta è dell’85%). Il secondo misura se il Round Trip Time della catena di trasmissione data è minore di 255 ms. Allo scopo di realizzare questi test, l’Agilent N2X funziona da generatore di traffico per iniettare sul link il flusso informativo necessario per la valutazione delle prestazioni, e analizzatore capace di elaborare i parametri significativi dei dati trasmessi e ricevuti per stimare le prestazioni della CPE. Automazione di alcuni dei test Realizzare un test automatico richiede investimento in tempo per lo sviluppo iniziale, ma rende possibile la remotizzazione delle procedure di test eliminando azioni manuali ripetitive e che possono introdurre errori dovuti all’inesperienza dell’operatore. Con questo intento nei laboratori Telsey è stato messo a punto uno strumento virtuale sviluppato in Visual Basic (VB) che rende automatici alcuni dei test del TR-067 e del TR100. Una interfaccia grafica permette la realizzazione dei test senza ricordare tutte le configurazioni, senza accedere agli strumenti necessari separatamente, e ne restituisce a schermo e su file di log i risultati. Al momento l’attività di automazione coinvolge test del livello fisico (per esempio TR-067 sezioni da 8.1.2 a 8.1.8) che richiedono un banco di test con solo la CPE sotto test, il generatore/iniettore di rumore, il simulatore di linea, e il DSLAM (Fig. 2). Lo strumento virtuale è capace di controllare il DSLAM e il generatore/iniettore di rumore tramite connessioni TELNET (oggetto di VB MyWinsockControl) e il simulatore di linea attraverso la porta seriale (oggetto PortCom di VB). Nessuna interazione manuale con gli strumenti è richiesta durante l’esecuzione del test, solo all’inizio l’operatore deve connettere la CPE al banco di test. Il “Verification of CRC Error Reporting” è uno dei test realiz- ▲ Test del livello fisico Il “Power Spectral Density Measurement” (TR-067 sezione 8.5.2) è un test del livello fisico, riguarda le caratteristiche elettriche della CPE. È realizzato nei laboratori Telsey utilizzando l’E4404B ESA-E Series Spectrum Analyzer e un software sviluppato in MatLAB. La potenza totale nella banda passante del segnale è acquisita dall’analizzatore di spettro e il software calcola la media in un periodo di almeno 2 s e verifica che ogni PSD (Power Spectral Density) cada nei limiti specificati dagli standard (Tab. 1). Il “CPE Margin Verification Test” (TR-067 sezione A.2.1) verifica se BER<1,5e-7 per diversi loop e scenari di rumore per assicurare che i chipset dei produttori non ottimizzino le prestazioni della CPE in alcune condizioni e falliscano in altre. La simulazione del loop e l’iniezione di rumore necessarie per questo test vengono realizzate rispettivamente da: lo Spirent DLS 410 Loop Simulator, che ricrea loop differenti (lunghezza, briged taps), e lo Spirent DLS 5500 Noise Generator e il DLS5405 Noise Injection Unit per applicare rumore bianco, interferenze a radiofrequenza o cross-talk su entrambi le terminazioni del loop. GLI ALTRI TEMI zati completamente in modo automatico sia per ADSL che ADSL2+ (TR-067 sezione 8.1.2, TR-100 sezione 7.4). Questo test è capace di verificare la corretta individuazione degli errori CRC in caso di specifico loop e condizioni di rumore in presenza di micro-interruzioni (Figg. 3, 4). La Fig. 3 riporta il diagramma a blocchi del software sviluppato per il “CRC Error Reporting Test”. I passi principali del test consistono nel: (i) forzare una nuova inizializzazione e aspettare che la CPE si sincronizzi; (ii) attendere 2 minuti dopo l’inizializzazione per la stabilizzazione del bitswap; e (iii) forzare una micro-interruzione del loop lato CPE con durata di 1 ms e ripetere questo passo ogni 10 s, per un tempo di test totale di 120 s (Periodo del Segnale =10 s, Intervallo di Test =120 s, per un totale, quindi, di 12 micro-interruzioni). Il risultato atteso è che ogni micro-interruzione generi almeno il riconoscimento di un errore CRC in downstream. Concludendo, l’articolo ha affrontato il problema dei test di interoperabilità DSL necessari a garantire l’immissione sul mercato di prodotti competitivi e la ricerca di nuove soluzioni che favoriscano il continuo sviluppo e miglioramento della tecnologia. Il reparto di validazione Telsey in cooperazione col TLC Sannio Testing Laboratory affronta le attività riguardanti la validazione DSL seguendo in maniera attenta le norme specifiche e investendo nelle procedure di automazione. Figura 2 – Il banco automatico T_M ƒ 131 N. 02ƒ ; 2010 ■ GLI ALTRI TEMI RIFERIMENTI BIBLIOGRAFICI [1] Telsey Telecommunications S.p.A, www.telsey.com. [2] Broadband Forum, www.broadband-forum.org. [3] TLC Sannio Testing Laboratory, http://lesim1. ing.unisannio.it/tlcsanniolab/menu_eng.html. [4] D. Bao, L. De Vito, D. Napolitano, “DSL Interoperability Testing Laboratory”, Proc. of XIX IMEKO World Congress, Fundamental and Applied Metrology, Lisbon, Portugal, 6-11 Sept. 2009. [5] ADSLF Testing & Interoperability Working Group, “TR-067 ADSL Interoperability Test Plan”, September 2006. [6] ADSLF Testing & Interoperability Working Group, “TR100: ADSL2/ADSL2plus Performance Test Plan”, March 2007. Figura 3 – Lo schema a blocchi del test T_M ƒ 132 Figura 4 CAMPI E COMPATIBILITÀ ELETTROMAGNETICA ▲ Carlo Carobbi*, Marco Cati**, Carlo Panconi*** Disturbi impulsivi La risposta dell’analizzatore di spettro IMPULSE DISTURBANCES: THE RESPONSE OF SPECTRUM ANALYZER Disturbances are classified as sinusoidal or impulse according to their timedomain wave-shape, and narrow-band or wide-band depending on the fact that their spectrum is narrow or wide with respect to the bandwidth of the receiver or victim. Sources of impulse disturbances are (the list is incomplete) switching loads, switching power supplies, digital circuits, electrostatic discharge, lightning. Hence in electromagnetic compatibility (EMC) measurements it frequently occurs that an impulse disturbance voltage is present at the input of a spectrum analyzer (or EMI receiver) coming from the output of an antenna, artificial mains network or coupling network. The scope of this article is to analyze the response of spectrum analyzers to impulse disturbances. We will see that when the rate of occurrence of the impulse is low with respect to the reciprocal of the bandwidth of the receiver what is actually measured is proportional to the voltage spectral density of the disturbance. The constant of proportionality is called equivalent impulse bandwidth. Measurement methods of the impulse bandwidth are here described. The concepts outlined in this article are relevant to impulse measurements in general, independently of the specific application (an important one is the measurement of modern digital communication signals). RIASSUNTO I disturbi sono classificati come sinusoidali o impulsivi a seconda della loro forma d’onda nel dominio del tempo o a banda stretta o a banda larga a seconda del fatto che il loro spettro sia stretto o largo rispetto alla larghezza di banda del ricevitore o della vittima. Fonti dei disturbi impulsivi sono (l'elenco è incompleto) le commutazioni di carichi sulle linee, gli alimentatori switching, i circuiti digitali, le scariche elettrostatiche, i fulmini. Nelle misure di compatibilità elettromagnetica (CEM) spesso accade che un impulso di tensione proveniente da un'antenna o da una rete di alimentazione artificiale o da una rete di accoppiamento sia presente all'ingresso di un analizzatore di spettro (o ricevitore EMI). Lo scopo di questo articolo è quello di analizzare la risposta dell’analizzatore di spettro ai disturbi impulsivi. Sarà mostrato che quando la cadenza dell’impulso è bassa rispetto al reciproco della larghezza di banda del ricevitore, la risposta dell’analizzatore di spettro è proporzionale alla densità spettrale della tensione di disturbo. La costante di proporzionalità è chiamata banda equivalente impulsiva. Metodi di misura della banda equivalente impulsiva sono qui descritti. I concetti riportati in questo articolo sono rilevanti per le misurazioni di impulsi in generale, indipendentemente dalla specifica applicazione (un caso importante è la misura di segnali nella comunicazione digitale). BANDA EQUIVALENTE IMPULSIVA mente il caso di un impulso singolo, Si analizza qui il caso in cui si presenta all’ingresso di un analizzatore di spettro un disturbo impulsivo a larga-banda. Consideriamo inizial- cioè di un evento che avviene una volta sola. Ci chiediamo: cosa si vede sul display di un analizzatore di spettro? Ai fini di questa discussione possiamo assumere che un analizzatore T_M di spettro sia composto dagli elementi rappresentati in Fig. 1 [1]. Si immagini, per il momento, che all’ingresso sia applicata una sinusoide a frequenza fS. I blocchi essenziali sono: un mixer che mescola segnale con l’oscillatore locale a frequenza fOL, un filtro passa-banda di banda B3 (detta “banda di risoluzione”) alla frequenza intermedia fI, un rivelatore di inviluppo e infine il display. Il compito del mixer è di traslare la frequenza del segnale per tramite della frequenza dell’oscillatore locale. In uscita dal mixer si hanno i prodotti di mescolazione a frequenza nfOL ± fS dove n è intero. L’unico prodotto di mescolazione su cui è possibile avere la sintonia è quello corrispondente a n = 1 e segno –: infatti un filtro passa-basso che precede il mixer (non rappresentato in Fig. 1) fa sì che giungano al mixer solo le frequenze per cui fS < fI, inoltre l’oscillatore locale ha frequenza fOL > fI. Si ha allora la sintonia quando la frequenza dell’oscillatore locale è tale che fOL – fSL = fI. Se il segnale ha ampiezza piccola rispetto a quella dell’oscillatore locale il prodotto di mescolazione fOL – fS riproduce fedelmente il segnale applicato all’ingresso (e anche una sua eventuale modulazione di ampiezza e fase) a parte la traslazione di frequenza e una attenuazione, detta perdita di conversione del mixer. Ora, * Dipartimento di Elettronica e Telecomunicazioni, Università di Firenze ** Ricerca e Sviluppo, Esaote S.p.A., Firenze *** Istituto Tecnico Industriale Statale “Silvano Fedi”, Pistoia [email protected] N. 2/10 ƒ 133 N. 02ƒ ; 2010 Figura 1 – Blocchi essenziali dell’analizzatore di spettro tutto va come se, anziché traslare la frequenza fS del segnale su fI, si traslasse la frequenza centrale del filtro sulla frequenza di sintonia fOL – fI. Nell’impiego più tipico l’oscillatore locale effettua una scansione automatica in modo da scandire un intervallo di frequenze di sintonia stabilito dall’utilizzatore. Si può allora immaginare che il filtro abbia frequenza centrale variabile e uguale alla frequenza sulla quale si trova sintonizzato, istante per istante, l’analizzatore di spettro. Veniamo adesso al caso in cui il segnale, anziché essere una sinusoide a frequenza fS, è un impulso. Ciò che si vede sul display non è altro che l’inviluppo della risposta impulsiva del filtro a frequenza intermedia. Supponiamo, per il momento, che l’impulso sia ideale, ossia di durata infinitesima e area A. Si definisce banda equivalente impulsiva Bimp il rapporto fra il picco Vpk dell’inviluppo della risposta impulsiva e il doppio dell’area dell’impulso, ossia Nel caso di impulso reale, cioè di durata breve ma non infinitesima, allora vale che: Vpk ≈ 2S (fOL − fI )Bimp (2) NEWS ▼ dove S(fOL – fI) è l’ampiezza dello spettro (trasformata di Fourier) dell’impulso, S(f), valutata alla frequenza alla quale si trova sintonizzato l’analizzatore di spettro nell’istante in cui l’impulso gli si presenta all’ingresso. Nella (2) l’approssimazione è tanto migliore quanto più breve è la durata dell’impulso rispetto alla durata della risposta del filtro all’impulso stesso. Riassumendo, ciò che si vede sul display di un analizzatore di spettro quando all’ingresso si presenta un impulso singolo è l’inviluppo della risposta impulsiva del filtro a frequenza intermedia. Il picco dell’inviluppo è proporzionale al doppio dell’ampiezza dello spettro dell’impulso all’ingresso. Lo spettro è valutato alla frequenza alla quale è sintonizzato l’analizzatore di spettro nell’istante in Vpk cui si presenta l’impulso. La costante Bimp = . (1) di proporzionalità è la banda equiva2A lente impulsiva. Il filtro a frequenza intermedia dell’a- Si conclude allora che, nel caso di nalizzatore di spettro è approssimati- impulso singolo, l’informazione che si vamente gaussiano. Per un filtro gaus- ricava dal display dell’analizzatore di spettro è un valore (un campione) delsiano a fase lineare si ha l’ampiezza dello spettro dell’impulso. Immaginiamo ora che l’impulso non Bimp = π / 2log2 ≈ 1, 505B3. sia singolo ma si ripeta con cadenza ESTENSIMETRI OTTICI PER REQUISITI ESTREMI NELL’ANALISI SPERIMENTALE DELLE SOLLECITAZIONI I nuovi estensimetri (ER) ottici del tipo K-OP sono stati sviluppati dalla HBM per offrire alcuni vantaggi determinanti rispetto agli estensimetri elettrici. Ad esempio, essi sono particolarmente T_M ƒ 134 adatti per i test sui materiali compositi a fibre: sono possibili esami che prevedono fino a 10 milioni di cicli di carico con una deformazione alternata di ±5 000 µm/m. I nuovi ER ottici si basano sui cosiddetti reticoli di bragg in fibra. La deformazione viene misurata in modo puramente ottico, quindi non è necessario alcun segnale elettrico. Per questo motivo è possibile impiegare gli estensimetri del tipo K-OP senza problemi anche in ambienti esplosivi, in presenza di disturbi elettromagnetici o nelle applicazioni ad alta tensione. Sulla stessa fibra è possibile, inoltre, applicare più ER ottici, grazie ai quali si possono eseguire misurazioni parallele. È possibile usare (costante o casuale) lunga rispetto alla durata della risposta all’impulso del filtro a frequenza intermedia, cioè rispetto a 1/B3. In questo caso il filtro a frequenza intermedia risponde a ciascun impulso come se fosse singolo. Se si impiega la funzione max-hold della traccia ciascuna risposta viene trattenuta dal display e, se attendiamo un tempo sufficiente, sul display si formerà l’andamento dello spettro dell’impulso all’ingresso. Si presume, come di solito avviene, che non ci sia sincronismo fra la scansione dell’oscillatore locale e la cadenza degli impulsi per cui quando gli impulsi si presentano all’ingresso dell’analizzatore di spettro questo sia sintonizzato su una frequenza sempre diversa. Nel caso invece di impulso periodico, ripetuto con cadenza breve (e costante) rispetto a 1/B3, sul display dell’analizzatore di spettro appaiono le righe spettrali (serie di Fourier) dell’impulso periodico. La seguente importante relazione lega le righe della serie di Fourier, Sk con la trasformata di Fourier dell’impulso singolo, S(f), e la frequenza di ripetizione degli impulsi fR: S k = 2fRS(kfR ) (3) La (3) ci dice che le righe della serie di Fourier hanno ampiezza proporzionale al prodotto fra la frequenza di ripetizione degli impulsi e lo spettro dell’impulso singolo valutato alla frequenza kfR, dove k è un intero. fibre di vetro con lunghezze di diverse centinaia di metri. Ulteriori informazioni sono reperibili all’indirizzo web www.hbm.com N. 02ƒ ;2010 Sono disponibili diverse tecniche di misura della banda equivalente impulsiva. Una prima tecnica consiste nell’applicare all’ingresso dell’analizzatore di spettro un impulso di spettro noto, ad esempio un impulso rettangolare di area A e durata τ per cui sin( πfτ) . L’impulso si deve πfτ ripetere con frequenza fR piccola rispetto a B3 (ad esempio fR < B3/10). Si avrà cura di sintonizzare l’analizzatore di spettro su un frequenza f alla quale lo spettro dell’impulso è relativamente piatto (πfτ < 1) ma sufficientemente distante dalla gonna del filtro di risoluzione centrato attorno a f = 0 Hz (ad esempio f > 3B3). A questo punto, noto S(f) e noto Vpk, in base alla lettura del display (scala lineare oppure logaritmica) si ricava, usando la (2), Bimp. La tecnica può essere migliorata per ridurre l’incertezza sulla determinazione di Bimp dovuta all’incertezza assoluta della lettura di Vpk. È sufficiente per questo applicare all’ingresso dell’analizzatore di spettro una sinusoide alla frequenza f di ampiezza tale da dare la stessa lettura Vpk sul display dell’analizzatore di spettro. Si sostituisce allora a Vpk, nella (2), l’ampiezza di questa sinusoide che può essere determinata a parte con grande accuratezza (ad esempio con un misuratore di potenza RF). Potrà essere necessario anche un buon attenuatore a scatti per raggiungere il livello di Vpk, in genere molto piccolo. La tecnica può prevedere l’impiego di un generatore sinusoidale che consente la modulazione impulsiva della portante RF. È utile per le bande di risoluzione più ampie, quando è di interesse verificare la risposta all’impulso dell’analizzatore di spettro a frequenze di sintonia elevate. Una seconda tecnica prevede l’impiego di un generatore di forme d’onda in grado di generare l’impulso con frequenza di ripetizione variabile in un intervallo relativamente ampio. Si procede così: si sceglie una frequenza di ripetizione fR grande rispetto a S (f ) = A B3 ad esempio fR > 10B3) e si sintonizza l’analizzatore di spettro su una frequenza f che coincide con un’armonica della serie di Fourier, f = kfR, e soddisfa le condizioni viste precedentemente (3B3 < f < 1/πτ). Si legge l’ampiezza dell’armonica Sk. Mantenendo la stessa frequenza di sintonia si riduce la frequenza di ripetizione fR fino ad un valore piccolo rispetto a B3 (fR < B3/10 ). A questo punto si legge Vpk . In base alle equazioni (2) e (3) abbiamo che Sk/Vk = fR/Bimp. Di fatto la determinazione di Bimp si ottiene per tramite di una misura di attenuazione (Attenuazione = Sk/Vpk) e dal valore noto di fR. Per contenere l’incertezza di misura si deve aver cura di non cambiare le impostazioni dell’analizzatore di spettro nelle due misure. Per questo conviene usare la scala logaritmica visto che l’attenuazione sarà relativamente alta (circa 10). Una terza tecnica si basa ancora su un metodo relativo. È stata recentemente individuata [2] una doppia disuguaglianza sulla banda equivalente impulsiva. La banda equivalente impulsiva è compresa fra un limite inferiore e uno superiore. Il limite inferiore è dato dal reciproco dell’area dell’inviluppo della risposta all’impulso. Nel calcolo l’inviluppo deve avere picco normalizzato a 1 (cioè deve essere diviso per il valore di picco Vpk). Il limite superiore è invece determinato dall’integrale della ampiezza della risposta in frequenza. Anche la risposta in frequenza deve avere picco normalizzato a 1. In genere gli analizzatori di spettro non hanno sufficiente risoluzione orizzontale, in termini di tempo, per una corretta ricostruzione dell’inviluppo della risposta all’impulso a partire dai campioni. Per ottenere l’inviluppo della risposta all’impulso occorre perciò impiegare un oscilloscopio collegato a valle del filtro a frequenza intermedia oppure a valle del rivelatore d’inviluppo. Generalmente una o entrambe le uscite sono disponibili sul pannello posteriore dell’analizzatore di spettro. Non è necessario che le uscite siano tarate visto che è sufficiente l’andamento normalizzato. L’andamento della ampiezza della risposta in frequenza ■ MISURA DELLA BANDA EQUIVALENTE IMPULSIVA CAMPI E COMPATIBILITÀ ELETTROMAGNETICA può essere invece ottenuto scaricando la traccia sul display mediante collegamento con PC all’apposita interfaccia. Il calcolo degli integrali può essere semplicemente svolto numericamente, applicando ad esempio la regola dei trapezi. RIFERIMENTI BIBLIOGRAFICI [1] Agilent Technologies, “Application Note 150 - Spectrum Analysis Basics”, Aug. 2, 2006. [2] Carlo F.M. Carobbi, Marco Cati, Carlo Panconi, “A Double Inequality for Equivalent Impulse Bandwidth”, in stampa su IEEE Transactions on Electromagnetic Compatibility. Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel 1994 presso l'Università di Firenze. Dal 2000 è Dottore di Ricerca in Telematica.. Nel 2001 è ricercatore del Dipartimento di Elettronica e Telecomunicazioni dell'Università di Firenze dove è docente di Misure Elettroniche e Compatibilità Elettromagnetica. Marco Cati si è laureato con lode ed encomio solenne in Ingegneria Elettronica all’Università di Firenze nel 2001. Dal 2005 è Dottore di Ricerca in Ingegneria dell’Affidabilità, Manutenzione e Logistica. Dal 2005 fa parte del reparto R&S di Esaote dove è responsabile delle verifiche di Compatibilità Elettromagnetica su dispositivi ecografici. Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze È Dottore di Ricerca in “Controlli non distruttivi”. Dal 1988 è insegnante di Laboratorio di Elettrotecnica e di Elettronica nel triennio degli Istituti Tecnici e Professionali. T_M ƒ 135 LO SPAZIO DEL GMEE E DEL GMMT ▲ In collaborazione con l’Associazione GMEE e il GMMT: F. Docchio, A. Cigada Enrico Lorenzini, Stefano Debei, Francesco Angrili Il Gruppo di misure meccaniche dell’Università di Padova THE GROUP OF MECHANICAL MEASUREMENTS OF THE UNIVERSITY OF PADOVA The activities of the GMMT Group of Padova deal with measurement-based research and with technologic development in planet exploration (where the University of Padova reached a remarkable international position), in the development of space rockets and orbital control algorithms, in the instrumentation for ultrafast impacts on satellites and other structures, and in automation and robotics. The research group is composed of 7 professors and 20 researchers operating in the Laboratories of the Department of Mechanical Engineering and of the CISAS G. Colombo. RIASSUNTO Le attività del gruppo GMMT di Padova si articolano su temi riguardanti sia la ricerca di tipo misuristico sia di sviluppo tecnologico nei campi dell’esplorazione planetaria (dove l’Ateneo di Padova ha raggiunto una posizione di eccellenza internazionale), dello sviluppo di propulsori spaziali ed algoritmi di controllo orbitale, della strumentazione per gli impatti iperveloci su satelliti e altre strutture, e infine nell’automazione e robotica. Il gruppo di ricerca consta oggi di 7 docenti e 20 ricercatori che operano nei laboratori del Dipartimento di Ingegneria Meccanica e del CISAS G. Colombo. MISURE E STRUMENTAZIONE PER L’ESPLORAZIONE SPAZIALE L’obiettivo generale è quello di sviluppare, nell’ambito di collaborazioni internazionali, nuova strumentazione per finalità scientifiche e/o sviluppo tecnologico richieste da importanti missioni di esplorazione planetaria. Il gruppo di ricerca ha svolto ruoli qualificanti nello sviluppo di strumenti di bordo per importanti missioni spaziali italiane, europee, russe e americane. In particolare, si ricordano gli strumenti HASI per la missione Cassini/Huygens grazie ai quali il nostro ateneo dispone di strumenti di misura sulla superficie della luna Titano di Saturno, la strumentazione sviluppata per la missione Rosetta ora in volo per un incontro nel 2014 con la cometa 67 P/Churyumov-Gerasimenko e lo spettrometro di Fourier PFS costruito per la missione russo-europea Mars96 che ha poi volato sulle missioni dell’ESA Mars Express e Venus Express. T_M N. L’attività ha riguardato collaborazioni sulla progettazione, sviluppo e testing di raffinati strumenti di misura per parametri atmosferici planetari, del telescopio ad ampio campo OsirisWAC, e dei meccanismi di entrambi i telescopi WAC e NAC dell’esperimento Osiris per Rosetta. In particolare si evidenzia l’otturatore elettromeccanico, che garantisce una uniformità di esposizione migliore di una parte su 500 e con tre ordini di sicurezza ne garantisce l’affidabilità sia in termini funzionali che prestazionali su di una vita di 500 000 cicli. Il gruppo di ricerca ha dato un fattivo contributo anche ad altre strumentazioni scientifiche di Rosetta quali VIRTIS, spettrometro a elevata risoluzione, Giada, strumento per la caratterizzazione delle polveri cometarie e il collaudo termico e meccanico di pannelli fotovoltaici del lander. Numerose sono state le collaborazioni con le principali agenzie spaziali (ASI, ESA, NASA e JAXA) fornendo supporto tecnico scientifico all’ASI per il dispie- 2/10 ƒ 136 gamento delle antenne dello strumento Marsis (a bordo di Mars Express dell’ESA), e di Sharad (a bordo di Mars Reconnassaince Orbiter della NASA), per l’analisi della stratigrafia del sottosuolo marziano con tecniche radar. Le collaborazioni internazionali hanno portato a proporre, per la missione Mars Sample Return, un laboratorio autonomo per l’analisi in situ di campioni del suolo marziano con il duplice obiettivo scientifico e di screening per la selezione dei campioni più significativi da riportare a Terra. Le missioni planetarie sono state accompagnate da missioni di prova degli strumenti su voli con palloni stratosferici effettuati dalle basi di Trapani/Milo e dalle isole norvegesi Svalbard per tarare la strumentazione quale quella citata o sviluppata da altre università e centri di ricerca (e.g., il subsurface radar Sharad). Il gruppo di Padova sta coordinando tecnicamente la progettazione, caratterizzazione e collaudo di Simbio-Sys, a bordo della missione Cornerstone dell’ESA a Mercurio, che porta il nome “BepiColombo” del celebre scienziato Padovano. Simbio-sys è un complesso sistema integrato di tre strumentazioni elettroottiche: una fotocamera con 5 metri di risoluzione, una stereocamera con 80 metri di risoluzione lungo la normale alla superficie e uno spettrometro nel vicino infrarosso con risoluzione spettrale di 2 nm. In questi mesi il gruppo di ricerca, dopo un’intensa attività di progettazione e collaborazione con PMI del territorio, sta integrando il CISAS “G. Colombo” Centro interdipartimentale di Studi e Attività Spaziali, Università degli Studi di Padova [email protected] N. 02ƒ ;2010 Simulatore Solare, che potrà riprodurre lo spettro solare a Mercurio ma anche quello terrestre, potendo così testare in modo più efficace pannelli fotovoltaici che attualmente sono collaudati con “flash test”. Il gruppo di ricerca di Padova è attivo da molti anni nello sviluppo di strumentazione d’avanguardia utilizzata nei campi della tecnologia e della scienza spaziale, come ad esempio la protezione di satelliti da impatti con detriti orbitali iperveloci. È stato infatti sviluppato un acceleratore di piccole particelle (0,1 g) a una velocità prossima a quella orbitale, con la strumentazione necessaria per misurare le variabili dinamiche ad altissima risoluzione temporale. L’attività di ricerca ha riguardato lo studio degli effetti d’impatti iperveloci non solo sulle strutture spaziali, ma anche su corpi celesti privi di atmosfera per studiare fenomeni di craterizzazione e l’evoluzione della superficie. Gli studi e le ricerche svolte in questo ambito hanno portato anche a nuove ricerche nel campo della propulsione spaziale e, in particolare, per uso orbitale. Il gruppo padovano coordina l’attività di un team formato da vari gruppi di ricerca e industrie europee per lo sviluppo di nuovi sistemi propulsivi a plasma a bassa spinta, per uso in missioni spaziali che necessitano di propulsori efficienti (p.es. a basso consumo) e con accurato controllo della spinta. Nel campo dei test gravitazionali, il gruppo di Padova collabora con il gruppo di gravitazione sperimentale dell’Istituto dello Spazio Interplanetario dell’INAF di Roma e allo sviluppo di nuove tecniche di misura e di strumentazione per misure di accelerazioni differenziali piccolissime atte a testare il Principio di Equivalenza1 con un’accuratezza maggiore rispetto ai test condotti in laboratorio. Figura 1 – WAC Camera, Steins e veduta aerea dell’Africa che abilitanti le future missioni spaziali e fortemente mirate al trasferimento tecnologico sia in ambito robotica che di automazione. Tra i vari filoni si vuole evidenziare la progettazione, realizzazione e collaudo di un dimostratore terrestre della Talpa marziana, progetto in collaborazione con Tecnomare SpA e finanziato dall’ESA. La Talpa va intesa come un complesso e articolato banco prova per dimostrare la tecnologia di perforazione per futuri esploratori “subsurface” spaziali e terrestri in grado, grazie a strumenti scientifici sofisticati e miniaturizzati, d’analizzare la composizione del sottosuolo e ricavarne la stratigrafia. A partire da questa ricerca se n’è sviluppata una nuova su sistemi di puntamento e inseguimento per numerose applicazioni, quali puntamento di sistemi di visione per telerilevamento, telesorveglianza, monitoraggio ambientale, puntamento di antenne per telecomunicazioni tra mezzi mobili quali autoveicoli o navi, puntamento di videocamere, radar, lidar per la navigazione autonoma. Il modello sviluppato consente di raggiungere un’accuratezza di +/- 0,003° con una velocità compresa tra 2 e 3°s-1 in uno spazio di lavoro di +/- 20° lungo gli assi x e y e 360° lungo l’asse di azimut, con una massa di 5 kg ed una potenza di 10 W. L’attività sulla navigazione autonoma è testimoniata da ricerche su dirigibili in cui altitudine, velocità e traiettoria sono controllate attraverso l’implementazione di tecniche SLAM, con l’ausilio di sistemi di stereovisione, di piattaforme inerziali e di GPS, in una MISURE PER LA ROBOTICA parola gli Aerorobot2. E PER L’AUTOMAZIONE L’attività robotica si distingue anche attraverso studi e progetti di ricerca su Da molti anni è attiva anche un’inten- bracci rotorici 2D a base libera che sa attività di ricerca per lo sviluppo di implica lo sviluppo di sofisticati testnuove e innovative tecnologie roboti- bed per la simulazione della micro- Figura 2 – Foto del Robot gravità e bracci rotorici 3D testati su volo parabolico. Le attività svolte hanno consentito in particolare l’identificazione e la stima della misura di parametri inerziali, di rigidezza, di smorzamento dei giunti e delle forze generalizzata ai giunti e alla base del robot. Le forze misurate alla base sono nell’intervallo 0,05 1 N, mentre le coppie 0,005 0,320 Nm. Tali stime sono state funzionali per la validazione di algoritmi originali sviluppati e implementati per la minimizzazione dei disturbi dinamici trasmessi dal braccio alla base libera. TRASFERIMENTO TECNOLOGICO Le tecniche sviluppate e le esperienze acquisite sono state seguite in molti casi da trasferimento tecnologico in aree di interesse industriale per prodotti innovativi di consumo. In particolare si sono sviluppati sistemi di misura per la certificazione di prodotti (compositi anti-proiettile, macchine utensili). Si sono sviluppati prototipi ingegneristici di pannelli termicamente isolanti in grado di ottenere un risparmio energetico fino al 30 % sia in applicazioni di edilizia, sia nella conservazione e trasporto di beni e prodotti fino a temperature criogeniche. Si sono sviluppati anche sistemi di misura e caratterizzazione di tessuti e materiali ortotropi e software per la produzione in automatico di abbigliamento; in collaborazione con le PMI locali si sta sviluppando un progetto europeo per la produzione in automatico di scarpe. Nell’ambito di tale progetto il gruppo di ricerca si occupa dello sviluppo e implementazione di sistemi di misura diagnostici, di processo e per la qualità del prodotto e di sistemi automatici e robotici per produzione di calzature. T_M ƒ 137 N. 02ƒ ; 2010 LO SPAZIO DEL GMEE E DEL GMMT ■ 1 che è alla base della indipendenza della caduta libera dalla composizione dei corpi in caduta 2 L’aerorobot è una piattaforma di misura estremamente economica, affidabile e versatile: può stazionare per lungo tempo in un’area di interesse oppure esplorare tale area seguendo una traiettoria predeterminata. La possibilità di controllare altitudine e velocità del veicolo permette inoltre di fissare risoluzione e distribuzione spaziale e temporale delle misure effettuate. Tali sensori permettono al dirigibile di navigare in ogni ambiente mantenendo sempre aggiornata la sua posizione (anche in assenza del segnale GPS) e contemporaneamente di creare una mappa delle aree visitate. Tali informazioni servono al duplice scopo di seguire la traiettoria desiderata e referenziare in maniera accurata ogni altra misura eseguita a bordo. Enrico Lorenzini è Professore Ordinario di Misure Meccaniche e Termiche all’Università di Padova dal 2008. È stato responsabile di ricerca in vari progetti e studi della NASA e più recentemente dell’ESA. Ha ricevuto premi e riconoscimenti internazionali per l’attività di ricerca svolta e per l’eccellenza nel ruolo di reviewer di riviste scientifiche internazionali. È autore o co-autore di 150 pubblicazioni su riviste ed atti di congresso. Stefano Debei, PhD in Scienze e Tecnologie Spaziali, è Professore Associato in Misure Meccaniche Termiche e Collaudi presso l’Università di Padova. Nel 2004 JPL gli ha conferito un riconoscimento per le attività scientifiche e tecniche svolte. È responsabile tecnico e scientifico di numerosi progetti di ricerca anche con le principali agenzie spaziali. Francesco Angrilli è Professore Ordinario di Misure Meccaniche e Termiche all’Università di Padova dal 1976. È direttore del Centro di Studi e Attività Spaziali CISAS “G. Colombo” all’Università di Padova (1994-2008). È stato responsabile tecnico e scientifico di numerosi strumenti spaziali tra cui lo strumento HASI utilizzato nella missione a Titano Cassini-Huygens. T_M ƒ 138 DAL SITO DEL GMEE: IL LABORATORIO DIDATTICO Segnaliamo la pubblicazione sul sito ufficiale dell’Associazione GMEE (www.gmee.org), alla sezione “Documenti per la Didattica” della revisione recente da parte di Sergio Sartori di un documento da lui redatto insieme a Italo Gorini nel 1984, dal titolo “Il Laboratorio Didattico”. CONSIGLIO DIRETTIVO DEL GMEE (Napoli, Facoltà di Ingegneria, 15 Marzo 2010) Il Consiglio Direttivo dell’Associazione GMEE è stato convocato il giorno 15 marzo 2010, alle ore 14:00, presso l’Aula Magna della Facoltà di Ingegneria dell’Università di Napoli. Nella stessa sede la mattina si era tenuto un Convegno in memoria del Prof. Giorgio Savastano. A seguito delle prime comunicazioni del Presidente Franco Ferraris, che ha riferito sulle ultime novità del D.L. 1095 in itinere e sul riaccorpamento dei Settori Scientifico-Disciplinari con relative parole chiave, il Prof. Daponte ha relazionato in tema del bando RIDITT. Il Prof. Betta ha poi informato riguardo al quadro legislativo globale, anche con riferimento alla continuazione dell’Anagrafe del Gruppo Misure. Il Prof. Docchio ha fornito un aggiornamento riguardo alla base dati comune GMEE-GMMT (v. T_M 01/2010 a pag. 61, che è stato distribuito all’evento Affidabilità e Tecnologie). Il Presidente ha informato sulla Commissione istituita per l’aggiornamento dello Statuto e del Regolamento dell’Associazione in vista della fusione con il GMMT. Si è poi discusso il punto “Situazione soci”, da cui risultano alcuni morosi che verranno invitati a mettersi rapidamente in regola pena l’esclusione. Tra i nuovi soci ci sono C. Ferrero e M. Gasparetto, oltre ad alcuni iscritti bresciani. Su proposta del Presidente e del Segretario, sono stati nominati Soci Onorari i Proff. A. Langella, S. Leschiutta e S. Sartori. È stato poi presentato e approvato il bilancio 2009. È stata proposta e approvata la predisposizione di una sezione didattica sul Sito Web GMEE, a consultazione libera. È stata sollecitata l’immissione sul sito delle pubblicazioni dei Soci ed è stata definita la politica di conclusione dei Quaderni del GMEE. Il Prof. Ferrero ha comunicato l’eccellente partecipazione di candidati al Premio di dottorato “C. Offelli” (10 candidature pervenute) e il Presidente ha invitato alla selezione entro maggio. Per quanto riguarda la Borsa di studio per l’estero, a fronte delle 2 domande pervenute, il Segretario ha invitato il Consiglio a una miglior pubblicizzazione dell’iniziativa; il Consiglio ha nominato la Commissione di Valutazione. Il Direttore di Tutto_Misure ha riferito sul lusinghiero andamento della rivista. Per l’esercizio 2010, sottoposto a preventivo, sarà previsto un passivo di circa 4 800 €. I rispettivi Responsabili hanno poi riportato sulla riunione Annuale 2010, Scuola Gorini e Giornata della Misurazione 2010. ▲ LO SPAZIO DEGLI IMP Andrea Merlone, Francesco Moro La ridefinizione del kelvin mediante la determinazione del valore della costante di Boltzmann AN UPGRADE OF THE DEFINITION OF THE KELVIN THROUGH THE BOLTZMANN CONSTANT This paper deals with the new definition of the kelvin in terms of the Boltzmann constant. The three main experiments for the new determination of this constant are reported: acoustic gas thermometry, dielectric constant gas thermometry, Doppler broadening thermometry. At present, the Italian Istituto Nazionale di Ricerca Metrologica (INRiM) is the only Institution in the world involved in all three methods. RIASSUNTO Il lavoro è incentrato sulla nuova definizione del kelvin mediante la determinazione della costante di Boltzmann. Sono descritti i tre esperimenti di maggiore rilevanza finalizzati alla misura di questa costante fisica: termometria acustica, spettroscopia laser-doppler e misura di costante dielettrica. L’Istituto Nazionale di Ricerca Metrologica (INRiM) è l’unico Istituto al mondo ad essere coinvolto in tutti i tre metodi. IN ATTESA DELL’EVENTO Lo sguardo corrucciato e “incerto” di Ludwig Boltzmann pare sempre più puntato su William Thomson, meglio noto come lord Kelvin. Definito solo nel 1954 dalla X Conferenza Generale dei Pesi e delle Misure (Conférence Générale des Poids et Mesures CGPM), il kelvin, unità di misura della temperatura termodinamica, è ora sotto i riflettori della comunità scientifica, insieme al kilogrammo, l’ampere e la mole anch’essi tra le sette unità di misura fondamentali del Sistema Internazionale delle Unità di Misura (SI). Dal 2011 infatti si attende un evento storico per la metrologia: per la prima volta nella storia sarà probabilmente rivoluzionato il Sistema SI, con la completa ridefinizione delle sue unità principali, che saranno espresse in termini di costanti fisiche, abbandonando gli artefatti “d’epoca” che le realizzavano, come ad esempio il cilindretto di platino conservato a Sèvres (Parigi) che definisce tuttora il kilogrammo. L’attuale definizione, “Il kelvin è pari alla frazione 1/273,16 della temperatura termodinamica del punto triplo del- per sottometterla ad approvazione alla Conferenza Generale dei Pesi e delle Misure (CGPM). A seguito di questa raccomandazione, tra l’altro, la cella campione nazionale italiana è stata subito sottoposta ad analisi isotopica, prelevandone un campione da una cella gemella, al fine di valutarne la correzione (la cui incertezza, dell’ordine di 2 µK, è comunque trascurabile). Mentre si riteneva in passato che, risolti i problemi tecnologici relativi alla produzione di acqua pura, e assegnato un valore fisso e privo d’incertezza allo stato termodinamico di coesistenza delle sue fasi solida, liquida e vapore, non vi sarebbero stati motivi di riaggiustare la definizione del kelvin, proprio questi studi sulla composizione isotopica ne hanno messo in luce i limiti. Insieme a questi lavori, hanno acquisito crescente risalto altri esperimenti mirati a valutare la possibilità di ridefinire il kelvin attraverso una costante fondamentale e rafforzare il legame tra la temperatura termodinamica e la termodinamica stessa. Quale scelta migliore, quindi, se non la costante k che porta il nome di Ludwig Boltzmann, i cui lavori scientifici hanno portato a fondamentali conoscenze nel campo della termodinamica, legando per la prima volta concetti macroscopici, quali lavoro ed energia, a valutazioni riguardanti la teoria cinetica delle particelle. Gli esperimenti sulla rideterminazione della costante di Boltzmann sono così cresciuti d’interesse, anche in occasione della “chiamata generale” alla ridefinizione contemporanea, proposta per il 2011 delle unità di massa (mediante la costante di Planck) corrente elettrica (mediante la carica del- l’acqua”, è indebolita dalle recenti ricerche sugli effetti della composizione isotopica dell’acqua con cui è realizzato il campione che realizza l’unità. Questi studi hanno dimostrato che l’effetto della presenza relativa dei maggiori isotopi di ossigeno e idrogeno non è trascurabile nella determinazione della temperatura con cui si realizza il punto triplo, cioè la coesistenza di acqua ghiacciata, liquida e vapore, che si crea in celle di quarzo speciali, che realizzano e definiscono attualmente il kelvin. L’incertezza con cui è nota la composizione diviene quindi lo spunto per muovere verso una nuova definizione di questa grandezza. Una raccomandazione del Comitato Consultivo per la Termometria (Comité consultatif de thermométrie - CCT) ha richiesto al Comitato Internazionale dei Pesi e delle Misure (Comité International des Poids et Mesures - CIPM) di integrare la definizione corrente del kelvin con i dati relativi alla composizione isotopica della cosiddetta V-SMOW (Standard Mean Ocean Water), avente la composizione isotopica dell’acqua media oceanica. Il CIPM Istituto Nazionale di Ricerca Metrologica ha recepito la raccomandazione e inte- Divisione Termodinamica, Torino grato la definizione nell’ottobre 2005, [email protected] T_M N. 2/10 ƒ 139 l’elettrone) e mole (mediante il numero d’Avogadro). È curioso ricordare che la costante k, che s’incontra sovente nelle leggi della meccanica statistica e in termodinamica, fu definita “costante di Boltzmann” da Planck. La costante di Boltzmann k vale 1,3806505·10-23 J/K (CODATA 2002) con incertezza relativa di 1,8·10-6. Questo valore d’incertezza è attualmente troppo elevato per la ridefinizione del kelvin: fissata k, la sua incertezza verrebbe infatti trasferita al valore della temperatura del punto triplo dell’acqua (TTPW) e corrisponderebbe a un’incertezza pari a 0,49 mK. Si consideri che l’attuale incertezza attribuita alla realizzazione di TTPW è pari a circa 30 µK, già tenendo conto degli effetti dovuti alla correzione isotopica. I progressi degli studi attuali fanno ritenere che entro il 2011 si possa scendere a meglio della parte per milione (ppm) su k, valore ancora elevato, ma comunque accettabile considerando i benefici generali al SI che discendono dalla contemporanea ridefinizione delle unità di base in termini di valori assegnati a costanti fondamentali. Volendo azzardare una nuova definizione del kelvin si potrebbero seguire due approcci distinti, comuni anche alle definizioni proposte per le altre grandezze SI per le quali si auspica di giungere a una relazione con le costanti fondamentali. Il primo approccio è più prossimo alle attuali definizioni e rende esplicita la definizione dell’unità, mentre il secondo esplicita e centra l’attenzione sulla costante scelta. Nel primo caso si potrebbe scrivere: Il kelvin è la variazione di temperatura termodinamica che risulta da una variazione di energia termodinamica pari a 1,3806505.10-23 J. Nella seconda ipotesi si potrebbe anche pensare di fornire una definizione omogenea tra le grandezze del SI, nell’intento di fornire una totale revisione del SI stesso. Definizione che in generale potrebbe recitare: Il/la [nome dell’unità], unità di misura della [nome della grandezza], è tale per cui la costante [nome della costante] vale esattamente [valore], da cui, nel caso della temperatura si potrebbe leggere: il kelvin, unità di misura della T_M ƒ 140 N. 02ƒ ; 2010 ▲ LE PAGINE DEGLI IMP temperatura termodinamica è tale per cui la costante di Boltzmann vale esattamente 1,3806505·10-23 J/K. Le tecniche impiegate negli esperimenti per la ridefinizione del kelvin devono quindi essere di tipo “termodinamico”; è in pratica necessario misurare, calcolare, derivare il valore di una temperatura da altri fenomeni che si sappiano osservare meglio. È inoltre cruciale che il valore della costante k sia ottenuto con metodi tra loro indipendenti basati su fenomeni diversi. Attualmente sono tre i metodi principali su cui sono basati le ricerche: la termometria acustica, la spettroscopia laser-doppler e la misura di costante dielettrica. La tecnica più promettente è quella basata sull’utilizzo del termometro acustico, per la misura della costante universale dei gas R, che è legata alla k di Boltzmann attraverso la relazione k=R/NA. L’INRiM prende parte attiva in questi studi, oltre che nelle misurazioni del numero d’Avogadro, NA, con un progetto di ricerca avviato nel 2000 che vede la collaborazione del gruppo di acustica fisica (ex IEN) e del gruppo temperature intermedie – termometria primaria per contatto (ex IMGC). L’impiego del risonatore del gruppo di acustica per fini termometrici è stato accompagnato da numerosi interventi mirati a migliorarne le caratteristiche di termostatazione in termini di uniformità e stabilità di temperatura, affinarne il controllo e renderne più accurata la metodologia di misura mediante termometri campione a resistenza di platino (SPRT), conformi alle specifiche della scala di temperatura ITS-90, appositamente studiati e fatti realizzare per lo scopo. Le prestazioni in temperatura permettono di mantenere la temperatura del sistema stabile entro 1 mK per tempi sufficienti alla misurazione acustica. L’uniformità è altresì garantita entro 1 mK, grazie al sistema di controllo assemblato su progetto GTI. Le misure di temperatura avvengono mediante un ponte di misura di elevate prestazioni (F18 ASL), che valuta la resistenza dei termometri campione inseriti nei poli dei risonatori mediante confronto con una resistenza campione termostatata. Speciali steli sono inoltre stati realizzati presso l’officina di termometria per effettuare tarature dei termometri nella cella del punto triplo dell’acqua, che realizza e costituisce il campione nazionale. I primi risultati di rilievo conseguiti hanno riguardato la valutazione della differenza tra la temperatura termodinamica realizzata con il risonatore e le letture dei termometri, tarati secondo l’ITS-90, tra circa –40 °C e 110°C, campo di particolare rilievo in quanto comprende oltre al punto triplo dell’acqua (definente appunto il kelvin) e la temperatura ambiente, anche i punti fissi di mercurio e gallio, frequentemente utilizzati nella taratura di termometri. I valori sono in ottimo accordo con i risultati del NIST (USA), ottenuti dal gruppo di Moldover, gruppo che ha inoltre fornito i dati di maggiore rilievo sui quali si basa l’attuale valore della costante di Boltzmann, valutata con lo stesso principio. I lavori all’INRiM proseguono, sempre in collaborazione tra acustica e termometria, finalizzati attualmente a effettuare misurazioni mantenendo il risonatore unicamente alla temperatura del punto triplo dell’acqua, proprio per focalizzare i lavori a un ulteriore contributo alla rideterminazione della costante di Boltzmann. Recentemente tutto il sistema è stato raddoppiato per ospitare un nuovo risonatore volutamente “quasi-sferico” e placcato internamente d’oro, poiché risultati migliori si attendono in termini di riconoscimento delle frequenze acustiche e a microonde, queste ultime fondamentali nella determinazione del volume effettivo della cavità risonante. Altri due SPRT a capsula specifici sono stati fatti realizzare e potranno essere montati anche all’equatore del nuovo risonatore. I lavori sono attualmente mirati a fornire un valore di k con incertezza relativa dell’ordine di una parte per milione (1 ppm = 10-6). La relazione alla base del funzionamento di quest’esperimento è la seguente: k = Mu02/NAν0TTPW Ove M = massa molare, u0 = velocità del suono, TTPW = temperatura del punto triplo dell’acqua, ν0 = cp/cv rappresenta il rapporto tra i calori specifici a pressione e volume costante per il gas impiegato (elio o argon) e NA = Nume- N. 02ƒ ;2010 ro di Avogadro, che ha un’incertezza tipo attualmente trascurabile. Una seconda metodologia di misurazione per la rideterminazione della costante di Boltzmann consiste nell’impiego della tecnica a spettroscopia laser con misure dell’allargamento Doppler di molecole d’acqua. L’esperimento DBT (doppler broadening thermometer) si basa sulla relazione fondamentale: ∆νD = [2kT/(mc02)]1/2 • ν0 dove ∆νD rappresenta l’allargamento di frequenza dovuta all’effetto Doppler, su una riga d’assorbimento centrata sulla frequenza ν0, T la temperatura termodinamica del gas di misura la cui molecola ha massa m e c0 è la velocità della luce nel vuoto, nota e priva di incertezze. Il gruppo di metrologia termica dell’INRiM ha recentemente avviato un progetto di ricerca congiunto con la Seconda Università degli studi di Napoli il Politecnico di Milano, allo scopo di realizzare una cella termostatata, la cui temperatura sia mantenuta il più prossima possibile al punto triplo dell’acqua. L’esperimento si svolge principalmente nei laboratori di Caserta della Seconda Università degli studi di Napoli, presso il gruppo di spettroscopia molecolare del Dipartimento di Fisica Ambientale. Un ulteriore esperimento che mira alla misura della costante k è il metodo basato sulle misure di capacità elettrica. Il DCGT (dielectric constant gas thermometer), valuta la temperatura in funzione della costante dielettrica e prevede di abbassare l’incertezza da 15 ppm a 2 ppm. La relazione fondamentale di quest’esperimento è: p= kT(ε – ε0)/ε0 dove ε0 è la costante dielettrica in vuoto nota perfettamente, α0 la polarizzabilità di dipolo per un singolo atomo, p la pressione del gas ed ε la sua costante dielettrica. La costante dielettrica è determinata mediante la variazione di capacità elettrica di uno specifico condensatore, misurata con o senza un gas usato come dielettrico. L’elio è il solo gas per il quale la polarizzabilità è calcolata “a priori” in maniera completa. Anche per quest’esperimento i ricercatori di metrologia termica italiani sono impegnati nella realizzazione, in Germania, di una parte fondamentale dell’esperimento, cioè il termostato di grandi dimensioni che servirà a mantenere stabile e uniforme la temperatura del condensatore. I tre esperimenti sono distinti tra loro, ma presentano l’esigenza comune di riferibilità e controlli termici con incertezze migliori del millikelvin, per temperature prossime a quelle del punto triplo dell’acqua (0,01 °C). La termostatizzazione spinta sino a questo tipo di prestazione comporta studi di progettazione ed esecuzione dedicati agli obiettivi e alle esigenze di ciascuna prova di ricerca, per abbattere le incertezze nelle misure termiche. La divisione termodinamica dell’INRiM è impegnata nella progettazione e realizzazione di elementi di termostatazione che soddisfino queste esigenze: ogni componente del sistema complessivo è studiato, realizzato e perfezionato in laboratorio, presso l’INRiM. Si passa da un termostato che deve mantenere la temperatura di oltre una tonnellata di fluido entro il millesimo di kelvin sia in termini di stabilità sia di uniformità termica-volumica per il sistema DCGT tedesco, allo sviluppo di un dispositivo di controllo mediante un sistema a tre stadi, in cui confluiscono tecniche di criogenia e di metrologia termica per ottenere stabilità termica inferiore al decimo di millesimo all’interno della cella in cui passa il fascio laser dedicato alla misura spettroscopica DBT. I risonatori acustici operanti all’INRiM per l’esperimento AGT italiano richiedono tutti stabilità e incertezze di misura dello stesso livello, pur presentando peculiarità ben diverse. In tutti e tre i metodi sono stati impiegati termometri campione, in grado di misurare la temperatura dei diversi dispositivi (condensatori, risonatori sferici o cella spettroscopica) con le migliori accuratezze oggi disponibili. I termometri, in alcuni casi fatti costruire appositamente per essere alloggiati nei dispositivi, sono tutti sensori che soddisfano i requisiti stretti per essere considerati “campioni primari” per l’attuale Scala di Temperatura ITS-901. Questi termometri in Italia sono solo 6, scelti tra i migliori disponibili, e sono custoditi con una cura e attenzione paragonabile a quella di campioni primari. Essi sono costantemente tarati con una procedura specifica e dedicata dallo stesso Figura 1 – Il Laboratorio INRiM di termometria acustica Figura 2 – La cella per le misure spettroscopiche utili alla determinazione della costante di Boltzmann gruppo di metrologia termica che ha, tra i suoi compiti istituzionali, anche il mantenimento dei campioni nazionali per la grandezza temperatura. Nelle Figg. 1, 2 e 3 sono rispettivamente riportati il Laboratorio INRiM di termometria acustica, la cella per le misure spettroscopiche utili alla determinazione della costante di Boltzmann e il termostato per le misure della costante dielettrica di un gas realizzato dall’INRiM e attualmente installato presso il PTB di Berlino. Per coordinare i diversi esperimenti e metodi, mirati alla rideterminazione della costante k di Boltzmann, è attualmente attivo un progetto europeo che permette il confronto di dati e metodi tra i diversi gruppi. Il progetto è stato avviato nel gennaio 2008 nell’ambito del Targeted Program 1: SI and Fundamentals del macro progetto europeo iMERA+ (Implementing the Metrology for the European Research Area). Oltre all’INRiM, al progetto afferiscono gli Istituti Metrologici di Gran Bretagna (National Physical Laboratory – NPL), Germania (Physikalisch-Technische Bundesanstalt - PTB), Francia (Institut National de Métrologie del Conservatoire national des arts et métiers - Laboratoire National de métrologie et d’Essais LNE-INM/CNAM), Spagna (Centro T_M ƒ 141 N. 02ƒ ; 2010 ■ LE PAGINE DEGLI IMP Español de Metrología - CEM) e Danimarca (Danish Fundamental Metrology – DFM). Collabora al progetto anche l’Institute for Reference Materials and Measurements (IRMM), con sede in Belgio ma direttamente finanziato dalla Comunità Europea. Oltre agli Istituti Metrologici e all’IRMM il progetto Boltzmann coinvolge anche diversi atenei: Università di Valladolid (Spagna), L’Université Paris Nord e, in Italia, il Politecnico di Milano e la Seconda Università degli studi di Napoli. Nell’ambito del progetto i diversi atenei collaborano direttamente con gli Istituti metrologici del proprio Paese, con esperimenti congiunti. Il 2010 è considerato un anno cruciale. La comunità scientifica internazionale, e nello specifico i comitati tecnici che fanno riferimento alla Convenzione del metro, cui l’Italia partecipa, hanno deliberato e richiesto la conclusione dei lavori sulla nuova definizione della temperatura, e del grado. Andrea Merlone, ricercatore della Divisione termodinamica dell’INRiM, è laureato in Fisica presso l’Università degli Studi di Torino e dottorato in Metrologia presso il Politecnico della stessa città. Attualmente è impegnato nelle attività di metrologia termica finalizzate alla nuova definizione del kelvin mediante determinazione della costante di Boltzmann, alla disseminazione dell’unità di temperatura e a misure riferibili per gli studi climatici e le osservazioni meteorologiche. 1 NEWS Figura 3 – Il termostato per la misura della costante dielettrica dei gas ▼ Si tratta di termometri a capsula di cristallo contenenti un filamento di platino di elevata purezza, il cui variare della resistenza in funzione della temperatura permette, attraverso la terza legge di Ohm, di ottenere le più accurate misure di temperatura possibili. NUOVO CALIBRATORE MULTI-PRODOTTO: SOLUZIONE ECONOMICA PER LE NECESSITÀ DI TARATURA co strumenti composto tipicamente da misuratori palmari quali multimetri digitali ed analogici, pinze amperometriche, indicatori da pannello, misuratori di temperatura, acquisitori dati, registratori a carta e XY, ecc. Fluke Calibration presenta il nuovo Cali- La tipologia di clienti è quindi il Centro di bratore Multi-Prodotto modello 5500E. Taratura, piccoli laboratori di riparazione e Basato sulla consolidata serie 5500, il taratura, produttori di strumenti di misura che 5500E ha le prestazioni e funzioni base necessitano di capacità di taratura nelle necessarie per la taratura dei più comuni catene di produzione e collaudo. strumenti di misura elettronici. Il nuovo Il nuovo calibratore è identico al ben cono5500E, di valore eccezionale per quei sciuto e apprezzato 5500A, con la differenclienti che hanno un parco strumenti di za che non supporta la generazione di base ma vario, viene proposto a un prezzo Potenza e la doppia uscita. Non è inoltre interessante, simile a quello del modello possibile inserire le opzioni per la taratura di 9100E, offrendo però specifiche migliori oscilloscopi. Nonostante questo possiede grazie alla piattaforma della serie 5500. comunque le eccezionali specifiche di accuIl 5500E è indirizzato a quei clienti con par- ratezza e stabilità del 5500A. T_M ƒ 142 Francesco Moro si è laureato in Ingegneria Meccanica presso l'Università di Cassino (2007) e attualmente studia per il dottorato di ricerca in Metrologia al Politecnico di Torino. Collabora a tempo pieno con l'Istituto Nazionale di Ricerca Metrologica (INRiM) di Torino sulla nuova definizione e “mise en pratique” del kelvin. È coinvolto nei tre maggiori esperimenti sulla ridefinizione della Costante di Boltzmann. Il software opzionale MetCal Lite consente la gestione completa delle attività di taratura, sia tramite il potente modulo di asset management Met/Track, sia grazie agli applicativi Run-Time che automatizzano i processi di taratura, con conseguente riduzione dei tempi di taratura e quindi dei relativi costi, consentendo quindi un più veloce ritorno dell’investimento. I prodotti Fluke Calibration sono distribuiti in esclusiva per il territorio Italiano da CalPower: www.calpower.it 7a EDIZIONE 13/14/15 APRILE 2011 - TORINO CALL FOR PAPER IMPORTANTE È stata eccezionalmente prorogata al 16 luglio la data ultima entro la quale far pervenire alla Segreteria del Congresso gli abstract delle memorie TEMATICHE D’INTERESSE PER LE TAVOLE ROTONDE • Formazione in metrologia • Nanometrologia • Metrologia e meteorologia • Metrologia legale • Certezza del diritto e incertezza di misura • Misure per l’ambiente e sicurezza • Misure e risparmio energetico INRIM, INMRI-ENEA, ISS, COPA-SIT, ACCREDIA (SINAL, SINCERT), GMEE, GMMT, ISPRA, CEI, ACISM-ANIMA, AEIT-GTMS, AFI, AICQ, AIPnD, AIS, ALPI, ANIPLA, FEDERUTILITY, GISI, ISA Italy Section, TERNA, UCISP, UNICHIM, AFFIDABILITA' E TECNOLOGIA (A&T), TUTTO_MISURE MANIFESTAZIONI EVENTI E FORMAZIONE ▲ Il Salone dell’Innovazione e delle Tecnologie cresce ancora e si conferma un evento di grande successo 178 Società espositrici (+33% rispetto alla scorsa edizione), 4294 Visitatori (+31), 600 marchi esposti, 35 Seminari, 15 Convegni, 3 Test Drive, 2 Aree Dimostrative tematiche Questi, in estrema sintesi, i numeri della quarta edizione di “Affidabilità & Tecnologie” (Torino, 14/15 aprile 2010): un ottimo risultato per questo progetto specialistico, addirittura superiore alle più ottimistiche previsioni. Un meritato successo per chi ha contribuito attivamente, insieme agli organizzatori, a costruire un programma di assoluto livello: enti pubblici e privati, associazioni, aziende espositrici e relatrici, promotori della manifestazione. Tutti insieme protagonisti della forte crescita qualitativa e quantitativa di questa manifestazione, che si consolida come la più completa proposta di metodi, tecnologie, strumentazioni, materiali e lavorazioni speciali, soluzioni innovative al servizio dello sviluppo competitivo delle imprese italiane. Un doveroso ringraziamento a quanti hanno consentito di vincere questa “scommessa”, che pone l’innovazione e le tecnologie al centro dell’attenzione e Torino al vertice delle Fiere specialistiche italiane, con un progetto moderno che crescerà ulteriormente, grazie a una formula che privilegia i contenuti e “fa sistema”, coinvolgendo le migliori risorse in campo: Grandi Gruppi Industriali, Associazioni, Enti e Istituzioni Pubbliche. Le 178 Società espositrici, unitamente a circa 105 autorevoli relatori provenienti dal mondo della Ricerca e dell’Industria, hanno presentato tecnologie, soluzioni, testimonianze e metodologie, in particolare T_M N. riguardanti i seguenti temi: ACQUISIZIONE DATI, ACUSTICA, AFFIDABILITÀ, ASSEMBLAGGIO, CAD - CAE – CAM, CERTIFICAZIONI e OMOLOGAZIONI, COLORIMETRIA, CONTROLLI e TESTING, DIAGNOSI, ENERGIA e SOLUZIONI INNOVATIVE, IMPATTO AMBIENTALE, INFORMATICA SPECIALISTICA, INTERFERENZE ELETTROMAGNETICHE, LAVORAZIONI SPECIALI, MATERIALI COMPOSITI e SPECIALI, MISURE - STRUMENTI COMPONENTI E SERVIZI, PROTOTIPAZIONE e PRODUZIONE RAPIDA, PROVE DISTRUTTIVE e NON DISTRUTTIVE, REVERSE ENGINEERING, SERVIZI ALLE IMPRESE, SICUREZZA, SIMULAZIONE, STATISTICA, TECNOLOGIE PRODUTTIVE, VALIDAZIONE VEICOLI, VIBRAZIONI e STRESS, VIRTUAL TESTING, VISIONE ARTIFICIALE. – 4294 partecipanti (+31% rispetto alla precedente edizione), soprattutto decisori e responsabili tecnici (Ricerca & Sviluppo, Progettazione, Misure, Prove e Controlli, Sperimentazione, Affidabilità, ecc.), in particolare di imprese delle filiere AUTOMOTIVE, AEROSPACE, RAILWAY, NAVAL & YACHT con una qualificata rappresentanza di esponenti del mondo della Ricerca e dell’Università. – Grandi Aziende, Centri di Ricerca e Università, Associazioni hanno partecipato attivamente, offrendo Relatori di ottimo livello ai Convegni principali, il cui livello è stato particolarmente gradito da parte degli intervenuti. 2/10 ƒ 144 I COMMENTI “A CALDO” Dei tanti pareri positivi raccolti fra i partecipanti, un paio in particolare ci pare abbiano sintetizzato al meglio l’impressione generale: – “AFFIDABILITÀ & TECNOLOGIE è ulteriormente cresciuta, con un progetto che piace per la sua concretezza. Due giorni intensi che consentono un pratico scambio di conoscenze, utili e concretamente applicabili: un appuntamento sempre più apprezzato da un vasto pubblico di qualità, che è riuscito a “fare sistema” con gli Espositori, le Associazioni di Categoria, le Università e gli stessi partecipanti proponendo, attraverso una formula semplice ed esclusiva, un’esaustiva e concreta presentazione di ciò che un’azienda possa ottenere impiegando metodi, soluzioni e tecnologie innovative”. – “L’edizione 2010 ha dimostrato che anche in Italia può svilupparsi e consolidarsi una manifestazione che punta su innovazione e tecnologie. Si tratta ora di continuare questo percor- N. 02ƒ ;2010 ▲ MANIFESTAZIONI EVENTI E FORMAZIONE buibile a vari fattori, non ultimo alla ciati, con Programma Eventi allegato; capacità di AFFIDABILITÀ & TECNO- – 30.000 inviti (stima) telematici, inolLOGIE di raggiungere il giusto target. trati via posta elettronica dalle SocieDa segnalare che A&T destina da sem- tà Espositrici ai propri Clienti acquisipre ingenti investimenti all’aggiorna- ti e potenziali, con Programma Eventi mento e potenziamento del proprio allegato; ampio Data Base e, pertanto, è in gra- – articoli di presentazione dell’evento e do di attivare autonomamente una sem- pagine pubblicitarie pubblicate su Riviste I “NUMERI” pre più capillare e articolata attività di tecniche verticali. Ringraziamo le tante DELLA MANIFESTAZIONE inviti mirati e personalizzati. Riviste che, oltre a dare spazio a nostri Le attività promozionali e informative rela- articoli e comunicati, hanno inserito la Partecipanti Iscritti: 5155 (+29 % rispetto alla tive a questa terza edizione, in sintesi: manifestazione nei loro calendari fiere; – è stato editato un nuovo magazine, – pubblicazione di annunci, aggiorprecedente edizione) Presenti registrati: 4294 (+31% INNOVAZIONI & TECNOLOGIE, namenti e inviti all’evento sui siti web rispetto alla precedente edizione) distribuito in forma mirata (utilizzando delle società espositrici, delle Assoil data base A&T) a novembre 2009, ciazioni ed Enti Patrocinatori, di molte Tipologia dei partecipanti gennaio e marzo 2010, con contributi Associazioni aderenti a Confindustria Decisori aziendali (14%) – Titolari di Piccole e Medie Imprese e interviste a esperti e opinion leader. e di enti locali di varia natura; Per un totale di 62.000 copie carta- – pubblicazione nel sito www. 11% – Direttori Generali e Amministratori cee, inoltrate per posta. affidabilita.eu del Programma – 46.000 inviti personali, trasmessi complessivo della Manifestazione. Delegati 3% Responsabili di funzione (77%) via posta elettronica a persone delle quali A&T possiede il nome e l’indi– Qualità 8% rizzo e-mail personale (ovviamente – Produzione 9% con relativa autorizzazione conforme – Commerciale 2% alla Legge Privacy), reiterando la spe– Controllo Qualità 18% dizione in 5 specifiche occasioni, nel– Acquisti 1% – Ricerca & Sviluppo, Sperimentazio- l’arco di circa un mese e mezzo, tra inizio Febbraio e Aprile 2010; ne 8% – 8.000 inviti (stima) telematici, inoltra– Misure & Test 13% ti via posta elettronica dalle Associazio– Progettazione – Ufficio tecnico ni ed Enti Patrocinatori ai propri asso18% Consulenti (3%) – Direzione e organizzazione 1% PROSSIMO APPUNTAMENTO – Tecnica 2% AFFIDABILITÀ & TECNOLOGIE – Quinta EDIZIONE Università & Ricerca (5%) 13 – 14 Aprile 2011 – Torino, Lingotto – Docenti e Ricercatori 4% Alcune anticipazioni – Studenti e Dottorandi 1% La prossima edizione, che sarà strutturata con una formula ancora più ampia, si preanAltri (1%) nuncia di forte interesse per i Visitatori, sia per il presumibile aumento di Società espositrici sia grazie all’ulteriore sviluppo del Progetto contenutistico specialistico, che prevede, (stampa, comunicazione, associazioni, enti pubblici, ecc.) oltre all’ampliamento e potenziamento delle attuali tematiche, un notevole incremento Da sottolineare, in modo particolare, la delle attività comunicazionali, con maggiore penetrazione sul territorio a livello nazionale. qualità percepita dei partecipanti: in Centri Ricerca Industriali e Universitari, Grandi Aziende: prevediamo una forte parteciaumento i responsabili di aziende gran- pazione e incremento della collaborazione con queste importanti Realtà, che hanno condi e medio/grandi, ma anche in forte fermato il loro gradimento a partecipare attivamente ad AFFIDABILITÀ & TECNOLOGIE, incremento decisori e responsabili tecni- anche progettandone i contenuti, insieme al Comitato Organizzatore, per favorire la creci di piccole e medie imprese, un target scita del Progetto formativo e informativo, proponendo tematiche in grado di stimolare tradizionalmente restio a partecipare a particolarmente l’interesse delle Aziende di specifiche Filiere. La sede logistica sarà mantenuta nel Padiglione 5 del Lingotto, luminoso e di ampio respiro, giudicato dalla quasi manifestazioni di questo tipo. Un dato totalità delle Società Espositrici come ottima soluzione per ospitare la parte espositiva; nel che esprime chiaramente la volontà di Padiglione saranno realizzate tre sale destinate a ospitare i Seminari, allo scopo di faciripresa presente nelle imprese italiane. litarne la fruibilità da parte dei Visitatori, senza allontanarli dalla parte espositiva; il Censo, potenziando la partecipazione del pubblico dei visitatori proveniente da centro e sud Italia, sicuramente interessato a tale offerta di qualità, ed eventualmente delle aziende estere”. PROMOZIONE E INFORMAZIONE Il successo della manifestazione è attri- tro Congressi è stato indicato come struttura ottimale per lo svolgimento del programma convegnistico, grazie alla disponibilità di sale perfettamente insonorizzate. Sono pervenute concrete richieste, da parte di Associazioni di Categoria e di Grandi Aziende, per dare vita a un progetto ancora più importante e coinvolgente: i particolari, attualmente coperti da riservatezza, saranno resi noti prossimamente. Informazioni e aggiornamenti su: www.affidabilita.eu T_M ƒ 145 MANIFESTAZIONI EVENTI E FORMAZIONE ▲ 2010-2011 eventi in breve 2010 12-14-lug-10 Istanbul, TURCHIA 19-23-lug-10 Brisbane, AUSTRALIA 22-24-lug-10 Atene, Grecia 22-24-ago-10 Stockholm, Svezia 29-ago-1-set-10 Kittila, FINLANDIA 30-ago-3-set-10 Pistoia, ITALIA 1-3-set-10 Londra, REGNO UNITO 5-9-set-10 Osaka, GIAPPONE 6-8-set-10 Taranto, Italia 6-9-set-10 Atlanta, GA, USA 6-8-set-10 Taranto, Italia 6-8-set-10 Roma, ITALIA 8-10-set-10 Kosice, SLOVACCHIA 9-set-10 Taranto, Italia 9-set-10 Taranto, Italia 11-13-set-10 Hangzhou, CINA 13-15-set-10 Gaeta, ITALIA 20-24-set-10 Bologna, Italia 23-25-set-10 Chengdu, CINA 29-set-1-ott-10 Mar del Plata, ARGENTINA 4-6-ott-10 Gaithersburg, MD, USA 12-14-ott-10 Taipei, TAIWAN 20-23-ott-10 Dubna, Russia 1-4-nov-10 Waikoloa (Hawaii), USA 21-25-nov-10 Pattaya, TAILANDIA 23-nov-10 The Square, Bruxelles, Belgium 5-10-dic-10 Orlando, USA 10-12-dic-10 Wuhan, China 10th Biennial ASME Conference on Engineering Systems Design and Analysis ESDA 2010 The 9th International Conference on Quantum Communication, Measurement, and Computing (QCMC 2010) 5th International Conference on Evaluation of Novel Approaches to Software Engineering European Meeting on Visual and Physiological Optics 2010 (EMVPO) www.asmeconferences.org/ESDA2010 XX IEEE Int.'l Workshop on Machine Learning for Signal Processing http://mlsp2010.conwiz.dk Scuola per Dottorandi GMEE "Italo Gorini" www.gmee.org 13th IMEKO TC1/TC7 Symposium: Without measurement no science, without science no measurement ISMQC2010 – 10th Symposium on Measurement and Quality Control 2010 IEEE International Conference on Virtual Environments, Human-Computer Interfaces and Measurement Systems NUSOD 2010 - Numerical Simulation of Optoelectronic Devices 2010 IEEE International Conference on Computational Intelligence for Measurement Systems and Applications ICEM 2010 - XIX Int'l Conference on Electrical Machines www.imeko.org 17th Symposium IMEKO TC 4 Measurement of Electrical Quantities 2010 IEEE Biometric Measurements and Systems for Security and Medical Applications 2010 IEEE Workshop on Environmental, Energy, and Structural Monitoring Systems Taranto, Italy, 9 September 2010 19th Symposium on Photonic Measurements http://www.imeko.tuke.sk XXVII Congresso Nazionale del GMEE www.gmee.org Congresso della Società Italiana di Fisica www.sif.it/SIF/it/portal/attivita/congresso/xcvi Signal and Image Processing (SIP 2010) Special Track within WiCOM 2010 AIC Interim Meeting 2010 www.wicom-meeting.org/sip2010 1st IEEE International Conference on Smart Grid Communications FLOMEKO 2010 – the 15th Conference on Flow Measurement INSINUME 2010 - SYMPOSIUM ON IN SITU NUCLEAR METROLOGY AS A TOOL FOR RADIOECOLOGY Sponsored by IAEA IEEE Sensors 2010 www.ieee-smartgridcomm.org 21st Conference on Measurement of Force, Mass and Torque (together with HARDMEKO 2010 and 2nd Meeting on Vibration Measurement) SciTechEurope www.imeko.org 13-18-mar-11 Texas A&M University, College Station, USA 14-17-mar-11 Doubletree Hotel San Jose CA USA 13-15-apr-11 Caary Islands Convention Center, Las Palmas (Spagna) 13-15-apr-11 Torino, ITALIA 19-24-giu-11 Hamilton, Canada 13th Int'l Conference on Modern Trends in Activation Analysis http://tti.tamu.edu/conferences/mtaa13 International Laser Safety Conference (ILSC) www.laserinstitute.org/conferences/ilsc/ conference www.icrepq.com http://qcmc2010.org www.enase.org www.myeos.org/events/stockholm www.ismqc2010.mech.eng.osaka-u.ac.jp http://vecims.ieee-ims.org www.nusod.org/2010 http://cimsa.ieee-ims.org http://www.icem2010.it http://bioms2010.dti.unimi.it http://eesms2010.dti.unimi.it www.imeko.org www.aic2010.org Computer Measurement Group International Conferences www.imeko.org http://insinume2010.jinr.ru http://www.ieee-sensors2010.org www.publicserviceevents.co.uk/event/ overview.asp?ID=151 www.cmg.org/national/conferences.html www.ciseng.org/csse2010 3rd Int'l Conference pn Computer Science and Software Engineering 2011 T_M N. International Conference on Renewable Energies and Power Quality (ICREPQ'11) VII Congresso Italiano Metrologia e Qualità www.affidabilita.eu International Conference on Radioecology and Environmental Radioactivity, June 2011, Hamilton, Canaa www.ecorad2011.net 2/10 ƒ 146 MANIFESTAZIONI EVENTI E FORMAZIONE ▲ Metrologia per capillarità Rubrica a cura di Giorgio Miglio* METROLOGY FOR EVERYONE This section is open to questions and curiosity by all the measurement operators, both in industry and in calibration analysis and test laboratories, who do not have the time to search for answers in the Norms. The section gives answers and tips in a simple language, yet complete and with adequate reference to rigorous metrological criteria. RIASSUNTO Questa rubrica è aperta alle domande e ai dubbi formulati da chi si occupa di processi di misurazione o di affidabilità e qualità delle misure sia in azienda sia nei laboratori di taratura, di prova o d’analisi e che non ha il tempo o l’opportunità di cercare spiegazioni nella normativa. La rubrica offre risposte e delucidazioni con un linguaggio che può peccare di eccessiva semplicità, ma non di disallineamento dai criteri metrologici ortodossi. (DOMANDA) Nell’azienda dove lavoro, che opera nel settore tessile, avvengono spesso discussioni su un tema che ha significativi risvolti anche economici in quanto il nostro parco strumenti di misura è “sostanzioso”. L’argomento del contendere è sintetizzabile nella domanda “ogni quanto tempo sarebbe opportuno effettuare la taratura della strumentazione di misura?”. I punti di vista sono diametrali, nel senso che c’è chi sostiene che lo si debba fare una volta all’anno (tesi suffragata anche da chi certifica il nostro Sistema Qualità), chi quando è necessario (tenendo sotto controllo l’errore accumulato dagli strumenti), chi il più raramente possibile invocando la logica del risparmio e la pressoché inutilità dell’operazione (tesi sostenuta dal nostro ufficio acquisti per le tarature che affidiamo all’esterno). non si registrano i valori ottenuti, misure differenziali, eccetera): sintetizzando, la taratura va eseguita bene solo là dove serve e non “in qualche maniera” su tutta la strumentazione. Per eseguita bene intendo dire da operatori qualificati che operano a fronte di procedure validate oppure, se si ricorre all’esterno (outsourcing), da laboratori che occorre qualificare a fronte dei requisiti della norma UNI 17025 (a meno che non siano Centri accreditati SIT). Secondo punto: essa serve unicamente a conoscere (entro un determinato livello d’incertezza) l’errore o scostamento che lo strumento accumula nel tempo. Se non si utilizza questa informazione a conclusione della taratura direi che è inutile eseguirla (sarebbe come sottoporsi a un prelievo ematico per valutare il livello di colesterolo e poi non leggerne o interpretarne il risultato). La conoscenza dell’entità dell’errore accumulato (deriva o drift) deve consentire di “confermare o meno l’idoneità per l’utilizzazione prevista, a definire la nuova scadenza di taratura (e qui comincio a rispondere alla sua domanda), ad effettuare un’immediata valutazione di rischio sull’uso che si è fatto dello strumento nel caso in cui l’errore trovato prevarichi i limiti di tolleranza (prestabiliti dall’azienda o dal costruttore). Si può quindi stimare la nuova scadenza sulla base della deriva che ha (RISPOSTA) Data la felice ignoranza che circonda questo argomento in una significativa percentuale delle nostre aziende, la sua domanda non mi sorprende; anzi, direi che è già un buon segno che nella sua azienda, per lo meno, sia ancora oggetto di discussione. Ciò che in concreto va capito della taratura è che essa conferisce, ai risultati delle misure che si eseguiranno con gli strumenti sottoposti a taratura, la riferibilità ai campioni nazionali/internazionali e che, pertanto, è denaro sprecato applicarla ad alcune misurazioni che si eseguono abitualmente in azienda per le quali la suddetta pro- * Consulente di metrologia prietà non serve (misure delle quali [email protected] T_M N. 2/10 ƒ 147 (con grande soddisfazione del suo dra le competenze dei laboratori di ufficio acquisti). taratura (e la logica dei controlli intermedi). Da tener ben presente per le decisioni di conformità o non RIFERIMENTI A NORME E GUIDE conformità a specifiche i requisiti della UNI EN ISO 14253 - 1: 2001 I requisiti generali da soddisfare e per le valutazioni di idoneità all’usono contenuti nel par. 7.6 della so la UNI EN ISO 10012: 2004. Di norma UNI EN ISO 9001: 2008 e, interesse anche il doc. 10 della in caso di outsourcing del servizio di O.I.M.L. che illustra i diversi metodi taratura, anche quelli del par. 7.4. di valutazione dell’intervallo di taraPiù specificatamente per il tipo di tura (in lingua italiana era in Appenattività, i riferimenti sono nella UNI dice alla vecchia UNI 30012-1 del CEI EN ISO/IEC 17025, che inqua- 1993). ▼ subito lo strumento nel periodo precedente (se non gli si cambieranno in modo significativo le condizioni d’uso e la destinazione d’uso): direi che si va in cerca di un compromesso tra costi (periodi brevi) e rischi (periodi lunghi) di trovare a fine periodo dei “fuori specifica”. Per cautelarsi da questi ultimi eventi si possono adottare “controlli intermedi”, meno costosi di un processo di taratura ma assai utili per abbattere il suddetto rischio e tendere ad allungare il più possibile la scadenza NEWS N. 02ƒ ; 2010 ■ MANIFESTAZIONI EVENTI E FORMAZIONE NUOVA VERSIONE DI GlyphXE, IL SOFTWARE CHE SEMPLIFICA L’ANALISI E LA VALUTAZIONE DI GRANDI QUANTITÀ DI DATI Nuova versione 2.0 del software ad alte prestazioni nCode GlyphXE™ di HBM, particolarmente adatto per l’analisi e la valutazione di grandi quantità di dati. Grazie ai numerosi perfezionamenti il software consente una visualizzazione più semplice e veloce dei dati ed è dotato di un modulo integrato, completamente nuovo, che permette di correggere automaticamente le anomalie nei dati di misura. L’uso di nCode GlyphXE™ è estremamente intuitivo, grazie all’interfaccia utente grafica. La nuova possibilità di visua- T_M ƒ 148 lizzare i dati di misura direttamente dal browser consente una lavorazione dei file di dati ancora più comoda: tale funzione si rivela particolarmente utile quando è necessario dare solo un rapido sguardo ai dati di misura, ad esempio per cercare la serie di dati necessaria in un preciso momento. Inoltre ora è possibile visualizzare in modo sovrapposto, per un confronto grafico, diversi dati di misura, ad esempio più misurazioni dello stesso test. Il nuovo modulo per la gestione delle anomalie permette all’utilizzatore di correggere automaticamente eventuali effetti negativi dei segnali di misura che potrebbero compromettere analisi successive. Nelle osservazioni sul lungo periodo sono rilevanti solo quegli eventi singoli che possono verificarsi raramente. Gli stati di inattività tra un evento e l’altro gonfiano i volumi di dati ma contengono solo parti di segnale statiche, le cosiddette flat-line. Inoltre nelle osservazioni prolungate i risultati delle misurazioni possono presentare delle variazioni a causa degli sbalzi di temperatura. In tali casi un ritorno automatico al punto base semplifica l’osservazione del valore oggetto della ricerca. Un’altra anomalia è rappresentata dai disturbi elettromagnetici, che compaiono tra i dati di misura sotto forma di picchi. Tutte queste anomalie (flat-line, derive, picchi) vengono corrette automaticamente dal nuovo modulo aggiuntivo, che consente la visualizzazione dei soli dati di interesse. Ulteriori informazioni sono reperibili all’indirizzo web: www.hbm.com/it ▲ NORME E DECRETI Nicola Dell’Arena Manipolazione degli oggetti nella 17025 Parte II - controllo in ingresso OBJECT MANIPULATION IN THE 17025 – PART II In this second part (the first part has been published in Tutto_Misure n.4/2009 p. 326) one of the requirements of the 17025 Standard is discussed, of key importance for the possible non conformities. RIASSUNTO In questa seconda parte (la prima parte è stata pubblicata nel n. 04/2009 a pag. 326) si affronta un solo requisito della norma 17025, importante da effettuare per le non conformità che si possono verificare. PREMESSA Al punto 5.8.3 la norma prescrive che “alla ricezione dell’oggetto da sottoporre a prova o a taratura, deve essere registrata ogni anomalia o scostamento dalle condizioni normali o specificate, come descritto nei metodi di prova o di taratura. In caso di dubbio circa l’idoneità di un oggetto per la prova o la taratura o se l’oggetto non è conforme alla descrizione fornita, o ancora se la prova o la taratura richiesta non è specificata con sufficiente livello di dettaglio, il laboratorio deve consultare il cliente per ottenere ulteriori informazioni prima di procedere e deve registrare la relativa discussione”. Questo requisito tradisce la mancanza di una visione globale della norma da parte del normatore. Con esso si prescrive criteri per tre importanti argomenti: 1) il controllo in ingresso; 2) la gestione delle non conformità; 3) il riesame del contratto. IL CONTROLLO IN INGRESSO Il primo capoverso poteva essere intitolato “controllo in ingresso” (o anche “ispezione in ingresso”, o “controllo in accettazione”). La norma prescrive tale controllo in maniera indiretta, obbligando alla registrazione di anomalie o scostamenti. Il controllo deve essere legato al punto 5.8.1 “processo rice- zione”, e inoltre l’argomento rientra nel capitolo 4.9 “tenuta sotto controllo delle attività non conformi”. Dunque, anche se non espressamente specificato, è necessaria una procedura. A mio parere il laboratorio dovrà emettere una procedura gestionale che contenga: modalità, responsabilità, registrazione da utilizzare ed eventualmente i dati tecnici su cosa controllare dell’oggetto (forma, colore, funzionalità, quantità, ecc). Tutti questi argomenti possono collocarsi nella procedura “ricezione” oppure nella procedura sulla gestione delle non conformità con un sottotitolo “non conformità in ingresso”. Sin dalla nascita della garanzia della qualità, per questo scopo è stato utilizzato il Verbale di Ispezione, ancora oggi utilizzato nei settori industriali (e con la mia esperienza lo applicano con molta ritrosia) per la conformità alla ISO 9001. Non mi sento di suggerire questo strumento per un laboratorio, in quanto lo ritengo eccessivo per la mole di lavoro e per la quantità di anomalie che si possono verificare nel corso dell’anno. Il mio suggerimento, per non appesantire inutilmente il lavoro d’un laboratorio, è quello di preparare il Rapporto di Non Conformità (RNC) solamente quando si verifica l’anomalia e registrare su di esso quanto si è riscontrato. Questo significa registrare solo i casi anomali (eventi rari) con risparmio di tempo e costi (spero che per T_M questo suggerimento non mi aggrediscano i nuovi guru della qualità). L’ISO 9000, al punto 3.6.2, definisce non conformità “mancato soddisfacimento d’un requisito”. Al punto 5.8.3 definisce anomalia e scostamento quanto si discosta “dalle condizioni normali o specificate, come descritte nei metodi di prova o taratura”. Come si vede vengono fornite definizioni strane e diverse tra le norme, poiché, nelle passate definizioni, i requisiti erano condizioni specificate. La 17025 mischia documenti esterni (condizioni normali o specificate) con documenti interni (metodi di prova o taratura). Le condizioni specificate possono essere date dal cliente mediante il contratto, sono contenute in una norma ma spesso sono riportate nei manuali d’istruzione. A mio parere è scorretto riportare nei metodi di prova o taratura le condizioni specificate, poiché essi si limitano a descrivere solamente l’esecuzione della prova o taratura. Nell’eventualità che tali condizioni siano riportate in ambedue le tipologie di documenti, che cosa deve fare il laboratorio nel caso di discordanza tra richieste esterne e metodi interni? Le alternative sono (i) cambiare le condizioni (molto poco verosimile) oppure (ii) non accettare il contratto. Bisogna sempre ricordarsi che il laboratorio deve rispettare la procedura approvata dall’organismo di accreditamento. CONSULTAZIONE DEL CLIENTE Il secondo capoverso è tutto da analizzare. Per primo analizziamo la frase “se la prova o la taratura richieste non è specificata con sufficiente livello di Consulente in metrologia [email protected] N. 2/10 ƒ 149 INTRODURRE UN METODO DI REGISTRAZIONE NEL SISTEMA QUALITÀ Il mio suggerimento è di ignorare l’esistenza di questo requisito e applicare, sullo stesso argomento, altre parti della norma più chiare e aderenti alla realtà. In seconda battuta vediamo la frase “in caso di dubbio circa l’idoneità di un oggetto per la prova o la taratura o se l’oggetto non è conforme alla descrizione fornita”. La norma porta due esempi di non conformità in ingresso che devono essere trattati secondo il capitolo 4.9: anche per questo requisito essa prescrive che bisogna consulta- re il cliente e registrare la discussione. A mio parere sarebbe stato opportuno non mettere gli esempi in questo capitolo e, invece di consultare il cliente preparare il Rapporto di Non Conformità da inviare al cliente (se richiesto contrattualmente) per approvazione delle decisioni prese o per farsi suggerire le decisioni da prendere. 5.8.1 e non è strettamente necessaria in quanto al punto 5.8.1 la stessa norma prescrive la protezione e la conservazione degli oggetti in modo generale e quindi valido anche per le non conformità. Nessuno dei due specifica se il laboratorio debba possedere procedure per il controllo in ingresso e per la consultazione con il cliente. POSIZIONE SIT E SINAL CONCLUSIONE Per tutto il requisito 5.8.3 il SIT non precisa nulla mentre il SINAL, oltre alla frase “si applica il requisito di norma” aggiunge “il laboratorio deve disporre di adeguate aree di segregazione per conservare i campioni non idonei”. L’aggiunta è simile a quella del SIT fatta per il punto Al di là del fatto che il requisito è molto confuso, il laboratorio deve dotarsi di una procedura gestionale sul controllo in ingresso degli oggetti da provare che contenga anche le modalità di consultazione con il cliente (personalmente eliminerei anche questo requisito). Norme pubblicate Segnaliamo alcune norme di particolare rilevanza per il mondo delle misure e della metrologia, emesse recentemente e in vendita da UNI e CEI (ad es.: www.ceiweb.it/webstore). CEI UNI ISO 80000-1 Grandezze e unità di misura Parte 1: Generalità CEI UNI ISO 80000-2 Grandezze e unità di misura Parte 2: Segni e simboli matematici da utilizzare nelle scienze naturali e nella tecnica CEI UNI ISO 80000-9 Grandezze e unità di misura Parte 9: Chimica fisica e fisica molecolare CEI UNI ISO 80000-10 Grandezze e unità di misura Parte 10: Fisica atomica e nucleare CEI UNI ISO 80000-12 Grandezze e unità di misura Parte 12: Fisica dello stato solido CEI UNI 70099 Vocabolario Internazionale di Metrologia - Concetti fondamentali e generali e termini correlati NEWS ▼ dettaglio, il laboratorio deve consultare il cliente per ottenere ulteriori informazioni prima di procedere e deve registrare la relativa discussione”. Questo requisito sembra uscito fuori dal cappello di un prestigiatore. I processi implicati sono due: (i) riesame del contratto e (ii) controllo in ingresso. La norma impone (cfr. tutto il capitolo 4.4) che prima di accettare un contratto tutto sia chiarito con il cliente e che il laboratorio non può operare al di fuori dalla procedura accreditata. Con questo requisito si afferma viceversa che con l’oggetto arrivano anche le condizioni contrattuali (peggio ancora: non complete). È tutto non corretto: sia secondo la logica dei processi dei laboratori, sia secondo la 17025, non è possibile che con l’oggetto possano pervenire condizioni diverse da quelle accettate e firmate da entrambe le parti. Nonostante questa enorme distorsione, come operare per agire in conformità alla norma? 1. stabilire il sufficiente livello di dettaglio, termine molto indeterminato che sfugge alla razionalità tecnica e che introduce un’indeterminatezza di comportamento; 2. consultare il cliente in modo verbale, completa negazione della norma che impone condizioni contrattuali scritte, chiare e precise; 3. registrare la discussione: in questo caso quanto detto verbalmente in modo errato può essere contestato in qualsiasi momento. T_M ƒ 150 N. 02ƒ ; 2010 ▲ NORME E DECRETI NUOVO THERMO-CHILLER COMPATTO PER UN PRECISO CONTROLLO DELLA TEMPERATURA Il nuovo thermo-chiller serie HRS di SMC, leader mondiale nel settore, piccolo, leggero, rispettoso dell’ambiente e dalle elevate prestazioni, rappresenta la soluzione ideale quando lo spazio di installazione e il flusso di ventilazione sono limitati ma è richiesto un raffreddamento costante. Con un peso di soli 43 kg, la HRS è stata progettata per funzionare con temperature del fluido di circolazione comprese tra 5 e 40 °C e il controllo PID assi- cura variazioni regolari della temperatura e una stabilità eccellente di ± 0,1 °C. Disponibile sia con raffreddamento ad aria sia con raffreddamento ad acqua e tre capacità di raffreddamento fino a 2 500W, la serie HRS è compatibile per l'uso con tutte le comuni alimentazioni monofase – AC100V, AC100 -115V e AC200-230V. Per ulteriori informazioni: www.smcitalia.it ■ NORME E DECRETI Edoardo Perrotta Scheda: la Metrologia Legale The Legal Metrology Dal 1° gennaio 2000, con il decreto legislativo 112/98, le Camere di commercio hanno acquisito le funzioni degli uffici provinciali metrici, aggiungendo, a quelle svolte, ulteriori funzioni di supporto alle imprese e di controllo della loro attività. In campo metrologico - legale, i settori di intervento sono molteplici e possono essere così riassunti: – controllo sul corretto funzionamento e sull‘inalterabilità degli strumenti di misura usati nelle transazioni commerciali, attraverso l’istituto della verifica prima, del collaudo di posa in opera e delle verifiche periodiche; – controllo dei prodotti preconfezionati; – attività di sorveglianza in materia di metalli preziosi; – verifica dei requisiti finalizzata al rilascio e al mantenimento delle autorizzazioni al montaggio e riparazione dei cronotachigrafi analogici e digitali. La metrologia legale riguarda un gran numero di categorie di strumenti di misura, dai contatori del gas, acqua ed elettricità agli strumenti per pesare a funzionamento non-automatico e automatico, ai distributori di carburante. Gli strumenti metrici sono sottoposti a verifica prima, anteriormente all'immissione sul mercato, per accertarne la conformità ai relativi decreti ministeriali di approvazione; gli strumenti definiti fissi (pese a ponte, distributori di carburanti, ecc...) sono sottoposti anche al collaudo di posa in opera sul luogo di funzionamento. Tutti gli strumenti di misura, ad esclusione dei misuratori di gas, di acqua ed elettrici, devono essere sottoposti a verificazione periodica con periodicità differente a seconda del tipo di strumento. La verificazione periodica consiste nell’accertare il mantenimento nel tempo della loro affidabilità metrologica finalizzata alla fede pubblica nonché all’integrità dei sigilli posti a garanzia delle parti metrologicamente rilevanti. Le Camere di commercio svolgono queste funzioni di verifica e sorveglianza attraverso propri funzionari abilitati (ispettori metrici e assistenti al servizio) che rivestono la qualifica di ufficiali di polizia giudiziaria. A livello europeo, con il recepimento della Direttiva 2004/22/CE (Direttiva MID), nata dall’esigenza di sostituire normative ormai superate, sono in atto grandi cambiamenti; tuttavia, siamo ancora in attesa dei decreti applicativi che la rendano definitivamente operativa. La direttiva MID, che ha come scopo principale la libera circolazione degli strumenti di misura nel territorio comunitario, fissa i requisiti essenziali, definiti come requisiti di prestazione e non come specifiche di progettazione, superando così la necessità di aggiornare continuamente le specifiche tecniche, caratteristica tipica delle “vecchie direttive”. I decreti applicativi della Direttiva MID potrebbero dare, inoltre, un impulso notevole all’accreditamento da parte delle Camere di commercio dei laboratori autorizzati all'esecuzione della verifica periodica degli strumenti metrici, prevedendo l’esclusività della verifica ai laboratori stessi, spostando così l’attività di verifica delle Camere di commercio dai singoli strumenti alla sorveglianza sull’operato dei laboratori metrologici. Altra funzione svolta dalle Camere di commercio, strettamente legata agli strumenti di misura, è la vigilanza sui prodotti preconfezionati o preimballaggi, cioè l’insieme di prodotti confezionati in assenza dell’acquirente e preparati in modo che la quantità di prodotto contenuta T_M nell’imballaggio abbia un valore prefissato e non possa essere modificata senza aprire l’imballaggio stesso. Tale attività viene svolta mediante ispezioni presso i fabbricanti o gli importatori; in sintesi, i controlli sono effettuati per campionamento e riguardano l’effettivo contenuto di ciascun preimballaggio del campione nonché la media degli effettivi contenuti dei preimballaggi del campione preso in esame. Inoltre, le Camere di commercio hanno specifiche competenze sui tachigrafi analogici e digitali, strumenti che permettono di registrare velocità, tempi di lavoro e percorsi dei conducenti il cui utilizzo è obbligatorio per gli autocarri con massa complessiva superiore a superiore a 3,5 tonnellate. L’installazione e la riparazione dei tachigrafi digitali, voluti dalla comunità europea e destinati a sostituire quelli di vecchia generazione, analogici, può essere eseguita solo da officine autorizzate. Le Camere di commercio verificano i requisiti e le apparecchiature utilizzate dalle officine autorizzate al montaggio e alla riparazione dei tachigrafi digitali (centri tecnici). Tra le competenze camerali, di notevole rilievo è la vigilanza nel settore orafo, sulla produzione e sul commercio dei metalli preziosi. Il personale della Camera di commercio, attraverso visite non preannunciate, preleva campioni di materie prime, di semilavorato e oggetti contenenti metallo prezioso pronti per la vendita e muniti di marchio, per accertarne il titolo mediante saggi che sono eseguiti presso laboratori abilitati; controlla le caratteristiche di autenticità dei marchi e la loro perfetta idoneità all’uso. Camera di commercio di Brescia [email protected] N. 2/10 ƒ 151 ▲ STORIA E CURIOSITÀ Mario Savino Le misure e la loro evoluzione Parte II – Un linguaggio mondiale MEASUREMENTS AND THEIR HISTORICAL EVOLUTION PART II: A GLOBAL LANGUAGE We publish here the second part of the text of the Honorary Lecture by Prof. Mario Savino, Past President of the GMEE and Full Professor of Electrical Measurements at the Polytechnic of Bari, at the Opening of the Academic Year 2009-10 at the Polytechnic. Part I has been published in T_M 01/2010 p. 76. RIASSUNTO Pubblichiamo qui la seconda parte della “Prolusione” tenuta dal Prof. Mario Savino, Past President del GMEE e Ordinario di Misure Elettriche al Politecnico di Bari, in occasione dell’Inaugurazione dell’Anno Accademico 2009-2010 al Politecnico. La prima parte è stata pubblicata in T_M 01/2010 a pag. 76. UN LINGUAGGIO MONDIALE Ciò che non è riuscito con l’esperanto, tentativo di sviluppo di una lingua internazionale, proposto intorno al 1880 dal medico polacco Zamenhof, si è ottenuto con il Sistema Internazionale delle unità di misura (SI). Per esprimere il risultato di qualsiasi misurazione gli esseri umani si servono e si sono serviti di numeri e di unità di misura. L’insieme delle unità di misura è chiamato sistema di unità di misura. L’unificazione di tale sistema è stata resa possibile grazie ad un lavoro antico e faticoso al quale hanno partecipato scienziati di tutto il mondo. Questo mezzo efficiente di cui oggi si dispone, T_M N. che ci consente di parlare la stessa lingua, anche se si lavora in continenti diversi, e che ci appare così logico e naturale, è in realtà il frutto di un lavoro spesso sommerso che continua e procede di pari passo con lo sviluppo ad abbracciare tutti i campi e i settori scientifici e tecnologici in rapida espansione. L’esigenza di fissare regole precise per quanto riguarda gli scambi commerciali e l’organizzazione sociale all’interno di una comunità portò ogni popolo a servirsi di propri sistemi di misura. Per facilitare gli scambi tra le varie popolazioni si tentarono di stabilire criteri di equivalenza tra le varie unità di misura sulla base di campioni materiali. I primi campioni scoperti nei templi e in altri edifici sacri assiri ed egizi sono quelli di unità di lunghezza. Così ad esempio tra le civiltà antiche la lunghezza del cùbito, testimoniata da diversi campioni trovati, presenta valori poco differenti tra loro. La vastità dell’antico impero romano favorì il processo di unificazione, vanificato alla sua caduta con il successivo formarsi della società feudale, quando si diffusero numerosi sistemi di misura anche molto differenti tra loro. Spostandosi da un feudo all’altro occor- 2/10 ƒ 152 reva effettuare la trasformazione delle unità di misura il che risultava sempre molto approssimativo. Anche in seguito, considerando che le comunicazioni e la mobilità continuavano a essere molto limitate, si assistette alla proliferazione e all’uso di unità molto differenziate nelle diverse nazioni e, al loro interno, nei vari comuni e paesi. Spesso con una stessa denominazione si indicavano unità di misura diverse da paese a paese il che era causa di frodi e di possibilità di guadagni illeciti da parte di quanti approfittavano della confusione esistente. Questo il motivo per cui nelle piazze dove si tenevano i mercati, per evitare contestazioni tra commercianti e acquirenti, le autorità del luogo indicavano in vario modo sui muri le unità di lunghezza. Per esempio in un muro della Cattedrale di Santo Stefano a Vienna, grande centro commerciale tra est e ovest nell’epoca medioevale, vi sono due barre di ferro con le estremità sporgenti a distanza all’incirca di un metro l’una dall’altra. Altri luoghi dove è possibile trovare Dipartimento Ingegneria Elettrotecnica ed Elettronica – Politecnico di Bari Testo della Prolusione tenuta in occasione dell’inaugurazione dell’Anno Accademico 2009-2010 al Politecnico di Bari [email protected] indicazioni relative al campione di lunghezza sono ad esempio Parigi, patria mondiale della metrologia, dove nel sedicesimo secolo in un muro esterno presso la scalinata del Grand Chatelet era stata riportata in ferro la tesa, unità di misura della lunghezza per la Francia, pari a 1,95 m. Anche a Bari sulla facciata della Basilica di San Nicola è incorporato il campione di lunghezza detto cùbito barese, di lunghezza leggermente differente dai più noti. Secondo alcune fonti esso ha rappresentato l’unità di misura adottata per sviluppare l’intero progetto della Basilica, ultimata nel 1197, mentre per il padre sacrista della Basilica il cùbito è stato realizzato per il mercato che si teneva nella piazza antistante in epoca medioevale, il che convaliderebbe quanto prima affermato in merito alla presenza di campioni di unità di lunghezza sui muri delle cattedrali. Alcuni sostenitori della prima tesi vanno oltre la semplice relazione geometrica, collegando il cùbito barese a criteri occulti di architettura sacra che sarebbero stati seguiti nella realizzazione della Basilica, perché essa alludesse, con la sua geometria, a verità accessibili solo a pochi iniziati. Esiste una vasta letteratura sulle relazioni tra la Basilica di San Nicola e l’ordine Templare, i Rosa-Croce, e altri. Il cùbito barese può essere, quindi, visto come simbolo della demarcazione tra due tipi di scienza: una basata su affermazioni verificabili o confutabili da chiunque lo voglia, con strumenti accessibili pubblicamente in qualunque momento; l’altra fondata su autorità ineffabili, su una sapienza che non è spiegata e non è spiegabile, su verità per pochi iniziati, che gli iniziati non possono mettere in discussione, pena la radiazione e la persecuzione. Fu Carlo Magno nell’Ottocento che, avendo avviato le grandi riforme amministrative, economiche e giudiziarie dell’impero carolingio promulgò un decreto sull’unificazione dei campioni di massa e istituì il principio che i costruttori di bilance, una volta ottenuta la licenza di vendita, fossero gli unici responsabili del loro corretto funzionamento. Alla caduta dell’impero carolingio, con la moltiplicazione dei centri di potere, la monarchia in Francia, il regno d’Italia, il sacro romano impero della nazione germanica, si moltiplicarono anche le unità di misura. Nonostante la necessità di unificazione fosse sentita inizialmente nell’ambito del commercio per facilitare le operazioni di scambio, in seguito fu la comunità scientifica, con l’impulso dato da Galileo Galilei al metodo sperimentale, a ritenere imperativa tale unificazione, in quanto i diversi scienziati volevano far conoscere e confrontare i risultati ottenuti nell’esecuzione di una stessa misurazione, anche se condotta in luoghi diversi. Solo alla fine del diciottesimo secolo si assistette alla nascita di sistemi di misura che lentamente, ma inesorabilmente acquisirono carattere mondiale. Fu ai tempi della rivoluzione francese, intorno al 1790, che si iniziò il lungo processo di unificazione e razionalizzazione delle unità di misura per le grandezze d’interesse commerciale e scientifico. Il 7 aprile 1795 con decreto legge in Francia la Convenzione Nazionale istituì il Sistema Metrico Decimale, che riconduceva tutte le unità di misura a soltanto quattro grandezze fondamentali, la lunghezza misurata in metri, la massa misurata in kilogrammi, la capacità e il volume misurati in litri. Inoltre tale sistema permetteva l’uso di soli multipli e sottomultipli decimali. Allo scopo di facilitare la riferibilità delle misure a entità ben precise si giunse all’accordo di costruire dei campioni materiali disponibili in laboratorio. A giugno del 1799 una delegazione dell’Istituto Nazionale delle Scienze e delle Arti presentava al Consiglio dei Cinquecento e deponeva negli archivi francesi i prototipi metallici del metro e del kilogrammo, detti degli Archivi8. Nel 1875, con la partecipazione di rappresentanti provenienti da diciassette paesi, era istituita la Conferenza Generale dei Pesi e delle Misure (CGPM), dove per misure si intendevano le lunghezze e le loro grandezze geometriche derivate. La CGPM è ancora operante e mentre inizialmente si riuniva ogni sei anni, attualmente è convocata a Sèvres ogni quattro anni. Fu con l’undicesima CGPM, tenutasi a Parigi dall’11 al 20 ottobre 1960 che si giunse a un sistema veramente mondiale, l’attuale Sistema Internazionale di unità di misura (SI), fondato sulle sei unità di misura base: metro; kilogrammo; secondo; ampere; kelvin; candela, al quale nel 1971 si aggiunse una settima unità base per le quantità di sostanza, costituita dalla mole. Il Sistema Internazionale è stato legalmente adottato in Italia con la legge n. 122 del 14 aprile 1978 e con il D.P.R. n. 802 del 12 agosto 1982 ed ha avuto l’approvazione oltre che dall’IEC (International Electrotechnical Commission) anche dall’ISO (International Standards Organization)[9]. Attualmente numerosi centri di ricerca in tutto il mondo, tra i quali l’Istituto Nazionale per la Ricerca Metrologica (INRiM), coordinati dal Bureau International des Poids et Mesures (BIPM), stanno collaborando per ridefinire le unità di misura, con particolare riferimento alla massa e alla corrente elettrica (o a un suo sostituto: la tensione elettrica), impiegando le cosiddette costanti fondamentali (costanti di Avogadro, di Planck, ecc.) e la carica dell’elettrone, allo scopo di ridurre quanto più possibile l’incertezza associata alla realizzazione dei campioni relativi alle unità dell’attuale Sistema Internazionale. ASPETTI PSICOLOGICI Quando si acquisiscono i fondamenti delle misure si impara anche una corretta filosofia di vita. La frase latina attribuita a Lucio Anneo Seneca errare humanum est, perseverare autem diabolicum, significa commettere errori è umano, ma perseverare è diabolico ed è ormai entrata nel linguaggio comune. T_M ƒ 153 Commettere errori nel corso di una misura è possibile e anzi molto probabile, d’altra parte il solo fatto di esser obbligati a inserire uno strumento di misura in un sistema altera le condizioni iniziali del sistema stesso e non consente la misura del valore che il misurando assumeva prima dell’inserzione. Il procedimento di misura disturba il sistema e determina una variazione nel valore delle grandezze da misurare. L’entità del disturbo varia con il tipo di strumento usato per la misura. Si definisce errore assoluto di misura la differenza tra il valore della grandezza misurata e quello di una grandezza di riferimento, derivante ad esempio da un campione di misura. La grandezza di riferimento è assunta come valore convenzionalmente vero del misurando. Tra gli errori di misura sono contemplati gli errori sistematici che si ripresentano sempre con lo stesso segno e la stessa ampiezza, ripetendo la misura di una grandezza con la stessa strumentazione quando siano immutate le condizioni operative e ambientali. Si definisce correzione il valore da aggiungere algebricamente al risultato non corretto di una misura per compensarne l’errore sistematico. La correzione non può mai essere completa per i limiti intrinseci sia alla strumentazione sia all’operatore che esegue la misura. Non esiste una misura perfetta, come non esistono comportamenti umani privi di errori, la perfezione non è di questo mondo. Scrive Galimberti nel suo dizionario di psicologia che per errore s’intende un’azione che comporta “un giudizio o valutazione che contravviene il criterio riconosciuto valido nel campo a cui il giudizio si riferisce, oppure ai limiti di applicabilità del criterio stesso”10. Come nell’ambito delle misure occorre un riferimento rappresentato dai campioni delle grandezze e dalle scale di misura, così nella condotta umana è necessario riferirsi a un “criterio riconosciuto valido nel campo”. L’errore umano come quello delle misure dipende unicamente da un processo valutativo, da un confronto con campioni di riferimento. Ognuno di noi si crea un modello di vita, da cui fa discendere una scala di valo- T_M ƒ 154 N. 02ƒ ;2010 ▲ STORIA E CURIOSITÀ ri e valuta i suoi atti e i suoi possibili errori sulla base di questi. I propri errori si possono correggere anche con il dialogo e il confronto con gli altri purché si sia in grado di ascoltare e di mettersi in discussione. È l’autocritica che nel campo scientifico fa progredire la scienza e nel campo umano fa crescere gli esseri umani. Il progresso diventa illimitato solo quando si accetti la necessità di una sistematica correzione dei risultati della ricerca nel campo delle scienze sia umane, sia tecnologiche. Spesso, dopo aver spiegato il significato di errore e di correzione, all’inizio di una mia lezione riservo una parte della lavagna al conteggio degli errori che commetto e alle possibili correzioni, esortando gli allievi ad aiutarmi nel procedimento di correzione. Per verificare il grado di attenzione degli studenti, a volte commetto volontariamente un errore. Questa pratica mi permette di dimostrare agli allievi che tutti sbagliamo, che il docente è un essere umano come loro, che i propri errori si possono correggere anche ascoltando gli altri. L’impossibilità di avere un campione di riferimento perfetto rende il concetto di errore idealizzato, in quanto non può essere mai conosciuto esattamente, quindi la correzione non potrà mai essere completa. Ne scaturisce che come ogni comportamento umano, così ogni misura sarà affetta da incertezza dovuta sia all’imperfetta correzione, sia alla presenza di effetti casuali, dovuti per esempio all’interazione del misurando con l’ambiente, con gli strumenti, con l’operatore. Nessun risultato di una misura è esente da incertezza, parametro (sempre associato a tale risultato) che caratterizza la dispersione dei valori che potrebbero essere ragionevolmente attribuiti al misurando. Le donne e gli uomini hanno bisogno di certezze per costruire la loro scala di valori, ma devono essere al tempo stesso consapevoli che le loro azioni saranno sempre accompagnate da un’incertezza di fondo, dovuta a una conoscenza inevitabilmente imperfetta. Non devono avere paura dei dubbi che assalgono loro, nella consapevolezza che essi scaturiscono da fattori molto spesso fortuiti o imprevedibili. È anzi auspicabile che il dubbio rientri nell’etica dell’esistenza umana, perché si possa sperare in una più cosciente crescita individuale e collettiva. Il parallelismo tra la scienza delle misure e quella umana potrebbe continuare esaminando i concetti di precisione, accuratezza e taratura, ma i limiti di tempo di questo intervento non lo consentono. PER IL BENESSERE DEGLI ESSERI UMANI Una filosofia di vita in cui il desiderio di avere, di possedere beni e di consumarli, prevale spesso su aneliti di solidarietà, sul bisogno di dare qualcosa di noi agli altri senza fini utilitaristici, sta portando donne e uomini a vivere con ansia e schizofrenia la loro esistenza. Erich Fromm nel suo libro “La rivoluzione della speranza; verso una tecnologia umanizzata”11, individua come soluzione a questo serio problema una nuova filosofia dello sviluppo che veda l’affermarsi della priorità della vita sulla morte. La speranza è un elemento fondamentale di ogni tentativo di cambiare la società. Fromm distingue la speranza passiva, che è attesa e rassegnazione, da quella attiva, che è invece la proiezione nel futuro. Una grande speranza è che questo nuovo millennio sia dedicato al benessere degli esseri umani. Un obiettivo a tal riguardo è certamente quello di migliorare la qualità delle misure in campi strategici quali l’ambientale e il biomedicale, dove occorre stabilire se la grandezza oggetto della misura rientri in limiti specificati e ben definiti. Oggi si assiste a un notevole incremento di strumentazione biomedicale, che consente non solo la definizione della malattia, ma anche la misura della sua gravità, la determinazione dei fattori sia prognostici sia predittivi di risposta della cura. Quanto più una struttura ospedaliera è dotata di sistemi sensori in grado di fornire in tempi brevi tutte le informazioni necessarie a una rapida diagnosi, tanto minore sarà l’incertezza con la quale il medico assumerà le deci- salute pubblica e dichiarare l’insorgere della situazione di pericolo, anche se il risultato della misura, al centro della fascia, dovesse risultare inferiore al valore limite superiore di tollerabilità. Quanto esposto potrebbe essere una delle soluzioni a un problema aperto che purtroppo non è stato ancora completamente considerato dalla normativa e dagli organismi a vario titolo deputati a stabilire i criteri relativi alla definizione dei valori di tollerabilità di molte grandezze. Probabilmente non è sufficientemente cautelativo che il legislatore imponga un semplice limite, forse sarebbe necessario indicare anche altri parametri come ad esempio un limite massimo ammissibile di incertezza delle misure, che deve essere opportunamente definito e aggiornato. Oggi i sistemi biomedicali, specie attraverso i biosensori e le bioimmagini, consentono misure sempre più accurate e sensibili all’interno e all’esterno del corpo umano. Purtroppo le case produttrici di apparecchi biomedicali, che sono ormai numerose, raramente forniscono informazioni adeguate su parametri fondamentali quali risoluzione, sensibilità e incertezza degli strumenti. In letteratura scientifica iniziano a essere pubblicati lavori che mostrano come la mancata considerazione delle incertezze di misura nell’esecuzione di esami medici porti a diagnosi e prognosi non sempre corrette a volte con nocumento alla salute pubblica, a volte con consistenti aggravi di spesa per i servizi sanitari nazionali. L’ambiente e la medicina avranno sempre più bisogno di sistemi informativi basati sulle misure, di strumentazione elettronica sempre più automatizzata e in grado di eseguire l’autocontrollo delle prestazioni. È evidente che lo sviluppo tecnologico imporrà anche un adeguamento legislativo e normativo molto più frequente rispetto al passato specie in settori che riguardano la salute pubblica e il benessere degli esseri umani. sioni sul da farsi4. Nei suddetti campi di applicazione le misure devono essere più corrette possibili. Colui che esegue la misura deve avere ben presente lo scopo a cui è destinato il risultato, deve fissare quantitativamente un limite massimo all’incertezza della misura superato il quale nessuna decisione può essere ragionevolmente presa, in quanto essa risulterebbe arbitraria e potrebbe comportare conseguenze pericolose. L’incertezza massima tollerabile in una misura dipende dalla decisione alla quale la misura deve portare12. Nel caso di misure sia ambientali, sia biomedicali, in cui il superamento di precisi limiti può comportare rischi alla salute pubblica, diventa essenziale individuare il legame tra incertezza di misura e rischio sociale accettabile13. Poiché una misura è sempre accompagnata da un’incertezza, essa è meglio rappresentabile attraverso una fascia di valori al centro della quale è posto il risultato della misura e agli estremi la somma e la differenza del risultato e dell’incertezza di misura14. L’ampiezza della fascia di misura dipende dal livello di confidenza che si vuole ottenere e nel caso di misure ambientali e biomedicali esso non può che essere il più elevato possibile. Nell’ipotesi di una distribuzione di tipo gaussiano si ha un livello di confidenza del 99,73 percento moltiplicando l’incertezza calcolata per un fattore di copertura pari a tre. Nel caso il valore limite superiore di tollerabilità, imposto dalle leggi ad alcune grandezze, cadesse al di fuori della fascia di misura non sembrerebbe porsi alcun problema di interpretazione, in quanto se tutta la fascia di misura fosse al di sopra della tollerabilità ammessa si presenterebbe una situazione di pericolo, inesistente qualora invece tutta la fascia di misura fosse al di sotto della tollerabilità ammessa. Nel caso invece il valore limite superiore di tollerabilità CONCLUSIONI cadesse all’interno della fascia di misura si potrebbe adottare il principio del Lord Kelvin scrisse: “Io spesso caso peggiore a salvaguardia della affermo che quando puoi misu- ▲ STORIA E CURIOSITÀ rare ciò di cui stai parlando e lo puoi esprimere in numeri, tu conosci qualcosa di ciò, ma quando non puoi esprimerlo in numeri, la tua conoscenza è scarsa e insoddisfacente”. Eseguire misure è vitale e indispensabile nelle relazioni umane, in quanto le misure permettono la comprensione del mondo nel quale si vive ed hanno contribuito a elevare la qualità dei prodotti e dei servizi. Diversi governi delle nazioni più progredite dedicano sempre maggiore attenzione alla scuola, all’università e alla ricerca, ritenute prioritarie per il rilancio e la valorizzazione del capitale umano e per lo sviluppo sociale. In particolare si riconosce alla scienza delle misure notevole importanza specie nella formazione dei quadri dirigenti industriali, anche per le implicazioni che essa ha nelle transazioni commerciali, tanto da poter contare su una branca importante costituita dalla metrologia legale. Proprio da parte del comparto industriale si ritiene per il futuro che il settore delle misure potrà avere ulteriori consistenti sviluppi e una conseguente crescita di interesse da un’utenza sempre più ampia. BIBLIOGRAFIA [8] Egidi, C., Introduzione alla Metrologia, Ed. Garzanti, Milano, 1982. [9] Savino, M., Fondamenti di scienza delle misure, NIS, Roma, 1992. [10] Galimberti, U. Dizionario di psicologia, UTET, 1999. [11] Fromm E., The Revolution of Hope Toward a Humanized Tecnology. Gesamtausgabe, (1968), (traduzione italiana in Saggi Tascabili Bompiani). [12] Sartori, S., Incertezza di misura, ambiguità e diritto, Tutto Misure, A&T Editore, Torino, vol. 1, n. 1, 1999. [13] Ferrero, A., Il ruolo dell’incertezza nelle misure ambientali e nel loro confronto con i limiti, ARPA Piemonte, Convegno su “Controllo ambientale degli agenti fisici: nuove prospettive e problematiche emergenti”, Vercelli, 24-27 marzo 2009. [14] UNI CEI ENV 13005, Guida all’espressione dell’incertezza di misura, 2000. T_M ƒ 155 ▲ STORIA E CURIOSITÀ Emilio Borchi1, Riccardo Nicoletti2, Gaetano Iuculano3 Il patrimonio strumentale del Liceo Reale di Lucca Parte III – Galvanometri e strumenti di Nobili THE INSTRUMENTAL TREASURE OF THE ROYAL LYCAEUM OF LUCCA - PART III: GALVANOMETERS AND NOBILI’S INSTRUMENTS Continuation of the series of articles on the treasure of the Royal Lyceum of Lucca, this article covering the galvanometers, most of which date mid 1800. RIASSUNTO Terzo articolo della serie riguardante il Tesoro di strumenti di misura antichi conservati nel Liceo Reale di Lucca. Questo articolo copre i Galvanometri e gli strumenti di Leopoldo Nobili. I GALVANOMETRI Il galvanometro (Fig. 7), nominato nell’inventario del 1849 come “modello di altro galvanometro su altro sistema”, è il galvanometro più antico della collezione del Liceo Reale. Esso risale al 1830 circa. Il costruttore è probabilmente E. Ugolotti, macchinista del gabinetto della scuola di fisica. di cartone con una scala divisa in quattro quadranti graduati da 0° a 90° e con al centro un ago magnetico libero di ruotare. Una colonnina di legno fissata verticalmente sulla base quadrata sorregge, fissato a varie altezze con una vite, un supporto di vetro e ottone piegato ad angolo retto che sorregge un telaio di legno semicircolare, sopra il quale è avvolta con parecchi giri una bobina di filo di rame ricoperto di seta. I capi della bobina sono fermati con ceralacca alla base dello strumento. L’influenza della bobina sull’ago magnetico viene messa in evidenza facendo circolare corrente nella bobina e spostandola e orientandola rispetto alla configurazione iniziale. Il galvanometro per le correnti discontinue del Nobili, costruito nel 1833, è nominato nell’inventario della Scuola del 1856 come “galvanometro del Nobili di Wolf”. Lo strumento è tipico di Leopoldo Nobili (Fig. 8). Figura 7 – Galvanometro Le sue principali caratteristiche sono: la base circolare di Su una base quadrata di legno è inse- legno con tre viti calanti di ottone e rito un anello sagomato di legno con l’anello di piombo (andato perduto) spessore. All’interno si trova un disco come zavorra; la bobina ricoperta T_M N. 2/10 ƒ 156 Figura 8 – Galvanometro di Nobili di seta e avvolta sopra un telaio di legno; la scala di cartone (divisa in quattro quadranti, 0° - 90° - 0° 90°, con divisioni ogni 2°) bloccata da quattro cavicchi di avorio che servono anche a evitare eccessive oscillazioni del sistema astatico; il sistema di aghi astatici sospeso tramite un filo a un’asticella, mobile verticalmente per mezzo di una manopola di ottone posizionata sulla campana di vetro; una sbarretta di ottone ripiegata ad angolo retto che sorregge la campana di (1) Dip. di Energetica – Università di Firenze (2) CSO srl – Costruzione Strumenti Oftalmici, Badia a Settimo (FI) [email protected] (3) La rubrica dedicata agli Strumenti Scientifici Antichi fu ideata insieme al Prof. Gaetano Iuculano, prematuramente scomparso. Ci preme ricordarlo, in particolare in questa occasione, come un appassionato amante della storia della Scienza. Desideriamo esprimere qui il nostro più affettuoso ricordo del caro Gaetano. N. 02ƒ ;2010 Figura 9 – Calamite coniugate vetro; gli spinotti di collegamento piegati a gomito sulla base. Nei galvanometri per misurare le correnti termoelettriche che si costruivano a Firenze sotto la direzione del Nobili il filo di rame inargentato faceva 120 giri attorno al telaio su cui era avvolto e aveva una lunghezza di 12-13 m e un diametro di 0,5 mm; nei galvanometri per le correnti idroelettriche (della pila voltiana) il filo di rame faceva 500 e più giri, aveva la lunghezza di 6667 m e un diametro di 0,25 mm; Per le esperienze sull’elettricità statica (correnti discontinue) veniva particolarmente curato l’isolamento dei fili avvolti sul telaio della bobina. 1835 dal costruttore fiorentino Corrado Wolf. Su una base di legno a “T”, verniciata di nero sono fissate con manicotti di ottone due grosse calamite a ferro di cavallo, composta ognuna da tre elementi. Tra di esse è inserita un’ancora di ferro su cui è avvolta una bobina di filo di rame isolato con filo di seta verde. La bobina viene fatta oscillare tra i poli delle calamite mediante un sistema di rotismi azionati da una manovella. Il movimento produce, per effetto dell’induzione elettromagnetica, scintille tra due lamine metalliche poste sulla bobina e i poli delle calamite. Le correnti alternate generate dall’apparecchio vengono raddrizzate da una leva mobile che ▲ STORIA E CURIOSITÀ oscilla tra due contatti posti sulla base dell’apparecchio. Lo strumento è descritto nelle Memorie del Nobili, vol. II. del 1834. La Fig. 10, presa dal testo dello Scinà, riproduce i dettagli di una macchina magneto-elettrica delle calamite coniugate. Alla base dell’apparecchio delle calamite coniugate, c’è il fenomeno dell’induzione elettromagnetica messo in evidenza da Nobili e Antinori nel gennaio 1832, dopo che i due scienziati avevano appreso dei risultati delle celebri esperienze di Faraday. Il lavoro di Nobili e Antinori, intitolato “Sopra la forza elettromotrice del magnetismo”, fu pubblicato nel periodico fiorentino Antologia, vol. XLIV, pp. 149-161, del novembre 1831. L’errore cronologico era involontario ma, anche a causa di malintesi, scatenò la polemica e il risentimento di Faraday che giustamente rivendicò la priorità della scoperta. Un altro strumento di grande importanza storica è il termomoltiplicatore (Fig. 11) che Nobili costruì in collaborazione con l’altro grande fisico italiano della prima metà dell’Ottocento: Macedonio Melloni. Quando si riscalda uno dei due punti di contatto (giunzione) di un circuito formato da due metalli, ad esempio antimonio e bismuto, si genera una debole corrente elettrica che è approssimativamente proporzionale alla differenza di temperatura tra le due giunzioni. Questo fenomeno, sco- GLI STRUMENTI DI LEOPOLDO NOBILI Tra gli strumenti di Leopoldo Nobili le calamite coniugate (Fig. 9) ricoprono, insieme al galvanometro già visto, un ruolo di particolare importanza storica. Su una targhetta di ottone della macchina è riportata la scritta “L. Nobili Firenze 1835 N° 4”. Un cartellino indica che l’apparecchio è stato presentato alla prima esposizione nazionale di storia della scienza di Firenze nel 1929. Lo strumento fu costruito per il Gabinetto di Fisica del Real Liceo nel Figura 10 – Dettaglio della macchina di Figura 9 T_M ƒ 157 Figura 11 – Il termomoltiplicatore di Nobili perto da Thomas Johann Seebeck (1770-1831) nel 1821 e chiamato effetto termoelettrico, fu subito utilizzato per produrre una pila termoelettrica, ossia un dispositivo analogo alla pila del Volta, formato da un certo numero di termocoppie collegate in serie, in modo che un gruppo di giunzioni si trovi davanti alla sorgente di calore, mentre l’altro gruppo ne è schermato. Nobili costruì la sua prima pila termoelettrica nel 1829. Essa era formata da sei elementi di antimonio e bismuto, disposti circolarmente e fissati nel mastice dentro una scatoletta di legno. Negli anni seguenti Nobili realizzò diverse disposizioni delle termocoppie, ottenendo pile molto affidabili. Nel 1831 Nobili e Melloni presentarono all’Académie T_M ƒ 158 N. 02ƒ ; 2010 ▲ STORIA E CURIOSITÀ des Sciences di Parigi il loro sistema per studiare le proprietà della luce e del calore servendosi di una pila termoelettrica collegata con un galvanometro. Gli elementi della pila erano disposti in modo che le giunzioni mostrassero globalmente, da ogni parte, una superficie rettangolare. La pila era racchiusa in un cilindro di ottone munito di un’apertura conica a imbuto che convogliava l’energia termica sulla pila. L’apertura conica era provvista di una chiusura costituita da un dischetto di ottone. Il dispositivo, detto termomoltiplicatore quando era unito con un galvanometro, era molto più sensibile di un termometro differenziale di Leslie. Con esso Macedonio Melloni potette compiere i suoi studi fondamentali sul calore raggiante (raggi infrarossi). Lo strumento costruito da Corrado Wolf per il Gabinetto di Fisica del Liceo Reale nel 1833 è costituito da un’elegante colonna su basamento di legno verniciato di nero, sulla quale poggia la colonnina di ottone, regolabile in altezza, che sostiene il contenitore con la pila termoelettrica del Nobili. Conclude la serie degli strumenti dedicati a Nobili l’accendilume elettromagnetico (Fig. 12). L’originale accendilume a idrogeno costruito da Corrado Wolf per il Liceo Reale rappresenta un esemplare probabilmente unico che utilizza, al posto della scintilla elettrica prodotta da una differenza di potenziale elettrostatico tra due conduttori, la scintilla prodotta per effetto dell’induzione elettromagnetica. Lo strumento sfrutta lo stesso fenomeno che è all’origine del funzionamento delle calamite scintillanti di Nobili e forse rappresenta un omaggio del costruttore alla memoria dello scienziato. L’apparecchio è segnato nel catalogo della Scuola in data 9 febbraio 1839. Esso fu esposto alla prima esposizione nazionale di storia della scienza di Firenze del 1929. Figura 12 – L’accendilume elettromagnetico L’accendilume di Wolf è costituito da una scatola di legno, verniciata di nero e dotata di uno sportello laterale, nel cui interno si trovano una calamita verticale a ferro di cavallo e un vaso di vetro destinato a contenere acido solforico. Al coperchio del vaso è fissata una campana di vetro dentro la quale è sospeso un pezzo di zinco. Sopra i poli della calamita, che fuoriescono dalla scatola, è collocata un’ancora di ferro ricoperta da un avvolgimento di molte spire di filo di rame isolato con seta nera. Le due estremità dell’avvolgimento sono collegate una con la calamita e l’altra, tramite una linguetta metallica, con un polo. L’ancora a sua volta è solidale con una levetta di ottone munita di tasto. Premendo rapidamente il tasto la bobina si distacca dalla calamita e si origina una scintilla tra il polo e la linguetta metallica. Il movimento della leva provoca l’apertura di una valvola che collega il vaso interno e un ugello dal quale esce l’idrogeno che si era formato nel vaso per reazione tra acido solforico e zinco. L’idrogeno viene infiammato dalla scintilla e accende una lampada a olio collocata vicino all’ugello. N. 02ƒ ;2010 BIBLIOGRAFIA GENERALE T. Lane, Description of an electrometer invented by MR. Lane with account of some experiments of him with it, Philosophical Transactions of the Royal Society, London, 1767. T. Cavallo, An account of some new experiments in electricity with the description and use of two new electrical instruments, Philosophical Transactions of the Royal Society, London, 1780. C. A. de Coulomb, Sur l’électricité et le magnetisme, premier mémoire, construction et usage d’une balance électrique fondée sur la propriété qu’ont les fils de métal d’avoire une force de torsion proportionelle a l’angle de torsion, Mémoires de l’A- cademie Royale des Sciences, Paris, 1785. J. Priestley, An account of a new electrometer contrived by Mr. William Henley, and of several electrical experiments made by him, Philosophical Transactions of the Royal Society, London, 1772. H. B. de Saussure, Voyage dans les Alpes, Neuchâtel, 1786. A. Bennet, Description of a new electrometer. Philosophical Transactions of the Royal Society London, 1787. L. Nobili, Comparison entre les deux galvanomètres les plus sensibles, la grenouille et le multiplicateur à deux aiguilles, suivie de quelques résultats nouveaux, Annales de Chimie et de Physique, Paris, 1828. ■ è standardizzata attorno agli 8 A. La connessione in parallelo delle suddette stringhe costiNEWS tuisce la potenza complessiva o totale-nominale del parco solare. Queste centrali sono normalmente controllate NUOVO DISPOSITIVO tramite misuratori fatturatori, oppure tramite i dati ottenuti dall’inverter. Siccome la situazione DI CONTROLLO meteorologica non è costante e non esistono DELLE STRINGHE schemi in grado di confrontare due giorni di produzione consecutivi (radiazione solare, FOTOVOLTAICHE valori di temperatura, ecc.), è estremamente Data l’attuale situazione economica globa- difficile garantire che una centrale stia lavole, dove il prezzo dell’energia cresce in rando al 100% delle sue potenzialità, senza maniera drammatica a causa del continuo l’utilizzo di un sistema di controllo posto sulle aumento nel costo dei combustibili fossili, sorgenti di generazione primaria. le energie rinnovabili offrono una chiara alternativa per tutti quei paesi la cui indi- Come è possibile documentare che pendenza energetica è vitale per la conti- l’impianto sia totalmente funzionante? nua crescita dell’economia e, quindi, di Non c’è altra alternativa che effettuare un confronto fra i settori delle sortutto il progresso economico. Non c’è da meravigliarsi se le centrali foto- genti generanti (stringhe). voltaiche sono state presentate sul mercato L’obiettivo non è quello di come prodotti finanziari, con una redditivi- ottenere una misura di assotà stimata tra il 10 e il 12%. Lo scopo di luta precisione, ma è certaquesti prodotti è di recuperare l’investimen- mente necessario eseguire to in un periodo di circa 12 anni e poi gua- un confronto che assicuri dagnare per un periodo ben superiore a che tutti i blocchi di genera15 anni, finché il prodotto non esaurisce il zione siano operativi e lavosuo servizio. É quindi chiaro quanto sia di rino a livelli di produzione vitale importanza che le centrali fotovoltai- simili, con minime deviazioche lavorino costantemente al massimo del ni tra l’uno e l’altro (misuraloro rendimento perché, se si verifica un te in corrente o come valore problema con uno o più pannelli, la reddi- percentuale). È di vitale tività si abbassa immediatamente, allun- importanza implementare gando il rientro dei costi di investimento e sistemi che, oltre ad assicuil periodo di guadagno. Non a caso la rare la redditività dell’imguida CEI 82-25 raccomanda il "monito- pianto (ogni minuto in cui l’impianto o uno dei suoi settori smette di generaggio continuo" del sistema. Le centrali fotovoltaiche di una certa potenza rare, si traduce in un elevato costo di ripristino sono oggi piuttosto comuni, caratterizzate da per l’utente, a cui corrisponde una perdita numero enorme di pannelli che, prima di diretta di redditività), forniscano anche all’uessere collegati all’inverter, vengono divisi in tente e agli addetti alla manutenzione inforsettori e raggruppati in piccole potenze, chia- mazioni in tempo reale sul suo funzionamento, mate stringhe solari, la cui corrente generata in modo da poter intervenire immediatamente ■ STORIA E CURIOSITÀ L. Nobili, Memorie e osservazioni edite e inedite del Cavaliere Leopoldo Nobili, colla descrizione e analisi de’ suoi apparati e istrumenti, Firenze, 1834. D. Scina’, Elementi di Fisica Particolare, Milano, 1842-1843. L. Nobili, M. Melloni, Recherches sur plusieurs phénomènes calorifiques entreprises au moyen du thermo-multiplicateur, présenté à l’Académie des Sciences le 5 septembre 1831, Paris 1831 C. Wolf, Atti dell’I. R. Accademia dei Georgofili, Firenze, 1831, A. Ganot, Trattato elementare di Fisica Sperimentale e Applicata e di Meteorologia, Milano, 1862. E. Borchi, R. Macii e G. Ricci, L’idrogeno dalle origini a oggi, Lucca, 2003. e nel luogo esatto in caso di malfunzionamenti. Per tutte queste ragioni, ASITA ha sviluppato la nuova gamma di dispositivi di controllo TR8-RS485, il cui obiettivo è quello di controllare continuativamente la corrente generata da 8 stringhe fotovoltaiche: lo strumento esegue le 8 misure di corrente fino a 25 Ampere, tramite sensori a effetto di Hall, dispone di un ingresso per la misura della tensione di stringa fino a 1 000 Vcc e di 8 ingressi a contatto pulito per rilevare lo stato logico di altrettanti segnali di campo (scaricatori, fusibili, funzionamento inverter, ecc.). Il dispositivo è inoltre dotato di una porta di comunicazione RS485 con protocollo di comunicazione Modbus/RTU per abbinarsi al software di supervisione e monitoraggio Power-Studio. La facile configurazione tramite pannello frontale, la robustezza e la facilità di installazione su pannelli già esistenti rendono TR5-RS485 essenziale per il controllo delle centrali fotovoltaiche. Per ulteriori informazioni: www.asita.com T_M ƒ 159 N. 02ƒ ; 2010 T U T T O _ M I S U R E Anno XII - n. 2 - Giugno 2010 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 -Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttore: Alfredo Cigada Comitato di Redazione: Andrea Ferrero, Antonio Boscolo, Pasquale Daponte, Marcantonio Catelani, Salvatore Baglio, Gianfranco Molinar, Luciano Malgaroli, Massimo Mortarino Redazioni per: Storia: Emilio Borchi, Sigfrido Leschiutta, Riccardo Nicoletti, Mario F. Tschinke Le pagine del GMEE e dell’AIPnD: Paolo Carbone, Carlo Carobbi, Domenico Grimaldi, Claudio Narduzzi, Marco Parvis, Giuseppe Nardoni Le pagine degli IMP: Saverio D’Emilio, Gianfranco Molinar, Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini Comitato Scientifico: ACISM-ANIMA (Roberto Cattaneo); AICQ (Giorgio Miglio); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Elio Bava, Flavio Galliana, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli); SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa); SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli) Videoimpaginazione: la fotocomposizione - Torino Stampa: La Grafica Nuova - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/5/1999. I testi firmati impegnano gli autori. A&T - Affidabilità & Tecnologia Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 5363440 - Fax 011 5363244 E-mail: [email protected] Web: www.affidabilita.eu ABBIAMO LETTO PER VOI ■ ACQUISIZIONE 3D E MODELLAZIONE POLIGONALE di Gabriele Guidi, Michele Russo e Jean-Angelo Beraldin 480 pagine in b/n - ISBN: 9788838665318 Euro 29,00 - © 2010 The McGraw-Hill Companies srl, Italia Con l’evoluzione della tecnologia il costo di un apparato per il rilievo tridimensionale è divenuto abbordabile anche per piccole imprese e singoli professionisti: per questo le tecniche di digitalizzazione 3D divengono via via più richieste sia in ambito didattico sia applicativo. Il testo si propone di illustrare il principio di funzionamento dei diversi sensori 3D ormai disponibili sul mercato, li inquadra in un contesto generale specificandone i principi di funzionamento, motivandone le prestazioni e fornendo dei criteri per permettere anche all’utente finale una caratterizzazione dei sistemi consentendone un uso consapevole. Descrive le modalità con cui questi sensori devono essere utilizzati per trasformare le superfici di un oggetto in un insieme di dati manipolabili con gli strumenti della rappresentazione digitale, come deve essere pianificato un progetto di acquisizione e quali sono gli errori da evitare. Vengono inoltre analizzate le procedure per il post-processing dei dati grezzi prodotti da un sensore 3D che consentono di arrivare a un modello tridimensionale completo di texture e ci si sofferma sulle modalità di applicazione delle tecniche di acquisizione 3D a due campi applicativi in particolare: l’Industrial Design e la conservazione dei Beni Culturali. Infine, vengono esposti una serie di casi di studio, presi da differenti ambiti disciplinari, che illustrano come le tecniche descritte nella prima parte del libro possano essere utilmente applicate per far fronte alle difficoltà pratiche. Gabriele Guidi è Professore Associato di Disegno presso il Dipartimento INDACO del Politecnico di Milano. Michele Russo è Professore a contratto presso la Facoltà del Design del Politecnico di Milano. Jean-Angelo Beraldin è Senior Researcher presso il National Research Council of Canada. UNIVERSITÀ ITALICA DAL LOCAL AL GLOBAL PER IL GLOCAL Direzione Editoriale: Luciano Malgaroli Massimo Mortarino di Antonino Oliva, Nicola Uccella 372 pagine in b/n - ISBN: 9788854830004 Euro 22,00 © 2010 Aracne Editrice, Italia È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità ed immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale. NEL PROSSIMO NUMERO • La formazione in metrologia • La nuova metrologia legale • Misure sull’ambiente e il costruito E molto altro ancora T_M N. La Redazione di Tutto_Misure ([email protected]) Il libro nasce da accese e vivaci discussioni conviviali tra colleghi di un’università locale, ma rappresentativi di quella fauna universitaria del tardo 2008 d.C. che in tutta l’università italiana va discutendo dell’Onda e delle false verità del 3 più 2. Le convivialità si sono trasformate in scripta: è giunto il tempo della verità verace, che partendo dal local tracima con naturalezza nel global. I contributi sono diversi per soggetto e per provenienza disciplinare, e non manca il punto di vista di uno studente. Emerge un’Università in crisi, debilitata dal 3 più 2, dove vige il “mors tua, vita mea!”, e non un Ateneo valutato su basi transnazionali come fa l’Università di Shanghai, senza parametri nazionalpopolari. Altri contributi di Ottavio Cavalcanti, Pietro De Leo, Paolo Giudici, Nicolino Lo Gullo, Giuseppe Parlato, Spartaco Pupo, Cesare Oliviero Rossi. Antonino Oliva è Professore ordinario di Fisica Generale, corso di laurea in Fisica, presso la Facoltà di Scienze Matematiche Fisiche e Naturali dell’Università della Calabria. Nicola Uccella è Professore ordinario di Chimica Organica presso l’Università degli Studi della Calabria. 2/10 ƒ 160
© Copyright 2024 Paperzz