Scarica qui il numero della Rivista in PDF!

TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE”
E DI “METROLOGIA & QUALITÀ”
ANNO XII
N. 02 ƒ
2 010
EDITORIALE
Il ghiaccio è rotto!
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
AFFIDABILITÀ
& TECNOLOGIA
IL TEMA: TRASFERIMENTO TECNOLOGICO
Il trasferimento di Tecnologia - I
Il consorzio In.Bio
Conosciamo i Business Angels!
Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 2 - Anno 12 - Giugno 2010
In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
TUTTO_MISURE - ANNO 12, N. 02 - 2010
ALTRI TEMI
Termografia lock-in
Microscopia SHG
Caratterizzazione UV-Vis-IR di plastiche
Test di vibrazione su microsatellite ALMASat-1
Test interoperabilità DSL
ARGOMENTI
Compatibilità e.m.:
analizzatori di spettro
IMP: La ridefinizione del kelvin
Manipolazione degli oggetti
nella 17025
Metrologia legale:
competenze Camere
Torino
13-15
aprile
2011
Torino
Metrologia & Qualità
13-14 aprile 2011
WWW.AFFIDABILITA.EU
TUTTO_MISURE
ANNO XII
N. 02 ƒ
2010
IN QUESTO NUMERO
Il Consorzio In.Bio:
trasferimento tecnologico
nel settore delle Biotecnologie
The In.Bio Consortium:
technology transfer in biotechnology
P. Polito
S. Procacci
S. Canese
Editoriale: Il ghiaccio è rotto! (F. Docchio)
85
Comunicazioni, Ricerca e Sviluppo
dagli Enti e dalle Imprese
Ricerca e Sviluppo nel campo delle misure
e della strumentazione
Notizie da Enti e Associazioni
87
91
Il tema: Trasferimento Tecnologico
Il trasferimento di tecnologia (F. Docchio)
Il Consorzio In.Bio (P. Polito, S. Procacci, S. Canese)
Conosciamo i Business Angels!
In breve: il CSMT
95
101
105
107
Gli altri temi: la Microscopia
Microscopia SHG
(R. Cicchi, L. Sacconi, F. Vanzi, F.S. Pavone)
109
Gli altri temi: la Misura del Colore
Caratterizzazione UV-Vis-NIR di plastiche
(C. Cucci, M. Picollo)
113
Gli altri temi: Misure e Prove non distruttive
Termografia lock-in (E. Dati, L. Manduchi)
119
A. Merlone
F. Moro
Gli altri temi: Misure Meccaniche
Test di vibrazione condotti sul microsatellite ALMASat-1
(D. Bruzzi et al.)
123
139
Gli altri temi: Misure per le TLC
Test di interoperabilità DSL
(D. Bao, A. Cavuoto, D. Nardone, G. Truglia)
129
Campi e Compatibilità elettromagnetica
Disturbi Impulsivi (C. Carobbi, M. Cati, C. Panconi)
133
101
La ridefinizione del kelvin
mediante la determinazione
del valore della costante di Boltzmann
An upgrade of the definition of the kelvin
through
the Boltzmann
constant
Le Misure e la loro evoluzione.
Parte II - Un linguaggio mondiale
Measurements and their historical evolution part II:
a global language
Lo spazio del GMEE e del GMMT
Il Gruppo di Misure Meccaniche dell’Università di Padova
(E. Lorenzini, S. Debei, F. Angrilli)
136
Notizie dal GMEE
137
M. Savino
Lo spazio degli IMP
La ridefinizione del kelvin (A. Merlone, F. Moro)
139
151
Manifestazioni, eventi e formazione
VII edizione di Metrologia & Qualità: Call for papers
Affidabilità & Tecnologie 2010: l’evento cresce ancora!
Eventi 2010-2011
Metrologia per capillarità (G. Miglio)
143
144
146
147
Norme e decreti
Manipolazione degli oggetti nella 17025
Parte II (N. Dell’Arena)
Scheda: la Metrologia Legale (E. Perrotta)
149
151
Storia e curiosità
Le misure e la loro evoluzione. Parte II (M. Savino)
Il patrimonio strumentale del Liceo Reale di Lucca
(E. Borchi, R. Nicoletti, G. Juculano)
152
156
Abbiamo letto per voi
160
Galvanometri e strumenti di Nobili
The instrumental treasure of the royal lycaeum of Lucca
Part III: galvanometers
and nobili’s
instruments
E. Borchi
R. Nicoletti
G. Juculano
156
News
118-127-128-134-142-148-150-159
T_M
N.
2/10 ƒ 83
Franco Docchio
EDITORIALE
▲
Il ghiaccio è rotto!
We’re on the go!
Cari lettori!
Per ironia della sorte,
sono stato l’ultimo a ricevere il primo numero
della rivista: mi trovavo
negli Stati Uniti per un
viaggio di studio e ho
potuto
“toccar
con
mano” la mia “creatura”
solo al mio ritorno. Ho
ricevuto invece alcuni
lusinghieri commenti riguardo alle (poche)
innovazioni apportate all’impianto solido
della rivista. Queste, e la contestuale mancanza di critiche, mi rasserenano: confesso
di essere stato abbastanza preoccupato!
Non nascondo la mia soddisfazione nel
constatare quanto significativo stia diventando il contributo delle imprese alla rivista:
aumentano le inserzioni pubblicitarie ma
soprattutto aumenta il numero d’imprese che
invia contributi (articoli, memorie), segno
dell’interesse verso la rivista ma soprattutto
(speriamo!) del rinnovato interesse verso la
ricerca applicata, ora che la profonda crisi
economica sembra allentare la sua morsa.
Riportiamo, a onore del nostro Editore che lo
organizza, il successo dell’Edizione 2010 di
“Affidabilità e Tecnologie”, che ha bissato
l’incremento del 2009 e ha visto la partecipazione di numerose imprese operanti nel
campo dell’ottica, della visione e dell’Automazione Industriale. Ora l’Editore ha già iniziato a lavorare all’edizione 2011, che si
svolgerà in concomitanza alla VII edizione
della Mostra Convegno “Metrologia e Qualità”. Anche qui, mi è gradito l’onere di stimolare contributi al convegno da parte d’imprese attive nel settore delle misure, dei sensori, della metrologia e del Controllo qualità!
A livello nazionale, archiviate le Elezioni
Regionali, il mondo accademico sta seguendo con particolare attenzione l’iter legislativo del D.D.L. 1095 sulla riforma della
Governance di Ateneo (la cosiddetta riforma
Gelmini dell’Università), in questi giorni al
vaglio del Senato. A parte un diffuso scetticismo da parte delle Università (ma non solo)
sul fatto che si possa impostare una coraggiosa e impegnativa (e soprattutto necessaria)
riforma dell’Università “senza oneri per lo
Stato” (non sto a tediarvi su quanto il Governo Federale U.S.A. ha investito e sta investendo nelle Università americane per combattere la recessione e per rilanciare l’economia!), preoccupa non poco l’atteggiamento
“livellatore” dei legislatori nei confronti di una
delle categorie più importanti dell’Università
(almeno per quanto riguarda i lettori di questa
rivista): quella dei Ricercatori Universitari. Il
passaggio dal ruolo di “Ricercatore a tempo
indeterminato” a quello di “Ricercatore a
tempo determinato” (6 anni) è invero in linea
con le maggiori realtà estere (anche se i livelli retributivi a confronto ci penalizzano
alquanto): ciò che i legislatori non stanno tutelando abbastanza (nella versione attuale del
Disegno) è invece la figura dell’attuale Ricercatore a tempo indeterminato nella fase di
transizione dal vecchio al nuovo. Auspichiamo una definizione della materia a breve: in
caso contrario assisteremmo a giustificate
forme di protesta dei Ricercatori già pesantemente impegnati nel supporto alla Didattica.
Il secondo numero di Tutto_Misure ha come
leitmotiv (come promesso) il Trasferimento Tecnologico. Mettiamo qui a vostra disposizione
alcune delle nostre competenze (e convinzioni) sul tema della gestione della Proprietà
Intellettuale, sperando che ciò possa aprire un
dibattito sul tema, e presentiamo due iniziative di Centri per la Ricerca Applicata e Trasferimento Tecnologico: In.Bio e CSMT. Infine
apriamo il sipario sulla figura dei Business
Angels a supporto del finanziamento di giovani Start-up imprenditoriali.
Ancora una volta, buona lettura!
Franco Docchio
T_M
N.
2/10 ƒ 85
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure ([email protected])
Ricerca e Sviluppo nel campo delle
Misure e della Strumentazione
R&D IN MEASUREMENT AND INSTRUMENTATION
This article contains an overview of relevant achievements of Italian R&D
groups, in the field of measurement science and instrumentation, at both theoretical and applied levels. Sources of information are the main Measurementrelated journals, as well as private communications by the authors. Industries
are the main targets of this information, as it may be possible to find stimuli
towards Technology Transfer.
RIASSUNTO
L’articolo contiene una panoramica dei principali risultati scientifici dei Gruppi
di R&S Italiani nel campo della scienza delle misure e della strumentazione, a
livello sia teorico che applicato. Fonte delle informazioni è costituita dalle principali riviste di misure, e da comunicazioni private degli autori. Le industrie
sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati
possono costituire stimolo per attività di Trasferimento Tecnologico.
RICERCA DI BASE
IN METROLOGIA
INRIM-POLITO: le caratteristiche metrologiche del laboratorio di taratura dell’anemometro rotante dell’INRIM
A. Piccato, R. Malvano e P.G. Spazzini1:
Metrological features of the rotating low-speed anemometer calibration facility at INRIM, Metrologia
47, 47-57, 2010.
Viene presentata la strumentazione standard di INRIM a braccio rotante (RA)
per anemometria a bassa velocità (da
0,20 ms–1 a 5,00 ms–1), basata sul principio di reciprocità. Lo strumento è montato all’estremità di un braccio lungo
circa 3,5 m, che ruota intorno a un
asse. La misura della velocità dell’estremità è riferibile a campioni primari di
lunghezza e tempo, in quanto ottenuta
da misure del raggio e della frequenza
angolare. L’articolo discute degli errori
sistematici e della loro compensazione e
calcola il budget d’incertezza.
macchine a coordinate per metrologia a larga scala
F. Franceschini, D. Maisano, L.
Mastrogiacomo, B. Pralio2: Ultrasound Transducers for LargeScale Metrology: A Performance Analysis for Their Use by the
MScMS, IEEE Trans. Instrum. Meas.
59, 110-121 (2010).
Viene descritto un sistema mobile di
misura di coordinate spaziali (MScMS)
basato su una rete di sensori a ultrasuoni distribuiti, per la misura di oggetti di
larga scala. Un insieme di ricetrasmettitori a ultrasuoni (grilli) si trasmettono
mutuamente segnali, e la distanza reciproca è determinata dal tempo di volo
dei segnali. Il MScMS è in grado di calcolare le coordinate cartesiane dei punti
della superficie dell’oggetto toccata
dalla sonda mobile. L’articolo descrive la
caratterizzazione dei singoli ricetrasmettitori, e identifica i principali fattori che
influenzano le prestazioni degli stessi,
con suggerimenti riguardo al miglioramento di queste ultime.
STRUMENTAZIONE DI MISURA
Dal Politecnico di Torino l’uso di
sensori a ultrasuoni abbinato a Carobbi
Misure di corrente a
R.F. dall’Università
di Firenze
C. Carobbi, L.M. Millanta3: Circuit Loading in
Radio-Frequency Current Measurements: The Insertion Impedance of the Transformer Probes,
IEEE Trans. Instrum. Meas. 59, 200204 (2010).
Effetti di carico delle sonde di corrente a
RF a trasformatore possono influenzare
l’accuratezza delle misure a RF. Gli
autori studiano un modello fisico del
sistema che consiste in un’impedenza in
serie al flusso di corrente, correlata alle
caratteristiche fisiche della sonda. Gli
studi teorici e sperimentali su questo
modello vengono applicati al miglioramento dell’accuratezza delle misure
d’impedenza del tipo V/I.
Incertezza in mammografia
digitale da Roma Tor Vergata
A. Mencattini, G. Rabottino, S. Salicone,
M. Salmeri4: Uncertainty Modeling
and Propagation through RFVs
for the Assessment of CADx Systems in Digital Mammography,
IEEE Trans. Instrum. Meas. 59, 27-38,
2010.
Viene descritta la gestione e la propagazione dell’incertezza mediante
variabili casuali fuzzy (RFVs) attraverso un sistema di diagnosi digitale
(CADx) per la diagnosi precoce di
tumori al seno, con particolare riferimento all’effetto delle microcalcificazioni. Il sistema è analizzato dal punto
di vista metrologico. Si assume che
l’incertezza associata a ogni pixel dell’immagine RX sia costituita da una
componente casuale e da una sistematica non trascurabile. Di conseguenza viene effettuata una stima preliminare della varianza di rumore e
successivamente, mediante operatori
nelle RFVs, si valuta la propagazione
dell’incertezza attraverso il sistema.
Caratterizzazione metrologica
di emissioni elettromagnetiche
dall’Università di Genova
A. Mariscotti6: Assessment of Elec-
T_M
N.
2/10 ƒ 87
N. 02ƒ
;2010
mo, corredato di una sua sorgente di
potenza (normalmente una batteria).
Dunque è importante limitare qualsiasi
causa di spreco di energia. In genere I
nodi spendono la maggior parte del
tempo nella modalità low-power, per
massimizzare la durata di vita: tuttavia
in questo caso è necessario attendere
qualche tempo per il transitorio di
accensione del nodo, specie se le misure sono ad alta accuratezza. Gli autori
discutono l’implementazione di un algoritmo di filtro per ridurre questo tempo,
algoritmo basato sulla combinazione
ibrida di un filtro a media e di uno a
mediana, e che combina i vantaggi del
filtraggio lineare e di quello non lineare.
I risultati vengono applicati a due protoCastellanza e Trento: Raffronto tipi wireless per misure di temperature e
di estimatori
umidità, con test delle prestazioni in terD. Macii, L. Mari, D. Petri7: Compa- mini di tempo di calcolo, consumo e
rison of Measured Quantity capacità di filtrare il rumore.
Value Estimators in Nonlinear
Models, IEEE Trans. Instrum. Meas.
SENSORI E RETI DI SENSORI
59, 238-246 (2010).
Il criterio per la scelta del metodo per stimare i valori del misurando nel caso di Roma Tor Vergata in collaboramisure ripetute non è trattato con chia- zione con Linköping (Svezia)
rezza nella Guida all’Espressione dell’In- nel campo dei sensori analitici
certezza di Misura (GUM). Gli autori per sostanze alimentari
prospettano che ciò sia dovuto a man- L. Tortora9a, M. Stefanellia, M. Macanza di una chiara distinzione tra i con- stroiannia, L. Lvovaa, C. Di Nataleb,
cetti d’incertezza di definizione e di A. D’Amicob, D. Filippinic, I. Lundacquisizione. Mentre una distinzione tra strömc, R. Paolessea: The hyphenale due non è necessaria quando il model- ted CSPT-potentiometric analylo di misura è lineare, può diventare cri- tical system: an application for
tica quando il valore della quantità misu- vegetable oil quality control,
rata è risultato di una funzione non linea- Sensors and Actuators B – Chemical.
re. Dunque, nel lavoro sono confrontati i La ricerca nel settore dei sensori analitidue metodi raccomandati nella GUM ci per l’identificazione di sostanze aliper la stima di un misurando risultante da mentari è più che mai attiva in Italia,
una funzione di una singola quantità anche in collaborazione con prestigiosi
d’ingresso; ciò porta ad alcuni criteri per istituti Universitari e imprese esteri. I
selezionare il metodo più opportuno ricercatori di Tor Vergata hanno utilizzasulla base del rapporto tra incertezza di to la “computer screen photo-assisted
technique” (CSPT) per lo sviluppo di un
definizione e di acquisizione.
array di sensori ottico-potenzometrico,
Filtraggio di segnale in nodi di basato su materiali profirinoidi dispersi
in membrane di PVC. Gli strati sensibili
sensori autonomi da Brescia
A. Depari, A. Flammini8, D. Marioli, M. sono stati depositati su vetrini di ITO
Serpelloni, E. Sisinni, A. Taroni: Efficient (indium tin oxide), che costituivano gli
Sensor Signal Filtering for Autono- elettrodi, al fine di eseguire misure
mous Wireless Nodes, IEEE Trans. potenziometriche e ottiche di cromofori.
Il comportamento dei sensori, sperimenInstrum. Meas. 59, 229-237 (2010).
Le reti di sensori wireless sono oggi una tato dapprima su analiti campione, è
realtà. Tuttavia, un nodo wireless dev’es- stato poi sperimentato per la discriminasere un vero e proprio sistema autono- zione di oli di oliva da oli di semi. I risul-
▲
tromagnetic
Emissions From Synchronous Generators and
its Metrological Characterization,
IEEE
Mariscotti Trans. Instrum. Meas. 59,
450-457 (2010).
Viene studiata una classe di macchine
elettriche, cioè i generatori sincroni, con
ampio uso per la produzione di energia.
Le emissioni e.m. vengono valutate sui
risultati di campagne di misura, insieme
alla caratterizzazione metrologica; il
rapporto S/N, incertezza, la riproducibilità e la ripetibilità sono valutate in
diverse condizioni di esercizio, posizioni
di misura e generatori sotto test.
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
tati dimostrano che i sistemi ifenati costituiscono un deciso passo in avanti
rispetto a sensori singoli di tipo sia
potenziometrico che ottico.
Amplificatori lock-in per sensori di gas da L’Aquila e Roma
A. D’Amico, A. De Marcellis10, C. Di
Carlo, C. Di Natale, G. Ferri, E. Martinelli, R. Paolesse, V. Stornelli: Low-voltage low-power integrated analog lock-in amplifier for gas sensor applications. Sensors and Actuators B: Chemical 144, 400-406 (2010).
Viene proposto un amplificatore lock-in
a bassa tensione (±1 V) e potenza
(3 mW), prodotto in tecnologia standard
CMOS (AMS 0,35 µm) con caratteristiche analogiche e usato per applicazioni
a sensori di gas a bassa frequenza. L’architettura lock-in proposta, che lavora a
una frequenza fissa del segnale d’ingresso (77 Hz) con basso rumore (solo
34 nV/(sqrt(Hz)) @ 77 Hz), può essere
utilizzata per rivelare quantità molto piccole di gas reagenti, specie se combinata con altre tecniche. Il sensore è stato
montato su un singolo chip con area
ridotta (circa 5 mm2). I risultati sperimentali hanno confermato la capacità
della soluzione proposta di rivelare
segnali molto bassi, nel caso di sensori
di gas è dimostrata la capacità di rivelare concentrazioni inferiori a 1 ppm.
1
INRIM—Fluid Dynamics Unit c/o DIASP,
Politecnico di Torino.
E-mail: [email protected]
2 DISPEA, Politecnico di Torino
3 Dip. Elettronica & Telecomunicazioni,
Università di Firenze
4 Dip. Ingegneria Elettronica, Università di
Roma Tor Vergata
5.ON Energy Research Center, RWTH
Aachen University, Germania
6 Dip. Ingegneria Elettrica, Università di
Genova
7 DISI, Università di Trento
8 Dip. Elettronica per l’Automazione, Università di Brescia
9 aDip. Scienze e Tecnologie Chimiche,
Università di Roma Tor Vergata; bDip.
Ingegneria Elettronica, Università di Roma
Tor Vergata; cDiv. of Applied Physics,
Dept. of Physics, Chemistry and Biology,
Linköping University, Svezia
10 Dip. Ingegneria Elettrica e Informazione, Università dell’Aquila
T_M ƒ 89
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure ([email protected])
Notizie da Enti
e Associazioni
dal mondo delle misure, della strumentazione e delle Norme
te tecnologici ai più “tradizionali” (tessile, costruzioni, calzaturiero, ecc.).
L’obiettivo strategico di NMP è sostenere la trasformazione del settore produttivo europeo, favorendo il passaggio da un’industria ad alta intensità di
RIASSUNTO
risorse ad un sistema industriale basaQuest'articolo contiene tutte le notizie recenti degli Enti e delle Associazioto sulla conoscenza. Una particolare
ni nell’ambito delle misure e della strumentazione. Aiutateci a mantenere
attenzione, all’interno del bando, è
aggiornate le notizie inviandole al Direttore!
rivolta alle piccole e medie imprese
(PMI) con progetti a loro dedicati.
AIPND - ASSOCIAZIONE ITALIANA approfondire contenuti e applicazio- www.apre.it/ricerca-europea/
VIIPQ/Cooperazione/NMP/
PROVE NON DISTRUTTIVE
ne del documento UNI TR 11331.
(WWW.AIPND.IT)
Il gruppo di lavoro GL1 UNI "Sistemi Bandi.htm
di gestione ambientale" in collaboraL’Associazione Italiana Prove non zione con ACCREDIA ha infatti realizDistruttive Monitoraggio Diagnostica zato un rapporto tecnico - UNI TR COMITATO ELETTROTECNICO
– AIPnD – è un’organizzazione a 11331, che rivede il documento Sin- ITALIANO (CEI) (www.ceiuni.it)
carattere scientifico, culturale e pro- cert RT-09 e raccoglie le principali
fessionale, senza fini di lucro. É stata indicazioni per favorire la migliore Premio CEI – Miglior Tesi di Laufondata nel 1979, si colloca tra le pri- comprensione dei requisiti dell’UNI rea (In palio 2.600 € per 3 Tesi
missime nel mondo nel suo settore e EN ISO 14001 e di conseguenza la di laurea) 14 gennaio 2010
annovera Soci appartenenti a circa maggiore uniformità di applicazione Il Premio CEI – Miglior Tesi di Laurea,
1000 Aziende, Istituti, Centri di Ricer- in Italia, fondendo le competenze spe- giunto quest’anno alla sua XV edizioca, Organizzazioni, Scuole, Universi- cifiche sugli aspetti tecnici e su quelli ne, è stato istituito allo scopo di stità, Studi Professionali, Società Produt- della certificazione. Per informazioni: molare la ricerca in ambito accadetrici e venditrici di strumentazione e www.accredia.it/events_detail. mico sui temi legati all’attività normaprodotti PnD e di Società di Servizi jsp?IDAREA=11&ID_EVENT=50 tiva nei settori elettrotecnico, elettronico e delle telecomunicazioni.
PnD.
&GTEMPLATE=default.jsp
Possono partecipare al bando i lauNorme
reati e laureandi (laurea magistrale
È possibile scaricare dal sito, all’indirizzo
vecchio ordinamento o laurea speciaAPRE
–
AGENZIA
PER
LA
www.aipnd.it/files/normativa.
listica) delle Cattedre nazionali delle
pdf, l’elenco aggiornato delle norme in PROMOZIONE DELLA RICERCA
seguenti Facoltà: Scienze dell’ingeEUROPEA
(www.apre.it)
materia di prove non distruttive.
gneria edile, civile, ambientale, induBandi in Nanoscienze, nanotec- striale, dell’informazione, Scienze
nologie, materiali e nuovi pro- giuridiche e dei servizi giuridici,
ACCREDIA (GIÀ SINAL, SINCERT)
Scienze dell’economia e della gestiocessi di produzione
(www.accredia.it)
Il programma di Lavoro 2010 presen- ne aziendale, Scienze e tecnologie
ta al suo interno l’importante novità chimiche, Scienze e tecnologie inforMilano - Atti del convegno
Il 29 gennaio 2010, ACCREDIA e delle Public Private Partnership che matiche, Scienze economiche e Scienze politiche.
UNI hanno organizzato l'incontro di hanno topics correlati all’iniziativa.
aggiornamento: Sistemi di gestio- All’interno del più ampio 7° Program- Il premio si rivolge a tesi dedicate in
ne ambientale. Nuove norme e ma Quadro di Ricerca e Sviluppo Tec- modo esplicito e diretto a sviluppare e
nologico dell’Unione Europea, la approfondire tematiche connesse alla
regolamenti tecnici.
Hanno partecipato organizzazioni tematica NMP è probabilmente quella normazione tecnica nazionale, comucertificate UNI EN ISO 14001, orga- che coinvolge la più vasta tipologia nitaria ed internazionale, anche con
nismi di certificazione accreditati, d’imprese e settori produttivi, da quel- riferimento alle ricerche preparatorie
ispettori, auditor, consulenti per li ad alto valore aggiunto e fortemen- per garantire il rispetto della regola
NEWS FROM INSTITUTES AND ASSOCIATIONS
This article contains an overview of all the recent news from Measurementrelated Institutes and Associations. Please help us to feed the content of the
article by sending all pertinent news to the Director!
T_M
N.
2/10 ƒ 91
dell’arte. Le tesi potranno interessare
tutti i campi di applicazione della normativa: da quello strettamente tecnico
o tecnologico, alle conseguenze sul
piano giuridico, economico, sociale,
storico, urbanistico, dei rapporti internazionali, dei costumi, ecc. ed essere
state discusse e conseguite tra l’1-122009 e il 15-12-2010.
Il CEI darà riconoscimento ufficiale a 3
Tesi di Laurea con un gettone di €
2.600,00 ciascuna. I tre vincitori saranno avvisati entro la fine dell’anno e verranno premiati in occasione di una cerimonia ufficiale nel corso di un momento pubblico rilevante del settore.
Il bando del Premio CEI – Miglior Tesi
di Laurea 2010 XV edizione è scaricabile dal sito www.ceiweb.it alla
voce “Prima Pagina > Premi CEI”.
Per ulteriori informazioni: Segreteria
Organizzativa del Premio CEI – Miglior
Tesi di Laurea, Via Saccardo 9 –
20134 Milano, Tel. 02 21006.231, E-
T_M ƒ 92
N. 02ƒ
; 2010
▲
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
mail: [email protected] sono fornite per un funzionamento
sicuro della lampada; esse devono
Nuova pubblicazione CEI in essere considerate normative quando
materia di apparecchi d’illumi- si prova un apparecchio d’illuminanazione (da CEI Magazine di zione in conformità alla presente
Aprile, scaricabile dal sito norma”.
www.ceiweb.it)
La conseguenza dell’introduzione di
La recente pubblicazione della nona questa modifica è che tutte le indicaedizione della Norma CEI EN 60598- zioni per una corretta progettazione
1:2009 ha introdotto molti cambia- degli apparecchi d’illuminazione
menti nel progetto e nella realizzazio- diventano vincolanti per la conformità
ne degli apparecchi d’illuminazione. dell’apparecchio d’illuminazione.
Molte sono le prescrizioni che i Il CEI, in considerazione della comcostruttori dovranno valutare per ade- plessità dell’argomento e della framguare i propri prodotti e per proget- mentarietà delle informazioni contetarne di nuovi. Tra queste il paragrafo nute in molte norme di lampada, ha
0.4.2 “Generalità sulle prove”: “In pubblicato la Guida CEI 34-119 che
accordo con le guide IEC, le nuove raccoglie in un documento tutti gli elenorme IEC sono divise in norme menti per una corretta valutazione. La
riguardanti la sicurezza e le norme “guida per la progettazione degli
riguardanti le prestazioni. Nelle apparecchi d’illuminazione – informanorme di sicurezza delle lampade, le zioni per il funzionamento sicuro e
informazioni per la progettazione corretto delle sorgenti luminose” è la
degli apparecchi d’illuminazione prima guida pubblicata dal CT 34 del
N. 02ƒ
;2010
IAEA - INTERNATIONAL ATOMIC
ENERGY AGENCY (IAEA)
(www.iaea.org)
Nuovo manuale: IAEA TRS 472 Handbook of Parameter Values
for the Prediction of Radionuclide Transfer in Terrestrial and
Freshwater Environments
disponibile su:
www-pub.iaea.org/MTCD/
publications/PubDetails.asp?
pubId=8201
Nuovo
documento:
Rapid
determination of Pu isotopes &
Am-241 in soil & sediment
Pubblicato sul sito IAEA il documento
"A procedure for the Rapid Determi-
■
CEI “Lampade e relative apparecchiature” ed è stata elaborata da uno specifico gruppo di lavoro.
Essa è costituita da 6 sezioni, ognuna
delle quali riporta il testo delle “Informazioni per la progettazione degli
apparecchi d’illuminazione” contenute nelle norme di sicurezza, per ogni
specifico tipo di lampada:
• Sezione 1
lampade a incandescenza
• Sezione 2
lampade ad alogeni per sostituzione
lampade a incandescenza
• Sezione 3 – lampade ad alogeni
• Sezione 4
lampade fluorescenti a doppio attacco
• Sezione 5
lampade fluorescenti ad attacco singolo
• Sezione 6
lampade a scarica, escluse le fluorescenti.
La Guida include 7 allegati che contengono i requisiti prestazionali per un corretto funzionamento delle lampade all’interno degli apparecchi d’illuminazione,
derivati dalle Norme di prestazione.
La Guida CEI 34-119 è disponibile
presso tutti i punti vendita CEI e il CEI
WebStore al prezzo di € 75,00
(prezzo Soci € 60,00).
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
nation of Pu isotopes and Am-241 in
soil and sediment by Alpha Spectrometry" (IAEA AQ/11): www-pub.
iaea.org/MTCD/publications/
PDF/IAEA-AQ-11_web.pdf
Nuovo document: Rapid determination of Po-210 in water
samples by Alpha Spectrometry
Pubblicato sul sito IAEA il documento "A procedure for the Rapid Determination of Po-210 in water Samples by Alpha Spectrometry" (IAEA
AQ/12)
www-pub.iaea.org/MTCD/
publications/PDF/IAEA-AQ-12_
web.pdf
ISO – INTERNATIONAL
STANDARD ORGANIZATION
(www.iso.org)
New ISO RFID standard will
help trace products in the
supply chain - 2010-02-12
For reasons of safety and reliability,
the importance of being able to
trace products throughout the supply
chain has strongly increased in
recent years. The new ISO
17367:2009 standard will help
manufacturers and distributors to
track products and to manage their
traceability thanks to standardized
RF tags.
Traceability is defined as the tracking and tracing of product and
information related to it at each
stage of a chain of production, processing, distribution, and selling.
The development of radio frequency
identification (RFID), including peripheral devices and their applications, is indispensable for increasing
the safety and reliability of products
for consumers.
ISO
17367:2009,
Supply
chain applications of RFID –
Product tagging, defines the
basic features of RFID for use in the
supply chain when applied to product tagging.
ISPRA
(www.apat.gov.it)
Incertezza e analisi di conformità
Un nuovo documento di ISPRA contiene le linee guida (ad uso di Laboratori che effettuano attività di monitoraggio e controllo ambientale) per l'analisi di conformità con i valori di legge,
mettendo in evidenza come l'incertezza di misura, calcolata in conformità
ai principi generali dell’UNI13005:2000 e associata a risultati
analitici, rappresenti uno strumento
indispensabile per la valutazione di
conformità, nei casi in cui la norma di
riferimento non dia indicazioni sulle
regole decisionali da adottare.
w w w. a p a t . g o v. i t / s i t e / _
contentfiles/00157200/
157285_mlg52_2009.pdf
UNI – ENTE NAZIONALE
ITALIANO DI UNIFICAZIONE
(www.uni.it)
Progetti di norma EN e ISO in
inchiesta pubblica: ecco la
banca dati online
Per tutti gli utenti del sito internet è ora
online un nuovo servizio. Si tratta
della banca dati dei progetti di norma
EN: una fonte d’informazione particolarmente importante perché fornisce
una visione costantemente aggiornata
dei lavori normativi in atto in ambito
europeo.
I Soci effettivi UNI hanno la possibilità, attraverso le pagine della propria
Area Riservata, di consultare e scaricare gratuitamente – in formato PDF –
tutti i testi dei progetti di norma EN e
ISO in fase d’inchiesta pubblica.
Chi non è socio può invece acquistare i progetti di norma EN e ISO contattando l’Ufficio Diffusione:
fax 02 5515256
Email: [email protected].
I progetti EN e ISO in inchiesta pubblica possono essere acquistati contattando l’Ufficio Diffusione: fax 02
5515256
email: [email protected].
Tutto su: http://catalogo.uni.
com/pii/ricerca.html
T_M ƒ 93
▲
TRASFERIMENTO TECNOLOGICO
IL
TEMA
Franco Docchio
Il trasferimento
di tecnologia
tra Università e Impresa per l’innovazione tecnologica – I
TECHNOLOGY TRANSFER BETWEEN UNIVERSITY
AND INDUSTRY IN THE ROADMAP TO INNOVATION – PART I
This first article of a series is intended to stimulate the interaction between
University and Industry through Technology Transfer, as a tool to promote
technological innovation and to disseminate research results in a way that
can be fruitful for the economic and industrial system. The concept of Technology Transfer is here illustrated, and the various tasks that compose it
highlighted.
RIASSUNTO
Questo primo articolo di una serie intende stimolare l’interazione tra Università/Centri di Ricerca e Imprese attraverso il meccanismo del Trasferimento Tecnologico, come strumento per la promozione dell’innovazione tecnologica e per la disseminazione dei risultati di ricerca in una modalità che
arricchisce il sistema economico e industriale. S’illustra qui il concetto di
Trasferimento Tecnologico e si delineano le varie fasi che lo compongono.
TRASFERIRE PER COMPETERE
Uno dei compiti che questa rivista
intende assolvere è quello di stimolare
l’interazione tra Università/Centri di
Ricerca e Imprese, con riferimento al
settore delle misure, della strumentazione e dei sensori. La collaborazione
tra un’Università moderna e una rete
di Imprese nel territorio è una delle
chiavi che, da un lato, consentono
all’Università di qualificarsi ben altro
che semplice “fabbrica di laureati”
(critica che le viene mossa da più
parti, soprattutto dopo l’introduzione
del doppio livello di Laurea). Dall’altro essa consente alla rete delle
Imprese di compiere il proprio viaggio verso un’innovazione di prodotto
e di processo che le mettano in grado
di competere a livello globale.
La collaborazione Università-Impresa
si esplicita principalmente in due
modalità:
• La ricerca applicata, in altre parole
l’esecuzione di ricerche d’interesse
aziendale in Università in modalità
congiunta o anche solo a carico dell’Impresa, con successivo trasferimento dei risultati all’Impresa committente.
È questa la modalità di lavoro più
conosciuta e più sfruttata dalle Impre-
zazione di beni tangibili e servizi.
Nella fattispecie del Trasferimento Tecnologico dall’Università alle Imprese,
esso è l’insieme di azioni, anche complesse, che portano dalla produzione
di PI, da ricerche di base o applicate,
alla sua divulgazione agli organi
competenti dell’Ateneo, alla sua valutazione, alla ricerca di partner interessati al trasferimento, alla stipula di
accordi di sfruttamento con relative
royalties, alla brevettazione e alla
difesa della PI e al successivo followup.
La Proprietà Intellettuale è uno dei principali asset (beni) intangibili dell’Università. Spesso trascurato dalle Università Italiane in nome del principio che
“l’Università deve produrre cultura
accessibile a tutti”, questo bene sta
acquisendo sempre maggiore importanza alla luce di due aspetti: la sempre
maggiore carenza di fondi all’Università, che comporta sempre più la necessità di fonti alternative di finanziamento
e una mutata sensibilità (anche se ancora in embrione) dell’Impresa verso la
figura dei Docenti e dei Ricercatori universitari come attori del processo di trasformazione tecnologica. Brevetti,
royalties, start-up, spin-off, Liaison Offices: sono tutti termini che stanno entrando sempre più nel lessico quotidiano
dei Ricercatori Universitari e popolano i
dibattiti sui rispettivi ruoli UniversitàImpresa.
Il settore delle Misure non può non
essere presente a questa “rivoluzione
culturale”. La comunità dei misuristi
universitari sta dunque lasciandosi pervadere da questo “vento dell’innovazione”, in alcune sedi maggiormente,
in altre in misura minore, ma ovunque
con un positivo trend d’interesse.
se (e più apprezzata dalle Università);
• Il Trasferimento Tecnologico, in altre
parole, secondo la semplice definizione di A.E. Muir, la “cessione d’invenzioni da un’entità a un’altra allo
scopo di commercializzazione e sfruttamento delle stesse”1.
Il termine “Trasferimento Tecnologico”, in Italia, sembra a volte usato
impropriamente,
forse anche alla
luce della ancor
bassa capacità
espressa
dalle
Università Italiane
di creare, valorizzare, negoziare e
difendere la sua Proprietà Intellettuale. Una definizione alternativa comune è “trasferimento pratico di una tecnologia all’interno dei processi di produzione industriale o di sviluppo di un
prodotto”2. Questa definizione è più
consistente con il concetto di ricerca
applicata (che innova un processo o
prodotto) che con quello di Trasferimento Tecnologico.
Il Trasferimento Tecnologico riguarda
dunque la commercializzazione di
Proprietà Intellettuale (PI), che si pone Direttore di Tutto_Misure
sullo stesso piano della commercializ- [email protected]
T_M
N.
2/10
T_M ƒ 95
N. 02ƒ
;2010
Con questa serie d’interventi (i prossimi verranno pubblicati nei numeri successivi) la Rivista vuole contribuire
alla presa di coscienza della mutata realtà da parte sia
delle Università e dei suoi Ricercatori sia delle Imprese,
nella speranza che questo contributo permetta di chiarire alcuni concetti, sfatare luoghi comuni o errori d’interpretazione, basandosi su quanto accade in Nazioni che
fanno del Trasferimento Tecnologico una vera e propria
leva verso l’innovazione.
LE FASI DEL TRASFERIMENTO TECNOLOGICO
Come qualunque altro processo di commercializzazione, immissione sul mercato e vendita di un prodotto, il
Trasferimento Tecnologico è il frutto di una ben definita
sequenza di eventi. Essi sono:
• L’individuazione di un atto inventivo;
• La sua comunicazione all’autorità Universitaria (divulgazione);
• La definizione della titolarità della Proprietà Intellettuale;
• La ricerca di partner interessati a negoziare l’acquisizione dei diritti di sfruttamento dell’invenzione;
• La negoziazione dei compensi sotto forma di royalties;
• La protezione dell’invenzione;
• La stipula dell’atto di cessione dello sfruttamento.
In questa lista, molti obietteranno, qualcosa non torna:
l’ordine delle voci. I più sono portati a pensare che la
fase brevettuale sia da porre prima della ricerca dei
partner. Questo è forse uno degli errori più eclatanti ed
è probabilmente la causa di una certa disaffezione da
parte delle Università che, dopo aver soddisfatto i Ricercatori nella loro richiesta di proteggere qualsiasi invenzione, stanno tornando sui loro passi sfiduciate dalla
mancanza di un adeguato ritorno degli investimenti fatti
per i depositi brevettuali. Questo ha come conseguenza
anche una perdita d’interesse (e di fiducia) da parte del
Ricercatore, stanti gli indubbi sforzi necessari per gestire un brevetto.
Andiamo con ordine, partendo dalla definizione dell’invenzione.
La definizione dell’invenzione
Un’Università è, in Italia come all’estero, la più “anarchica” delle istituzioni preposte alla Ricerca e Sviluppo. Al
suo interno i Ricercatori si muovono liberamente, quasi
sempre in maniera non coordinata dall’alto, e accedono
a fondi di ricerca pubblici o privati per loro iniziativa,
svolgendo ricerche di base e applicate. Ne consegue che
è il Ricercatore stesso ad “accorgersi” della validità dei
risultati della sua ricerca e della loro potenziale attrattività per il contesto industriale. Quindi la fase d’identificazione e definizione dell’invenzione parte sempre dal
Ricercatore. In questa fase, il Ricercatore, per essere convincente nella successiva fase di comunicazione, dovrebbe aver chiara la dimensione di novità dell’invenzione
rispetto allo stato dell’arte nel settore.
43. verticale
Azienda leader di strumenti
e sistemi di misura...
se cercate
la soluzione giusta
per risolvere
qualsiasi problema
di misura e controllo,
voltate pagina!
T_M ƒ 97
N. 02ƒ
; 2010
▲
IL
TEMA
La comunicazione
dell’invenzione
Il Ricercatore, definita l’invenzione, la
comunica alle strutture preposte per la
loro gestione: le Commissioni di Ateneo per i Brevetti o i Centri di Trasferimento Tecnologico, ove esistenti.
Nei Regolamenti Brevetti delle varie
sedi è spesso presente la dicitura “Il
Ricercatore è tenuto a comunicare…”,
segno della crescente attenzione alla
Proprietà Intellettuale da parte delle
Amministrazioni.
La valutazione dell’invenzione
Definita l’invenzione e comunicatala
all’Amministrazione, ha inizio la fase
di “valutazione” dell’invenzione.
Questa, in alcune sedi, avviene a
carico dello stesso Ricercatore; in
altre, è curata direttamente dagli
organi tecnici preposti, che possono
essere affiancati da esperti esterni. In
questa fase vengono definiti, spesso
in modo approssimato, il potenziale
di sfruttamento dell’invenzione e la
sua commerciabilità.
La definizione della titolarità
della Proprietà Intellettuale
e del Diritto al Brevetto
In Italia, come vedremo
in uno dei prossimi
numeri, il Decreto Legislativo 10.02.2005, n.
30 (Codice della Proprietà Intellettuale) assegna in prima istanza al
Ricercatore Universitario
il Diritto al Brevetto di
una sua invenzione. Il Ricercatore ha
dunque la Facoltà di depositare l’invenzione a proprie spese. Tuttavia, nel
caso che il deposito a titolo personale
non sia di suo interesse o alla sua portata, egli può cedere all’Università la
proprietà intellettuale e il Diritto al Brevetto, fatto salvo il suo diritto a venire
menzionato come inventore e a percepire una quota percentuale (variabile
da sede a sede) sui proventi della commercializzazione e delle licenze. In
questo caso sarà l’Università a prendersi carico delle fasi successive.
punto che partono le operazioni per il
deposito del Brevetto. Negli USA no. La
ragione è semplice: la mole di richieste
di Brevetti da parte degli inventori è
incompatibile con le disponibilità di
bilancio per Brevetti delle Amministrazioni o dei loro Centri di Trasferimento
Tecnologico. A questo si aggiunge il
fatto (non trascurabile) che solo meno
del 30% delle invenzioni porta utili,
l’80% dei quali derivano da poche,
significative invenzioni. Dunque, le Università americane subordinano spesso
il deposito del Brevetto alla stesura di
un accordo di commercializzazione
con un partner e questo avviene solo a
valle delle due fasi che seguono. Fanno
eccezione i casi in cui esista un’Impresa già da subito disposta ad accollarsi
le spese brevettuali (è questo il caso di
un potenziale start-up o spin-off).
Questo modo di procedere può funzionare, in verità, con strutture di Trasferimento Tecnologico consolidate. In
Italia, stante anche la sostanziale
“giovinezza” del sistema di Trasferimento Tecnologico Universitario, il
deposito (in via cautelativa) di un
primo Brevetto Italiano può essere un
primo passo utile per una protezione
dell’invenzione a monte della negoziazione.
Ricerca del Partner
La ricerca dei Partner avviene, almeno negli USA, mediante divulgazione
dei contenuti di massima dell’invenzione attraverso opportuni strumenti
(lettere, fiere del Trasferimento Tecnologico, web, newsletter). Ciò che
viene divulgato a questo stadio non
dischiude l’invenzione (se il Brevetto
non è ancora stato depositato). É
un’attività che le Università italiane
fanno ancora in misura insufficiente e
lasciano spesso in carico al Ricercatore. Questi si trova così nella duplice
veste d’inventore e commerciale, trovandosi spesso impreparato.
La ricerca di un partner può essere un
processo lungo e faticoso: è opportuno
indirizzare la richiesta al maggior numero di Imprese, poiché la percentuale di
quelle che si dimostrano interessate è
generalmente bassa e la percentuale, tra
Brevetto o non brevetto?
queste ultime, di Imprese che lo siano
Convenzionalmente, in Italia è a questo veramente, è ancora inferiore.
T_M ƒ 98
La fase di ricerca di partner è, per le
Università che non dispongono di un
Ufficio di Trasferimento Tecnologico,
demandata a Società esterne o broker di proprietà intellettuale.
Negoziazione dell’invenzione
La negoziazione dell’invenzione è
ovviamente la fase più critica di tutte
le fasi del Trasferimento Tecnologico.
Nell’accezione più comune essa consiste nella definizione delle condizioni
per cui l’Impresa ottiene una licenza,
esclusiva o non esclusiva, per lo sfruttamento commerciale e industriale
dell’invenzione. Si parla qui di licenza di sfruttamento, non di cessione
della proprietà intellettuale (brevettata
o non): quest’ultima dovrebbe restare
patrimonio dell’Università e non essere alienata (salvo casi eccezionali).
La negoziazione dovrebbe avvenire
con Imprese selezionate tra quelle che
hanno risposto positivamente. Deve
essere sempre preceduta dalla stipula
di un Accordo di Segretezza (NDA,
in inglese), dove le parti si impegnano a non divulgare particolari dell’oggetto della trattativa a terzi e a
non utilizzarli per uso interno se non a
ciò autorizzati dal successo nella
negoziazione.
Università e Imprese hanno obiettivi
radicalmente diversi: le prime hanno
come obiettivo prioritario l’avanzamento del sapere e della conoscenza,
non un ritorno economico dei risultati
della ricerca. Le Imprese, viceversa,
hanno nel ritorno economico della
propria attività la loro ragione di vita.
Dunque non è infrequente che una
fase di negoziazione UniversitàImpresa sia viziata, da parte universitaria, dalla reale incapacità a negoziare in modo opportuno l’invenzione. Questo avviene in particolar
modo se è il Ricercatore stesso a esser
incaricato dall’Università di negoziare con l’Impresa. In uno dei prossimi
articoli tratteremo più in dettaglio questo aspetto.
Ora, il Brevetto
Nell’accezione canonica, l’avvenuta
negoziazione dell’invenzione e la successiva stipula di un accordo di sfruttamento dell’invenzione, di tipo esclusivo
N. 02ƒ
;2010
o non esclusivo, sono i prodromi per il deposito del Brevetto. Se, come detto poc’anzi, il deposito di un Brevetto
Italiano viene considerato come una modalità necessaria
di protezione preliminare alla negoziazione, questo è il
momento di estendere all’estero il Brevetto, per dargli un
maggiore spessore.
Start-up o non start-up?
La creazione, incubazione e promozione di società di
start-up sono considerate in modo sempre crescente obiettivi dell’Università. Molti Atenei si sono dotati d’incubatori tecnologici, hanno emanato Regolamenti e promuovono
gli start-up a livello del territorio. Gli start-up dell’Università entrano a buon diritto nel flusso del Trasferimento Tecnologico, come vedremo in seguito. Infatti se un Ricercatore, titolare di un’invenzione, vuole sfruttare in proprio
l’invenzione a fini commerciali, ha la possibilità di intraprendere un’attività imprenditoriale creando uno start-up.
L’Università di appartenenza può decidere di entrare nella
compagine sociale e allora si parla di Start-up universitario; in caso contrario si parla di Start-up accademico.
I regolamenti per gli Start-up, in genere, sanciscono un
diritto di prelazione dello start-up all’interno dei possibili candidati alla negoziazione di un’invenzione. É peraltro vero che, in termini generali, i partner commerciali
più ambiti da un’Università per la commercializzazione
di proprietà industriale sono Imprese consolidate: uno
start-up, se non supportato da un valido management e
da un solido piano industriale e di business, può costituire a tutti gli effetti un rischio. Ne è prova la decisione,
da parte di molti atenei, di ridurre il numero di nuove
start-up a fronte delle esperienze non proprio ottimali di
molte delle prime iniziative.
... la soluzione giusta è
CONTINUA…
Il Trasferimento Tecnologico è una serie consolidata e matura di procedure, almeno all’estero. L’Università Italiana si
affaccia al processo da poco tempo. Molto resta ancora
da fare, in due direzioni principali. La prima è quella di far
crescere i propri Ricercatori nella consapevolezza di essere parte del processo di sviluppo economico, non solo culturale, del Paese. La seconda, forse più importante, è quella dell’acquisizione, da parte delle Amministrazioni Universitarie, di una mentalità imprenditoriale volta a incrementare, valorizzare, promuovere e commercializzare la
propria Proprietà Intellettuale fuori da schemi tipici della
Pubblica Amministrazione. Le sfide, nella Società della
Conoscenza, ci attendono: dobbiamo saperle cogliere.
RIFERIMENTI
[1] Albert E. Muir: “The Technology Transfer System. Latham
Book Publishing, Latham, NY, 1997, Cap. 1
[2] Si veda, p. es., www.csmt.it
Dal micrometro alle Macchine di Misura
Ottiche e Multisensore 3D.
Da oltre 50 anni la soluzione giusta.
www.rupac.com
Via Alamanni, 14 - 20141 Milano - tel 02.53.92.212 r.a. - fax 02.56.95.321
[email protected]
▲
IL
TEMA
Paola Polito, Silvia Procacci, Stefano Canese
Il Consorzio In.Bio
Trasferimento tecnologico nel settore delle Biotecnologie
THE IN.BIO CONSORTIUM:
TECHNOLOGY TRANSFER IN BIOTECHNOLOGY
The main goal of the In.Bio Consortium is promoting and supporting the
start of new potential entrepreneurial initiatives in the field of Biotechnologies, including start-ups and spin-offs created to develop and transfer to the
market the results of R&D initiatives born inside research Centres. To this
aim, the Consortium offers to future entrepreneurs three incubators, plants
and technological equipment, scientific skills and technical-managerial support for start-up of innovative biotechnology enterprises, spin-offs included.
RIASSUNTO
Il Consorzio In.Bio ha come finalità principale la promozione e il sostegno dell’avvio di iniziative imprenditoriali innovative nel campo delle Biotecnologie,
incluse start-up e spin-off nate per sviluppare e trasferire sul mercato i risultati di
iniziative di RST&D maturate all’interno dei Centri di Ricerca. A tal fine mette a
disposizione dei potenziali imprenditori tre incubatori, dotazioni impiantistiche
e tecnologiche di avanguardia, competenze scientifiche e supporto tecnicogestionale per lo start-up di imprese innovative biotecnologiche, inclusi spin-off.
UN NUOVO CONSORZIO
PER L’INNOVAZIONE
E IL TRASFERIMENTO
Il “Consorzio per la creazione di Incubatori di imprese innovative Biotecnologiche – In.Bio”, costituito nel dicembre del 2006 per l’attuazione del Progetto “Creazione di incubatori d’impresa innovativa nel campo delle Biotecnologie”[1], ha come finalità principale
la promozione e l’avvio di iniziative
imprenditoriali innovative operanti nel
campo delle Biotecnologie, incluse startup e spin-off nate per sviluppare e portare sul mercato risultati di iniziative di
RST&D maturate all’interno dei Centri di
Ricerca. Il Consorzio mette a disposizione dei potenziali imprenditori, nelle
fasi di costituzione e avvio di nuove
realtà imprenditoriali, gli incubatori di
pertinenza dei partner scientifici del
Consorzio stesso: prestigiose infrastrutture tecnico-scientifiche e competenze
qualificate. In.Bio costituisce, quindi, un
importante punto di riferimento infrastrutturale, tecnico-scientifico, organizzativo e manageriale nell’offerta di servizi tecnologici avanzati e specialistici
nei confronti degli operatori del settore.
La disponibilità di tali grandi infrastrutture e di qualificate professionalità tende a stimolare l’emersione e lo
sviluppo di nuove idee progettuali. Il
Consorzio seleziona le idee migliori
dopo aver realizzato studi di fattibilità tecnica, economica e finanziaria
basati su criteri quali il valore scientifico del Progetto, il potenziale del
mercato di riferimento, i costi di sviluppo, le effettive esigenze di finanziamento e un’approfondita valutazione tecnologica delle stesse.
Il Consorzio supporta le iniziative selezionate nella predisposizione di Business Plan analitici e analisi di mercato
più approfondite per una valutazione
oggettiva delle possibilità di successo,
basata sui criteri di brevettabilità e protezione della proprietà intellettuale,
analisi del mercato di riferimento, valutazione economico-finanziaria e analisi
delle possibili soluzioni alternative.
Le imprese selezionate e ospitate negli
incubatori, durante la fase di avvio
della loro attività, possono usufruire dei
servizi di consulenza e assistenza forniti dal Consorzio: verifiche tecnico-eco-
T_M
nomiche dei processi produttivi, tutoraggio e temporary management, reperimento di venture capital e risorse agevolate a livello locale, nazionale e internazionale, attività di marketing, ecc.
L’assistenza organizzativa alle neo
imprese consente di garantire loro una
corretta valutazione del portafoglio brevetti e la definizione di una conseguente strategia brevettuale, nonché l’implementazione dei progetti di ricerca o la
valorizzazione degli stessi attraverso
accordi con altri enti di ricerca e contratti con imprese industriali, unitamente
alla ricerca di partner industriali sul territorio regionale e nazionale.
Un’altra attività del Consorzio è la formazione, che prevede sia iniziative specifiche di aggiornamento delle competenze dei ricercatori e degli operatori
scientifici delle imprese in incubazione,
sia attività rivolte ai neo imprenditori,
creando occasioni di incontro e di scambio di esperienze con i colleghi di altri
Centri di Ricerca e di altri incubatori e di
partecipazione a forum specialistici.
I PRIMI RISULTATI
Le attività di scouting fino a oggi realizzate hanno permesso di individuare
diverse idee innovative relative ad
applicazioni biotecnologiche in campo
agro-alimentare, industriale, ambientale e biomedico, sottoposte ai successivi
studi tecnico-economici di fattibilità. Il
Consorzio, dopo le prime fasi di valutazione, ha individuato per ogni idea
progettuale le migliori modalità di trasferimento tecnologico e di valorizzazione economica, anche alternative
all’incubazione. In tale ottica il Consorzio ha partecipato alla elaborazione di
diverse nuove proposte progettuali a
ENEA - C.R. Casaccia
[email protected]
N.
2/10 ƒ 101
valere su fondi sia nazionali sia europei. Fra queste, la proposta progettuale
MAN-GMP-ITA (Validation of risk
management tools for genetically modified plants in protected and sensitive
areas for Italy), presentata al bando
LIFE+ della UE, è risultata ammissibile al
finanziamento (a fronte di circa 1 200
candidature presentate).
Con riferimento a una richiesta di finanziamento formulata per il progetto
ECOVIA, a valere sul Bando della Regione Lombardia “Sviluppo della Competitività 2008” (L.R. 1/2007), il progetto è
stato selezionato tra le iniziative finanziate dalla Commissione valutatrice.
Il Consorzio In.Bio, inoltre, ha collaborato con ENEA nell’elaborazione
dei Progetti Esecutivi di due programmi presentati nell’ambito del Bando
Industria 2015 - Nuove Tecnologie per il Made in Italy/Sezione Alimentare; in particolare uno
T_M ƒ 102
N. 02ƒ
; 2010
▲
IL
TEMA
di questi, il progetto ORTOFRULOG
- “Piattaforma logistica innovativa per
le produzioni ortofrutticole destinate
ai mercati interni ed esteri”, è stato
ammesso al finanziamento.
Il Consorzio In.Bio, in stretta collaborazione con ENEA, è impegnato nella
valorizzazione di un recente Brevetto
depositato da ricercatori dell’Agenzia
e concernente “Vaccini basati su chimere genetiche tra antigeni virali e/o
tumorali e proteine vegetali”. Le valutazioni in corso riguardano sia la possibilità di ottenere finanziamenti, nazionali o europei, per attuare uno specifico progetto di ricerca e sviluppo, sia
verificare le migliori opportunità per
l’eventuale costituzione di un’impresa
spin off, supportata dallo stesso ENEA.
Infine, il Consorzio In.Bio ha collaborato con lo spin-off ENEA intriga
S.r.l., società di servizi in campo ambientale e agricolo, nella presentazione
di una proposta progettuale nell’ambito
di un recente bando promosso dal Ministero dello Sviluppo Economico, a favore delle imprese start-up.
GLI ENTI CONSORZIATI IN IN.BIO
La compagine sociale del Consorzio è
articolata in modo funzionale al raggiungimento degli obiettivi del Progetto
sulla base delle competenze che ognuno può apportare in termini di conoscenze e infrastrutture scientifiche e tecnologiche (laboratori ed impianti sperimentali, brevetti, patrimonio progetti),
di supporto organizzativo e finanziario, di relazioni e collegamenti con le
realtà imprenditoriali a livello locale,
nazionale e internazionale.
Il Consorzio è costituito da:
• ENEA - Agenzia nazionale per le
nuove tecnologie, l’energia e lo svi-
N. 02ƒ
;2010
luppo economico sostenibile, il cui settore Biotecnologie, Agroindustria e
Protezione della Salute svolge attività
di RST&D finalizzate a promuovere e
sostenere lo sviluppo e la competitività del sistema produttivo agro-alimentare e agro-industriale e a fornire
risposte scientifiche ai problemi derivanti dall’impatto antropico e tecnologico sulla salute e sull’ambiente.
• CRAB - CONSORZIO DI RICERCHE
APPLICATE ALLA BIOTECNOLOGIA,
che svolge attività di sviluppo e ottimizzazione di processi e prodotti biotecnologici, analisi chimiche, biochimiche e microbiologiche, produzioni
di microorganismi, vitamine e proteine da matrici naturali e formazione
nei settori agroalimentare, ambientale
e farmaceutico.
• CRS - CONOSCENZA RICERCA
SVILUPPO SRL, società di consulenza
e organizzativa la cui missione è aiutare le aziende private e pubbliche a
migliorare i propri risultati nella prospettiva del mercato unico europeo.
• SVILUPPO ITALIA ABRUZZO, che
promuove, accelera e diffonde lo sviluppo produttivo e imprenditoriale
nella regione. È controllata da Sviluppo Italia, l’Agenzia nazionale per lo
sviluppo d’impresa e l’attrazione d’investimenti. Altri azionisti sono la
Regione, alcune CCIAA, Associazioni
industriali e Banche.
• CONFINDUSTRIA ABRUZZO, che è
l’espressione a livello regionale dei
quattro Territori provinciali e dell’Ance
Abruzzo ad essa aderenti. Confindustria si propone di contribuire, insieme alle istituzioni politiche e alle organizzazioni economiche, sociali e culturali, alla crescita economica e al
progresso sociale della Regione, predisponendo e sviluppando contestualmente sul territorio servizi utili alle
imprese.
• CONFINDUSTRIA BRINDISI, che
svolge il proprio ruolo di soggetto attivo dello sviluppo del territorio, stimolando la nascita di nuove piccole e
medie imprese e individuando nuove
opportunità imprenditoriali inerenti, in
particolare, i punti di eccellenza produttiva, di ricerca e innovazione tecnologica, realizzando incontri di sensibilizzazione sul territorio.
GLI INCUBATORI DEL CONSORZIO
Il Consorzio In.Bio mette a disposizione
tre grandi infrastrutture d’incubazione di
pertinenza dei consorziati che svolgono
attività di RST&D (ENEA C.R. Casaccia,
Centro Agrobiopolis di ENEA, C.R. Trisaia, CRAB), competenze qualificate e
servizi tecnologici avanzati. Tali Centri
operano in collegamento con una rete
di Centri di RST&D sia dei consorziati
sia di altre istituzioni convenzionate, per
un proficuo scambio di esperienze, professionalità e strumenti.
Il Centro Ricerche Casaccia, dove il
Consorzio In.Bio ha sede legale, è un
Centro di Ricerca, sviluppo, applicazione (anche con impianti dimostrativi) e
trasferimento di tecnologie innovative.
Le attività di ricerca e sviluppo vengono
svolte in collaborazione con centri di
ricerca e Università, con l'industria e
con enti regionali e locali nell'ambito di
programmi nazionali e internazionali.
Nel Centro sono presenti competenze
ad ampio spettro e avanzate infrastrutture impiantistiche e strumentali, che
operano a supporto dei programmi dell'Ente ma sono anche a disposizione
del mondo scientifico e imprenditoriale
locale e nazionale.
Il Centro Agrobiopolis, presso il C.R.
Trisaia (MT) dell’ENEA, costituisce un
Polo Tecnologico con valenza multidisciplinare ed è quindi un importante punto
di riferimento infrastrutturale e tecnicoscientifico nei confronti delle collaborazioni con il sistema privato, offrendo servizi tecnologici avanzati e specialistici e
favorendo all’interno del centro la presenza di laboratori di RST&D di imprese
e l’ospitalità di società di spin-off e startup. Agrobiopolis è articolato in tre aree
funzionali: il Complesso Impiantistico
Multifunzionale, i Laboratori Specialistici e il DemoCenter.
Quest’ultimo, collegato in rete con una
pluralità di soggetti operanti sul territorio,
Figura 2 – Il Centro Agrobiopolis
è l’area funzionale di Agrobiopolis dedicata principalmente alla diffusione e al
trasferimento dell’innovazione e all’offerta di servizi avanzati, dimostrazione,
informazione e formazione. Nell’ambito
del DemoCenter sono operativi, tra l’altro, sistemi per la formazione a distanza
attraverso una piattaforma di e-learning
che consente la fruizione di corsi di formazione erogati via internet, rivolti
innanzitutto ai ricercatori e agli operatori scientifici delle imprese incubate.
Il terzo incubatore del Consorzio è localizzato nel Centro di Ricerca del
CRAB che costituisce un Polo Tecnologico di valenza multidisciplinare, aperto
alle collaborazioni con soggetti pubblici
e privati. Il Centro è articolato in tre aree
funzionali, comprendenti: il Laboratorio
di Processo, i Laboratori Biochimico e
Figura 3 – La hall tecnologica
del Centro Agrobiopolis
Figura 4 – Il DemoCenter del Centro Agrobiopolis
Figura 5 – La hall tecnologica del CRAB
Figura 1 – Il Centro Enea – Casaccia
T_M ƒ 103
N. 02ƒ
; 2010
▲
IL
TEMA
Paola Polito, laureata in Economia e Commercio, è ricercatrice presMicrobiologico e il Laboratorio Elaboraso il Centro di Ricerche ENEA Casaccia di Roma dove svolge attività
zione Dati. I comparti di competenza
di studio ed elaborazione di dati tecnico-economici, di elaborazione
sono l’alimentare, l’agro-industriale,
di metodologie e predisposizione di proposte progettuali di trasferil’ambientale e il farmaceutico nell’ambimento dell’innovazione tecnologica e gestione di finanziamenti nazioto dei quali è attuata l’introduzione di
nali ed europei per la ricerca nel settore agro-alimentare e agro-induelementi d’innovazione nei sistemi prostriale, nonché della valorizzazione dei risultati di attività di ricerca e
duttivi attraverso attività sia di RST&D sia
sviluppo,
inclusa
la creazione di nuove imprese.
di lavorazione conto terzi.
PER L’INNOVAZIONE E L’HI-TECH
Il fine ultimo dell’iniziativa descritta è
quello di poter contribuire all’innovazione e alla crescita di un settore produttivo high-tech di importanza strategica per la competitività dell’industria italiana. Così come è strutturato, infatti, il
Consorzio In.Bio rende le istituzioni di
ricerca capaci di collaborare in modo
efficace con il mondo produttivo,
riuscendo altresì a individuare gli effettivi bisogni in termini di ricerca e sviluppo da parte delle imprese.
T_M ƒ 104
Silvia Procacci, laureata in Scienze Biologiche, è ricercatrice presso il Centro di Ricerche ENEA Casaccia di Roma, dove svolge indagini e studi relativi ai processi di trasferimento tecnologico e collabora alle attività di scouting e fund raising di idee progettuali nell’ambito del Consorzio In.Bio Ha prestato servizio presso i laboratori del
Centro, dove ha svolto attività di monitoraggio della condizione ecologica delle aree fragili costiere, eseguendo campagne di campionamento di acque e sedimento, nonché analisi chimiche, microbiologiche e zoologiche
dei campioni prelevati.
Stefano Canese, laureato in Scienze Biologiche, è ricercatore
presso il Centro di Ricerche ENEA Casaccia di Roma, dove si occupa di predisposizione di proposte progettuali e gestione di progetti
di ricerca industriale e sviluppo sperimentale nei settori agro-industriale e delle biotecnologie, oltre a partecipare ai processi di trasferimento tecnologico nell’ambito del Consorzio In.Bio.
▲
IL
TEMA
Intervista del Direttore al Dott. Magnino,
Responsabile del Business Angel Network (BAN), Brescia
Conosciamo
i Business Angels!
La rete IBAN per il finanziamento di imprese High-Tech
LET US INTRODUCE YOU THE BUSINESS ANGELS!
In the context of Technology Transfer, it is imperative to have access to Institutions, banks or even single businessmen that can provide adequate access
to funding for Start-ups. Tutto_Misure interviews Dr. Ferdinando Magnino, since 2004 head of the Business Angel Network of Brescia, who currently collaborates with the local Industrial Association to provide adequate
funding to entrepreneurial initiatives and Ideas.
RIASSUNTO
Nel contesto del Trasferimento Tecnologico la disponibilità di enti, di istituzioni o anche solo di singoli finanziatori è essenziale per consentire un adeguato accesso a finanziamenti per neoimprese. Intervistiamo qui il Dott.
Ferdinando Magnino, responsabile dal 2004 del Business Angel Network di Brescia, che collabora anche con l’Associazione Industriali della
Provincia di Brescia per consentire a iniziative di start-up un adeguato finanziamento delle idee imprenditoriali.
L’INTERVISTA
D.: Dott. Magnino, perché i
Business Angels e perché una
rete che li riunisce?
Era importante, per il tessuto imprenditoriale bresciano, avere un Network
di Business Angels (B.A.N.) territoriale aderente al circuito nazionale
IBAN, che a sua volta aderisce al circuito europeo EBAN.
Infatti,
la
disponibilità di capitali aventi un
buon equilibrio tra rischio e remunerazione, nonché un serio coinvolgimento degli investitori, figurano
tra le risorse chiave che permettono a
un’azienda di svilupparsi. Fin dagli
anni ottanta, in particolare in Gran
Bretagna e Olanda, si è potuto constatare che i Business Angels (altrimenti detti “investitori privati informali”), giocano un ruolo importante nel
senso sopra descritto; essi infatti
hanno un ruolo catalizzatore in mate-
trare imprenditori alla ricerca di capitale e di competenze manageriali.
D.: A che cosa serve la rete dei
Business Angels?
Il successo di una PMI dipende:
• da un buon Business Plan,
• dai mezzi finanziari disponibili,
• dalla capacità dell’imprenditore.
Un Business Angels Network (B.A.N.)
può fornire le soluzioni in quanto:
• assiste alla redazione e sviluppo di
un Business Plan,
• funge da intermediario finanziario,
• accompagna l’imprenditore nelle
sue decisioni.
Questo avviene, in particolare:
• identificando i Business Angels
della propria zona (provincia o regione);
• mettendo in contatto i Business
Angels e gli imprenditori;
• organizzando dei “forum” con gli
investitori;
• redigendo e diffondendo pubblicazioni specializzate.
L’organizzazione
dei B.A.N. è costituita da più soggetti, i
quali possono intervenire in maniera visibile e continuativa, direttamente o come sponsor.
Ogni rete locale si attiene rigidamente alle regole di comportamento indicate dalle associazioni italiana
(IBAN) ed europea (EBAN) dei Business Angels.
Quindi, le attività e il ruolo di IBAN
possono così riassumersi:
• Sviluppare e coordinare l’attività di
investimento nel capitale di rischio in
Italia e in Europa da parte degli investitori informali;
• Incoraggiare lo scambio di esperienze tra i B.A.N.;
• Promuovere il riconoscimento dei
Business Angels e dei B.A.N. come
ria finanziaria e gestionale e possono
stimolare fortemente lo sviluppo delle
PMI.
D.: Dunque chi sono i Business
Angels?
Sono ex titolari di impresa, manager
in attività o in pensione, che dispongono di mezzi finanziari (anche limitati), di una buona rete di conoscenze, di una solida capacità gestionale
e di un buon bagaglio di esperienze.
Essi hanno il gusto di gestire un
business, il desiderio di acquisire
una partecipazione in aziende con
alto potenziale di sviluppo e l’interesse a monetizzare una significativa
plusvalenza al momento dell’uscita.
L’obiettivo dei Business Angels è quello di contribuire alla riuscita economica di un’azienda e alla creazione di
nuova occupazione. Investitori “informali” nel capitale di rischio è la definizione italiana del termine anglosassone Business Angels.
D.: Come si organizzano?
È previsto che i Business Angels si
organizzino in reti locali, conosciute
come B.A.N. (Business Angels Network): strutture permanenti che consentono ai Business Angels di incon- [email protected]
T_M
N.
2/10 ƒ 105
N. 02ƒ
; 2010
▲
IL
TEMA
soggetti di politica economica;
• Promuovere l’incontro dei Business
Angels, degli imprenditori, dei neoimprenditori e delle aziende;
• Contribuire alla realizzazione di
programmi locali/nazionali/comunitari finalizzati alla creazione e allo
sviluppo di un ambiente favorevole
all’attività degli investitori informali;
• Mantenere gli opportuni contatti
con le organizzazioni internazionali e
non, per la realizzazione dei sopracitati obiettivi.
Inoltre, l’Associazione Italiana dei
Business Angels cura l’attività culturale, associativa, editoriale; costituisce
comitati o gruppi di studio e di ricerca e svolge qualsiasi altra azione che
si riconosca utile, lecita e aderente
agli scopi dell’Associazione.
D.: Si può dunque parlare di
una “Mission” dei Business
Angels?
Le imprese, in particolare le nuove attività, trovano una crescente difficoltà a
ottenere risorse finanziarie, poiché non
sempre sono in grado di apportare le
necessarie garanzie. Gli attori del capitale di rischio ritengono che non sempre le idee imprenditoriali riescano a
tradursi in progetti d’impresa profittevoli. La rete dei Business Angels fornisce
capitale di rischio e strumenti concreti a
imprenditori e investitori per costruire
imprese vincenti.
D.: Con queste premesse, a chi
può interessare la rete dei Business Angels?
A nuovi imprenditori, a dirigenti di
azienda già avviata o a manager di
grande esperienza, a chi ha già creato
una propria azienda o l’ha appena
ceduta e, in generale, a chi è sensibile
al fatto di creare nuove imprese e nuova
occupazione. A tutti costoro l’IBAN si
rivolge, per farli entrare nella sua rete.
D.: Qualche numero…?
Negli scorsi mesi di gennaio e febbraio, IBAN ha condotto l’indagine
per la raccolta dei dati sulle operazioni fatte in Italia nel settore dell’Informal Venture Capital. Esaminando i
dati del 2009, è possibile affermare
che il mercato italiano dell’Angel Investing ha registrato una sostanziale
tenuta rispetto all’anno precedente,
con particolare riferimento all’ammon-
T_M ƒ 106
tare investito (circa 31 M/€). Significativo, invece, il numero dei deal
chiusi (più di 200), quasi un raddoppio su base annua (120 nel 2008). Si
può quindi evidenziare un aumento
delle operazioni, ma con un taglio
medio investito inferiore.
Nel corso del periodo gennaio-marzo
2010 sono state ricevute circa 100
proposte di business; l’80% provenienti dalle regioni dell’Italia settentrionale; i principali settori sono ICT,
Servizi alle Imprese e Clean-tech;
l’80% è collocato nelle fasi seed e
start-up. Si ricorda che, per ogni progetto in arrivo, l’Associazione si fa
carico di un primo screening valutativo, volto all’ottenimento degli approfondimenti per una maggiore chiarezza e omogeneità dell’idea di business.
D.: Come si relaziona la rete
dei Business Angels con la rete
del Venture Capital?
Lo scorso 25 marzo a Roma, in occasione dell’evento “Emerging Companies”, IBAN e Rete Venture, società
controllata dal CNR e che agisce
come soggetto specializzato nella
valorizzazione della proprietà intellettuale, hanno siglato un Protocollo di
Intesa per lo svolgimento di iniziative
e programmi a favore di operazioni
di trasferimento tecnologico e creazione di impresa dalla ricerca. Nello
specifico, IBAN si adopererà nella
valutazione, scouting e formazione di
proposte progettuali del CNR, che
Rete Venture avrà preventivamente
selezionato, con l’impegno poi a
organizzare congiuntamente appositi
Forum di Investimento Early Stage, al
fine di testare i risultati conseguiti.
Ferdinando Magnino,
dottore commercialista in
Brescia, è il responsabile
del B.A.N. Brescia dal
2004. Ha contribuito a
creare start up per diverse iniziative
imprenditoriali, convogliando capitali e
managerialità su idee di business in
nuce. Ha partecipato a svariate presentazioni di IBAN presso Università Italiane, anche quale Presidente alla premiazione del Master MBA della Fondazione CUOA di Padova.
■
IL
TEMA
Franco Docchio
In breve: il CSMT
Centro Servizi Multisettoriali e Tecnologici di Brescia
IN SHORT: THE CENTRO SERVIZI MULTISETTORIALI
E TECNOLOGICI (CSMT) OF BRESCIA
We present here in short the CSMT of Brescia, a novel and active Centre
for Applied Research and Technology Transfer, collaboration among the
major institutions of Brescia and the University.
RIASSUNTO
Presentiamo qui in breve il CSMT di Brescia, nuovo e attivo Centro per la
Ricerca Applicata e il Trasferimento Tecnologico, in collaborazione tra le
maggiori istituzioni della Città e la locale Università.
Il giorno 25 febbraio 2010, presso la
Facoltà d’Ingegneria dell’Università di
Brescia, si è svolta la giornata di presentazione, ad uso precipuo dei
Docenti e dei Ricercatori dell’Università ma aperta alla cittadinanza, del
Centro Servizi Multisettoriali e Tecnologici (CSMT), che ha sede all’interno
del Campus Universitario, ed è stato
creato con l’intento di costituire una
cerniera di raccordo tra il mondo universitario e il mondo delle imprese per
favorire l’innovazione e il trasferimento tecnologico. Ha aperto i lavori il
tessuto industriale locale, focalizzando sulle opportunità offerte da Industria 2015.
Il CSMT, cui partecipano tutte le istituzioni della provincia di Brescia, e le
sue attività, sono stati oggetto dell’Intervento del Responsabile TecnicoCommerciale Ing. Romano Miglietti, che ha rimarcato lo sforzo
costante di promozione alle imprese
dei risultati della ricerca dei Dipartimenti dell’Università, ma anche quello
inverso di portare all’Università le
richieste di nuove tecnologie da parte
delle Imprese. Importante per il contesto Bresciano è anche il ruolo del
CSMT di incubatore di nuove imprese
(Start-up), in cui il CSMT funge anche
da supporto di marketing. Ha illustrato infine la struttura dei Centri di Competenza, che rispondono a esigenze
ben definite da parte delle imprese
ma che nel contempo stimolano nuove
esigenze. Ha concluso la presentazione il Direttore Generale di CSMT Ing.
Francesco Tamburini, che ha illustrato i progetti in corso o presentati a
Industria 2015 e alla UE (7PQ).
Alla presentazione ha fatto seguito
una nutrita serie di domande e commenti da parte di numerosi Docenti
dell’Università, sia coinvolti in iniziative comuni con il CSMT, ma anche
desiderosi di saperne di più riguardo
a questo utile strumento per l’innovazione tecnologica, per il trasferimento, e per la ricerca applicata.
Per saperne di più, visitate il sito
www.csmt.it, inviate una mail a
[email protected], o scrivete alla Redazione di Tutto_Misure!
Preside della Facoltà di Ingegneria,
Prof. Aldo Zenoni, che ha rilevato
come sia sentita la necessità di dotare
la provincia di strumenti operativi che
promuovano la ricerca industriale
(Azione Bandiera 2 dell’Assemblea
degli Stati Generali della Provincia) e
come si punti sul CSMT per questa
funzione. Il Sig. Ennio Franceschetti, titolare di Gefran S.p.A. e
Presidente del Consiglio di Amministrazione del CSMT, ha tracciato la
storia del suo successo imprenditoriale a partire da sensori e misure elettroniche, concretizzatosi anche grazie
alle profonde collaborazioni con l’Ateneo bresciano, e del sogno di un
più generale, saldo e continuativo raccordo tra Università e mondo delle
imprese, sempre più allargato alle imprese del territorio. È seguito un appassionato intervento del
Prof. Pier Luigi Magnani, membro del Consiglio
di Amministrazione ed exPreside della Facoltà, ma
soprattutto promotore del
nuovo CSMT a partire dal
preesistente INN.TEC.,
che ha illustrato gli obiettivi dell’iniziativa con riferimento sia alle politiche
nazionali ed europee per
l’innovazione, sia al con- Direttore di Tutto_Misure
testo e alle vocazioni del [email protected]
T_M
N.
2/10 ƒ 107
L'INTERFACCIA UTENTE
CHE SEMPLIFICA
LA CREAZIONE
E SIMULAZIONE
DI MODELLI MULTIFISICI
COMSOL srl ha annunciato la prossima disponibilità della nuova versione 4.0 del suo
software di simulazione multifisica. Presentata in anteprima agli utenti nel 2009, la
nuovissima interfaccia utente metterà a disposizione la potenza della simulazione multifisica a un pubblico ancora più ampio di
ingegneri e ricercatori. Il processo di modellazione è stato ottimizzato e reso facilmente
accessibile a un’ampia base di utilizzatori,
grazie a un nuovo layout completamente
riorganizzato e al processo di modellazione
di tipo grafico.
Contemporaneamente al rilascio della versione 4.0 COMSOL annuncia anche il rilascio
dei prodotti LiveLink™ che permettono un’integrazione sempre più profonda di COMSOL
Multiphysics nel processo di progettazione
industriale. I nuovi prodotti LiveLink sono disponibili per Autodesk® Inventor®, Pro/ENGINEER®, SolidWorks® e MATLAB®.
“È una bella sensazione rilasciare la versione 4.0” commenta Svante Littmark, Presidente e CEO di COMSOL, Inc. “Crediamo
che essa rappresenti un coraggioso passo in
avanti verso un’usabilità mirata all’incremento della produttività e alla reale soluzione di problemi industriali. Una piattaforma
che ci permetterà lo sviluppo di nuove funzionalità a un passo decisamente sostenuto.
I clienti se ne accorgeranno nel prossimo
futuro: la versione 4.0a sarà disponibile già
in giugno e includerà tre nuovi moduli: CFD,
Plasma e Batteries & Fuel Cells”.
COMSOL Desktop – L’interfaccia
utente che porterà a una svolta nella
modellazione multi fisica
La creazione di un modello è così scorrevo-
T_M ƒ 108
N. 02ƒ
; 2010
▲
NEWS
le e lineare che applicazioni una volta complesse e
tediose da modellare sono
ora veloci e semplici da
risolvere. La Versione 4.0
porta a un livello di chiarezza senza precedenti nello
sviluppo di prodotto, grazie
alla combinazione di una
visione chiara e globale del
modello e di un flusso di
lavoro assistito dalle nuove
funzionalità di COMSOL
Desktop. Questa nuova
interfaccia è stata progettata per soddisfare l’utente
sotto diversi punti di vista:
usabilità dei menu, ristrutturazione del processo di modellazione e design patinato
sono i mezzi con i quali si possono modellare facilmente realtà fisiche complesse. Ad esempio, tool specifici per il
task di modellazione che si
sta eseguendo in un dato
momento
appaiono sul
Desktop solo
quando sono
necessari: in
questo modo
sono messe a
disposizione
dell’utente solo le uniche azioni possibili per
il passo di modellazione che si sta affrontando. Da questo punto di vista il processo
di modellazione e simulazione è strutturato
e privo d’incertezze.
ZINK Imaging, l’inventrice della ZINK Technology e produttrice della ZINK Paper™ (un
approccio rivoluzionario alla stampa a
colori di ineguagliabile semplicità) utilizza
frequentemente COMSOL Multiphysics all’interno dei suoi processi innovativi, di sviluppo e di fabbricazione. Il Dr. Bill Vetterling, Research Fellow
e Direttore dell’Image
Science Lab di ZINK
Imaging, ha partecipato alla Conferenza
COMSOL 2009 dove
ha provato la nuova
interfaccia, affermando: “La Versione 4.0 è
un capolavoro! È stato
un privilegio provare
già nel 2009 la sua
nuova interfaccia così
fresca e intuitiva dal
punto di vista della
gestione dei dati necessari per la simulazione. Secondo la mia esperienza, COMSOL
Multiphysics è un prodotto che ogni anno
stupisce per le sue continue innovazioni”.
Integrazione con CAD e MATLAB grazie alla famiglia di prodotti LiveLink
I software CAD possono finalmente rappresentare in modo realistico gli effetti del
cambiamento del design di un prodotto
grazie alla simulazione con COMSOL. La
famiglia di prodotti LiveLink della Versione
4.0 è stata creata appositamente per perseguire questo obiettivo. Ciascun LiveLink
permette la connessione di COMSOL Multiphysics direttamente a programmi CAD
leader del mercato in modo che i parametri specificati nel modello CAD possano
essere usati e connessi in maniera interattiva alla geometria simulata in COMSOL.
La famiglia di prodotti LiveLink include
oggi LiveLink™ per SolidWorks®, LiveLink
per Inventor ® e LiveLink per Pro/ENGINEER®. In aggiunta a questi c’è Livelink
per MATLAB® che è stato pensato per chi
ha bisogno di incastonare i modelli creati
con COMSOL Multiphysics in un ambiente
di calcolo tecnico e di programmazione
più esteso.
Per ulteriori informazioni:
www.it.comsol.com
GLI
ALTRI TEMI
▲
LA MICROSCOPIA
Riccardo Cicchi, Leonardo Sacconi, Francesco Vanzi,
Francesco Saverio Pavone
Microscopia SHG
Dai singoli atomi alle strutture di volume
tubi fotomoltiplicatori o fotodiodi a
valanga) la densità di energia necessaria per determinare livelli di fluorescenza misurabili sia raggiungibile
solo con l’impiego di laser impulsati e
limitatamente al fuoco di obiettivi ad
alta apertura numerica. Di conseguenza, la fluorescenza rivelata proviene da una porzione del campione
molto ben circoscritta nelle tre dimensioni spaziali (con un volume dell’ordine del femtolitro).
La localizzazione del volume d’eccitazione è mantenuta anche in mezzi torbidi in quanto la densità di energia dei
fotoni diffusi è troppo bassa per produrre una transizione non-lineare. Di conseguenza solo i fotoni balistici che raggiungono il fuoco sono in grado di eccitare il campione. Questa peculiare proprietà rende la microscopia non lineare
una tecnica in grado di eseguire imaRIASSUNTO
ging ad alta risoluzione (dell’ordine del
La misura della conformazione e della dinamica delle proteine rappresenµm) in campioni torbidi, quali i tessuti
ta un aspetto fondamentale nello studio di problemi biologici. Alcune tecnibiologici. Inoltre, cromofori che a un foche sono state sviluppate per misurare la struttura delle proteine e la loro
tone vengono eccitati nello spettro visidinamica strutturale in vitro e in vivo. L’attuale investigazione con cristallobile, a due fotoni vengono eccitati nel vigrafia X è in grado solo di fornire informazioni statiche, mentre notevole
cino infrarosso (700-1 000 nm), che peinteresse è riposto nello sviluppo di tecniche in grado di misurare la dinanetra più in profondità all’interno di tesmica delle strutture proteiche in cellule viventi.
suti biologici, consentendo l’acquisizioPresentiamo qui i recenti sviluppi di una nuova tecnica microscopica (Genene di immagini tridimensionali di tessuti
razione di Seconda Armonica, SHG) che si dimostra promettente per invein vivo con risoluzione sub-micrometrica
stigare le dinamiche atomiche strutturali in tessuti, con applicazioni alla diafino a circa 800 µm al di sotto della
gnostica. In particolare le moderne tecniche non lineari (che comprendono
superficie del campione. Queste caratla SHG) hanno proprietà quali un’elevata penetrazione nei tessuti (centiteristiche rendono queste tecniche ideali
naia di micron) e una risoluzione sub-micrometrica, che le rende particoper applicazioni dirette in dermatologia
larmente attraenti e adatte per lo sviluppo di tool diagnostici.
o in endoscopia.
Tra le varie tecniche di microscopia nonlineare la generazione di seconda
LA FLUORESCENZA A DUE FOTONI descrizione teorica: a differenza dei armonica (SHG) ha proprietà tali da
E LA GENERAZIONE
fenomeni lineari (fluorescenza conDI SECONDA ARMONICA
venzionale a un fotone), la fluorescenza a due fotoni è caratterizzata
Con l’avvento dei laser impulsati si è da una dipendenza quadratica della European Laboratory for Non Linear
resa possibile l’implementazione su probabilità di assorbimento dall’inten- Spectroscopy, Sesto Fiorentino
campioni biologici di metodi di spet- sità della radiazione d’eccitazione. Relazione presentata
troscopia non lineare. I vantaggi deri- Questo fa sì che, anche con l’impiego al Convegno Congiunto DGaO-SIOF
vanti dall’uso di questo tipo di eccita- di rivelatori ad altissima sensibilità Brescia, 2-5 Giugno 2009
zione erano chiari fin dalla prima (sensibili a singoli fotoni: per esempio [email protected]
FROM SINGLE ATOMS TO BULK STRUCTURES
WITH SECOND-HARMONIC GENERATION MICROSCOPY
The measurement of protein conformation and dynamics represents a fundamental task in the study of biological problems. For this reason several
techniques have been developed to determine protein structures and structural dynamics in vitro and in vivo. Currently, protein structures can be determined with atomic resolution by x-ray crystallography, which, however, can
only provide static structures. Great interest is devoted to the development
of techniques capable of measuring the dynamics of protein structures in
living cells, to define the exact mechanism by which each protein performs
its function in physiological conditions.
Here we present recent developments of a new microscopy technique
(Second Harmonic Generation, SHG) which holds great promise for probing atomic structural dynamics in living tissue, with potential applications
in diagnostic measurements. In particular, non-linear microscopy technologies (including SHG) have features such as deep tissue penetration (several
hundred microns in living tissues) and micron-scale resolution, which make
them particularly suited for the development of biomedical diagnostic tools.
We present SHG applications for the diagnostic imaging of connective tissue, and for the study of molecular conformation of muscle myosin.
T_M
N.
2/10
T_M ƒ 109
renderla una metodologia ideale per lo
studio dell’ordine molecolare. A differenza della fluorescenza a due fotoni, la
SHG non coinvolge assorbimento fotonico ma duplica la frequenza incidente
senza nessuna perdita energetica e temporale. Questo processo produce quindi, mediante una transizione istantanea,
un fotone con energia uguale alla
somma dei due fotoni incidenti. La SHG
produce quindi un fotone esattamente in
fase con i fotoni incidenti, garantendo
una somma coerente tra fotoni emessi
da diversi emettitori. Infatti, se all’interno
del volume focale sono presenti vari
emettitori, i fotoni SHG emessi da ogni
emettitore possono interferire costruttivamente tra di loro evidenziando particolari simmetrie spaziali o, più in generale, stati di ordine molecolare.
Se si considera che, nei campioni biologici, la transizione ha luogo nel
legame covalente C-N del legame
T_M ƒ 110
N. 02ƒ
; 2010
▲
GLI
ALTRI TEMI
Figura 1 –
Rappresentazione di
un’alfa-elica in cui
alcuni legami peptidici
C-N sono evidenziati
per mostrare i dipoli
coinvolti nella
transizione SHG.
peptidico (Fig. 1)
questi fenomeni di
interferenza, ovvero la misura del
segnale SHG in
vivo, possono essere interpretati in
termini di conformazioni strutturali
delle proteine emettitrici, sulla base delle strutture atomiche note dalla
cristallografia a
raggi x. In questo
modo, le misure
SHG consentono,
in determinati campioni di studiare le conformazioni strutturali (e le
loro dinamiche) in
vivo.
LE APPLICAZIONI DELLA SHG
Applicazioni
in campo biomedico diagnostico
In campo biomedico e diagnostico la
SHG si propone come strumento
molto promettente per indagare la
morfologia e l’organizzazione di
diversi tipi di tessuto come il derma
cutaneo, i muscoli, la cornea, le ossa
e le cartilagini, i legamenti e in generale tutti i tessuti connettivi contenenti
collagene di tipo I. Il collagene è costituito da unità molecolari di circa
30 nm di diametro (denominate fibrille), a loro volta raggruppate in unità
più complesse che possono assumere
la forma di fibre (derma cutaneo) o di
lamelle (cornea). Il collagene di tipo I,
oltre a costituire la matrice strutturale
del tessuto, svolge il ruolo di terreno
su cui i diversi tipi di cellule crescono.
Lo studio della sua morfologia, non-
N. 02ƒ
;2010
ché delle alterazioni dovute alle diverse patologie, è quindi importante non
solo per le malattie che colpiscono
direttamente il collagene (ad esempio
i keloidi o la sclerodermia) ma anche
per chiarire il ruolo che il collagene
stesso svolge nel condizionare il
grado di invasività di un tumore.
L’elevata anisotropia della molecola
di collagene fa sì che l’intensità del
segnale generato dipenda dalla
mutua organizzazione delle singole
fibrille all’interno del volume focale.
La SHG si offre quindi come uno strumento molto sensibile per rivelare alterazioni nell’organizzazione del collagene su scala microscopica [3].
Il primo esempio di utilizzo della SHG
in campo biomedico-diagnostico è illustrato in Fig. 2. Un campione di cornea è scaldato in un bagno termico a
diverse temperature per indurre la disorganizzazione o la denaturazione
delle lamelle di collagene (oltre i 6065 °C). Le immagini SHG dei campioni scaldati a diverse temperature (Fig.
2.a) sono state analizzate con un
metodo statistico di analisi d’immagine, basato sulla matrice di co-occorrenza dei livelli di grigio (GLCM). L’analisi di questa matrice permette di
calcolare una serie di parametri legati
al contrasto, all’ordine e alla distribuzione statistica dei livelli di grigio.
In particolare, sono stati parametrizzati il momento angolare secondo
(ASM) e l’omogeneità (HOM). Il grafico in Fig. 2.b mostra come entrambi i
parametri decrescano (così come l’organizzazione reciproca delle lamelle)
al crescere della temperatura. Nella
regione lineare del grafico, la misura
dei parametri in questione potrebbe
essere utilizzata come un sensore ottico di temperatura. In particolare, la
SHG potrebbe essere utilizzata per
monitorare in tempo reale sia la morfologia delle lamelle che la temperatura raggiunta nel campione durante
operazioni di chirurgia laser della
cornea.
Nel secondo esempio, focalizzato sul
derma cutaneo, sono stati usati campioni di derma sano e di keloide
(cicatrice patologica caratterizzata
da iperproduzione di collagene); la
SHG è stata utilizzata per classificare
legate all’alterazione del
collagene, come le cicatrici o lo stroma che racchiude una massa tumorale.
Esso rappresenta quindi
una possibile metodologia
di classificazione per tessuti biologici in diverse
condizioni fisiologiche e
patologiche.
Studio di dinamiche
strutturali di proteine
Figura 2 – 2.a – Immagini SHG di campioni di cornea scaldati in vivo
a diverse temperature. Scala: 10 µm. 2.b: Grafico di momento Come il collagene, anche
angolare secondo (ASM) e omogeneità (HOM) della matrice
il muscolo è caratterizzato
GLCM in funzione della temperatura. 2.c-d: Immagini SHG
da intensi segnali di SHG
di un campione di derma sano (c) e di keloide (d).
2.e: Grafico della correlazione della matrice GLCM in funzione [4, 5]. L’immagine SHG di
della distanza in derma sano (nero) e in keloide (grigio)
una miofibrilla muscolare
(Fig. 3.a) mostra il caratteil livello di ordine e di organizzazione ristico pattern striato del muscolo sche(Figg. 2.c, 2.d e 2.e). L’analisi dei letrico, determinato dall’alternanza di
parametri statistici della matrice bande di actina (bande I) e di miosina
GLCM, come la correlazione (R), ha (bande A). La localizzazione del sepermesso di caratterizzare i due gnale SHG nei sarcomeri corrisponde
diversi tipi di tessuto sulla base della alle bande A. L’origine del segnale
loro lunghezza di correlazione. Il gra- dalle molecole di miosina è confermata
fico in Fig. 2.e, in particolare, rap- mediante estrazione della miosina attrapresenta i valori calcolati per la cor- verso il trattamento della miofibrilla con
relazione spaziale R. I due fit espo- una soluzione ad alta forza ionica (Fig.
nenziali forniscono valori della lun- 3.b). Al contrario, la marcatura in fluoghezza caratteristica in ottimo accor- rescenza dei filamenti di actina (Fig.
do con le dimensioni medie delle fibre 3.c) mostra che questi non danno luogo
di collagene dei due tipi di tessuto, a SHG, come evidenziato dalla loro
misurate mediante analisi istologica. presenza dopo estrazione della miosiIl metodo presentato è stato applicato na e completa scomparsa del segnale
con successo anche ad altre patologie SHG (Fig. 3.d).
Figura 3. – 3.a-b – Immagine SHG
di una miofibrilla prima (a)
e dopo (b) estrazione biochimica
della miosina.
3.c-d: Immagini in fluorescenza
(dopo marcatura dei filamenti
di actina) della stessa miofibrilla
prima (c) e dopo (d)
estrazione della miosina
T_M ƒ 111
La provenienza del segnale SHG
dalla miosina è di grande interesse
per lo sviluppo di tecniche per la diagnosi di patologie che implichino una
perdita di ordine nell’array acto-miosinico dei sarcomeri (per esempio le
distrofie muscolari) e anche per lo sviluppo di nuove tecniche per lo studio
delle dinamiche strutturali in vivo.
Infatti, la produzione di forza nel
muscolo avviene attraverso interazioni cicliche della miosina con l’actina:
durante queste interazioni, la miosina
utilizza l’energia chimica ricavata
dall’idrolisi di una molecola di ATP
per eseguire una serie di variazioni
conformazionali che costituiscono il
“power stroke”, cioè il movimento di
trazione dell’actina alla base della
produzione di forza e spostamento.
Gli studi mirati alla comprensione dei
meccanismi della contrazione muscolare si sono in larga parte concentrati
sulla misura della conformazione
della miosina in vari stati biochimici e
delle dinamiche di conversione tra
questi stati.
La SHG è in generale molto sensibile
alla polarizzazione della luce incidente. Il processo di duplicazione è
infatti legato a un’asimmetria della
densità elettronica dell’emettitore.
Generalmente buoni generatori di
seconda armonica sono molecole
asimmetriche che possono garantire
una traslocazione unidirezionale di
carica elettronica (molecole push and
pull). Supponendo quindi di eseguire
una scansione in polarizzazione di un
singolo emettitore dovremmo aspettarci una modulazione dell’efficienza di
SHG di tipo sinusoidale con un massimo di efficienza quando la polarizzazione della luce è allineata all’asse di
trasferimento di carica della molecola. In generale la situazione è più
complessa, in quanto all’interno del
volume di fuoco sono presenti molti
emettitori con una complessa distribuzione angolare.
Nel caso che gli emettitori abbiano
una distribuzione a simmetria cilindrica (come nella fibra muscolare) la
modulazione della SHG può essere
predetta analiticamente. In tali circostanze la modulazione predetta può
essere confrontata con i dati speri-
T_M ƒ 112
N. 02ƒ
; 2010
▲
GLI
ALTRI TEMI
mentali al fine di ricavare delle
informazioni sulla distribuzione angolare degli emettitori o,
in altri termini, per ricavare
delle informazioni strutturali
delle molecole di miosina
all’interno della fibra muscolare. La Fig. 4.a mostra, in una
fibra muscolare, la dipendenza del segnale SHG dalla
polarizzazione della luce incidente. In Fig. 4.b si mostra il fit
(linea continua) dei dati di
intensità delle immagini (Fig.
4.a) con un modello matematico di distribuzione cilindrica
degli emettitori. Il fit consente
la misura di un fattore geometrico correlato alla conformazione strutturale delle molecole
di miosina, come indicato da
prove eseguite in diversi stati
fisiologici.
Figura 4. – 4.a – Dipendenza della intensità di SHG
in una fibra muscolare al variare della polarizzazione
della luce incidente (indicate dalle frecce bianche).
4.b: Plot delle intensità misurate nel pannello a,
con fit del modello (linea continua)
RINGRAZIAMENTI
Si ringraziano per i loro contributi
sperimentali: C. Stringari, V. Nucciotti, V. Lombardi, G. Piazzesi, M. Linari, C. Poggesi, C. Tesi, N. Piroddi, D.
Kapsokalyvas, A. Cosci, A. Van Wiechen, V. De Giorgi, D. Massi, T. Lotti,
P. Matteini, R. Pini.
BIBLIOGRAFIA
[1] Campagnola PJ, Loew LM (2003)
Second-harmonic imaging microscopy for
visualizing biomolecular arrays in cells,
tissues and organisms. Nat Biotechnol 21,
1356-1360.
[2] Zipfel WR, Williams RM, Webb WW
(2003) Nonlinear magic: multiphoton
microscopy in the biosciences. Nat Bio-
technol 21, 1369-1377.
[3] Matteini P, Ratto F, Rossi F, Cicchi R,
Stringari C, Kapsokalyvas D, Pavone FS,
Pini R (2009) Photothermally-induced
disordered patterns of corneal collagen
revealed by SHG imaging. Opt Express
17, 4868-4878.
[4] Both M, Vogel M, Friedrich O, von
Wegner F, Kunsting T, Fink RH, Uttenweiler
D (2004) Second harmonic imaging of
intrinsic signals in muscle fibers in situ. J
Biomed Opt 9, 882-892.
[5] Vanzi F, Capitanio M, Sacconi L, Stringari C, Cicchi R, Canepari M, Maffei M,
Piroddi N, Poggesi C, Nucciotti V, Linari
M, Piazzesi G, Tesi C, Antolini R, Lombardi V, Bottinelli R, Pavone FS (2006) New
techniques in linear and non-linear laser
optics in muscle research. J Muscle Res
Cell Motil 27, 469-479.
Francesco Saverio Pavone è laureato in Fisica all’Università di
Firenze e ha il titolo di PhD in Ottica all’Istituto Nazionale di Ottica.
Dopo un periodo di un anno e mezzo alla Ecole Normale Superieure (ENS) di Parigi con il Prof. Claude Cohen-Tannoudji, e dopo
un periodo come Professore Associato di Fisica al dipartimento di
Fisica di Perugia, dal 2005 è Professore Ordinario all’Università di Firenze (Facoltà di Agraria) e Responsabile Scientifico del Laboratorio di Biofisica presso il
Laboratorio Europeo di Spettroscopia non Lineare (Firenze, Italia).
GLI
ALTRI TEMI
▲
LA MISURA DEL COLORE
Costanza Cucci, Marcello Picollo
Caratterizzazione
UV-Vis-NIR di plastiche
nell’arte contemporanea: problematiche
PROBLEMS RELATED WITH UV-VIS-NIR CHARACTERIZATION
OF PLASTIC MATERIALS WITH DIFFERENT TRANSPARENCY LEVELS
OCCURRING IN CONTEMPORARY ARTWORKS
This work deals with the application of UV-Vis-NIR reflectance spectroscopy
to the characterization of plastic materials used by contemporary artists.
This well-established technique is non-invasive and is commonly used in the
investigation of artworks, but its application to the analysis of contemporary
collections is still unexplored. Specific questions related to the reflectance
measurement on plastic materials, which can have different levels of transparency, are discussed.
RIASSUNTO
Questo contributo studia l’applicabilità della spettroscopia di riflettanza UVVis-NIR per la diagnostica su oggetti d’arte in materiale plastico. Sebbene
si tratti di una tecnica non invasiva consolidata e comunemente applicata
nel settore dei beni culturali, il suo utilizzo su collezioni d’arte contemporanea è ancora limitato. Si discutono qui alcune questioni specificamente
legate alla caratterizzazione in riflettanza dei materiali plastici, che possono presentare un livello di trasparenza variabile.
I BENI CULTURALI E LE PLASTICHE: co (ad esempio pellicole a base di aceUN CONNUBIO MODERNO
tati di cellulosa).
La caratterizzazione dei materiali plastici è divenuta negli ultimi anni un
tema di grande interesse e attualità nel
settore della conservazione del patrimonio culturale, che non può più esimersi dal dedicare particolare attenzione alla tutela dell’arte contemporanea. Infatti, un numero sempre crescente di opere e oggetti-culto della
produzione artistica contemporanea,
erroneamente considerati durevoli, è
interessato da gravi alterazioni causate da processi di invecchiamento, non
preventivati. L’analisi di questo problema è di vastissimo interesse, poiché
riguarda non solo la tutela di opere di
arte contemporanea, ma anche la conservazione di oggetti considerati testimonianze di importanza storica (come
ad esempio alcuni pezzi da collezione
conservati nel museo aerospaziale
della NASA, o prototipi di oggetti di
design entrati poi nell’uso comune),
nonché la salvaguardia di settori del
patrimonio fotografico e cinematografi-
si delle problematiche più rilevanti connesse alla conservazione di oggetti
d’arte realizzati con materiali plastici
(in particolare poliuretani, PVC, acetato
e nitrato di cellulosa, ecc.), e la messa
a punto di strategie di intervento e conservazione. Nell’ambito del progetto,
l’Istituto di Fisica applicata “Nello Carrara” del Consiglio Nazionale delle
Ricerche (IFAC-CNR) di Firenze sta portando avanti uno studio basato sull’utilizzo di tecniche spettroscopiche noninvasive nell’intervallo delle regioni
ultravioletta (UV), visibile (Vis) e del vicino infrarosso (NIR) per la caratterizzazione di materiali plastici di interesse in
ambito storico-artistico.
Le tecniche spettroscopiche UV-Vis-NIR
sono ben consolidate per applicazioni
su beni culturali di tipo tradizionale,
poiché offrono la possibilità di effettuare una diagnostica non invasiva basata
sull’utilizzo di strumentazione portatile
e maneggevole e, grazie all’utilizzo di
fibre ottiche, consentono misure in situ,
ovvero direttamente sull’oggetto. La
caratterizzazione UV-Vis-NIR, pur non
sostituendosi a tecniche analitiche di
laboratorio, è spesso in grado di fornire sia informazioni composizionali, utili
sia a una classificazione del materiale
analizzato, sia a una caratterizzazione
colorimetrica della superficie, che è
spesso utilizzata per un monitoraggio
del degrado [5,6,7]. Tuttavia, il buon
esito di questo tipo di analisi è subordinato alla disponibilità di archivi spettrali di riferimento che permettano di interpretare i dati acquisiti direttamente sull’oggetto, e di classificarli in base al
confronto con sostanze note.
Mentre per i materiali artistici tradizionali sono stati ormai compilati consistenti
archivi spettrali di standard di riferimen-
È quindi facile intuire come la sola operazione di classificazione e caratterizzazione delle plastiche più ricorrenti in
ambito artistico sia tanto necessaria
quanto complessa. Dal momento che le
tipologie di materiali classificati come
plastiche sono molteplici, e caratterizzate da strutture di differente complessità,
la conoscenza di queste sostanze e la
comprensione degli aspetti che intercorrono tra i processi di degrado e le variazioni delle loro proprietà macroscopiche sono essenziali per affrontare il problema della conservazione delle “plastiche artistiche” [1,2]. Queste considerazioni hanno indotto sia istituzioni museali, sia gruppi di ricerca operanti nel settore dei beni culturali a cercare di definire protocolli di misura e possibili indicatori dello stato di degrado delle
sostanze polimeriche.
In questo contesto si colloca il Progetto
Europeo “Preservation of Plastic Artifacts in museum collections” (POPART)
[3,4], avviato nel 2008 e attualmente IFAC-CNR “Nello Carrara“
in corso, che ha come obiettivo l’anali- [email protected]
T_M
N.
2/10
T_M ƒ 113
▲
GLI
ALTRI TEMI
to nelle regioni UV-VIS-NIR, per le plastiche di interesse artistico l’utilizzo di queste metodologie diagnostiche è, a conoscenza degli autori, ancora inedito. Per
questo motivo è stato avviato uno studio
su una serie di campioni di riferimento di
materiali plastici certificati, selezionati
nell’ambito del Progetto POPART in base
alle indicazioni di esperti operanti nel
campo della conservazione delle opere
d’arte contemporanea.
I risultati preliminari presentati in questo
contributo rappresentano un primo stadio di analisi delle problematiche connesse alle misure di riflettanza in situ su
manufatti in plastica. In particolare, tramite un confronto interstrumentale e l’analisi comparativa di spettri acquisiti
con diverse geometrie di misura, si analizza il ruolo del fattore “trasparenzaopacità” nella caratterizzazione spettroscopica dei polimeri selezionati nell’intervallo UV-Vis-NIR.
T_M ƒ 114
Figura 1 – Campioni Resinkit®
8 tipologie di polipropilene con proprietà fisiche e ottiche diverse
I MATERIALI
E LA METODOLOGIA DI MISURA
Le misure sono state effettuate su una
serie di standard di plastiche certificate, commercializzate con il nome
Resinkit ® [8]. Questa raccolta di
campioni comprende 50 diversi tipi
di plastiche, selezionate tra i polimeri più diffusi industrialmente, molti
dei quali ricorrenti anche nelle collezioni artistiche. I campioni Resinkit®
hanno dimensione e forma standardizzati, sono accompagnati da una
scheda descrittiva, e si presentano
con il colore e l’apparenza originali
della resina (trasparente, opaca,
colorata, ecc., illustrata in Fig. 1).
Come noto, molte proprietà fisiche
dei materiali plastici, come la consistenza, la durezza, le proprietà ottiche, ecc., possono essere variate
includendo additivi diversi nella stessa matrice polimerica, in modo da
N. 02ƒ
;2010
▲
ottenere, anche con l’ausilio di
opportuni processi di lavorazione,
materiali chimicamente simili ma
con caratteristiche finali molto diverse. In questo studio sono stati investigati alcuni aspetti legati alla misura della riflettanza nella regione UVVis-NIR su materiali appartenenti a
una stessa classe polimerica, ma
diversi per colore e livello di opacità/trasparenza a causa della presenza di differenti additivi e/o plastificanti.
È stato quindi selezionato un sottoinsieme di campioni, costituito da otto
varietà di polipropilene, con proprietà ottiche e meccaniche (Tab. 1). Le
caratterizzazioni spettroscopiche sono state eseguite in riflettanza, utilizzando due strumentazioni diverse in
modo da poter studiare, in base al
confronto interstrumentale, come la
geometria di misura e le procedure
sperimentali possano influire sul dato
spettrale, modificandolo. Sono state
utilizzate una strumentazione da
banco e una portatile: a) uno spettrofotometro a doppio raggio, mod. Perkin-Elmer Lambda 1 050, operante
nell’intervallo spettrale 200-2 500 nm
ed equipaggiato con una sfera integrante da 60 mm, con geometria di
illuminazione/ripresa 0°/d, tale da
escludere la componente speculare
della componente riflessa; b) un sistema portatile FORS (Fibre Optic Reflectance Spectroscopy) integrato, costituto da una coppia di spettroanalizzatori Zeiss MCS 601 e MCS 611 NIR
2.2 W, operante nell’intervallo spettrale 350-2 100 nm. Tale sistema è
corredato di fibre ottiche e testa di
misura con geometria di illuminazione/ripresa 0°/2x45° (Fig. 2).
Per ciascuna strumentazione, le
misure su ogni campione sono state
ripetute in due diverse configurazioni, al fine di estrarre informazioni
sul diverso grado di trasparenza dei
vari campioni. È evidente che la
comprensione di questo aspetto è
importante quando si debbano misurare campioni semi-opachi, in cui
non sono realizzate le condizioni
ideali né per una misura in trasmittanza né per una misura in riflettanza. La prima configurazione utiliz-
GLI
ALTRI TEMI
impossibile effettuare una caratterizzazione spettrale apponendo una
superficie riflettente dietro l’area di
misura.
Riassumendo per ogni campione
sono quindi stati acquisiti quattro
spettri medi, relativi alle quattro diverse geometrie di misura: 1) spettrofoFigura 2 – Strumentazione FORS (Zeiss
tometro, 0°/d, con Spectralon® 99%;
MCS600 e MCS611 NIR 2.2 W) equipaggiata
2)
spettrofotometro, 0°/d senza
con fibre ottiche e sonda di misura 0°/2x45°
per acquisizione di spettri di riflettanza in situ Spectralon® 99%; 3) spettroanalizzatore, 0°/45° con Spectralon® 99%;
4) spettroanalizzatore,
0°/45° senza Spectra®
Tabella 1 – Campioni di polipropilene Resinkit analizzati
lon® 99%.
N. Resinkit®
26
27
28
36
38
44
45
46
Nome
L’ANALISI
Polypropylene homopolimer
SPETTRALE: RISULTATI
Polypropylene copolimer
Polypropylene barium sulfate
L’analisi delle caratteriPolypropylene glass filled
stiche spettrali nell’interPolypropylene flame retardant
vallo esteso UV-Vis-NIR
Talc reinforced polypropyilene
(200-2 500 nm) consenPolypropylene calcium carbonate reinforced te di osservare simultaMica reinforced polypropylene
neamente diverse pro-
zata ha previsto il posizionamento
di uno standard bianco di riflettanza
(Spectralon® 99%) dietro il campione di plastica. Questo standard era
lo stesso utilizzato anche per la taratura della strumentazione.
Nella seconda configurazione i campioni sono stati misurati tal quali,
senza apporvi dietro alcun materiale
riflettente. Nel caso delle misure
FORS, basate sull’utilizzo della sonda
collegata allo strumento mediante
fibre ottiche, questa configurazione è
stata realizzata poggiando il campione su un apposito supporto cavo in
materiale non riflettente.
Con il primo tipo di configurazione
è stato possibile massimizzare il
segnale di riflettanza per i campioni
trasparenti o semitrasparenti, migliorando notevolmente il rapporto segnale/rumore rispetto alle misure effettuate senza lo standard bianco
dietro al campione. La seconda configurazione, senza Spectralon® dietro al campione, ha avuto invece lo
scopo di simulare una condizione
più realistica di misura su un oggetto d’arte. È infatti evidente che nella
maggior parte dei casi reali è
prietà del materiale. La
regione 200-380 nm evidenzia eventuali bande di assorbimento della
radiazione UV, e dà un’indicazione
sulla suscettibilità del materiale al
degrado foto-indotto; la regione del
visibile (380-750 nm) permette di
caratterizzare il materiale dal punto
di vista del colore e delle proprietà
ottiche (trasparenza, lucentezza, opacità, ecc.); la regione del NIR (7502 500 nm) fornisce indicazioni composizionali relative alla presenza di
gruppi funzionali caratteristici del
materiale analizzato e utili sia per l’identificazione dei composti sia per
monitorare eventuali alterazioni chimiche, indici di fenomeni di degrado.
In Fig. 3 è riportato un grafico comparativo degli otto spettri di riflettanza
acquisiti sugli standard di polipropilene con spettrofotometro nella configurazione 0°/d e con lo Spectralon®
99% dietro al campione. Si può osservare che, a parte un fattore di intensità, gli spettri non presentano differenze nella regione NIR, indicativa delle
caratteristiche composizionali dei
campioni. Questo è in accordo con
quanto atteso, poiché tutti i campioni
appartengono alla stessa classe chi-
T_M ƒ 115
mica. Viceversa, le diverse caratteristiche ottiche e cromatiche, che i campioni di polipropilene presentano in
virtù della diversa tipologia e quantità
di additivi, danno luogo a differenze
di banda osservabili nella regione
UV-Vis. Si può inoltre osservare che,
trattandosi di campioni con spessore
identico e analoga composizione chimica, la variazione d’intensità del
segnale di riflettanza è ovviamente
legata al diverso grado di trasparenza alla radiazione nell’intervallo considerato.
Le misure sono state effettuate con
Spectralon® 99% posizionato dietro il
campione.
Per analizzare il ruolo della trasparenza nel modificare il dato spettrale
sono stati invece confrontati spettri
acquisiti con geometrie e configurazioni diverse su uno stesso campione.
Tale confronto è qui riportato in tre
T_M ƒ 116
N. 02ƒ
; 2010
▲
GLI
ALTRI TEMI
Inoltre, anche le due
diverse configurazioni
strumentali (FORS e Perkin-Elmer) danno spettri
praticamente equivalenti, anche se è presente
una lieve diminuzione
Figura 3 – Spettri di riflettanza acquisiti con spettrofotometro
nella riflettanza nel caso
in configurazione 0°/d
degli spettri FORS dovuta alla differente geometria di misura.
casi rappresentativi: il campione n. Nel campione n. 36 si osserva invece
46, di colore scuro e del tutto opaco una differenza, particolarmente mar(non trasparente), il n. 36 di aspetto cata nel caso della misura con geolattiginoso e trasparenza intermedia, metria 0°/d, tra gli spettri acquisiti con
il n. 26 bianco trasparente. Gli spettri e senza Spectralon® 99% dietro il
di riflettanza nella regione UV-Vis, campione. In questo caso la semi-traottenuti con le quattro configurazioni sparenza del campione, apprezzabile
descritte sopra, sono riportati nelle a occhio nudo, si manifesta con una
Figg. 4-6.
forte diminuzione d’intensità del seNel campione n. 46, totalmente gnale di riflettanza nella configurazioopaco (non trasparente), gli spettri ne senza Spectralon® 99%. Il ruolo
acquisti con e senza Spectralon® 99% dello Spectralon® 99% dietro al camdietro sono sostanzialmente identici. pione è infatti quello di “intensificare”
ottenere il massimo segnale di
misura, ma non è utilizzabile per
misure di tipo quantitativo, poiché in questo caso l’intensità non
è direttamente correlabile allo
spessore attraversato utilizzando
la legge di Lambert-Beer.
Infine, i dati ottenuti sul campione n. 26, quasi totalmente
trasparente, mostrano come
Figura 4 – Resinkit® n. 46 Polipropilene rinforzato con Mica
di colore marrone scuro e non trasparente
una variazione sia di strumento
sia di configurazione (con e
senza Spectralon® 99% dietro)
possano influenzare lo spettro
in modo ancora più marcato
(Fig. 6).
Infatti, nel caso della misura
FORS, in cui la radiazione
retro-diffusa dalla plastica è
raccolta soltanto lungo la direzione 45° rispetto a quella di
incidenza, il valore di riflettanza è molto debole (inferiore al
10%), anche quando si utilizzi
lo Spectralon® 99% per recuperare parte della radiazione
dispersa. Questo perché in
condizioni di forte trasparenza
il segnale retro-diffuso è debole
Figura 5 – Resinkit® n. 36 Polipropilene rinforzato con fibra
e sono necessari accorgimenti
vetro di colore bianco e aspetto lattiginoso e semi-trasparente per incrementarlo, sommandone i contributi su varie direzioni. In effetti, si osserva che realizzando queste condizioni di
misura, ossia utilizzando lo
Spectralon® 99% e la sfera
integrante è possibile ottenere
uno spettro attendibile.
Lo studio effettuato evidenzia
come lo spettro di riflettanza
nelle plastiche possa essere
considerato attendibile e informativo purché si riesca a separare il contributo delle proprietà ottiche macroscopiche (trasparenza – opacità) da quello
degli assorbimenti molecolari
nel determinare la forma spettrale.
Questo è particolarmente im®
Figura 6 – Resinkit n. 26 Polipropilene co-polimero
portante
nella regione UV-Vis e,
di colore bianco e trasparente
quindi, ogni qualvolta si voglia
fare una caratterizzazione colorimeil debole segnale che raggiunge il rive- trica e un monitoraggio delle alteralatore.
zioni cromatiche del materiale è
Occorre sottolineare che questo ac- necessario confrontare spettri ottenuti
corgimento è senz’altro ottimale per in configurazioni di misura diverse,
▲
GLI
ALTRI TEMI
tali da evidenziare quanto segnale sia
perso a causa della parziale trasparenza, e come questa perdita possa
influenzare lo spettro. Nei casi in cui
la trasparenza risulti giocare un ruolo
non trascurabile, occorrerà quindi
adottare accorgimenti e geometrie di
misura che ne minimizzino l’impatto
in considerazione di misure da effettuarsi su opere d’arte e in situ.
RINGRAZIAMENTI
Il presente studio si inquadra nella
ricrea svolta nell’ambito del Progetto
EC POPART, finanziato dalla Comunità Europea nell’ambito del 7° Programma Quadro FP7/2007-2013
(grant agreement n° 212218).
BIBLIOGRAFIA
1. Y. Shashoua, Conservation of Plastics,
Butterworth-Heinemann Elsevier, Oxford
(2008).
2. O. Chiantore, Le materie plastiche dell’arte contemporanea e la loro trasformazione e decadimento, in Arte Contemporanea. Conservazione e restauro a cura di
S. Angelucci, Nardini Editore, Firenze
(1994), 131-156.
3. http://popart.mnhn.fr
4. P. Walter, "Preserving the plastic past",
Chemistry & Industry (GB) 8th Feb. 2010,
14-15
5. M. Bacci, A. Casini, M. Picollo, B.
Radicati, L. Stefani, Integrated non-invasive technologies for the diagnosis and conservation of the cultural heritage, Journal
of Neutron Research, 14/1, (2006), 1116.
6. M. Bacci, R. Bellucci, C. Cucci, C. Frosinini, M. Picollo, S. Porcinai and B. Radicati, Fiber Optics Reflectance Spectroscopy in the Entire VIS-IR Range: a Powerful Tool for the Non-invasive Characterization of Paintings, in Materials Issues in Art
and Archaeology VII, edited by Pamela B.
Vandiver, Jennifer L. Mass, and Alison
Murray (Mater. Res. Soc. Symp. Proc.
852, Warrendale, PA, (2005), pp. 297 302.
7. M. Bacci, D. Magrini, M. Picollo, M.
Vervat, A Study of the Blue Colors used by
Telemaco Signorini (1835-1901), Journal
of Cultural Heritage, 10 (2009), 275280.
8. www.resinkit.com
T_M ƒ 117
N. 02ƒ
; 2010
▲
NEWS
NUOVI ENCODER OTTICI
RIVOLUZIONANO
IL FEEDBACK DI POSIZIONE
Renishaw, leader mondiale nel settore degli
encoder e delle tecnologie di misura, ha sviluppato Resolute™, un encoder ottico assoluto, a passo fine che garantisce un'eccellente
protezione dalle contaminazioni e, grazie
alle sue straordinarie specifiche, apre nuovi
orizzonti nel settore del feedback di posizione. Resolute™ è il primo encoder assoluto al
mondo in grado di fornire una risoluzione di
27 bit a 36 000 giri/min. Inoltre può raggiungere l'incredibile risoluzione di 1 nanometro alla velocità di 100 m/s, in applicazioni sia angolari sia lineari.
Il nuovo sistema legge un'esclusiva traccia
ottica singola ed è in grado di acquisire la
posizione assoluta già all'accensione,
senza batterie tampone, eliminando completamente la necessità di eseguire una
procedura di zero. Grande robustezza,
velocità e una risoluzione senza pari rendono i nuovi encoder estremamente inte-
vuol anche dire scansioni migliori, un controllo ottimale della velocità e la massima
rigidezza nel mantenimento della posizione
di sistemi lineari o rotativi a motorizzazione
diretta.
Resolute™ non utilizza la tecnica convenzionale, che prevede l'utilizzo di due tracce
affiancate (una incrementale e l'altra assoluta) che producono inevitabilmente problemi
di sfasatura in presenza di lievi disallineamenti angolari. Questo nuovo encoder assoluto adotta invece una riga ottica assoluta a
traccia singola, che combina in un unico
codice tutte le informazioni sulla posizione
assoluta e sulla fase incrementale. Ciò permette di godere di tolleranze più ampie, per
installazioni semplici e rapide, e di una maggiore affidabilità a lungo termine, anche nei
casi in cui le strutture si assestino nel corso
del tempo. Per semplificare ulteriormente le
operazioni di installazione e diagnostica,
Resolute™ include un LED di allineamento
integrato nel lettore.
ressanti, ad esempio, per i produttori di
torni ad alte prestazioni, ma anche di assi
più lenti, con altissimi requisiti di precisione e integrità di controllo.
L'encoder assoluto Resolute™ utilizza una
nuova e sofisticata ottica che consente di leggere la traccia di passo 30 µm con un bassissimo rumore (jitter <10 nm RMS) e raggiunge una stabilità di posizionamento stupefacente. Il metodo di rilevamento avanzato produce intrinsecamente un errore sottodivisionale ridottissimo (±40 nm) per garantire
una migliore finitura della superficie alle Per ulteriori informazioni:
parti lavorate con le macchine CNC. Questo www.renishaw.it
NUOVI STRUMENTI PER LA MISURA DI UMIDITÀ,
TEMPERATURA E PRESSIONE
I principali dati sulle condizioni ambientali, ma anche data e ora, sempre a portata di mano: grazie ai nuovi strumenti Testo per umidità e temperatura, non è più
necessario eseguire complicate analisi dei dati su PC, risparmiando così tempo e
denaro.
Il nuovo termoigrometro testo 623 è lo strumento ideale per i Facility Manager, grazie alla funzione di registrazione delle misure. I valori impostati sono realmente tali?
Con testo 623 è possibile rispondere rapidamente a questo tipo di domande. Lo
strumento visualizza le misure in corso e i valori precedentemente rilevati sull’ampio
display, facilmente leggibile. L’utente può vedere sull’istogramma i valori di umidità
o temperatura divisi in intervalli di un’ora, 2 ore, 12 ore,
un giorno o 12 giorni. La memoria dello strumento è in
grado registrare i dati delle ultime dodici settimane.
Misura precisa di umidità,
temperatura e pressione
Oltre a temperatura e umidità, il modello testo 622
misura anche la pressione ed è particolarmente indicato per i laboratori. Sull’ampio display, facilmente leggibile, visualizza le misure in corso, data e ora. Fornisce
quindi in modo istantaneo tutti i valori principali per i
protocolli. Un’apposita funzione di recall segnala quando effettuare la taratura. Grazie al software opzionale
Testo per la taratura, l’utente può effettuare queste operazioni direttamente in campo.
Per ulteriori informazioni:
www.testo.it/clima
T_M ƒ 118
GLI
ALTRI TEMI
▲
MISURE E PROVE NON DISTRUTTIVE
Enrico Dati, Laura Manduchi
Termografia lock-in
e sue applicazioni a controlli di particolari aerodinamici
LOCK-IN THERMOGRAPHY AND ITS APPLICATIONS TO THE
CONTROL OF AIRCRAFT COMPONENTS
Lock-in thermography shows promises among thermographic techniques for
a number of applications, due to its inherent noise-free nature. Modern
detectors allow the applicability of this technique in a compact set-up, suitable for applications such as the monitoring of defects on aircraft components, and extend its potential to composite materials. The paper describes
two examples of non-destructive measurements of aircraft parts with induced
defects by means of the technique, and discusses the main sources of measurement errors and the means of overcoming them.
RIASSUNTO
Tra le tecniche termografiche, la termografia Lock-in si dimostra promettente per un gran numero d’applicazioni, a causa della sua intrinseca insensibilità al rumore. I moderni rivelatori consentono set-up compatti, idonei per
applicazioni quali il monitoraggio di difettosità in componenti aeronautici.
L’articolo descrive due esempi di misure non distruttive su parti aeronautiche con difettosità indotte, utilizzando la tecnica Lock-in, e discute le principali sorgenti di errori di misura e le modalità di correzione.
TERMOGRAFIA LOCK-IN:
UN’EVOLUZIONE
DELLA TERMOGRAFIA IR
La termografia si basa sulla rivelazione delle radiazioni infrarosse che vengono emesse da qualsiasi corpo a
una temperatura superiore allo zero
assoluto. Tale rivelazione avviene attraverso opportuni sensori che operano senza contatto con il corpo in esame, permettendo, attraverso un’opportuna elaborazione del segnale, di
determinarne la temperatura.
Le applicazioni della termografia coprono i settori più diversi: da quello
energetico alle infrastrutture, dai trasporti e dal settore aeronautico alla
conservazione dei beni culturali e al
medicale. Nel settore aeronautico la
termografia può essere utilizzata
come metodologia di controllo non
distruttivo nelle ispezioni periodiche
di particolari per la rilevazione di
eventuali difetti che si possono generare durante la vita operativa del velivolo. Infatti, se il pezzo viene opportunamente stimolato, la presenza di
un difetto costituisce un ostacolo alla
normale diffusione del calore, producendo locali disomogeneità nella distribuzione delle temperature superficiali, evidenziabili mediante l’uso di
videocamere nell’infrarosso. L’uso della termografia nel settore delle misure
e dei controlli non distruttivi è oggi in
rapida crescita, in relazione ai grandi
vantaggi che questa tecnica può offrire: le mappe termiche sono ottenibili
in pochi secondi e consentono di ispezionare grandi superfici senza alcun
contatto con i particolari controllati
con una notevole riduzione dei tempi
di fermo macchina. Inoltre la tecnica è
applicabile anche al controllo di
materiali innovativi, quali i materiali
compositi, per i quali molte delle tecniche classiche non sono applicabili.
La maggior parte dei sensori termici
utilizzati finora (siliciuro di platino,
antimoniuro di indio o telluriuro di
cadmio e mercurio) operavano nella
prima finestra atmosferica (λ = 2 ÷ 5
µm) e richiedevano complessi sistemi
di raffreddamento, ad es. con azoto
liquido. I recenti sensori microbolome-
T_M
trici non richiedono raffreddamento e
operano nella seconda finestra atmosferica (λ = 8 ÷ 14 µm). Inoltre i sensori più recenti sono di tipo Focal
Plane Array (FPA) e permettono di
ottenere, senza sistemi di scansione
meccanica, una vera e propria mappatura (termogramma) della distribuzione superficiale della temperatura,
dalla quale si possono ricavare utili
informazioni sui particolari in esame.
La termografia tradizionale risente tuttavia di alcuni limiti dovuti a disturbi
quali disomogeneità di riscaldamento, riflessioni di sorgenti di calore presenti dell’ambiente di lavoro e coefficienti di emissività non omogenei, che
possono inficiare l’esito del controllo.
Inoltre, materiali a elevata conducibilità sono soggetti a propagazioni termiche troppo rapide, che portano ad
ottenere immagini poco contrastate o
non rilevabili con sistemi convenzionali. L’evoluzione della tecnica termografica è pertanto passata attraverso
l’elaborazione del segnale termico,
che mediante il processo di modulazione individua e separa il segnale
reale dai segnali di rumore. Nel caso
della termografia, viene modulato il
calore che investe il particolare in
esame e si analizzano le immagini
termografiche dell’evento sulla base
dei parametri di modulazione.
Nella Termografia Lock-in, che si sta
maggiormente diffondendo sia per le
applicazioni nel campo dei controlli
non distruttivi sia per gli impieghi nel
settore della stress-analysis, la modula-
Centro sperimentale di Volo di Pratica
di Mare, Aeronautica Militare - Articolo
presentato al Convegno Annuale
dell’Associazione Italiana Prove
non Distruttive (AIPnD) – Roma 2009
[email protected]
N.
2/10 ƒ 119
N. 02ƒ
; 2010
▲
GLI
ALTRI TEMI
zione di temperatura indotta da un
riscaldatore con andamento sinusoidale sulla superficie del particolare si propaga come “onda termica”. Questa subisce riflessioni, pertanto la modulazione di temperatura sulla superficie è modificata dall’onda termica che ritorna
dall’interno del particolare.
In corrispondenza di ogni pixel dell’array, mediante una semplice analisi
di quattro immagini con sfasamento
reciproco di un quarto di periodo, è
possibile ottenere lo sfasamento tra
l’energia immessa e la risposta termica locale (φ), e l’ampiezza massima
del segnale termico periodico (A),
secondo le seguenti formule:
−1
φ( x , y ) = tan (
S1( x , y ) − S3( x , y )
)
S2 ( x , y ) − S 4 ( x , y )
2
2
A( x , y ) = (S1( x , y ) − S3( x , y )) + (S2 ( x , y ) − S 4 ( x , y ))
T_M ƒ 120
Mentre l’immagine in ampiezza è
ancora dipendente da disomogeneità
d’assorbimento della superficie, d’emissione infrarossa e di distribuzione
del riscaldamento, l’immagine in fase
ne è immune, risultando più affidabile
e sensibile. Inoltre con l’analisi in fase
la profondità teorica alla quale un
difetto può essere rilevato (µ) è circa il
doppio di quella ottenibile con l’analisi in ampiezza e vale:
µ=
già da alcuni anni presso il Centro
Sperimentale di Volo dell’Aeronautica
Militare, si è operato con lampade
alogene collegate a un generatore di
segnale variabile in ampiezza e frequenza (Fig. 1). Al PC arrivano sia i
segnali provenienti dalla termocamera sia il segnale di controllo del gene-
2k
ωρC p
dove k è la conducibilità termica del
materiale, ω è la velocità angolare
dell’onda sinusoidale, ρ la densità e
Cp la capacità termica.
La modulazione sinusoidale può essere ottenuta con diversi metodi. In particolare negli studi che sono in corso
Figura 1 – Set-up strumentale utilizzato
per la tecnica termografica Lock-in
con stimolazione ottica
N. 02ƒ
;2010
L’ampiezza dello sfasamento tra il centro del
difetto e la zona senza
difetti dipende dalla frequenza di modulazione del segnale termico.
Essa è evidenziata sperimentalmente dal grafico di Fig. 3, ottenuta
per i fori del campione
n. 2, per frequenze di
modulazione che variano da 0,03 a 1 Hz. Si
nota che la differenza
di fase presenta un
massimo nella zona
compresa tra 0,1 e
0,2 Hz.
▲
ratore che regola la potenza delle
lampade. Un apposito software elabora i dati in modo da fornire le due
immagini in fase e ampiezza.
Il set-up strumentale è stato impiegato
per valutare disomogeneità di varie
dimensioni e profondità presenti su
particolari aeronautici. Il primo studio
è stato effettuato su particolari in Al,
mentre il secondo è stato effettuato su
materiali compositi in fibra di carbonio. In entrambi i casi sono state effettuate prove preliminari per trovare le
condizioni migliori per il controllo del
punto d’inizio acquisizione, del periodo di preriscaldamento, della potenza
delle lampade e del numero dei cicli
di acquisizione. Si è quindi valutata
l’influenza della frequenza di acquisizione sulla rilevabilità dei difetti.
GLI
ALTRI TEMI
Figura 3 – Campione n. 2: differenza tra le fasi dei segnali termici in corrispondenza dei centri dei fori a diversa profondità e nelle zone sane
in funzione della frequenza di modulazione del riscaldamento (riscaldamento effettuato con lampada da 1000 W posta a 60 cm dal blocco)
STUDIO SUI PARTICOLARI
IN ALLUMINIO
Nella Fig. 2 sono riportati i risultati
dello studio effettuato sui particolari in
Al. Le Figg. 2.a e 2.b mostrano le
immagini di fase (rappresentate a
falsi colori) ottenute alla frequenza di
modulazione di 0,1 Hz su due blocchi
di Al preventivamente verniciati con
una pittura a elevata emissività. Il
primo blocco (n. 1) presentava quattro difetti (fori a fondo piatto) di diverso diametro (fra 15 e 40 mm) posti a
uguale profondità (1 mm dalla superficie in esame). Il secondo (n. 2) presentava quattro difetti di uguale diametro (40 mm) posti a differenti profondità (tra 1,5 e 4 mm dalla superficie d’esame). Come si evince dalle
immagini, a questa frequenza tutti i
difetti risultano ben rilevabili.
Figura 4.a – Andamento dello sfasamento
del segnale termico lungo la linea
congiungente i centri dei fori a frequenza
0,125 Hz per il blocco campione in Al n. 1
Nelle Figg. 4.a e 4.b sono poi rappresentati gli andamenti dello sfasamento del segnale termico sulla superficie dei campioni n. 1 e n. 2 rispettivamente, lungo la linea congiungente
i centri dei fori alle frequenze di
picco. Questi andamenti, e le corrispondenti derivate, consentono d’evidenziare i bordi dei fori e di misurare
i diametri.
Per confrontare i risultati sperimenta-
Figura 2 – Termografia in fase dei blocchi campione alla frequenza di 0,1 Hz.
2.a: blocco n. 1; 2.b: blocco n. 2
Figura 4.b – Andamento dello sfasamento
del segnale termico lungo la linea
congiungente i centri dei fori a frequenza 0,1
Hz per il blocco campione in Al n. 2
Figura 5 – FEA del blocco campione in alluminio n. 2
tenendo conto del contributo della riflessione
della lampada
li con i valori teorici, gli sfasamenti
e le variazioni di ampiezza dei
segnali termici dovuti alla presenza
di difetti per diverse frequenze sono
stati calcolati mediante analisi agli
elementi finiti (FEA). Il grafico di Fig.
5 mostra l’ampiezza dello sfasamento nelle condizioni di Fig. 3 ed
evidenzia un buon accordo con i
valori sperimentali, a condizione di
T_M ƒ 121
considerare anche il contributo di
riflessione della lampada, valutato
come segnale termico in fase con il
riscaldamento e con ampiezza intorno agli 0,5 °C.
L’approccio numerico ha permesso
di evidenziare come il segnale riflesso causa una consistente riduzione
dello sfasamento del segnale termico che aumenta all’aumentare della
frequenza. In realtà piccoli difetti
produrrebbero, in assenza di riflessione, una maggior differenza di
fase soprattutto ad alte frequenze,
ma la bassa intensità del segnale
prodotto all’aumentare della frequenza fa sì che, in condizioni reali,
il contributo del segnale riflesso
mascheri quasi completamente l’indicazione. Pertanto quanto più si
riesce a minimizzare l’effetto della
riflessione, applicando per esempio
una pittura con emissività molto elevata o facendo uso di una fonte di
riscaldamento a ultrasuoni o laser,
tanto maggiore potrà essere la frequenza di lavoro, con aumento della
differenza di fase tra difetto e zona
sana. A titolo di esempio, per le
tipologie di difetti esaminati le condizioni ottimali individuate cadono
nel campo tra 0,1 e 0,3 Hz.
STUDIO SUI PARTICOLARI
IN FIBRA DI CARBONIO
N. 02ƒ
; 2010
▲
GLI
ALTRI TEMI
no difetti di diverso diametro e posti
a diverse profondità. Nel caso dei
compositi è stato necessario effettuare un preriscaldamento di diversi
cicli prima di avviare l’acquisizione: infatti operando in regime transitorio si era rilevata un’eccessiva
variabilità dei risultati in funzione
del punto d’inizio acquisizione, e
una mancanza di riproducibilità
delle misure. La Fig. 6 mostra i risultati ottenuti alla frequenza di 0,015 Hz
per i due blocchi utilizzati per il
controllo.
Al pari dei campioni precedenti,
anche in questo caso si è valutata l’influenza della frequenza di lavoro
sulla rilevabilità dei difetti nei due
diversi blocchi utilizzati. Si è potuto
rilevare come vi sia uno spostamento
del massimo sfasamento verso frequenze più alte al diminuire delle
dimensioni del difetto e al diminuire
della profondità.
Riassumendo i risultati ottenuti per i
diversi provini è stato possibile ottenere, per ciascuna frequenza,
curve che esprimono la differenza
di fase in funzione della profondità
e delle dimensioni dei fori. Dall’esame di questi risultati è possibile
notare come un provino in materiale composito di 4 mm di spessore
possa essere controllato per tutto il
suo spessore applicando frequenze
inferiori a 0,03 Hz. All’aumentare
della frequenza i difetti più profondi non sono più rilevabili, mentre si
evidenziano meglio i difetti subsuperficiali anche di piccole dimensioni.
TERMOGRAFIA LOCK-IN:
UNA VALIDA ALTERNATIVA
Le prove effettuate hanno messo in
evidenza come la termografia Lockin consenta di ottenere risultati affidabili e abbia una sensibilità comparabile con quella di altre tecniche
d’indagine non distruttive per il controllo di particolari in alluminio e in
materiale composito. In particolare,
nei controlli di questi ultimi materiali
la termografia Lock-in rappresenta
una valida alternativa al controllo
mediante ultrasuoni presentando,
rispetto a questi ultimi, i vantaggi di
non richiedere il contatto con il
pezzo e di permettere di ottenere
mappature di superfici anche estese
in tempi notevolmente ridotti.
Enrico Dati, T. Col.
GARN. Laureato in Chimica Industriale. In servizio presso il Reparto Chimico del Centro Sperimentale Volo. Dal 1/2/01 Capo Sezione Tecniche Ottiche e Termografiche,
dal 1/9/09 Capo Gruppo CND.
Attività: Elaborazione procedure di controllo CND su particolari e strutture
aeronautiche, effettuazione di controlli
CND straordinari su particolari aeronautici e studi e sperimentazione di tecniche CND avanzate.
Laura Manduchi, Cap.
Laureata in Chimica, DotI blocchi campione utilizzati per lo
torato di Ricerca in Scienstudio sui materiali compositi in
ze Chimiche. In servizio
fibra di carbonio erano simili a
presso il Reparto Chimico
quelli utilizzati per l’Al e contenevadel Centro Sperimentale Volo. Dal
10/10/07 Capo
Sezione Tecniche
Ottiche e Termografiche.
Attività: Elaborazione procedure di
controllo CND su
particolari e strutture aeronautiche,
effettuazione
di
controlli
CND
straordinari su particolari aeronautici
e studi e sperimenFigura 6. – 6.a – Termografia in fase del blocco campione in CFRP con fori di diverso diametro
tazione di tecniche
e uguale profondità alla frequenza di 0,1 Hz. 5.b: Termografia in fase del blocco campione
CND avanzate.
in CFRP con fori di diametro uguale e diversa profondità alla frequenza di 0,1 Hz
T_M ƒ 122
GLI
ALTRI TEMI
▲
MISURE MECCANICHE
Davide Bruzzi*, Alberto Corbelli*, Alessandro Rivola*, Paolo Tortora*,
Giulio Camauli**
Test di vibrazione condotti
sul microsatellite ALMASat-1
Una collaborazione Università-Industria di successo
VIBRATION TESTS CONDUCTED ON THE ALMASAT-1 SATELLITE
The article presents activities for space flight qualification of ALMASat-1
satellite’s subsystems, conducted by the vibration test laboratory of the 2nd
Faculty of Engineering, Bologna University, Forlì branch. Vibration tests
have been conducted on the individual subsystems that are part of the university microsatellite, to verify the robustness of the different components
under stress during the space launch that will be made by the Vega launcher, which will host ALMASat-1. To run the tests the laboratory used the
electrodynamic shaker Dongling ES-2-150 and its control and acquisition
platform LMS Test.Lab/SCADAS III, provided by LMS Italiana.
RIASSUNTO
Il presente articolo illustra e riassume l’attività di qualifica al volo spaziale
dei sottosistemi del satellite ALMASat-1 svolta presso il laboratorio per
prove di vibrazione della Seconda Facoltà di Ingegneria dell’Università di
Bologna, sede di Forlì. Nello specifico, vengono presentati i test di vibrazione condotti sui singoli sottosistemi che compongono il microsatellite universitario, allo scopo di verificare la robustezza dei diversi componenti alle
sollecitazioni previste durante il lancio, che avverrà mediante il lanciatore
VEGA, a bordo del quale ALMASat-1 sarà alloggiato. Per l’esecuzione dei
test il laboratorio ha utilizzato uno shaker elettrodinamico Dongling ES-2150 e la relativa piattaforma di controllo e acquisizione LMS Test.Lab/SCADAS III, forniti da LMS Italiana.
IL MICROSATELLITE ALMASAT-1
di puntamento tipica di payload quali
camere ottiche e multispettrali. Il sistema di determinazione d’assetto è
composto da quattro sensori di Sole
(progettati e sviluppati da UniBO) e
due magnetometri. Il sistema di controllo d’assetto è invece composto da
una ruota di momento in rotazione
attorno all’asse di pitch e da tre coppie di bobine magnetiche tra loro
ortogonali.
ALMASat-1 include anche un sistema
di micropropulsione come payload
tecnologico, anch’esso interamente
progettato, sviluppato e assemblato
presso l’UniBO, in collaborazione con
Carlo Gavazzi Space, la quale ha
prodotto i microthruster. Tale impianto
impiegherà per la propulsione gas
freddo inerte (azoto) e sarà in grado
di produrre una spinta prevista
costante di 0,75 mN ad una pressione costante di 0,1 MPa.
Il sistema di comunicazione è composto da tre blocchi principali che lavorano a diverse bande di frequenza:
un sistema in banda VHF verrà utilizzato come canale di uplink per dati e
telecomandi dalla stazione di terra,
mentre un secondo sistema in banda
UHF costituirà il canale principale di
downlink per le informazioni di telemetria del satellite. La missione ALMASat-1 ospiterà a bordo anche un sistema di comunicazione in banda S
(sempre sviluppato da UniBO) ad elevato data-rate (fino a 38 400 bps).
Il sistema di potenza di ALMASat-1,
infine, si compone di tre parti principali: pannelli solari, batterie e una
scheda dedicata alla gestione della
potenza in gioco. Mentre i primi due
di volume, puntamento e potenza.
Molti dei sottosistemi di ALMASat-1 venALMASat-1 è il primo microsatellite gono assemblati impiegando tecnolointeramente progettato, prodotto e gie disponibili in commercio, garantenassemblato presso l’Università di Bolo- do in questo modo la capacità di allegna (UniBO). ALMASat-1 è stato pro- stire missioni low-cost e con rapida
gettato come una piattaforma multi- risposta. Il microsatellite consiste in un
scopo che può, con piccoli aggiusta- prisma cubico, con una struttura modumenti, essere utilizzata per diverse lare di cassetti in alluminio e quattro
missioni, grazie alla capacità di allog- pannelli laterali in nido d’ape di fibra di
giare payload con differenti proprietà carbonio e Nomex (Fig. 1).
Il sistema di
determinazione e controllo d’assetto fornisce
una stabilizzazione a tre
assi con puntamento *
verso Nadir Seconda Facoltà di Ingegneria,
in modo da Università di Bologna, sede di Forlì.
soddisfare la **LMS Italiana, Novara
Figura 1 – Il microsatellite ALMASat-1
performance [email protected]
T_M
N.
2/10 ƒ 123
N. 02ƒ
; 2010
sono stati sviluppati presso l’UniBO, la scheda di gestione potenza è stata sviluppata presso l’Università di
Roma “La Sapienza” nell’ambito di una collaborazione
con Aerospower Group avviata nel 2005. Il sistema
fotovoltaico del satellite è basato su celle solari a tripla
giunzione (TJ). Il satellite possiede quattro pannelli in
honeycomb di fibra di carbonio e Nomex con celle solari all’Arseniuro di Gallio posizionate sui lati. Sul coperchio superiore del satellite è posizionata una ulteriore
serie di celle solari per un numero totale di celle pari a
sedici. Per il sistema di immagazzinamento della potenza sono impiegate batterie agli ioni di Litio: tre pacchi
da 2 600 mAh sono connessi in parallelo per aumentare la ridondanza.
SPECIFICHE DI PROVA E PROFILI DI CARICO
Sfruttando le potenzialità offerte dal sistema di test allestito presso il laboratorio per prove di vibrazioni della
Seconda Facoltà di Ingegneria, è stato possibile soddisfare pienamente le richieste del lanciatore per la qualifica al volo dei componenti di ALMASat-1. Grazie infatti alla piattaforma composta dallo shaker elettrodinamico Dongling ES-2-150 e relativo controller LMS SCADAS
III, abbinato al software LMS Test.Lab, si sono applicate
rigorosamente le specifiche imposte sia dal lanciatore
VEGA, sia dalle norme ECSS, nell’ambito di test di vibrazione relativi a sollecitazioni random e shock.
Per quanto riguarda le sollecitazioni di tipo random, le
specifiche imposte dal lanciatore dettano chiaramente i
profili di vibrazione in termini di PSD, sia a livello di
accettazione, sia di qualifica (Fig. 2). Le prove descritte
nel presente articolo sono relative a livelli di qualifica
per le schede elettroniche e i pannelli solari, mentre
magnetometro e ruota di momento sono stati testati
secondo i livelli di accettazione in quanto in configurazione di volo.
Sempre in accordo con le specifiche imposte dal lanciatore VEGA, la verifica a shock deve essere effettuata
lungo tutti e tre gli assi, con uno spettro di shock equivalente a un impulso semi-sinusoidale della durata di
0,5 ms ed ampiezza di picco di 200 g. A tale scopo, è
stato impiegato il modulo di Shock Response Synthesis
(SRS) del software LMS Test.Lab.
Figura 2 – Profili PSD per prove di vibrazione random
T_M ƒ 124
N. 02ƒ
;2010
▲
GLI
ALTRI TEMI
HARDWARE
Nella Fig. 3 è possibile osservare la
piattaforma per l’esecuzione dei test di
vibrazione allestita presso il laboratorio
per prove di vibrazione della Seconda
Facoltà di Ingegneria (sede di Forlì). Da
sinistra verso destra sono visibili nell’ordine: il PC dedicato alla gestione del
software LMS Test.Lab e al post-processing dei dati, il frontale di controllo ed
acquisizione LMS SCADAS III, lo shaker elettrodinamico Dongling ES-2-150
e l’amplificatore dedicato.
Figura 4 – 4.a: Magnetometro; 4.b: PSD target (blu)
e PSD del segnale di controllo (rosso) per il test di vibrazione random
dello shaker. Relativamente al test di vibrazione
random, la Fig. 4.b riporta, in termini di PSD, il
profilo desiderato per il
test di accettazione (linea
blu), sovrapposto al PSD
del segnale di controllo
dello shaker (linea rossa):
come si può osservare il
sistema shaker/controllo
segue fedelmente il profilo impostato all’interno
del
software
LMS
Test.Lab.
La verifica a shock compiuta sugli stessi magneFigura 3 – La piattaforma utilizzata per i test di vibrazione
tometri è stata condotta
per mezzo del modulo di
SRS del software di controllo ed acquiTEST DEI SOTTOSISTEMI
sizione LMS Test.Lab. In particolare, in
Fig. 5.a è riportato il raffronto tra lo
Per fissare correttamente i diversi com- spettro nominale imposto dal lanciatore
ponenti del microsatellite ALMASat-1 (linea blu) e quello ottenuto attraverso
alla testa dello shaker sono stati impie- sintesi equivalente (linea viola), all’intergati due expander di dimensioni oppor- no dei confini di validità della sintesi
tune appositamente studiati e realizzati nel laboratorio dell’Università di
Bologna. Sono state
quindi condotte le qualifiche dei componenti di
ALMASat-1, secondo i
requisiti precedentemente descritti.
Magnetometri – In Fig.
4.a è mostrato un magnetometro di ALMASat-1 fissato, attraverso uno dei
due expander, alla testa
stessa (tratteggio rosso). La Fig. 5.b
mostra la sequenza di impulsi risultante.
Ruota di momento – Come per le
prove di vibrazione dei magnetometri, anche la ruota di momento,
mostrata in Fig. 6.a, è stata testata
per il lancio a bordo del lanciatore
VEGA, mostrando la capacità di soddisfare i requisiti imposti. La Fig. 6.b
mostra la risposta rilevata dall’accelerometro collocato sulla ruota durante
l’esecuzione del test di vibrazione
random. Tale rilievo è utile per la
stima dei carichi agenti sui componenti più delicati dell’oggetto, motore
elettrico e cuscinetti a sfere su tutti.
Elettronica di bordo – Anche le
schede elettroniche, interamente progettate e realizzate all’interno del Laboratorio di Microsatelliti della Seconda
Facoltà di Ingegneria, sono state verificate nei confronti delle sollecitazioni
dovute alle vibrazioni previste al
momento del lancio. Un esempio di test
è riportato in Fig. 7.a: la scheda dedicata alla telemetria del
satellite è ancorata in
configurazione di volo
all’interno di un singolo
cassetto di ALMASat-1 e
testata sullo shaker. Un
dato interessante è emerso dalla ricerca delle frequenze naturali del
sistema, le quali si sono
dimostrate ben superiori
alle minime richieste dal
lanciatore per la qualifiFigura 5 – Test di shock sui magnetometri: 5.a: SRS;
ca dell’intero sistema
5.b: sequenza di impulsi nel tempo
(60 Hz).
T_M ƒ 125
Figura 6 – 6.a: Ruota di momento; 6.b: Risposta rilevata dall’accelerometro posto
sulla ruota di momento durante il test di vibrazione random
T_M ƒ 126
N. 02ƒ
; 2010
▲
GLI
ALTRI TEMI
Pannelli solari –
Sono stati infine
condotti test su un
provino di pannello solare composto
di tre celle a tripla
giunzione all’arsenurio di gallio, al
fine di verificare la
bontà sia degli
incollaggi sia del
supporto in fibra
di carbonio e Nomex (Fig. 7.b). In
questo caso si è
analizzato il comportamento
del
provino sia in configurazione orizzontale (distesa
sull’expander), sia
in posizione verticale.
N. 02ƒ
;2010
▲
GLI
ALTRI TEMI
lo è impiegato con ottimi risultati nell’esecuzione di test su componenti ad
uso terrestre in studio presso la Seconda Facoltà di Ingegneria dell’Università di Bologna.
RINGRAZIAMENTI
Figura 7 – 7.a: Scheda di telemetria e relativo cassetto; 7.b: Provino di pannello solare
CONCLUSIONI
NEWS
▼
L’analisi critica dei risultati ottenuti
durante l’intera campagna di test ha
permesso di valutare positivamente la
qualità del dimensionamento e delle
tecniche produttive utilizzate per la realizzazione dei sottosistemi del microsatellite ALMASat-1. La campagna di test
stessa è stata condotta positivamente,
IL GRUPPO KISTLER
SI AGGIUDICA
“BIG CONTRACT”
PER 3 CRASH CENTER
IN INDIA
Il Gruppo Kistler si è aggiudicato il contratto per tre centri completi di crash per lo sviluppo dell’industria automobilistica indiana. Il cliente finale di questo progetto (da
oltre venti milioni di Franchi Svizzeri) è il
National Automobile Testing and R&D Infrastructure Project (NATRIP), centro nazionale
di Ricerche e Sviluppo nell’ambito Automotive. Le acquisizioni fatte da Kistler l’anno
scorso nella divisione Automotive sono
subito risultate vincenti per questa applicazione.
L’industria automobilistica indiana sta
crescendo a un ritmo superiore rispetto al
resto del mondo. Per permettere la commercializzazione dei veicoli indiani in
tutto il mondo, i costruttori devono dimostrare di adempiere a tutte le normative a
livello mondiale riguardanti l’impatto
ambientale e gli standard di sicurezza.
Per questo motivo il Governo indiano ha
creato il NATRIP, che realizzerà tre crash
grazie alle possibilità offerte dall’intera
piattaforma di test allestita, la cui facilità di utilizzo, unita alla bontà degli strumenti installati (shaker, amplificatore e
sistema di controllo) ha permesso di
realizzare in maniera semplice e rapida un’intera sessione di qualifica per il
volo di numerose parti dell’intero satellite.
Attualmente, il sistema shaker/control-
Gli autori ringraziano lo staff di LMS
Italiana per il supporto offerto durante
le fasi di installazione, avvio e introduzione all’impiego dello shaker elettrodinamico e del software di controllo e acquisizione.
RIFERIMENTI
1. European Cooperation for Space Standardization, ECSS-E-10-02A Verification,
ESA-ESTEC, November 1998.
2. European Cooperation for Space Standardization, ECSS-E-10-03C-Draft Testing,
March 2009.
3. VEGA User Manual, Arianespace,
March 2006.
center all’avanguardia a Chennai, Pune e per l’industria automobilistica, offrendo
Delhi. Per l’assegnazione della strumenta- soluzioni e servizi al cliente come fornitore
zione da installare è stato istituito un unico di riferimento”.
I centri di crash a Chennai (GARC), Pune
bando internazionale.
L’offerta del Gruppo Kistler ha vinto una (ARAI) e Delhi (iCAT) saranno costruiti e
competizione a livello planetario sia dal messi in funzione entro i prossimi 18 mesi.
punto di vista tecnico
sia da quello economico. Le acquisizioni,
effettuate lo scorso
anno, di MSC Automotive, Corrsys-Datron e
KT Automotive hanno
decisamente rafforzato
la posizione del gruppo nel comparto Automotive, permettendo di
fornire una soluzione
chiavi in mano per l’industria automobilistica.
Come sottolineato da
Rolf Sonderegger, CEO
del Gruppo Kistler, l’assegnazione di questo
enorme contratto conferma la correttezza
della strategia di sviluppo che la multinazionale sta sviluppando nei
mercati in forte crescita
ed espansione, come
India e Cina. “Stiamo
plasmando noi stessi Stretta di mano dopo la sigla del contratto tra Saurabh Dalela
come partner globali (Direttore NATRIP) e Rolf Sonderegger (CEO Gruppo Kistler)
T_M ƒ 127
NUOVO AMPLIFICATORE
DI MISURA UNIVERSALE
A 8 CANALI
Cercate una soluzione flessibile per la
misurazione di grandezze meccaniche,
elettriche o termiche? Il nuovo amplificatore di misura MX840A di HBM supporta
ponti interi e semiponti per trasduttori ad
ER e induttivi, tensione elettrica e corrente,
trasduttori a resistenza, i comuni tipi di termocoppie, trasduttori rotativi, un ingresso
per il CAN-Bus e molto altro.
Tutti gli 8 ingressi dispongono di un convertitore AD a 24 bit, vengono acquisiti in
modo sincrono e sono isolati galvanicamente, il che garantisce un’elevata precisione di misurazione.
Grazie all’universalità del MX840A e al
supporto della tecnologia APM (Advanced
Plug & Measure) i vostri trasduttori dotati di
TEDS configurano automaticamente il
canale. Questo comporta, in termini di
vantaggi per l’utente, tempi minimi di ripreparazione nell’uso quotidiano e quindi efficienza e maggiore qualità. Nel caso non si
usino TEDS, è disponibile un’ampia e aperta banca dati sensori.
Il collegamento ethernet TCP/IP e la configurazione automatica consentono di collegarlo in modo semplice e veloce al PC. Il
completo pacchetto software comprende i
pacchetti gratuiti QuantumX Assistent,
biblioteche per l’inserimento in LabView® o
in ambienti di programmazione come
Visual Studio .NET per programmatori.
QuantumX offre un’elevata flessibilità, che
permette all’utente di eseguire numerosi
compiti di misurazione, di test e di verifica.
Campi di impiego tipici sono ad esempio i
test automatizzati dei componenti di sistema, l’acquisizione mobile dei dati di misura, i monitoraggi di lunga durata e le
applicazioni di laboratorio.
Ulteriori informazioni sono reperibili all’indirizzo web
www.hbm.com/QuantumX
T_M ƒ 128
N. 02ƒ
; 2010
▲
NEWS
MISURE DI FORZA
CON CELLE DI CARICO
IN MINIATURA
PER IMPIEGHI GRAVOSI
Le celle di carico a trazione/compressione
serie 8416 e 8417 burster, già testate in
migliaia di applicazioni, sono ora disponibili in range di misura più piccoli da 0…20 N
a 0…100 N. Ideali per applicazioni nel settore della meccanica di precisione, nell’industria ottica o nella costruzione di strumenti
di misura, le celle sono disponibili a magazzino fino a un range di 0…5000 N. Con un
diametro esterno di soli 8-9 mm si qualificano in modo eccellente per l’integrazione in
strutture piccole, limitate e strette. Grazie al
corpo del sensore (che ha un peso di soli 2
g) possono essere applicate anche su componenti leggeri e delicati. Il loro montaggio
su componenti mobili e vibranti non causa
alcun problema, in quanto la piccola massa
addizionale non influenza in modo significativo il comportamento della vibrazione delle
parti della macchina. Nonostante la loro
miniaturizzazione, le celle di carico
8416/8417 sono estremamente adatte a
impieghi industriali, grazie al cavo di connessione resistente e adatto per applicazioni
robot, all’ottima qualità di misura e al range
operativo di temperatura di 0…80 °C. La
cella di carico 8416, grazie al suo design
piatto, è destinata all’utilizzo nella micro-tecnologia o alle misure nel settore ricerca e sviluppo. La cella 8417, integrabile meccanicamente meccanicamente in fili a tensione
Bowden, cavi e barre di tensione, può essere usata anche per misure di compressione:
ad esempio, con l’aiuto di un’adeguata meccanica, consente di monitorare la forza di
connessione e rilascio di contatti plug-in,
controllare la forza di regolazione su bracci
meccanici o classificare molle in direzione
compressione e trazione.
Per ulteriori informazioni: www.burster.it
NUOVA
TERMOCAMERA:
ELEVATE
PRESTAZIONI
A UN OTTIMO PREZZO
INPROTEC presenta sul mercato italiano la
nuova termocamera NEC Avio modello
Thermo GEAR G100/G120 con sensore
infrarosso radiometrico da 320 x 240
pixel. Questa è la prima termocamera, in
un fascia di prezzo inferiore a 10 000
Euro, con prestazioni e funzioni che permettono l’utilizzo ideale in qualsiasi applicazione e situazione.
Oggi il mercato offre una grande varietà
di termocamere tutte simili in prestazioni
ed ergonomia. La Thermo GEAR G100/
G120 è stata progettata per facilitare le
riprese all’operatore anche in situazioni
difficili, con la termocamera non ad altezza degli occhi (con il braccio alzato ad
esempio).
Le principali caratteristiche per soddisfare
questa esigenza sono:
– display da 3,5” brandeggiabile in tutte
le direzioni per poter inquadrare oggetti in
basso ed in alto, con ottima visione anche
angolare;
– ottica motorizzata con autofocus;
– autorange temperatura;
– allarme a vibrazione, sonoro e a contatto aperto;
– registrazione immagini termiche automatica temporizzata.
I progettisti della nuova termocamera
hanno realizzato uno strumento che pesa
appena 800 g, con le massime prestazioni sul mercato e completo di tutti gli
accessori e software per l’analisi termica
su PC e la compilazione automatica rapporti necessari per operare in modo autonomo.
Visitando il sito www.termografi.it è
possibile analizzare le eccezionali prestazioni della Thermo GEAR e scaricare il
catalogo.
GLI
ALTRI TEMI
▲
MISURE PER LE TLC
Doris Bao, Alessio Cavuoto, Dario Nardone, Gioacchino Truglia
Test di interoperabilità DSL
Valutazione della conformità ai TR-067 e TR-100
DSL INTEROPERABILITY TESTS - TESTING CONFORMANCE
AGAINST TR-067 AND TR-100
Equipment interoperability is a key factor for the development of Digital Subscriber Line (DSL) technologies and services. The paper describes the efforts
of Telsey S.p.A. in acquiring knowledge and competences for the validation
of DSL equipment against standard requirements. The collaboration with the
University of Sannio has been essential to make the validation activities
competitive in terms of efficiency, reliability and repeatability.
RIASSUNTO
Essenziale per lo sviluppo delle tecnologie Digital Subscriber Line (DSL) e
dei servizi offerti è la verifica, secondo procedure standard, dell’interoperabilità dei dispositivi di accesso DSL. L’articolo descrive come il problema
dell’interoperabilità DSL è affrontato dalla Telsey S.p.A. che in collaborazione con l’Università del Sannio ha avviato un’attività di validazione dei
propri dispositivi DSL acquisendo le competenze specifiche necessarie a
garantire affidabilità ed efficienza nelle procedure eseguite.
INTEROPERABILITÀ
DEI DISPOSITIVI DSL
Telsey [1], azienda leader nella progettazione e produzione di dispositivi
per l'accesso e l'uso di servizi di
comunicazione multimediale a banda
larga, investe fortemente nella validazione dei propri prodotti per garantire le conformità agli standard emergenti e sviluppare soluzioni sempre
migliori e competitive per il mercato
delle telecomunicazioni. Nel corso
degli ultimi anni l’utilizzo della tecnologia Digital Subscriber Line (DSL) sta
mostrando un notevole incremento,
tanto che approssimativamente il 66%
dell’accesso a larga banda è fornito
da questa soluzione [2]. Tale diffusione è dovuta alla possibilità offerta
dalle tecnologie DSL che permettono
trasmissioni ad alta velocità attraverso
la comune linea telefonica, così che i
servizi a larga banda possono essere
forniti senza che i provider investano
ulteriormente nelle infrastrutture di
rete. L’installazione presso la casa o
ufficio dell’utente di un modem DSL o
di un Customer Premises Equipment
(CPE), utilizzando la terminologia pro-
pria degli standard DSL (Tabella 1),
permette la codifica digitale del
segnale anche nella parte della linea
telefonica lato utente (subscriber line).
Viene così garantito l’accesso a servizi integrati di video, voce e dati basati sul protocollo IP resi possibili dall’alta velocità della connessione.
L’interoperabilità delle CPE e la loro
conformità agli standard è un fattore
chiave per assicurare la riuscita del
dispositivo e lo sviluppo delle tecnologie e dei servizi DSL. La necessità di
una valutazione secondo procedure
standard dell’interoperabilità dei dispositivi di accesso DSL e della loro
conformità spinge aziende del settore
a rivolgersi a laboratori di test indipendenti oppure a dotarsi delle apparecchiature e delle competenze necessarie ad affrontare la fase di validazione.
Questo articolo descrive la stazione
di validazione e le procedure di
prova utilizzate da Telsey per testare i
propri dispositivi DSL. Frutto della
cooperazione tra Università degli
Studi del Sannio, Dipartimento di
Ingegneria, e l’Amministrazione Provinciale di Benevento è il TLC Sannio
T_M
Testing Laboratory [3, 4], un laboratorio di prove che intende fornire servizi di validazione, certificazione e
consulenza per aziende che producono dispositivi e sistemi per le telecomunicazioni. La stretta collaborazione
tra Telsey e Università del Sannio ha
dato inizio all’attività di validazione
di apparati DSL nel TLC Sannio
Testing Laboratory grazie alla condivisione delle esperienze nel settore e
delle conoscenze degli standard e
delle specifiche tecniche. Gli standard
considerati nell’articolo sono il Technical Report TR-067 [5] e il TR-100 [6],
rilasciati dal Broadband Forum [2],
rispettivamente, per il test di dispositivi ADSL (Asymmetric Digital Subscriber Line) e ADSL2/ADSL2+.
STAZIONE DI VALIDAZIONE
E PROCEDURE DI TEST
Gli standard DSL (Tab. 1) definiscono un’interfaccia comune per dispositivi realizzati da differenti aziende
produttrici così che caratteristiche
specifiche possano essere fornite
agli utenti. Gli stessi standard di riferimento possono però condurre a
implementazioni e prodotti differenti
sviluppati indipendentemente da
aziende diverse e solo i test di interoperabilità in fase di sviluppo di
una CPE permettono di garantire un
prodotto conforme agli standard e
competitivo sul mercato.
D. Bao (Univ. del Sannio, Dip. Ingegneria)
A. Cavuoto, D. Nardone, G. Truglia
(Telsey Communications spa)
[email protected]
N.
2/10 ƒ 129
N. 02ƒ
; 2010
▲
GLI
ALTRI TEMI
Tabella1 – Standard xDSL
Technology
Standard
Maximum Speed
ANSI T1.413,
ITU-T G.992.1/2
8 Mbps down, 800 kbps up
ADSL2
ITU-T G.992.3,
ITU-T G.992.4
12 Mbps down, 1 Mbps up
ADSL2+
ITU-T G.992.5
24 Mbps down, 1 Mbps up
SHDSL
ITU-T G.991.2
5.6 Mbps down & up
ADSL
Figura 1 – Stazione di test utilizzata per il Packet Throughput Test
per CPE esterna ADSL/ADSL2/ADSL2+ con interfaccia Ethernet
c a r a t t e r i s t i - ATM e permette l’interfacciamento
che, funzioni ATM-Ethernet; quando la CPE sotto
e opzioni, in test ha solamente la connessione USB,
VDSL2
ITU-T G.993-2
100 Mbps down & up
una rete reale è necessario un PC con interfacce
dove le condi- USB e Ethernet per immettere il traffiIl laboratorio di validazione Telsey zioni di esercizio, la lunghezza del co della CPE sulla LAN; generatori di
grazie al supporto e alla collabora- doppino, il tipo e livello di rumore rumore per entrambi i lati della linea
zione del TLC Sannio Testing Labora- possono cambiare. Per esempio, il immettono il rumore richiesto dallo
tory, ha acquisito le competenze ne- “Bit-swap Performance Test” valuta la specifico test. La Fig. 1 rappresenta
cessarie a realizzare le procedure di capacità della CPE di gestire il pro- una configurazione di test usata per
test indicate dai TR per la validazione tocollo di bit swap allo scopo di rial- la validazione dell’interoperabilità
di dispositivi della famiglia ADSL. Gli locare i bit tra le sottoportanti quan- DSL di CPE con interfaccia Ethernet, lo
strumenti di test e le attrezzature spe- do una sottoportante viene affetta da schema è generale sia per il livello
cifiche messe a disposizione dal TLC segnale a frequenza radio (RFI – fisico sia per i test dei livelli superiori.
Sannio Testing Laboratory hanno per- Radio Frequency Interference); scopo
messo di avviare un’attività di valida- del “DSL Noise Spikes/Surges Tests” ALCUNI DEI TEST REALIZZATI
zione dei dispositivi di accesso com- è di verificare che le funzionalità DA TELSEY
petitiva in termini di efficienza, affida- della CPE non siano influenzate da
improvvisi picchi di rumore sulla li- In accordo col TR-067 e col TR-100, i
bilità e ripetibilità.
I TR redatti dal Broadband Forum for- nea (per esempio burst di rumore test realizzati da Telsey si focalizzano
niscono la terminologia, i parametri AWGN isolati, rumore impulsivo di sul livello fisico e sulla validazione di
di test e i criteri di interoperabilità alto livello che si ripete, rumore di funzioni di più alto livello rilevanti ai
fini dello studio dell’interoperabilità.
per le differenti specifiche DSL. Il TR- crosstalk).
067 e il TR-100 sono stati redatti allo I TR raccomandano i dispositivi da uti- Nel seguito, alcuni dei test del TR-067
scopo di testare l’interoperabilità dei lizzare per ricreare le condizioni di e TR-100 vengono presentati sottolidispositivi della famiglia ADSL. Defi- rete per i test di interoperabilità. Il neando la strumentazione e i disposiniscono il piano di test per effettuare simulatore di linea permette di confi- tivi usati (Tab. 2).
la validazione dell’interoperabilità gurare l’approCPE/DSLAM, quindi, la corretta priata lunghezza
comunicazione tra il dispositivo di di linea richiesta
Tabella 2 – Lista degli strumenti più importanti utilizzabili
presso il TLC Sannio Testing Laboratory
accesso lato utente (Customer Premi- dal test; il simulases Equipment - CPE) e il Digital Sub- tore/analizzato- Instrument
Role
scriber Line Access Multiplexer re di traffico con
(DSLAM) che, lato centrale, effettua interfacce di rete Spirent DLS 410
Loop Simulator
la multiplazione digitale di più linee adatte è usato
Noise Generator
DSL su un canale di comunicazione a per misurare il Spirent DLS 5500
velocità maggiore. I test si focalizza- throughput end- Spirent DLS5405
Noise Injection Unit
no sullo strato fisico e sulla verifica di to-end, la latenTraffic Generator/Analyzer
alcune funzionalità non oltre il livello za e la perdita di Agilent N2X
3 della pila protocollare. Obiettivo è pacchetti; l’Asyn- Agilent E4404B ESA-E Series
Spectrum Analyzer
la verifica dell’Interoperabilità dina- chronous TransSerial data Analyzer
mica dei dispositivi DSL: una coppia fer Mode (ATM) LeCroy SDA600
CPE-DSLAM deve supportare un s w i t c h / r o u t e r Tracespan DSL Xpert 2208A
DSL Analyzer
insieme comune e compatibile di gestisce il traffico
T_M ƒ 130
N. 02ƒ
;2010
Test di livello superiore al fisico
Il “Packet Throughput Test” (TR067 sezione 9.2.1, TR-100 sezione
8.1.1) e il “Packet Latency Test”
(TR-067 sezione 9.2.2) coinvolgono il
livello 3 (livello IP) della pila protocollare. Il primo verifica il throughput per
una lista di rate di linea in downstream e up-stream, attraverso la trasmissione di Frame IP di diversa lunghezza (il test passa se la percentuale di frame raggiunta è dell’85%). Il
secondo misura se il Round Trip Time
della catena di trasmissione data è
minore di 255 ms. Allo scopo di realizzare questi test, l’Agilent N2X funziona da generatore di traffico per
iniettare sul link il flusso informativo
necessario per la valutazione delle
prestazioni, e analizzatore capace di
elaborare i parametri significativi dei
dati trasmessi e ricevuti per stimare le
prestazioni della CPE.
Automazione di alcuni dei test
Realizzare un test automatico richiede investimento in tempo per lo sviluppo iniziale, ma rende possibile la
remotizzazione delle procedure di
test eliminando azioni manuali ripetitive e che possono introdurre errori
dovuti all’inesperienza dell’operatore.
Con questo intento nei laboratori Telsey è stato messo a punto uno strumento virtuale sviluppato in Visual
Basic (VB) che rende automatici
alcuni dei test del TR-067 e del TR100. Una interfaccia grafica permette la realizzazione dei test senza
ricordare tutte le configurazioni,
senza accedere agli strumenti necessari separatamente, e ne restituisce
a schermo e su file di log i risultati.
Al momento l’attività di automazione
coinvolge test del livello fisico (per
esempio TR-067 sezioni da 8.1.2 a
8.1.8) che richiedono un banco di
test con solo la CPE sotto test, il
generatore/iniettore di rumore, il
simulatore di linea, e il DSLAM
(Fig. 2).
Lo strumento virtuale è capace di controllare il DSLAM e il generatore/iniettore di rumore tramite connessioni TELNET (oggetto di VB MyWinsockControl) e il simulatore di linea attraverso
la porta seriale (oggetto PortCom di
VB). Nessuna interazione manuale
con gli strumenti è richiesta durante
l’esecuzione del test, solo all’inizio l’operatore deve connettere la CPE al
banco di test.
Il “Verification of CRC Error
Reporting” è uno dei test realiz-
▲
Test del livello fisico
Il “Power Spectral Density Measurement” (TR-067 sezione 8.5.2)
è un test del livello fisico, riguarda le
caratteristiche elettriche della CPE. È
realizzato nei laboratori Telsey utilizzando l’E4404B ESA-E Series Spectrum Analyzer e un software sviluppato in MatLAB. La potenza totale nella
banda passante del segnale è acquisita dall’analizzatore di spettro e il
software calcola la media in un periodo di almeno 2 s e verifica che ogni
PSD (Power Spectral Density) cada
nei limiti specificati dagli standard
(Tab. 1).
Il “CPE Margin Verification Test”
(TR-067 sezione A.2.1) verifica se
BER<1,5e-7 per diversi loop e scenari
di rumore per assicurare che i chipset
dei produttori non ottimizzino le prestazioni della CPE in alcune condizioni
e falliscano in altre. La simulazione del
loop e l’iniezione di rumore necessarie
per questo test vengono realizzate
rispettivamente da: lo Spirent DLS 410
Loop Simulator, che ricrea loop differenti (lunghezza, briged taps), e lo Spirent DLS 5500 Noise Generator e il
DLS5405 Noise Injection Unit per
applicare rumore bianco, interferenze
a radiofrequenza o cross-talk su
entrambi le terminazioni del loop.
GLI
ALTRI TEMI
zati completamente in modo automatico sia per ADSL che ADSL2+
(TR-067 sezione 8.1.2, TR-100
sezione 7.4). Questo test è capace
di verificare la corretta individuazione degli errori CRC in caso di specifico loop e condizioni di rumore in
presenza di micro-interruzioni (Figg.
3, 4). La Fig. 3 riporta il diagramma
a blocchi del software sviluppato
per il “CRC Error Reporting Test”. I
passi principali del test consistono
nel: (i) forzare una nuova inizializzazione e aspettare che la CPE si
sincronizzi; (ii) attendere 2 minuti
dopo l’inizializzazione per la stabilizzazione del bitswap; e (iii) forzare una micro-interruzione del loop
lato CPE con durata di 1 ms e ripetere questo passo ogni 10 s, per un
tempo di test totale di 120 s (Periodo del Segnale =10 s, Intervallo di
Test =120 s, per un totale, quindi, di
12 micro-interruzioni). Il risultato
atteso è che ogni micro-interruzione
generi almeno il riconoscimento di
un errore CRC in downstream.
Concludendo, l’articolo ha affrontato il problema dei test di interoperabilità DSL necessari a garantire l’immissione sul mercato di prodotti
competitivi e la ricerca di nuove
soluzioni che favoriscano il continuo
sviluppo e miglioramento della tecnologia. Il reparto di validazione
Telsey in cooperazione col TLC Sannio Testing Laboratory affronta le
attività riguardanti la validazione
DSL seguendo in maniera attenta le
norme specifiche e investendo nelle
procedure di automazione.
Figura 2 – Il banco automatico
T_M ƒ 131
N. 02ƒ
; 2010
■
GLI
ALTRI TEMI
RIFERIMENTI BIBLIOGRAFICI
[1] Telsey Telecommunications S.p.A, www.telsey.com.
[2] Broadband Forum, www.broadband-forum.org.
[3] TLC Sannio Testing Laboratory, http://lesim1.
ing.unisannio.it/tlcsanniolab/menu_eng.html.
[4] D. Bao, L. De Vito, D. Napolitano, “DSL Interoperability Testing Laboratory”, Proc. of XIX IMEKO
World Congress, Fundamental and Applied Metrology, Lisbon, Portugal, 6-11 Sept. 2009.
[5] ADSLF Testing & Interoperability Working Group,
“TR-067 ADSL Interoperability Test Plan”, September
2006.
[6] ADSLF Testing & Interoperability Working Group,
“TR100: ADSL2/ADSL2plus Performance Test Plan”,
March 2007.
Figura 3 – Lo schema a blocchi del test
T_M ƒ 132
Figura 4
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
▲
Carlo Carobbi*, Marco Cati**, Carlo Panconi***
Disturbi impulsivi
La risposta dell’analizzatore di spettro
IMPULSE DISTURBANCES: THE RESPONSE OF SPECTRUM ANALYZER
Disturbances are classified as sinusoidal or impulse according to their timedomain wave-shape, and narrow-band or wide-band depending on the fact
that their spectrum is narrow or wide with respect to the bandwidth of the
receiver or victim. Sources of impulse disturbances are (the list is incomplete) switching loads, switching power supplies, digital circuits, electrostatic
discharge, lightning. Hence in electromagnetic compatibility (EMC) measurements it frequently occurs that an impulse disturbance voltage is present
at the input of a spectrum analyzer (or EMI receiver) coming from the output of an antenna, artificial mains network or coupling network. The scope
of this article is to analyze the response of spectrum analyzers to impulse
disturbances. We will see that when the rate of occurrence of the impulse is
low with respect to the reciprocal of the bandwidth of the receiver what is
actually measured is proportional to the voltage spectral density of the disturbance. The constant of proportionality is called equivalent impulse bandwidth. Measurement methods of the impulse bandwidth are here described.
The concepts outlined in this article are relevant to impulse measurements in
general, independently of the specific application (an important one is the
measurement of modern digital communication signals).
RIASSUNTO
I disturbi sono classificati come sinusoidali o impulsivi a seconda della loro
forma d’onda nel dominio del tempo o a banda stretta o a banda larga a
seconda del fatto che il loro spettro sia stretto o largo rispetto alla larghezza di banda del ricevitore o della vittima. Fonti dei disturbi impulsivi sono
(l'elenco è incompleto) le commutazioni di carichi sulle linee, gli alimentatori switching, i circuiti digitali, le scariche elettrostatiche, i fulmini. Nelle
misure di compatibilità elettromagnetica (CEM) spesso accade che un impulso di tensione proveniente da un'antenna o da una rete di alimentazione
artificiale o da una rete di accoppiamento sia presente all'ingresso di un
analizzatore di spettro (o ricevitore EMI). Lo scopo di questo articolo è quello di analizzare la risposta dell’analizzatore di spettro ai disturbi impulsivi.
Sarà mostrato che quando la cadenza dell’impulso è bassa rispetto al reciproco della larghezza di banda del ricevitore, la risposta dell’analizzatore
di spettro è proporzionale alla densità spettrale della tensione di disturbo.
La costante di proporzionalità è chiamata banda equivalente impulsiva.
Metodi di misura della banda equivalente impulsiva sono qui descritti. I
concetti riportati in questo articolo sono rilevanti per le misurazioni di impulsi in generale, indipendentemente dalla specifica applicazione (un caso
importante è la misura di segnali nella comunicazione digitale).
BANDA EQUIVALENTE IMPULSIVA mente il caso di un impulso singolo,
Si analizza qui il caso in cui si presenta all’ingresso di un analizzatore
di spettro un disturbo impulsivo a
larga-banda. Consideriamo inizial-
cioè di un evento che avviene una
volta sola. Ci chiediamo: cosa si vede
sul display di un analizzatore di spettro? Ai fini di questa discussione possiamo assumere che un analizzatore
T_M
di spettro sia composto dagli elementi rappresentati in Fig. 1 [1].
Si immagini, per il momento, che
all’ingresso sia applicata una sinusoide a frequenza fS. I blocchi essenziali sono: un mixer che mescola segnale
con l’oscillatore locale a frequenza
fOL, un filtro passa-banda di banda B3
(detta “banda di risoluzione”) alla frequenza intermedia fI, un rivelatore di
inviluppo e infine il display. Il compito
del mixer è di traslare la frequenza
del segnale per tramite della frequenza dell’oscillatore locale. In uscita dal
mixer si hanno i prodotti di mescolazione a frequenza nfOL ± fS dove n è
intero. L’unico prodotto di mescolazione su cui è possibile avere la sintonia
è quello corrispondente a n = 1 e
segno –: infatti un filtro passa-basso
che precede il mixer (non rappresentato in Fig. 1) fa sì che giungano al
mixer solo le frequenze per cui fS < fI,
inoltre l’oscillatore locale ha frequenza fOL > fI. Si ha allora la sintonia
quando la frequenza dell’oscillatore
locale è tale che fOL – fSL = fI. Se il
segnale ha ampiezza piccola rispetto
a quella dell’oscillatore locale il prodotto di mescolazione fOL – fS riproduce fedelmente il segnale applicato
all’ingresso (e anche una sua eventuale modulazione di ampiezza e
fase) a parte la traslazione di frequenza e una attenuazione, detta perdita di conversione del mixer. Ora,
* Dipartimento di Elettronica
e Telecomunicazioni,
Università di Firenze
** Ricerca e Sviluppo, Esaote S.p.A.,
Firenze
*** Istituto Tecnico Industriale Statale
“Silvano Fedi”, Pistoia
[email protected]
N.
2/10 ƒ 133
N. 02ƒ
; 2010
Figura 1 – Blocchi essenziali dell’analizzatore di spettro
tutto va come se, anziché traslare la
frequenza fS del segnale su fI, si traslasse la frequenza centrale del filtro
sulla frequenza di sintonia fOL – fI.
Nell’impiego più tipico l’oscillatore
locale effettua una scansione automatica in modo da scandire un intervallo
di frequenze di sintonia stabilito dall’utilizzatore. Si può allora immaginare che il filtro abbia frequenza centrale variabile e uguale alla frequenza
sulla quale si trova sintonizzato, istante per istante, l’analizzatore di spettro. Veniamo adesso al caso in cui il
segnale, anziché essere una sinusoide
a frequenza fS, è un impulso. Ciò che
si vede sul display non è altro che l’inviluppo della risposta impulsiva del filtro a frequenza intermedia. Supponiamo, per il momento, che l’impulso
sia ideale, ossia di durata infinitesima
e area A. Si definisce banda equivalente impulsiva Bimp il rapporto fra il
picco Vpk dell’inviluppo della risposta
impulsiva e il doppio dell’area dell’impulso, ossia
Nel caso di impulso reale, cioè di
durata breve ma non infinitesima,
allora vale che:
Vpk ≈ 2S (fOL − fI )Bimp
(2)
NEWS
▼
dove S(fOL – fI) è l’ampiezza dello
spettro (trasformata di Fourier) dell’impulso, S(f), valutata alla frequenza
alla quale si trova sintonizzato l’analizzatore di spettro nell’istante in cui
l’impulso gli si presenta all’ingresso.
Nella (2) l’approssimazione è tanto
migliore quanto più breve è la durata
dell’impulso rispetto alla durata della
risposta del filtro all’impulso stesso.
Riassumendo, ciò che si vede sul display di un analizzatore di spettro
quando all’ingresso si presenta un
impulso singolo è l’inviluppo della
risposta impulsiva del filtro a frequenza intermedia. Il picco dell’inviluppo
è proporzionale al doppio dell’ampiezza dello spettro dell’impulso
all’ingresso. Lo spettro è valutato alla
frequenza alla quale è sintonizzato
l’analizzatore di spettro nell’istante in
Vpk
cui si presenta l’impulso. La costante
Bimp =
.
(1)
di proporzionalità è la banda equiva2A
lente impulsiva.
Il filtro a frequenza intermedia dell’a- Si conclude allora che, nel caso di
nalizzatore di spettro è approssimati- impulso singolo, l’informazione che si
vamente gaussiano. Per un filtro gaus- ricava dal display dell’analizzatore di
spettro è un valore (un campione) delsiano a fase lineare si ha
l’ampiezza dello spettro dell’impulso.
Immaginiamo ora che l’impulso non
Bimp = π / 2log2 ≈ 1, 505B3.
sia singolo ma si ripeta con cadenza
ESTENSIMETRI OTTICI
PER REQUISITI ESTREMI
NELL’ANALISI
SPERIMENTALE
DELLE SOLLECITAZIONI
I nuovi estensimetri (ER) ottici del tipo
K-OP sono stati sviluppati dalla HBM
per offrire alcuni vantaggi determinanti rispetto agli estensimetri elettrici. Ad
esempio, essi sono particolarmente
T_M ƒ 134
adatti per i test sui materiali compositi
a fibre: sono possibili esami che prevedono fino a 10 milioni di cicli di
carico con una deformazione alternata di ±5 000 µm/m.
I nuovi ER ottici si basano sui cosiddetti
reticoli di bragg in fibra. La deformazione viene misurata in modo puramente ottico, quindi non è necessario alcun
segnale elettrico. Per questo motivo è
possibile impiegare gli estensimetri del
tipo K-OP senza problemi anche in
ambienti esplosivi, in presenza di disturbi elettromagnetici o nelle applicazioni ad alta tensione. Sulla stessa fibra
è possibile, inoltre, applicare più ER ottici, grazie ai quali si possono eseguire
misurazioni parallele. È possibile usare
(costante o casuale) lunga rispetto alla
durata della risposta all’impulso del
filtro a frequenza intermedia, cioè
rispetto a 1/B3. In questo caso il filtro
a frequenza intermedia risponde a
ciascun impulso come se fosse singolo. Se si impiega la funzione max-hold
della traccia ciascuna risposta viene
trattenuta dal display e, se attendiamo
un tempo sufficiente, sul display si formerà l’andamento dello spettro dell’impulso all’ingresso. Si presume,
come di solito avviene, che non ci sia
sincronismo fra la scansione dell’oscillatore locale e la cadenza degli impulsi per cui quando gli impulsi si presentano all’ingresso dell’analizzatore
di spettro questo sia sintonizzato su
una frequenza sempre diversa.
Nel caso invece di impulso periodico,
ripetuto con cadenza breve (e costante) rispetto a 1/B3, sul display dell’analizzatore di spettro appaiono le
righe spettrali (serie di Fourier) dell’impulso periodico. La seguente importante relazione lega le righe della
serie di Fourier, Sk con la trasformata
di Fourier dell’impulso singolo, S(f), e
la frequenza di ripetizione degli
impulsi fR:
S k = 2fRS(kfR )
(3)
La (3) ci dice che le righe della serie
di Fourier hanno ampiezza proporzionale al prodotto fra la frequenza di
ripetizione degli impulsi e lo spettro
dell’impulso singolo valutato alla frequenza kfR, dove k è un intero.
fibre di vetro con lunghezze di diverse
centinaia di metri.
Ulteriori informazioni sono reperibili
all’indirizzo web www.hbm.com
N. 02ƒ
;2010
Sono disponibili diverse tecniche di
misura della banda equivalente impulsiva. Una prima tecnica consiste nell’applicare all’ingresso dell’analizzatore di spettro un impulso di spettro
noto, ad esempio un impulso rettangolare di area A e durata τ per cui
sin( πfτ)
. L’impulso si deve
πfτ
ripetere con frequenza fR piccola
rispetto a B3 (ad esempio fR < B3/10).
Si avrà cura di sintonizzare l’analizzatore di spettro su un frequenza f
alla quale lo spettro dell’impulso è
relativamente piatto (πfτ < 1) ma sufficientemente distante dalla gonna del
filtro di risoluzione centrato attorno a
f = 0 Hz (ad esempio f > 3B3). A questo punto, noto S(f) e noto Vpk, in base
alla lettura del display (scala lineare
oppure logaritmica) si ricava, usando
la (2), Bimp. La tecnica può essere
migliorata per ridurre l’incertezza
sulla determinazione di Bimp dovuta
all’incertezza assoluta della lettura di
Vpk. È sufficiente per questo applicare
all’ingresso dell’analizzatore di spettro una sinusoide alla frequenza f di
ampiezza tale da dare la stessa lettura Vpk sul display dell’analizzatore di
spettro. Si sostituisce allora a Vpk,
nella (2), l’ampiezza di questa sinusoide che può essere determinata a
parte con grande accuratezza (ad
esempio con un misuratore di potenza
RF). Potrà essere necessario anche un
buon attenuatore a scatti per raggiungere il livello di Vpk, in genere molto
piccolo. La tecnica può prevedere
l’impiego di un generatore sinusoidale che consente la modulazione impulsiva della portante RF. È utile per le
bande di risoluzione più ampie, quando è di interesse verificare la risposta
all’impulso dell’analizzatore di spettro
a frequenze di sintonia elevate.
Una seconda tecnica prevede l’impiego di un generatore di forme d’onda
in grado di generare l’impulso con
frequenza di ripetizione variabile in
un intervallo relativamente ampio. Si
procede così: si sceglie una frequenza di ripetizione fR grande rispetto a
S (f ) = A
B3 ad esempio fR > 10B3) e si sintonizza l’analizzatore di spettro su una
frequenza f che coincide con un’armonica della serie di Fourier, f = kfR,
e soddisfa le condizioni viste precedentemente (3B3 < f < 1/πτ). Si legge
l’ampiezza dell’armonica Sk. Mantenendo la stessa frequenza di sintonia
si riduce la frequenza di ripetizione fR
fino ad un valore piccolo rispetto a B3
(fR < B3/10 ). A questo punto si legge
Vpk . In base alle equazioni (2) e (3)
abbiamo che Sk/Vk = fR/Bimp. Di fatto
la determinazione di Bimp si ottiene
per tramite di una misura di attenuazione (Attenuazione = Sk/Vpk) e dal
valore noto di fR. Per contenere l’incertezza di misura si deve aver cura di
non cambiare le impostazioni dell’analizzatore di spettro nelle due misure.
Per questo conviene usare la scala
logaritmica visto che l’attenuazione
sarà relativamente alta (circa 10).
Una terza tecnica si basa ancora su
un metodo relativo. È stata recentemente individuata [2] una doppia disuguaglianza sulla banda equivalente
impulsiva. La banda equivalente
impulsiva è compresa fra un limite
inferiore e uno superiore. Il limite inferiore è dato dal reciproco dell’area
dell’inviluppo della risposta all’impulso. Nel calcolo l’inviluppo deve avere
picco normalizzato a 1 (cioè deve
essere diviso per il valore di picco
Vpk). Il limite superiore è invece determinato dall’integrale della ampiezza
della risposta in frequenza. Anche la
risposta in frequenza deve avere
picco normalizzato a 1. In genere gli
analizzatori di spettro non hanno sufficiente risoluzione orizzontale, in termini di tempo, per una corretta ricostruzione dell’inviluppo della risposta
all’impulso a partire dai campioni.
Per ottenere l’inviluppo della risposta
all’impulso occorre perciò impiegare
un oscilloscopio collegato a valle del
filtro a frequenza intermedia oppure a
valle del rivelatore d’inviluppo. Generalmente una o entrambe le uscite
sono disponibili sul pannello posteriore dell’analizzatore di spettro. Non è
necessario che le uscite siano tarate
visto che è sufficiente l’andamento
normalizzato. L’andamento della
ampiezza della risposta in frequenza
■
MISURA DELLA BANDA
EQUIVALENTE IMPULSIVA
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
può essere invece ottenuto scaricando
la traccia sul display mediante collegamento con PC all’apposita interfaccia. Il calcolo degli integrali può essere semplicemente svolto numericamente, applicando ad esempio la regola
dei trapezi.
RIFERIMENTI BIBLIOGRAFICI
[1] Agilent Technologies, “Application
Note 150 - Spectrum Analysis Basics”,
Aug. 2, 2006.
[2] Carlo F.M. Carobbi, Marco Cati,
Carlo Panconi, “A Double Inequality for
Equivalent Impulse Bandwidth”, in stampa
su IEEE Transactions on Electromagnetic
Compatibility.
Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel
1994 presso l'Università
di Firenze. Dal 2000 è
Dottore di Ricerca in Telematica.. Nel
2001 è ricercatore del Dipartimento di
Elettronica e Telecomunicazioni dell'Università di Firenze dove è docente di
Misure Elettroniche e Compatibilità Elettromagnetica.
Marco Cati si è laureato
con lode ed encomio
solenne in Ingegneria
Elettronica all’Università
di Firenze nel 2001. Dal
2005 è Dottore di Ricerca in Ingegneria
dell’Affidabilità, Manutenzione e Logistica. Dal 2005 fa parte del reparto
R&S di Esaote dove è responsabile delle
verifiche di Compatibilità Elettromagnetica su dispositivi ecografici.
Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze È Dottore di Ricerca in “Controlli
non distruttivi”. Dal 1988 è insegnante
di Laboratorio di Elettrotecnica e di Elettronica nel triennio degli Istituti Tecnici e
Professionali.
T_M ƒ 135
LO SPAZIO DEL GMEE
E DEL GMMT
▲
In collaborazione con l’Associazione GMEE e il GMMT: F. Docchio, A. Cigada
Enrico Lorenzini, Stefano Debei, Francesco Angrili
Il Gruppo di misure meccaniche
dell’Università di Padova
THE GROUP OF MECHANICAL MEASUREMENTS
OF THE UNIVERSITY OF PADOVA
The activities of the GMMT Group of Padova deal with measurement-based
research and with technologic development in planet exploration (where the
University of Padova reached a remarkable international position), in the
development of space rockets and orbital control algorithms, in the instrumentation for ultrafast impacts on satellites and other structures, and in automation and robotics. The research group is composed of 7 professors and
20 researchers operating in the Laboratories of the Department of Mechanical Engineering and of the CISAS G. Colombo.
RIASSUNTO
Le attività del gruppo GMMT di Padova si articolano su temi riguardanti sia
la ricerca di tipo misuristico sia di sviluppo tecnologico nei campi dell’esplorazione planetaria (dove l’Ateneo di Padova ha raggiunto una posizione di eccellenza internazionale), dello sviluppo di propulsori spaziali ed
algoritmi di controllo orbitale, della strumentazione per gli impatti iperveloci su satelliti e altre strutture, e infine nell’automazione e robotica. Il gruppo
di ricerca consta oggi di 7 docenti e 20 ricercatori che operano nei laboratori del Dipartimento di Ingegneria Meccanica e del CISAS G. Colombo.
MISURE E STRUMENTAZIONE
PER L’ESPLORAZIONE SPAZIALE
L’obiettivo generale è quello di sviluppare, nell’ambito di collaborazioni
internazionali, nuova strumentazione
per finalità scientifiche e/o sviluppo
tecnologico richieste da importanti
missioni di esplorazione planetaria. Il
gruppo di ricerca ha svolto ruoli qualificanti nello sviluppo di strumenti di
bordo per importanti missioni spaziali italiane, europee, russe e americane. In particolare, si ricordano gli strumenti HASI per la missione Cassini/Huygens grazie ai quali il nostro
ateneo dispone di strumenti di misura
sulla superficie della luna Titano di
Saturno, la strumentazione sviluppata
per la missione Rosetta ora in volo per
un incontro nel 2014 con la cometa
67 P/Churyumov-Gerasimenko e lo
spettrometro di Fourier PFS costruito
per la missione russo-europea Mars96 che ha poi volato sulle missioni
dell’ESA Mars Express e Venus
Express.
T_M
N.
L’attività ha riguardato collaborazioni
sulla progettazione, sviluppo e testing
di raffinati strumenti di misura per
parametri atmosferici planetari, del
telescopio ad ampio campo OsirisWAC, e dei meccanismi di entrambi i
telescopi WAC e NAC dell’esperimento Osiris per Rosetta. In particolare si evidenzia l’otturatore elettromeccanico, che garantisce una uniformità
di esposizione migliore di una parte
su 500 e con tre ordini di sicurezza
ne garantisce l’affidabilità sia in termini funzionali che prestazionali su di
una vita di 500 000 cicli.
Il gruppo di ricerca ha dato un fattivo
contributo anche ad altre strumentazioni scientifiche di Rosetta quali VIRTIS, spettrometro a elevata risoluzione, Giada, strumento per la caratterizzazione delle polveri cometarie e il
collaudo termico e meccanico di pannelli fotovoltaici del lander. Numerose
sono state le collaborazioni con le
principali agenzie spaziali (ASI, ESA,
NASA e JAXA) fornendo supporto
tecnico scientifico all’ASI per il dispie-
2/10 ƒ 136
gamento delle antenne dello strumento Marsis (a bordo di Mars Express
dell’ESA), e di Sharad (a bordo di
Mars Reconnassaince Orbiter della
NASA), per l’analisi della stratigrafia
del sottosuolo marziano con tecniche
radar.
Le collaborazioni internazionali
hanno portato a proporre, per la missione Mars Sample Return, un laboratorio autonomo per l’analisi in situ di
campioni del suolo marziano con il
duplice obiettivo scientifico e di screening per la selezione dei campioni
più significativi da riportare a Terra.
Le missioni planetarie sono state
accompagnate da missioni di prova
degli strumenti su voli con palloni stratosferici effettuati dalle basi di Trapani/Milo e dalle isole norvegesi Svalbard per tarare la strumentazione
quale quella citata o sviluppata da
altre università e centri di ricerca
(e.g., il subsurface radar Sharad).
Il gruppo di Padova sta coordinando
tecnicamente la progettazione, caratterizzazione e collaudo di Simbio-Sys, a
bordo della missione Cornerstone dell’ESA a Mercurio, che porta il nome
“BepiColombo” del celebre scienziato
Padovano. Simbio-sys è un complesso
sistema integrato di tre strumentazioni
elettroottiche: una fotocamera con 5
metri di risoluzione, una stereocamera
con 80 metri di risoluzione lungo la
normale alla superficie e uno spettrometro nel vicino infrarosso con risoluzione spettrale di 2 nm. In questi mesi il
gruppo di ricerca, dopo un’intensa attività di progettazione e collaborazione
con PMI del territorio, sta integrando il
CISAS “G. Colombo”
Centro interdipartimentale di Studi
e Attività Spaziali,
Università degli Studi di Padova
[email protected]
N. 02ƒ
;2010
Simulatore Solare, che potrà riprodurre
lo spettro solare a Mercurio ma anche
quello terrestre, potendo così testare in
modo più efficace pannelli fotovoltaici
che attualmente sono collaudati con
“flash test”.
Il gruppo di ricerca di Padova è attivo
da molti anni nello sviluppo di strumentazione d’avanguardia utilizzata
nei campi della tecnologia e della
scienza spaziale, come ad esempio la
protezione di satelliti da impatti con
detriti orbitali iperveloci. È stato infatti sviluppato un acceleratore di piccole particelle (0,1 g) a una velocità
prossima a quella orbitale, con la strumentazione necessaria per misurare
le variabili dinamiche ad altissima
risoluzione temporale.
L’attività di ricerca ha riguardato lo
studio degli effetti d’impatti iperveloci
non solo sulle strutture spaziali, ma
anche su corpi celesti privi di atmosfera per studiare fenomeni di craterizzazione e l’evoluzione della superficie. Gli studi e le ricerche svolte in
questo ambito hanno portato anche a
nuove ricerche nel campo della propulsione spaziale e, in particolare,
per uso orbitale. Il gruppo padovano
coordina l’attività di un team formato
da vari gruppi di ricerca e industrie
europee per lo sviluppo di nuovi sistemi propulsivi a plasma a bassa spinta, per uso in missioni spaziali che
necessitano di propulsori efficienti
(p.es. a basso consumo) e con accurato controllo della spinta.
Nel campo dei test gravitazionali, il
gruppo di Padova collabora con il
gruppo di gravitazione sperimentale
dell’Istituto dello Spazio Interplanetario dell’INAF di Roma e allo sviluppo
di nuove tecniche di misura e di strumentazione per misure di accelerazioni differenziali piccolissime atte a
testare il Principio di Equivalenza1
con un’accuratezza maggiore rispetto
ai test condotti in laboratorio.
Figura 1 – WAC Camera, Steins
e veduta aerea dell’Africa
che abilitanti le future missioni spaziali e fortemente mirate al trasferimento tecnologico sia in ambito robotica che di automazione.
Tra i vari filoni si vuole evidenziare la
progettazione, realizzazione e collaudo di un dimostratore terrestre della
Talpa marziana, progetto in collaborazione con Tecnomare SpA e finanziato dall’ESA. La Talpa va intesa
come un complesso e articolato banco prova per dimostrare la tecnologia
di perforazione per futuri esploratori
“subsurface” spaziali e terrestri in grado, grazie a strumenti scientifici sofisticati e miniaturizzati, d’analizzare
la composizione del sottosuolo e ricavarne la stratigrafia.
A partire da questa ricerca se n’è sviluppata una nuova su sistemi di puntamento e inseguimento per numerose
applicazioni, quali puntamento di sistemi di visione per telerilevamento, telesorveglianza, monitoraggio ambientale, puntamento di antenne per telecomunicazioni tra mezzi mobili quali autoveicoli o navi, puntamento di videocamere, radar, lidar per la navigazione
autonoma. Il modello sviluppato consente di raggiungere un’accuratezza di
+/- 0,003° con una velocità compresa
tra 2 e 3°s-1 in uno spazio di lavoro di
+/- 20° lungo gli assi x e y e 360°
lungo l’asse di azimut, con una massa
di 5 kg ed una potenza di 10 W.
L’attività sulla navigazione autonoma
è testimoniata da ricerche su dirigibili
in cui altitudine, velocità e traiettoria
sono controllate attraverso l’implementazione di tecniche SLAM, con
l’ausilio di sistemi di stereovisione, di
piattaforme inerziali e di GPS, in una
MISURE PER LA ROBOTICA
parola gli Aerorobot2.
E PER L’AUTOMAZIONE
L’attività robotica si distingue anche
attraverso studi e progetti di ricerca su
Da molti anni è attiva anche un’inten- bracci rotorici 2D a base libera che
sa attività di ricerca per lo sviluppo di implica lo sviluppo di sofisticati testnuove e innovative tecnologie roboti- bed per la simulazione della micro-
Figura 2 – Foto del Robot
gravità e bracci rotorici 3D testati su
volo parabolico.
Le attività svolte hanno consentito in
particolare l’identificazione e la stima
della misura di parametri inerziali, di
rigidezza, di smorzamento dei giunti e
delle forze generalizzata ai giunti e
alla base del robot. Le forze misurate
alla base sono nell’intervallo 0,05 1 N, mentre le coppie 0,005 0,320 Nm. Tali stime sono state funzionali per la validazione di algoritmi
originali sviluppati e implementati per
la minimizzazione dei disturbi dinamici
trasmessi dal braccio alla base libera.
TRASFERIMENTO TECNOLOGICO
Le tecniche sviluppate e le esperienze
acquisite sono state seguite in molti
casi da trasferimento tecnologico in
aree di interesse industriale per prodotti innovativi di consumo. In particolare si sono sviluppati sistemi di
misura per la certificazione di prodotti (compositi anti-proiettile, macchine
utensili). Si sono sviluppati prototipi
ingegneristici di pannelli termicamente isolanti in grado di ottenere un
risparmio energetico fino al 30 % sia
in applicazioni di edilizia, sia nella
conservazione e trasporto di beni e
prodotti fino a temperature criogeniche. Si sono sviluppati anche sistemi
di misura e caratterizzazione di tessuti e materiali ortotropi e software per
la produzione in automatico di abbigliamento; in collaborazione con le
PMI locali si sta sviluppando un progetto europeo per la produzione in
automatico di scarpe. Nell’ambito di
tale progetto il gruppo di ricerca si
occupa dello sviluppo e implementazione di sistemi di misura diagnostici,
di processo e per la qualità del prodotto e di sistemi automatici e robotici
per produzione di calzature.
T_M ƒ 137
N. 02ƒ
; 2010
LO SPAZIO DEL GMEE
E DEL GMMT
■
1
che è alla base della indipendenza della
caduta libera dalla composizione dei
corpi in caduta
2 L’aerorobot è una piattaforma di misura
estremamente economica, affidabile e versatile: può stazionare per lungo tempo in
un’area di interesse oppure esplorare tale
area seguendo una traiettoria predeterminata. La possibilità di controllare altitudine
e velocità del veicolo permette inoltre di
fissare risoluzione e distribuzione spaziale
e temporale delle misure effettuate. Tali
sensori permettono al dirigibile di navigare in ogni ambiente mantenendo sempre
aggiornata la sua posizione (anche in
assenza del segnale GPS) e contemporaneamente di creare una mappa delle aree
visitate. Tali informazioni servono al duplice scopo di seguire la traiettoria desiderata e referenziare in maniera accurata
ogni altra misura eseguita a bordo.
Enrico Lorenzini è Professore Ordinario di Misure Meccaniche e Termiche
all’Università di Padova
dal 2008. È stato responsabile di ricerca in vari progetti e studi
della NASA e più recentemente dell’ESA.
Ha ricevuto premi e riconoscimenti internazionali per l’attività di ricerca svolta e
per l’eccellenza nel ruolo di reviewer di
riviste scientifiche internazionali. È autore
o co-autore di 150 pubblicazioni su riviste ed atti di congresso.
Stefano Debei, PhD in
Scienze e Tecnologie Spaziali, è Professore Associato in Misure Meccaniche
Termiche e Collaudi presso
l’Università di Padova. Nel 2004 JPL gli
ha conferito un riconoscimento per le attività scientifiche e tecniche svolte. È
responsabile tecnico e scientifico di numerosi progetti di ricerca anche con le principali agenzie spaziali.
Francesco Angrilli è
Professore Ordinario di
Misure Meccaniche e Termiche all’Università di
Padova dal 1976. È
direttore del Centro di Studi e Attività
Spaziali CISAS “G. Colombo” all’Università di Padova (1994-2008). È stato
responsabile tecnico e scientifico di
numerosi strumenti spaziali tra cui lo
strumento HASI utilizzato nella missione
a Titano Cassini-Huygens.
T_M ƒ 138
DAL SITO DEL GMEE:
IL LABORATORIO DIDATTICO
Segnaliamo la pubblicazione sul sito ufficiale dell’Associazione GMEE
(www.gmee.org), alla sezione “Documenti per la Didattica” della revisione recente da parte di Sergio Sartori di un documento da lui redatto
insieme a Italo Gorini nel 1984, dal titolo “Il Laboratorio Didattico”.
CONSIGLIO DIRETTIVO DEL GMEE
(Napoli, Facoltà di Ingegneria,
15 Marzo 2010)
Il Consiglio Direttivo dell’Associazione GMEE è stato convocato il giorno 15 marzo 2010, alle ore 14:00, presso l’Aula Magna della Facoltà di Ingegneria dell’Università di Napoli. Nella stessa sede la mattina si era tenuto un Convegno in memoria del Prof. Giorgio Savastano. A seguito delle prime comunicazioni del Presidente Franco
Ferraris, che ha riferito sulle ultime novità del D.L. 1095 in itinere e
sul riaccorpamento dei Settori Scientifico-Disciplinari con relative parole chiave, il Prof. Daponte ha relazionato in tema del bando RIDITT.
Il Prof. Betta ha poi informato riguardo al quadro legislativo globale,
anche con riferimento alla continuazione dell’Anagrafe del Gruppo
Misure. Il Prof. Docchio ha fornito un aggiornamento riguardo alla
base dati comune GMEE-GMMT (v. T_M 01/2010 a pag. 61, che è
stato distribuito all’evento Affidabilità e Tecnologie). Il Presidente ha
informato sulla Commissione istituita per l’aggiornamento dello Statuto e del Regolamento dell’Associazione in vista della fusione con il
GMMT. Si è poi discusso il punto “Situazione soci”, da cui risultano
alcuni morosi che verranno invitati a mettersi rapidamente in regola
pena l’esclusione. Tra i nuovi soci ci sono C. Ferrero e M. Gasparetto, oltre ad alcuni iscritti bresciani. Su proposta del Presidente e
del Segretario, sono stati nominati Soci Onorari i Proff. A.
Langella, S. Leschiutta e S. Sartori.
È stato poi presentato e approvato il bilancio 2009. È stata proposta
e approvata la predisposizione di una sezione didattica sul Sito Web
GMEE, a consultazione libera. È stata sollecitata l’immissione sul sito
delle pubblicazioni dei Soci ed è stata definita la politica di conclusione dei Quaderni del GMEE. Il Prof. Ferrero ha comunicato l’eccellente partecipazione di candidati al Premio di dottorato “C. Offelli” (10 candidature pervenute) e il Presidente ha invitato alla selezione entro maggio. Per quanto riguarda la Borsa di studio per l’estero,
a fronte delle 2 domande pervenute, il Segretario ha invitato il Consiglio a una miglior pubblicizzazione dell’iniziativa; il Consiglio ha
nominato la Commissione di Valutazione. Il Direttore di Tutto_Misure
ha riferito sul lusinghiero andamento della rivista. Per l’esercizio
2010, sottoposto a preventivo, sarà previsto un passivo di circa 4 800 €.
I rispettivi Responsabili hanno poi riportato sulla riunione Annuale
2010, Scuola Gorini e Giornata della Misurazione 2010.
▲
LO SPAZIO
DEGLI IMP
Andrea Merlone, Francesco Moro
La ridefinizione
del kelvin
mediante la determinazione del valore della costante di Boltzmann
AN UPGRADE OF THE DEFINITION OF THE KELVIN THROUGH
THE BOLTZMANN CONSTANT
This paper deals with the new definition of the kelvin in terms of the Boltzmann constant. The three main experiments for the new determination of this
constant are reported: acoustic gas thermometry, dielectric constant gas
thermometry, Doppler broadening thermometry. At present, the Italian Istituto Nazionale di Ricerca Metrologica (INRiM) is the only Institution in the
world involved in all three methods.
RIASSUNTO
Il lavoro è incentrato sulla nuova definizione del kelvin mediante la determinazione della costante di Boltzmann. Sono descritti i tre esperimenti di
maggiore rilevanza finalizzati alla misura di questa costante fisica: termometria acustica, spettroscopia laser-doppler e misura di costante dielettrica.
L’Istituto Nazionale di Ricerca Metrologica (INRiM) è l’unico Istituto al
mondo ad essere coinvolto in tutti i tre metodi.
IN ATTESA DELL’EVENTO
Lo sguardo corrucciato e “incerto” di
Ludwig Boltzmann pare sempre più
puntato su William Thomson, meglio
noto come lord Kelvin. Definito solo nel
1954 dalla X Conferenza Generale
dei Pesi e delle Misure (Conférence
Générale des Poids et Mesures CGPM), il kelvin, unità di misura della
temperatura termodinamica, è ora
sotto i riflettori della comunità scientifica, insieme al kilogrammo, l’ampere e
la mole anch’essi tra le sette unità di
misura fondamentali del Sistema Internazionale delle Unità di Misura (SI).
Dal 2011 infatti si attende un evento
storico per la metrologia: per la prima
volta nella storia sarà probabilmente
rivoluzionato il Sistema SI, con la completa ridefinizione delle sue unità principali, che saranno espresse in termini
di costanti fisiche, abbandonando gli
artefatti “d’epoca” che le realizzavano, come ad esempio il cilindretto di
platino conservato a Sèvres (Parigi)
che definisce tuttora il kilogrammo.
L’attuale definizione, “Il kelvin è pari
alla frazione 1/273,16 della temperatura termodinamica del punto triplo del-
per sottometterla ad approvazione alla
Conferenza Generale dei Pesi e delle
Misure (CGPM). A seguito di questa
raccomandazione, tra l’altro, la cella
campione nazionale italiana è stata
subito sottoposta ad analisi isotopica,
prelevandone un campione da una
cella gemella, al fine di valutarne la correzione (la cui incertezza, dell’ordine di
2 µK, è comunque trascurabile).
Mentre si riteneva in passato che, risolti i problemi tecnologici relativi alla produzione di acqua pura, e assegnato un
valore fisso e privo d’incertezza allo
stato termodinamico di coesistenza
delle sue fasi solida, liquida e vapore,
non vi sarebbero stati motivi di riaggiustare la definizione del kelvin, proprio
questi studi sulla composizione isotopica ne hanno messo in luce i limiti. Insieme a questi lavori, hanno acquisito crescente risalto altri esperimenti mirati a
valutare la possibilità di ridefinire il kelvin attraverso una costante fondamentale e rafforzare il legame tra la temperatura termodinamica e la termodinamica stessa. Quale scelta migliore,
quindi, se non la costante k che porta il
nome di Ludwig Boltzmann, i cui lavori
scientifici hanno portato a fondamentali conoscenze nel campo della termodinamica, legando per la prima volta
concetti macroscopici, quali lavoro ed
energia, a valutazioni riguardanti la
teoria cinetica delle particelle.
Gli esperimenti sulla rideterminazione
della costante di Boltzmann sono così
cresciuti d’interesse, anche in occasione della “chiamata generale” alla
ridefinizione contemporanea, proposta per il 2011 delle unità di massa
(mediante la costante di Planck) corrente elettrica (mediante la carica del-
l’acqua”, è indebolita dalle recenti
ricerche sugli effetti della composizione
isotopica dell’acqua con cui è realizzato il campione che realizza l’unità. Questi studi hanno dimostrato che l’effetto
della presenza relativa dei maggiori
isotopi di ossigeno e idrogeno non è
trascurabile nella determinazione della
temperatura con cui si realizza il punto
triplo, cioè la coesistenza di acqua
ghiacciata, liquida e vapore, che si
crea in celle di quarzo speciali, che realizzano e definiscono attualmente il kelvin. L’incertezza con cui è nota la composizione diviene quindi lo spunto per
muovere verso una nuova definizione di
questa grandezza. Una raccomandazione del Comitato Consultivo per la
Termometria (Comité consultatif de thermométrie - CCT) ha richiesto al Comitato Internazionale dei Pesi e delle Misure
(Comité International des Poids et Mesures - CIPM) di integrare la definizione
corrente del kelvin con i dati relativi alla
composizione isotopica della cosiddetta V-SMOW (Standard Mean Ocean
Water), avente la composizione isotopica dell’acqua media oceanica. Il CIPM Istituto Nazionale di Ricerca Metrologica
ha recepito la raccomandazione e inte- Divisione Termodinamica, Torino
grato la definizione nell’ottobre 2005, [email protected]
T_M
N.
2/10 ƒ 139
l’elettrone) e mole (mediante il numero
d’Avogadro). È curioso ricordare che
la costante k, che s’incontra sovente
nelle leggi della meccanica statistica
e in termodinamica, fu definita “costante di Boltzmann” da Planck.
La costante di Boltzmann k vale
1,3806505·10-23 J/K (CODATA 2002)
con incertezza relativa di 1,8·10-6.
Questo valore d’incertezza è attualmente troppo elevato per la ridefinizione del kelvin: fissata k, la sua incertezza verrebbe infatti trasferita al valore
della temperatura del punto triplo dell’acqua (TTPW) e corrisponderebbe a
un’incertezza pari a 0,49 mK. Si consideri che l’attuale incertezza attribuita
alla realizzazione di TTPW è pari a
circa 30 µK, già tenendo conto degli
effetti dovuti alla correzione isotopica. I
progressi degli studi attuali fanno ritenere che entro il 2011 si possa scendere a meglio della parte per milione
(ppm) su k, valore ancora elevato, ma
comunque accettabile considerando i
benefici generali al SI che discendono
dalla contemporanea ridefinizione
delle unità di base in termini di valori
assegnati a costanti fondamentali.
Volendo azzardare una nuova definizione del kelvin si potrebbero seguire
due approcci distinti, comuni anche alle
definizioni proposte per le altre grandezze SI per le quali si auspica di giungere a una relazione con le costanti
fondamentali. Il primo approccio è più
prossimo alle attuali definizioni e rende
esplicita la definizione dell’unità, mentre il secondo esplicita e centra l’attenzione sulla costante scelta.
Nel primo caso si potrebbe scrivere:
Il kelvin è la variazione di temperatura termodinamica che risulta da una
variazione di energia termodinamica
pari a 1,3806505.10-23 J.
Nella seconda ipotesi si potrebbe
anche pensare di fornire una definizione omogenea tra le grandezze del
SI, nell’intento di fornire una totale
revisione del SI stesso. Definizione
che in generale potrebbe recitare:
Il/la [nome dell’unità], unità di misura
della [nome della grandezza], è tale
per cui la costante [nome della costante] vale esattamente [valore], da cui,
nel caso della temperatura si potrebbe
leggere: il kelvin, unità di misura della
T_M ƒ 140
N. 02ƒ
; 2010
▲
LE PAGINE
DEGLI IMP
temperatura termodinamica è tale per
cui la costante di Boltzmann vale esattamente 1,3806505·10-23 J/K.
Le tecniche impiegate negli esperimenti per la ridefinizione del kelvin
devono quindi essere di tipo “termodinamico”; è in pratica necessario
misurare, calcolare, derivare il valore
di una temperatura da altri fenomeni
che si sappiano osservare meglio. È
inoltre cruciale che il valore della
costante k sia ottenuto con metodi tra
loro indipendenti basati su fenomeni
diversi. Attualmente sono tre i metodi
principali su cui sono basati le ricerche: la termometria acustica, la spettroscopia laser-doppler e la misura di
costante dielettrica.
La tecnica più promettente è quella
basata sull’utilizzo del termometro acustico, per la misura della costante universale dei gas R, che è legata alla k di
Boltzmann attraverso la relazione
k=R/NA. L’INRiM prende parte attiva in
questi studi, oltre che nelle misurazioni
del numero d’Avogadro, NA, con un
progetto di ricerca avviato nel 2000
che vede la collaborazione del gruppo
di acustica fisica (ex IEN) e del gruppo
temperature intermedie – termometria
primaria per contatto (ex IMGC).
L’impiego del risonatore del gruppo di
acustica per fini termometrici è stato
accompagnato da numerosi interventi
mirati a migliorarne le caratteristiche di
termostatazione in termini di uniformità
e stabilità di temperatura, affinarne il
controllo e renderne più accurata la
metodologia di misura mediante termometri campione a resistenza di platino (SPRT), conformi alle specifiche
della scala di temperatura ITS-90,
appositamente studiati e fatti realizzare per lo scopo. Le prestazioni in temperatura permettono di mantenere la
temperatura del sistema stabile entro
1 mK per tempi sufficienti alla misurazione acustica. L’uniformità è altresì
garantita entro 1 mK, grazie al sistema
di controllo assemblato su progetto
GTI. Le misure di temperatura avvengono mediante un ponte di misura di
elevate prestazioni (F18 ASL), che valuta la resistenza dei termometri campione inseriti nei poli dei risonatori
mediante confronto con una resistenza
campione termostatata. Speciali steli
sono inoltre stati realizzati presso l’officina di termometria per effettuare tarature dei termometri nella cella del
punto triplo dell’acqua, che realizza e
costituisce il campione nazionale.
I primi risultati di rilievo conseguiti hanno
riguardato la valutazione della differenza tra la temperatura termodinamica
realizzata con il risonatore e le letture dei
termometri, tarati secondo l’ITS-90, tra
circa –40 °C e 110°C, campo di particolare rilievo in quanto comprende oltre
al punto triplo dell’acqua (definente
appunto il kelvin) e la temperatura
ambiente, anche i punti fissi di mercurio
e gallio, frequentemente utilizzati nella
taratura di termometri. I valori sono in
ottimo accordo con i risultati del NIST
(USA), ottenuti dal gruppo di Moldover,
gruppo che ha inoltre fornito i dati di
maggiore rilievo sui quali si basa l’attuale valore della costante di Boltzmann,
valutata con lo stesso principio. I lavori
all’INRiM proseguono, sempre in collaborazione tra acustica e termometria,
finalizzati attualmente a effettuare misurazioni mantenendo il risonatore unicamente alla temperatura del punto triplo
dell’acqua, proprio per focalizzare i
lavori a un ulteriore contributo alla rideterminazione della costante di Boltzmann. Recentemente tutto il sistema è
stato raddoppiato per ospitare un nuovo
risonatore volutamente “quasi-sferico” e
placcato internamente d’oro, poiché
risultati migliori si attendono in termini di
riconoscimento delle frequenze acustiche
e a microonde, queste ultime fondamentali nella determinazione del volume
effettivo della cavità risonante. Altri due
SPRT a capsula specifici sono stati fatti
realizzare e potranno essere montati
anche all’equatore del nuovo risonatore.
I lavori sono attualmente mirati a fornire un valore di k con incertezza
relativa dell’ordine di una parte per
milione (1 ppm = 10-6).
La relazione alla base del funzionamento di quest’esperimento è la
seguente:
k = Mu02/NAν0TTPW
Ove M = massa molare, u0 = velocità
del suono, TTPW = temperatura del
punto triplo dell’acqua, ν0 = cp/cv rappresenta il rapporto tra i calori specifici
a pressione e volume costante per il gas
impiegato (elio o argon) e NA = Nume-
N. 02ƒ
;2010
ro di Avogadro, che ha un’incertezza
tipo attualmente trascurabile.
Una seconda metodologia di misurazione per la rideterminazione della
costante di Boltzmann consiste nell’impiego della tecnica a spettroscopia laser con misure dell’allargamento Doppler di molecole d’acqua. L’esperimento DBT (doppler broadening
thermometer) si basa sulla relazione
fondamentale:
∆νD = [2kT/(mc02)]1/2 • ν0
dove ∆νD rappresenta l’allargamento di
frequenza dovuta all’effetto Doppler, su
una riga d’assorbimento centrata sulla
frequenza ν0, T la temperatura termodinamica del gas di misura la cui molecola ha massa m e c0 è la velocità della
luce nel vuoto, nota e priva di incertezze.
Il gruppo di metrologia termica dell’INRiM ha recentemente avviato un progetto di ricerca congiunto con la
Seconda Università degli studi di Napoli il Politecnico di Milano, allo scopo di
realizzare una cella termostatata, la cui
temperatura sia mantenuta il più prossima possibile al punto triplo dell’acqua.
L’esperimento si svolge principalmente
nei laboratori di Caserta della Seconda
Università degli studi di Napoli, presso
il gruppo di spettroscopia molecolare
del Dipartimento di Fisica Ambientale.
Un ulteriore esperimento che mira alla
misura della costante k è il metodo
basato sulle misure di capacità elettrica. Il DCGT (dielectric constant gas
thermometer), valuta la temperatura in
funzione della costante dielettrica e
prevede di abbassare l’incertezza da
15 ppm a 2 ppm. La relazione fondamentale di quest’esperimento è:
p= kT(ε – ε0)/ε0
dove ε0 è la costante dielettrica in vuoto
nota perfettamente, α0 la polarizzabilità
di dipolo per un singolo atomo, p la
pressione del gas ed ε la sua costante
dielettrica. La costante dielettrica è determinata mediante la variazione di capacità elettrica di uno specifico condensatore, misurata con o senza un gas usato
come dielettrico. L’elio è il solo gas per il
quale la polarizzabilità è calcolata “a
priori” in maniera completa. Anche per
quest’esperimento i ricercatori di metrologia termica italiani sono impegnati
nella realizzazione, in Germania, di una
parte fondamentale dell’esperimento,
cioè il termostato di grandi dimensioni
che servirà a mantenere stabile e uniforme la temperatura del condensatore.
I tre esperimenti sono distinti tra loro, ma
presentano l’esigenza comune di riferibilità e controlli termici con incertezze
migliori del millikelvin, per temperature
prossime a quelle del punto triplo dell’acqua (0,01 °C). La termostatizzazione spinta sino a questo tipo di prestazione comporta studi di progettazione
ed esecuzione dedicati agli obiettivi e
alle esigenze di ciascuna prova di ricerca, per abbattere le incertezze nelle
misure termiche. La divisione termodinamica dell’INRiM è impegnata nella progettazione e realizzazione di elementi
di termostatazione che soddisfino queste esigenze: ogni componente del sistema complessivo è studiato, realizzato e
perfezionato in laboratorio, presso l’INRiM. Si passa da un termostato che
deve mantenere la temperatura di oltre
una tonnellata di fluido entro il millesimo
di kelvin sia in termini di stabilità sia di
uniformità termica-volumica per il sistema DCGT tedesco, allo sviluppo di un
dispositivo di controllo mediante un
sistema a tre stadi, in cui confluiscono
tecniche di criogenia e di metrologia termica per ottenere stabilità termica inferiore al decimo di millesimo all’interno
della cella in cui passa il fascio laser
dedicato alla misura spettroscopica
DBT. I risonatori acustici operanti all’INRiM per l’esperimento AGT italiano
richiedono tutti stabilità e incertezze di
misura dello stesso livello, pur presentando peculiarità ben diverse.
In tutti e tre i metodi sono stati impiegati termometri campione, in grado di
misurare la temperatura dei diversi dispositivi (condensatori, risonatori sferici
o cella spettroscopica) con le migliori
accuratezze oggi disponibili. I termometri, in alcuni casi fatti costruire appositamente per essere alloggiati nei dispositivi, sono tutti sensori che soddisfano i requisiti stretti per essere considerati “campioni primari” per l’attuale
Scala di Temperatura ITS-901. Questi
termometri in Italia sono solo 6, scelti
tra i migliori disponibili, e sono custoditi con una cura e attenzione paragonabile a quella di campioni primari. Essi
sono costantemente tarati con una procedura specifica e dedicata dallo stesso
Figura 1 – Il Laboratorio INRiM
di termometria acustica
Figura 2 – La cella per le misure
spettroscopiche utili alla determinazione
della costante di Boltzmann
gruppo di metrologia termica che ha,
tra i suoi compiti istituzionali, anche il
mantenimento dei campioni nazionali
per la grandezza temperatura.
Nelle Figg. 1, 2 e 3 sono rispettivamente riportati il Laboratorio INRiM di
termometria acustica, la cella per le
misure spettroscopiche utili alla determinazione della costante di Boltzmann e il termostato per le misure
della costante dielettrica di un gas
realizzato dall’INRiM e attualmente
installato presso il PTB di Berlino.
Per coordinare i diversi esperimenti e
metodi, mirati alla rideterminazione
della costante k di Boltzmann, è
attualmente attivo un progetto europeo che permette il confronto di dati e
metodi tra i diversi gruppi.
Il progetto è stato avviato nel gennaio
2008 nell’ambito del Targeted Program 1: SI and Fundamentals del
macro progetto europeo iMERA+
(Implementing the Metrology for the
European Research Area).
Oltre all’INRiM, al progetto afferiscono
gli Istituti Metrologici di Gran Bretagna
(National Physical Laboratory – NPL),
Germania (Physikalisch-Technische Bundesanstalt - PTB), Francia (Institut National de Métrologie del Conservatoire
national des arts et métiers - Laboratoire National de métrologie et d’Essais LNE-INM/CNAM), Spagna (Centro
T_M ƒ 141
N. 02ƒ
; 2010
■
LE PAGINE
DEGLI IMP
Español de Metrología - CEM) e Danimarca (Danish Fundamental Metrology
– DFM).
Collabora al progetto anche l’Institute
for Reference Materials and Measurements (IRMM), con sede in Belgio ma
direttamente finanziato dalla Comunità Europea.
Oltre agli Istituti Metrologici e all’IRMM
il progetto Boltzmann coinvolge anche
diversi atenei: Università di Valladolid
(Spagna), L’Université Paris Nord e, in
Italia, il Politecnico di Milano e la
Seconda Università degli studi di Napoli. Nell’ambito del progetto i diversi atenei collaborano direttamente con gli Istituti metrologici del proprio Paese, con
esperimenti congiunti.
Il 2010 è considerato un anno cruciale. La comunità scientifica internazionale, e nello specifico i comitati tecnici che fanno riferimento alla Convenzione del metro, cui l’Italia partecipa,
hanno deliberato e richiesto la conclusione dei lavori sulla nuova definizione della temperatura, e del grado.
Andrea Merlone,
ricercatore della Divisione termodinamica dell’INRiM, è laureato in
Fisica presso l’Università
degli Studi di Torino e dottorato in
Metrologia presso il Politecnico della
stessa città. Attualmente è impegnato
nelle attività di metrologia termica
finalizzate alla nuova definizione del
kelvin mediante determinazione della
costante di Boltzmann, alla disseminazione dell’unità di temperatura e a
misure riferibili per gli studi climatici e
le osservazioni meteorologiche.
1
NEWS
Figura 3 – Il termostato per la misura
della costante dielettrica dei gas
▼
Si tratta di termometri a capsula di cristallo contenenti un filamento di platino di
elevata purezza, il cui variare della resistenza in funzione della temperatura permette, attraverso la terza legge di Ohm, di
ottenere le più accurate misure di temperatura possibili.
NUOVO CALIBRATORE
MULTI-PRODOTTO:
SOLUZIONE ECONOMICA
PER LE NECESSITÀ
DI TARATURA
co strumenti composto tipicamente da misuratori palmari quali multimetri digitali ed analogici, pinze amperometriche, indicatori da
pannello, misuratori di temperatura, acquisitori dati, registratori a carta e XY, ecc.
Fluke Calibration presenta il nuovo Cali- La tipologia di clienti è quindi il Centro di
bratore Multi-Prodotto modello 5500E. Taratura, piccoli laboratori di riparazione e
Basato sulla consolidata serie 5500, il taratura, produttori di strumenti di misura che
5500E ha le prestazioni e funzioni base necessitano di capacità di taratura nelle
necessarie per la taratura dei più comuni catene di produzione e collaudo.
strumenti di misura elettronici. Il nuovo Il nuovo calibratore è identico al ben cono5500E, di valore eccezionale per quei sciuto e apprezzato 5500A, con la differenclienti che hanno un parco strumenti di za che non supporta la generazione di
base ma vario, viene proposto a un prezzo Potenza e la doppia uscita. Non è inoltre
interessante, simile a quello del modello possibile inserire le opzioni per la taratura di
9100E, offrendo però specifiche migliori oscilloscopi. Nonostante questo possiede
grazie alla piattaforma della serie 5500.
comunque le eccezionali specifiche di accuIl 5500E è indirizzato a quei clienti con par- ratezza e stabilità del 5500A.
T_M ƒ 142
Francesco Moro si è
laureato in Ingegneria
Meccanica presso l'Università
di
Cassino
(2007) e attualmente
studia per il dottorato di ricerca in
Metrologia al Politecnico di Torino.
Collabora a tempo pieno con l'Istituto
Nazionale di Ricerca Metrologica
(INRiM) di Torino sulla nuova definizione e “mise en pratique” del kelvin.
È coinvolto nei tre maggiori esperimenti sulla ridefinizione della Costante di Boltzmann.
Il software opzionale MetCal Lite consente
la gestione completa delle attività di taratura, sia tramite il potente modulo di asset
management Met/Track, sia grazie agli
applicativi Run-Time che automatizzano i
processi di taratura, con conseguente riduzione dei tempi di taratura e quindi dei
relativi costi, consentendo quindi un più
veloce ritorno dell’investimento.
I prodotti Fluke Calibration sono distribuiti
in esclusiva per il territorio Italiano da CalPower: www.calpower.it
7a EDIZIONE
13/14/15 APRILE 2011 - TORINO
CALL FOR PAPER
IMPORTANTE
È stata eccezionalmente prorogata al 16 luglio la data ultima
entro la quale far pervenire alla Segreteria del Congresso
gli abstract delle memorie
TEMATICHE D’INTERESSE
PER LE TAVOLE ROTONDE
• Formazione in metrologia
• Nanometrologia
• Metrologia e meteorologia
• Metrologia legale
• Certezza del diritto e incertezza di misura
• Misure per l’ambiente e sicurezza
• Misure e risparmio energetico
INRIM, INMRI-ENEA, ISS, COPA-SIT, ACCREDIA (SINAL, SINCERT), GMEE,
GMMT, ISPRA, CEI, ACISM-ANIMA, AEIT-GTMS, AFI, AICQ, AIPnD, AIS,
ALPI, ANIPLA, FEDERUTILITY, GISI, ISA Italy Section, TERNA, UCISP,
UNICHIM, AFFIDABILITA' E TECNOLOGIA (A&T), TUTTO_MISURE
MANIFESTAZIONI
EVENTI E FORMAZIONE
▲
Il Salone dell’Innovazione
e delle Tecnologie
cresce ancora e si conferma
un evento di grande successo
178 Società espositrici (+33% rispetto alla scorsa edizione), 4294 Visitatori (+31),
600 marchi esposti, 35 Seminari, 15 Convegni, 3 Test Drive, 2 Aree Dimostrative tematiche
Questi, in estrema sintesi, i numeri
della quarta edizione di “Affidabilità &
Tecnologie” (Torino, 14/15 aprile
2010): un ottimo risultato per questo
progetto specialistico, addirittura superiore alle più ottimistiche previsioni. Un
meritato successo per chi ha contribuito attivamente, insieme agli organizzatori, a costruire un programma di assoluto livello: enti pubblici e privati, associazioni, aziende espositrici e relatrici,
promotori della manifestazione. Tutti
insieme protagonisti della forte crescita
qualitativa e quantitativa di questa
manifestazione, che si consolida come
la più completa proposta di metodi,
tecnologie, strumentazioni, materiali e
lavorazioni speciali, soluzioni innovative al servizio dello sviluppo competitivo delle imprese italiane.
Un doveroso ringraziamento a quanti
hanno consentito di vincere questa
“scommessa”, che pone l’innovazione e
le tecnologie al centro dell’attenzione e
Torino al vertice delle Fiere specialistiche
italiane, con un progetto moderno che
crescerà ulteriormente, grazie a una formula che privilegia i contenuti e “fa sistema”, coinvolgendo le migliori risorse in
campo: Grandi Gruppi Industriali, Associazioni, Enti e Istituzioni Pubbliche.
Le 178 Società espositrici, unitamente a circa 105 autorevoli
relatori provenienti dal mondo della
Ricerca e dell’Industria, hanno presentato tecnologie, soluzioni, testimonianze e metodologie, in particolare
T_M
N.
riguardanti i seguenti temi:
ACQUISIZIONE
DATI, ACUSTICA,
AFFIDABILITÀ,
ASSEMBLAGGIO,
CAD - CAE – CAM,
CERTIFICAZIONI e
OMOLOGAZIONI,
COLORIMETRIA,
CONTROLLI e TESTING, DIAGNOSI, ENERGIA e
SOLUZIONI INNOVATIVE, IMPATTO
AMBIENTALE, INFORMATICA SPECIALISTICA, INTERFERENZE ELETTROMAGNETICHE, LAVORAZIONI SPECIALI,
MATERIALI COMPOSITI e SPECIALI,
MISURE - STRUMENTI COMPONENTI E
SERVIZI, PROTOTIPAZIONE e PRODUZIONE RAPIDA, PROVE DISTRUTTIVE e
NON DISTRUTTIVE, REVERSE ENGINEERING, SERVIZI ALLE IMPRESE, SICUREZZA, SIMULAZIONE, STATISTICA,
TECNOLOGIE PRODUTTIVE, VALIDAZIONE VEICOLI, VIBRAZIONI e STRESS,
VIRTUAL TESTING, VISIONE ARTIFICIALE.
– 4294 partecipanti (+31%
rispetto alla precedente edizione), soprattutto decisori e responsabili
tecnici (Ricerca & Sviluppo,
Progettazione,
Misure,
Prove e Controlli, Sperimentazione, Affidabilità,
ecc.), in particolare di
imprese delle filiere AUTOMOTIVE, AEROSPACE,
RAILWAY,
NAVAL
&
YACHT con una qualificata
rappresentanza di esponenti del mondo della Ricerca e dell’Università.
– Grandi Aziende, Centri di Ricerca e Università, Associazioni hanno partecipato attivamente, offrendo
Relatori di ottimo livello ai Convegni principali, il cui livello è stato particolarmente gradito da parte degli intervenuti.
2/10 ƒ 144
I COMMENTI “A CALDO”
Dei tanti pareri positivi raccolti fra i
partecipanti, un paio in particolare ci
pare abbiano sintetizzato al meglio
l’impressione generale:
– “AFFIDABILITÀ & TECNOLOGIE è ulteriormente cresciuta, con un progetto che
piace per la sua concretezza. Due giorni intensi che consentono un pratico
scambio di conoscenze, utili e concretamente applicabili: un appuntamento
sempre più apprezzato da un vasto pubblico di qualità, che è riuscito a “fare
sistema” con gli Espositori, le Associazioni di Categoria, le Università e gli
stessi partecipanti proponendo, attraverso una formula semplice ed esclusiva,
un’esaustiva e concreta presentazione di
ciò che un’azienda possa ottenere impiegando metodi, soluzioni e tecnologie
innovative”.
– “L’edizione 2010 ha dimostrato che
anche in Italia può svilupparsi e consolidarsi una manifestazione che
punta su innovazione e tecnologie. Si
tratta ora di continuare questo percor-
N. 02ƒ
;2010
▲
MANIFESTAZIONI
EVENTI E FORMAZIONE
buibile a vari fattori, non ultimo alla ciati, con Programma Eventi allegato;
capacità di AFFIDABILITÀ & TECNO- – 30.000 inviti (stima) telematici, inolLOGIE di raggiungere il giusto target. trati via posta elettronica dalle SocieDa segnalare che A&T destina da sem- tà Espositrici ai propri Clienti acquisipre ingenti investimenti all’aggiorna- ti e potenziali, con Programma Eventi
mento e potenziamento del proprio allegato;
ampio Data Base e, pertanto, è in gra- – articoli di presentazione dell’evento e
do di attivare autonomamente una sem- pagine pubblicitarie pubblicate su Riviste
I “NUMERI”
pre più capillare e articolata attività di tecniche verticali. Ringraziamo le tante
DELLA MANIFESTAZIONE
inviti mirati e personalizzati.
Riviste che, oltre a dare spazio a nostri
Le attività promozionali e informative rela- articoli e comunicati, hanno inserito la
Partecipanti
Iscritti: 5155 (+29 % rispetto alla tive a questa terza edizione, in sintesi:
manifestazione nei loro calendari fiere;
– è stato editato un nuovo magazine, – pubblicazione di annunci, aggiorprecedente edizione)
Presenti registrati: 4294 (+31% INNOVAZIONI & TECNOLOGIE, namenti e inviti all’evento sui siti web
rispetto alla precedente edizione)
distribuito in forma mirata (utilizzando delle società espositrici, delle Assoil data base A&T) a novembre 2009, ciazioni ed Enti Patrocinatori, di molte
Tipologia dei partecipanti
gennaio e marzo 2010, con contributi Associazioni aderenti a Confindustria
Decisori aziendali (14%)
– Titolari di Piccole e Medie Imprese e interviste a esperti e opinion leader. e di enti locali di varia natura;
Per un totale di 62.000 copie carta- – pubblicazione nel sito www.
11%
– Direttori Generali e Amministratori cee, inoltrate per posta.
affidabilita.eu del Programma
– 46.000 inviti personali, trasmessi complessivo della Manifestazione.
Delegati 3%
Responsabili di funzione (77%) via posta elettronica a persone delle
quali A&T possiede il nome e l’indi– Qualità 8%
rizzo e-mail personale (ovviamente
– Produzione 9%
con relativa autorizzazione conforme
– Commerciale 2%
alla Legge Privacy), reiterando la spe– Controllo Qualità 18%
dizione in 5 specifiche occasioni, nel– Acquisti 1%
– Ricerca & Sviluppo, Sperimentazio- l’arco di circa un mese e mezzo, tra
inizio Febbraio e Aprile 2010;
ne 8%
– 8.000 inviti (stima) telematici, inoltra– Misure & Test 13%
ti via posta elettronica dalle Associazio– Progettazione – Ufficio tecnico
ni ed Enti Patrocinatori ai propri asso18%
Consulenti (3%)
– Direzione e organizzazione 1%
PROSSIMO APPUNTAMENTO
– Tecnica 2%
AFFIDABILITÀ & TECNOLOGIE – Quinta EDIZIONE
Università & Ricerca (5%)
13 – 14 Aprile 2011 – Torino, Lingotto
– Docenti e Ricercatori 4%
Alcune anticipazioni
– Studenti e Dottorandi 1%
La prossima edizione, che sarà strutturata con una formula ancora più ampia, si preanAltri (1%)
nuncia di forte interesse per i Visitatori, sia per il presumibile aumento di Società espositrici sia grazie all’ulteriore sviluppo del Progetto contenutistico specialistico, che prevede,
(stampa, comunicazione,
associazioni, enti pubblici, ecc.) oltre all’ampliamento e potenziamento delle attuali tematiche, un notevole incremento
Da sottolineare, in modo particolare, la delle attività comunicazionali, con maggiore penetrazione sul territorio a livello nazionale.
qualità percepita dei partecipanti: in Centri Ricerca Industriali e Universitari, Grandi Aziende: prevediamo una forte parteciaumento i responsabili di aziende gran- pazione e incremento della collaborazione con queste importanti Realtà, che hanno condi e medio/grandi, ma anche in forte fermato il loro gradimento a partecipare attivamente ad AFFIDABILITÀ & TECNOLOGIE,
incremento decisori e responsabili tecni- anche progettandone i contenuti, insieme al Comitato Organizzatore, per favorire la creci di piccole e medie imprese, un target scita del Progetto formativo e informativo, proponendo tematiche in grado di stimolare
tradizionalmente restio a partecipare a particolarmente l’interesse delle Aziende di specifiche Filiere. La sede logistica sarà mantenuta nel Padiglione 5 del Lingotto, luminoso e di ampio respiro, giudicato dalla quasi
manifestazioni di questo tipo. Un dato totalità delle Società Espositrici come ottima soluzione per ospitare la parte espositiva; nel
che esprime chiaramente la volontà di Padiglione saranno realizzate tre sale destinate a ospitare i Seminari, allo scopo di faciripresa presente nelle imprese italiane.
litarne la fruibilità da parte dei Visitatori, senza allontanarli dalla parte espositiva; il Censo, potenziando la partecipazione del
pubblico dei visitatori proveniente da
centro e sud Italia, sicuramente interessato a tale offerta di qualità, ed
eventualmente delle aziende estere”.
PROMOZIONE
E INFORMAZIONE
Il successo della manifestazione è attri-
tro Congressi è stato indicato come struttura ottimale per lo svolgimento del programma
convegnistico, grazie alla disponibilità di sale perfettamente insonorizzate. Sono pervenute concrete richieste, da parte di Associazioni di Categoria e di Grandi Aziende, per
dare vita a un progetto ancora più importante e coinvolgente: i particolari, attualmente
coperti da riservatezza, saranno resi noti prossimamente.
Informazioni e aggiornamenti su: www.affidabilita.eu
T_M ƒ 145
MANIFESTAZIONI
EVENTI E FORMAZIONE
▲
2010-2011
eventi in breve
2010
12-14-lug-10
Istanbul, TURCHIA
19-23-lug-10
Brisbane, AUSTRALIA
22-24-lug-10
Atene, Grecia
22-24-ago-10
Stockholm, Svezia
29-ago-1-set-10
Kittila, FINLANDIA
30-ago-3-set-10
Pistoia, ITALIA
1-3-set-10
Londra, REGNO UNITO
5-9-set-10
Osaka, GIAPPONE
6-8-set-10
Taranto, Italia
6-9-set-10
Atlanta, GA, USA
6-8-set-10
Taranto, Italia
6-8-set-10
Roma, ITALIA
8-10-set-10
Kosice, SLOVACCHIA
9-set-10
Taranto, Italia
9-set-10
Taranto, Italia
11-13-set-10
Hangzhou, CINA
13-15-set-10
Gaeta, ITALIA
20-24-set-10
Bologna, Italia
23-25-set-10
Chengdu, CINA
29-set-1-ott-10
Mar del Plata, ARGENTINA
4-6-ott-10
Gaithersburg, MD, USA
12-14-ott-10
Taipei, TAIWAN
20-23-ott-10
Dubna, Russia
1-4-nov-10
Waikoloa (Hawaii), USA
21-25-nov-10
Pattaya, TAILANDIA
23-nov-10
The Square, Bruxelles, Belgium
5-10-dic-10
Orlando, USA
10-12-dic-10
Wuhan, China
10th Biennial ASME Conference on Engineering Systems
Design and Analysis ESDA 2010
The 9th International Conference on Quantum Communication,
Measurement, and Computing (QCMC 2010)
5th International Conference on Evaluation of Novel
Approaches to Software Engineering
European Meeting on Visual and Physiological Optics 2010 (EMVPO)
www.asmeconferences.org/ESDA2010
XX IEEE Int.'l Workshop on Machine Learning for Signal Processing
http://mlsp2010.conwiz.dk
Scuola per Dottorandi GMEE "Italo Gorini"
www.gmee.org
13th IMEKO TC1/TC7 Symposium: Without measurement
no science, without science no measurement
ISMQC2010 – 10th Symposium on Measurement
and Quality Control
2010 IEEE International Conference on Virtual Environments,
Human-Computer Interfaces and Measurement Systems
NUSOD 2010 - Numerical Simulation
of Optoelectronic Devices
2010 IEEE International Conference on Computational Intelligence
for Measurement Systems and Applications
ICEM 2010 - XIX Int'l Conference on Electrical Machines
www.imeko.org
17th Symposium IMEKO TC 4 Measurement of Electrical Quantities
2010 IEEE Biometric Measurements and Systems for Security
and Medical Applications
2010 IEEE Workshop on Environmental, Energy, and Structural
Monitoring Systems Taranto, Italy, 9 September 2010
19th Symposium on Photonic Measurements
http://www.imeko.tuke.sk
XXVII Congresso Nazionale del GMEE
www.gmee.org
Congresso della Società Italiana di Fisica
www.sif.it/SIF/it/portal/attivita/congresso/xcvi
Signal and Image Processing (SIP 2010)
Special Track within WiCOM 2010
AIC Interim Meeting 2010
www.wicom-meeting.org/sip2010
1st IEEE International Conference
on Smart Grid Communications
FLOMEKO 2010 – the 15th Conference
on Flow Measurement
INSINUME 2010 - SYMPOSIUM ON IN SITU NUCLEAR METROLOGY AS A TOOL
FOR RADIOECOLOGY Sponsored by IAEA
IEEE Sensors 2010
www.ieee-smartgridcomm.org
21st Conference on Measurement of Force, Mass and Torque (together with HARDMEKO 2010 and 2nd Meeting on Vibration Measurement)
SciTechEurope
www.imeko.org
13-18-mar-11
Texas A&M University,
College Station, USA
14-17-mar-11
Doubletree Hotel San Jose CA USA
13-15-apr-11 Caary Islands
Convention Center, Las Palmas (Spagna)
13-15-apr-11
Torino, ITALIA
19-24-giu-11
Hamilton, Canada
13th Int'l Conference on Modern Trends in Activation Analysis
http://tti.tamu.edu/conferences/mtaa13
International Laser Safety Conference (ILSC)
www.laserinstitute.org/conferences/ilsc/
conference
www.icrepq.com
http://qcmc2010.org
www.enase.org
www.myeos.org/events/stockholm
www.ismqc2010.mech.eng.osaka-u.ac.jp
http://vecims.ieee-ims.org
www.nusod.org/2010
http://cimsa.ieee-ims.org
http://www.icem2010.it
http://bioms2010.dti.unimi.it
http://eesms2010.dti.unimi.it
www.imeko.org
www.aic2010.org
Computer Measurement Group International Conferences
www.imeko.org
http://insinume2010.jinr.ru
http://www.ieee-sensors2010.org
www.publicserviceevents.co.uk/event/
overview.asp?ID=151
www.cmg.org/national/conferences.html
www.ciseng.org/csse2010
3rd Int'l Conference pn Computer Science
and Software Engineering
2011
T_M
N.
International Conference on Renewable Energies
and Power Quality (ICREPQ'11)
VII Congresso Italiano Metrologia e Qualità
www.affidabilita.eu
International Conference on Radioecology and Environmental Radioactivity,
June 2011, Hamilton, Canaa
www.ecorad2011.net
2/10 ƒ 146
MANIFESTAZIONI
EVENTI E FORMAZIONE
▲
Metrologia
per capillarità
Rubrica a cura di Giorgio Miglio*
METROLOGY FOR EVERYONE
This section is open to questions and curiosity by all the measurement operators, both in industry and in calibration analysis and test laboratories,
who do not have the time to search for answers in the Norms. The section
gives answers and tips in a simple language, yet complete and with adequate reference to rigorous metrological criteria.
RIASSUNTO
Questa rubrica è aperta alle domande e ai dubbi formulati da chi si occupa di processi di misurazione o di affidabilità e qualità delle misure sia in
azienda sia nei laboratori di taratura, di prova o d’analisi e che non ha il
tempo o l’opportunità di cercare spiegazioni nella normativa. La rubrica
offre risposte e delucidazioni con un linguaggio che può peccare di eccessiva semplicità, ma non di disallineamento dai criteri metrologici ortodossi.
(DOMANDA) Nell’azienda dove
lavoro, che opera nel settore tessile,
avvengono spesso discussioni su un
tema che ha significativi risvolti
anche economici in quanto il nostro
parco strumenti di misura è “sostanzioso”. L’argomento del contendere
è sintetizzabile nella domanda
“ogni quanto tempo sarebbe opportuno effettuare
la taratura della strumentazione di misura?”. I punti di vista
sono diametrali, nel
senso che c’è chi
sostiene che lo si
debba fare una
volta all’anno
(tesi suffragata anche da
chi certifica il
nostro Sistema Qualità),
chi quando è
necessario
(tenendo sotto
controllo l’errore accumulato dagli strumenti), chi
il più raramente possibile invocando
la logica del risparmio e la pressoché inutilità dell’operazione (tesi
sostenuta dal nostro ufficio acquisti
per le tarature che affidiamo all’esterno).
non si registrano i valori ottenuti,
misure differenziali, eccetera): sintetizzando, la taratura va eseguita
bene solo là dove serve e non
“in qualche maniera” su tutta la strumentazione. Per eseguita bene intendo dire da operatori qualificati che
operano a fronte di procedure validate oppure, se si ricorre all’esterno
(outsourcing), da laboratori che
occorre qualificare a fronte dei
requisiti della norma UNI 17025 (a
meno che non siano Centri accreditati SIT).
Secondo punto: essa serve unicamente a conoscere (entro un determinato livello d’incertezza) l’errore
o scostamento che lo strumento accumula nel tempo. Se non
si utilizza questa informazione a
conclusione della taratura direi che
è inutile eseguirla (sarebbe come
sottoporsi a un prelievo ematico per
valutare il livello di colesterolo e poi
non leggerne o interpretarne il risultato).
La conoscenza dell’entità dell’errore
accumulato (deriva o drift) deve consentire di “confermare o meno l’idoneità per l’utilizzazione prevista, a
definire la nuova scadenza di taratura (e qui comincio a rispondere
alla sua domanda), ad effettuare
un’immediata valutazione di rischio
sull’uso che si è fatto dello strumento
nel caso in cui l’errore trovato prevarichi i limiti di tolleranza (prestabiliti dall’azienda o dal costruttore).
Si può quindi stimare la nuova scadenza sulla base della deriva che ha
(RISPOSTA) Data la felice ignoranza che circonda questo argomento
in una significativa percentuale delle
nostre aziende, la sua domanda non
mi sorprende; anzi, direi che è già
un buon segno che nella sua
azienda, per lo meno, sia
ancora oggetto di discussione.
Ciò che in concreto va capito
della taratura è che essa
conferisce, ai risultati
delle misure
che si eseguiranno
con gli strumenti sottoposti a taratura,
la
riferibilità
ai
campioni
nazionali/internazionali e che, pertanto, è denaro sprecato applicarla ad alcune misurazioni
che si eseguono abitualmente in
azienda per le quali la suddetta pro- * Consulente di metrologia
prietà non serve (misure delle quali [email protected]
T_M
N.
2/10 ƒ 147
(con grande soddisfazione del suo dra le competenze dei laboratori di
ufficio acquisti).
taratura (e la logica dei controlli
intermedi). Da tener ben presente
per le decisioni di conformità o non
RIFERIMENTI A NORME E GUIDE conformità a specifiche i requisiti
della UNI EN ISO 14253 - 1: 2001
I requisiti generali da soddisfare e per le valutazioni di idoneità all’usono contenuti nel par. 7.6 della so la UNI EN ISO 10012: 2004. Di
norma UNI EN ISO 9001: 2008 e, interesse anche il doc. 10 della
in caso di outsourcing del servizio di O.I.M.L. che illustra i diversi metodi
taratura, anche quelli del par. 7.4. di valutazione dell’intervallo di taraPiù specificatamente per il tipo di tura (in lingua italiana era in Appenattività, i riferimenti sono nella UNI dice alla vecchia UNI 30012-1 del
CEI EN ISO/IEC 17025, che inqua- 1993).
▼
subito lo strumento nel periodo precedente (se non gli si cambieranno
in modo significativo le condizioni
d’uso e la destinazione d’uso): direi
che si va in cerca di un compromesso tra costi (periodi brevi) e rischi
(periodi lunghi) di trovare a fine
periodo dei “fuori specifica”. Per
cautelarsi da questi ultimi eventi si
possono adottare “controlli intermedi”, meno costosi di un processo di
taratura ma assai utili per abbattere
il suddetto rischio e tendere ad allungare il più possibile la scadenza
NEWS
N. 02ƒ
; 2010
■
MANIFESTAZIONI
EVENTI E FORMAZIONE
NUOVA VERSIONE
DI GlyphXE, IL SOFTWARE
CHE SEMPLIFICA
L’ANALISI E LA
VALUTAZIONE DI GRANDI
QUANTITÀ DI DATI
Nuova versione 2.0 del software ad alte prestazioni nCode
GlyphXE™ di HBM, particolarmente adatto per l’analisi e la
valutazione di grandi quantità di dati. Grazie ai numerosi
perfezionamenti il software consente una visualizzazione
più semplice e veloce dei dati ed è dotato di un modulo integrato, completamente nuovo, che permette di correggere
automaticamente le anomalie nei dati di misura.
L’uso di nCode GlyphXE™ è estremamente intuitivo, grazie
all’interfaccia utente grafica. La nuova possibilità di visua-
T_M ƒ 148
lizzare i dati di misura direttamente dal browser consente
una lavorazione dei file di dati ancora più comoda: tale
funzione si rivela particolarmente utile quando è necessario
dare solo un rapido sguardo ai dati di misura, ad esempio
per cercare la serie di dati necessaria in un preciso momento. Inoltre ora è possibile visualizzare in modo sovrapposto,
per un confronto grafico, diversi dati di misura, ad esempio
più misurazioni dello stesso test.
Il nuovo modulo per la gestione delle anomalie permette
all’utilizzatore di correggere automaticamente eventuali effetti negativi dei segnali di misura che potrebbero compromettere analisi successive. Nelle osservazioni sul lungo periodo sono rilevanti solo quegli
eventi singoli che possono verificarsi raramente. Gli
stati di inattività tra un evento e l’altro gonfiano i volumi di dati ma contengono solo parti di segnale statiche, le cosiddette flat-line. Inoltre nelle osservazioni
prolungate i risultati delle misurazioni possono presentare delle variazioni a causa degli sbalzi di temperatura. In tali casi un ritorno automatico al punto
base semplifica l’osservazione del valore oggetto
della ricerca.
Un’altra anomalia è rappresentata dai disturbi elettromagnetici, che compaiono tra i dati di misura sotto
forma di picchi. Tutte queste anomalie (flat-line, derive, picchi) vengono corrette automaticamente dal
nuovo modulo aggiuntivo, che consente la visualizzazione dei soli dati di interesse.
Ulteriori informazioni sono reperibili all’indirizzo web:
www.hbm.com/it
▲
NORME E
DECRETI
Nicola Dell’Arena
Manipolazione degli oggetti
nella 17025
Parte II - controllo in ingresso
OBJECT MANIPULATION IN THE 17025 – PART II
In this second part (the first part has been published in Tutto_Misure
n.4/2009 p. 326) one of the requirements of the 17025 Standard is discussed, of key importance for the possible non conformities.
RIASSUNTO
In questa seconda parte (la prima parte è stata pubblicata nel n. 04/2009
a pag. 326) si affronta un solo requisito della norma 17025, importante da
effettuare per le non conformità che si possono verificare.
PREMESSA
Al punto 5.8.3 la norma prescrive che
“alla ricezione dell’oggetto da sottoporre a prova o a taratura, deve essere registrata ogni anomalia o scostamento dalle condizioni normali o specificate, come descritto nei metodi di
prova o di taratura. In caso di dubbio
circa l’idoneità di un oggetto per la
prova o la taratura o se l’oggetto non
è conforme alla descrizione fornita, o
ancora se la prova o la taratura
richiesta non è specificata con sufficiente livello di dettaglio, il laboratorio deve consultare il cliente per ottenere ulteriori informazioni prima di
procedere e deve registrare la relativa
discussione”. Questo requisito tradisce la mancanza di una visione globale della norma da parte del normatore. Con esso si prescrive criteri per
tre importanti argomenti: 1) il controllo in ingresso; 2) la gestione delle non
conformità; 3) il riesame del contratto.
IL CONTROLLO IN INGRESSO
Il primo capoverso poteva essere intitolato “controllo in ingresso” (o anche
“ispezione in ingresso”, o “controllo in
accettazione”). La norma prescrive tale
controllo in maniera indiretta, obbligando alla registrazione di anomalie o
scostamenti. Il controllo deve essere
legato al punto 5.8.1 “processo rice-
zione”, e inoltre l’argomento rientra nel
capitolo 4.9 “tenuta sotto controllo delle
attività non conformi”. Dunque, anche
se non espressamente specificato, è
necessaria una procedura. A mio parere il laboratorio dovrà emettere una
procedura gestionale che contenga:
modalità, responsabilità, registrazione
da utilizzare ed eventualmente i dati
tecnici su cosa controllare dell’oggetto
(forma, colore, funzionalità, quantità,
ecc). Tutti questi argomenti possono collocarsi nella procedura “ricezione”
oppure nella procedura sulla gestione
delle non conformità con un sottotitolo
“non conformità in ingresso”.
Sin dalla nascita della garanzia della
qualità, per questo scopo è stato utilizzato il Verbale di Ispezione, ancora
oggi utilizzato nei settori industriali (e
con la mia esperienza lo applicano
con molta ritrosia) per la conformità
alla ISO 9001. Non mi sento di suggerire questo strumento per un laboratorio, in quanto lo ritengo eccessivo
per la mole di lavoro e per la quantità di anomalie che si possono verificare nel corso dell’anno. Il mio suggerimento, per non appesantire inutilmente il lavoro d’un laboratorio, è
quello di preparare il Rapporto di
Non Conformità (RNC) solamente
quando si verifica l’anomalia e registrare su di esso quanto si è riscontrato. Questo significa registrare solo i
casi anomali (eventi rari) con risparmio di tempo e costi (spero che per
T_M
questo suggerimento non mi aggrediscano i nuovi guru della qualità).
L’ISO 9000, al punto 3.6.2, definisce
non conformità “mancato soddisfacimento d’un requisito”. Al punto 5.8.3
definisce anomalia e scostamento
quanto si discosta “dalle condizioni
normali o specificate, come descritte
nei metodi di prova o taratura”.
Come si vede vengono fornite definizioni strane e diverse tra le norme,
poiché, nelle passate definizioni, i
requisiti erano condizioni specificate.
La 17025 mischia documenti esterni
(condizioni normali o specificate) con
documenti interni (metodi di prova o
taratura). Le condizioni specificate possono essere date dal cliente mediante il
contratto, sono contenute in una norma
ma spesso sono riportate nei manuali
d’istruzione. A mio parere è scorretto
riportare nei metodi di prova o taratura
le condizioni specificate, poiché essi si
limitano a descrivere solamente l’esecuzione della prova o taratura.
Nell’eventualità che tali condizioni
siano riportate in ambedue le tipologie
di documenti, che cosa deve fare il
laboratorio nel caso di discordanza tra
richieste esterne e metodi interni? Le
alternative sono (i) cambiare le condizioni (molto poco verosimile) oppure
(ii) non accettare il contratto. Bisogna
sempre ricordarsi che il laboratorio
deve rispettare la procedura approvata
dall’organismo di accreditamento.
CONSULTAZIONE DEL CLIENTE
Il secondo capoverso è tutto da analizzare. Per primo analizziamo la frase
“se la prova o la taratura richieste non
è specificata con sufficiente livello di
Consulente in metrologia
[email protected]
N.
2/10 ƒ 149
INTRODURRE UN METODO
DI REGISTRAZIONE
NEL SISTEMA QUALITÀ
Il mio suggerimento è di ignorare l’esistenza di questo requisito e applicare,
sullo stesso argomento, altre parti della
norma più chiare e aderenti alla realtà.
In seconda battuta vediamo la frase “in
caso di dubbio circa l’idoneità di un
oggetto per la prova o la taratura o se
l’oggetto non è conforme alla descrizione fornita”. La norma porta due
esempi di non conformità in ingresso
che devono essere trattati secondo il
capitolo 4.9: anche per questo requisito essa prescrive che bisogna consulta-
re il cliente e registrare la discussione.
A mio parere sarebbe stato opportuno
non mettere gli esempi in questo capitolo e, invece di consultare il cliente preparare il Rapporto di Non Conformità
da inviare al cliente (se richiesto contrattualmente) per approvazione delle
decisioni prese o per farsi suggerire le
decisioni da prendere.
5.8.1 e non è strettamente necessaria in
quanto al punto 5.8.1 la stessa norma
prescrive la protezione e la conservazione degli oggetti in modo generale e
quindi valido anche per le non conformità. Nessuno dei due specifica se il
laboratorio debba possedere procedure
per il controllo in ingresso e per la consultazione con il cliente.
POSIZIONE SIT E SINAL
CONCLUSIONE
Per tutto il requisito 5.8.3 il SIT non precisa nulla mentre il SINAL, oltre alla frase
“si applica il requisito di norma” aggiunge “il laboratorio deve disporre di adeguate aree di segregazione per conservare i campioni non idonei”. L’aggiunta
è simile a quella del SIT fatta per il punto
Al di là del fatto che il requisito è molto
confuso, il laboratorio deve dotarsi di
una procedura gestionale sul controllo
in ingresso degli oggetti da provare che
contenga anche le modalità di consultazione con il cliente (personalmente eliminerei anche questo requisito).
Norme pubblicate
Segnaliamo alcune norme di particolare rilevanza per il mondo delle misure e della
metrologia, emesse recentemente e in vendita da UNI e CEI (ad es.: www.ceiweb.it/webstore).
CEI UNI ISO 80000-1 Grandezze e unità di misura
Parte 1: Generalità
CEI UNI ISO 80000-2 Grandezze e unità di misura
Parte 2: Segni e simboli matematici da utilizzare nelle scienze naturali e nella tecnica
CEI UNI ISO 80000-9 Grandezze e unità di misura
Parte 9: Chimica fisica e fisica molecolare
CEI UNI ISO 80000-10 Grandezze e unità di misura
Parte 10: Fisica atomica e nucleare
CEI UNI ISO 80000-12 Grandezze e unità di misura
Parte 12: Fisica dello stato solido
CEI UNI 70099 Vocabolario Internazionale di Metrologia - Concetti fondamentali e generali e termini correlati
NEWS
▼
dettaglio, il laboratorio deve consultare
il cliente per ottenere ulteriori informazioni prima di procedere e deve registrare la relativa discussione”. Questo
requisito sembra uscito fuori dal cappello di un prestigiatore. I processi
implicati sono due: (i) riesame del contratto e (ii) controllo in ingresso. La
norma impone (cfr. tutto il capitolo 4.4)
che prima di accettare un contratto tutto
sia chiarito con il cliente e che il laboratorio non può operare al di fuori dalla
procedura accreditata. Con questo
requisito si afferma viceversa che con
l’oggetto arrivano anche le condizioni
contrattuali (peggio ancora: non complete). È tutto non corretto: sia secondo
la logica dei processi dei laboratori, sia
secondo la 17025, non è possibile che
con l’oggetto possano pervenire condizioni diverse da quelle accettate e firmate da entrambe le parti.
Nonostante questa enorme distorsione, come operare per agire in conformità alla norma?
1. stabilire il sufficiente livello di dettaglio, termine molto indeterminato
che sfugge alla razionalità tecnica e
che introduce un’indeterminatezza di
comportamento;
2. consultare il cliente in modo verbale, completa negazione della norma
che impone condizioni contrattuali
scritte, chiare e precise;
3. registrare la discussione: in questo
caso quanto detto verbalmente in
modo errato può essere contestato in
qualsiasi momento.
T_M ƒ 150
N. 02ƒ
; 2010
▲
NORME E
DECRETI
NUOVO THERMO-CHILLER
COMPATTO PER UN
PRECISO CONTROLLO
DELLA TEMPERATURA
Il nuovo thermo-chiller serie HRS di SMC, leader mondiale nel settore, piccolo, leggero,
rispettoso dell’ambiente e dalle elevate prestazioni, rappresenta la soluzione ideale
quando lo spazio di installazione e il flusso di
ventilazione sono limitati ma è richiesto un raffreddamento costante. Con un peso di soli 43
kg, la HRS è stata progettata per funzionare
con temperature del fluido di circolazione
comprese tra 5 e 40 °C e il controllo PID assi-
cura variazioni
regolari
della temperatura e una stabilità eccellente di ± 0,1 °C.
Disponibile
sia con raffreddamento
ad aria sia
con raffreddamento ad acqua e tre capacità di raffreddamento
fino a 2 500W, la serie HRS è compatibile
per l'uso con tutte le comuni alimentazioni
monofase – AC100V, AC100 -115V e
AC200-230V.
Per ulteriori informazioni:
www.smcitalia.it
■
NORME E
DECRETI
Edoardo Perrotta
Scheda:
la Metrologia Legale
The Legal Metrology
Dal 1° gennaio 2000, con il decreto
legislativo 112/98, le Camere di
commercio hanno acquisito le funzioni degli uffici provinciali
metrici, aggiungendo, a quelle svolte, ulteriori funzioni di supporto
alle imprese e di controllo della
loro attività.
In campo metrologico - legale, i settori di intervento sono molteplici e possono essere così riassunti:
– controllo sul corretto funzionamento e sull‘inalterabilità degli
strumenti di misura usati nelle
transazioni commerciali, attraverso l’istituto della verifica prima, del collaudo di posa in opera e delle verifiche
periodiche;
– controllo dei prodotti preconfezionati;
– attività di sorveglianza in materia di
metalli preziosi;
– verifica dei requisiti finalizzata al
rilascio e al mantenimento delle autorizzazioni al montaggio e riparazione
dei cronotachigrafi analogici e
digitali.
La metrologia legale riguarda un gran
numero di categorie di strumenti di
misura, dai contatori del gas, acqua ed
elettricità agli strumenti per pesare a
funzionamento non-automatico e automatico, ai distributori di carburante.
Gli strumenti metrici sono sottoposti a
verifica prima, anteriormente all'immissione sul mercato, per accertarne la
conformità ai relativi decreti ministeriali di approvazione; gli strumenti definiti fissi (pese a ponte, distributori di carburanti, ecc...) sono sottoposti anche
al collaudo di posa in opera sul
luogo di funzionamento.
Tutti gli strumenti di misura, ad esclusione dei misuratori di gas, di acqua
ed elettrici, devono essere sottoposti a
verificazione periodica con periodicità differente a seconda del
tipo di strumento. La verificazione
periodica consiste nell’accertare il
mantenimento nel tempo della loro
affidabilità metrologica finalizzata
alla fede pubblica nonché all’integrità
dei sigilli posti a garanzia delle parti
metrologicamente rilevanti.
Le Camere di commercio svolgono queste funzioni di verifica e sorveglianza
attraverso propri funzionari abilitati (ispettori metrici e assistenti al servizio) che rivestono la qualifica di ufficiali di polizia giudiziaria.
A livello europeo, con il recepimento
della Direttiva 2004/22/CE
(Direttiva MID), nata dall’esigenza
di sostituire normative ormai superate,
sono in atto grandi cambiamenti; tuttavia, siamo ancora in attesa dei
decreti applicativi che la rendano
definitivamente operativa.
La direttiva MID, che ha come scopo
principale la libera circolazione degli
strumenti di misura nel territorio comunitario, fissa i requisiti essenziali, definiti come requisiti di prestazione e non come specifiche di progettazione, superando così la necessità di
aggiornare continuamente le specifiche tecniche, caratteristica tipica delle
“vecchie direttive”.
I decreti applicativi della Direttiva
MID potrebbero dare, inoltre, un
impulso notevole all’accreditamento
da parte delle Camere di commercio
dei laboratori autorizzati all'esecuzione della verifica periodica degli strumenti metrici, prevedendo l’esclusività
della verifica ai laboratori stessi, spostando così l’attività di verifica delle
Camere di commercio dai singoli strumenti alla sorveglianza sull’operato
dei laboratori metrologici.
Altra funzione svolta dalle Camere di
commercio, strettamente legata agli
strumenti di misura, è la vigilanza sui
prodotti
preconfezionati
o
preimballaggi, cioè l’insieme di prodotti confezionati in assenza dell’acquirente e preparati in modo che la
quantità di prodotto contenuta
T_M
nell’imballaggio abbia un valore
prefissato e non possa essere modificata senza aprire l’imballaggio stesso.
Tale attività viene svolta mediante ispezioni presso i fabbricanti o gli importatori; in sintesi, i controlli sono effettuati
per campionamento e riguardano l’effettivo contenuto di ciascun preimballaggio del campione nonché la media
degli effettivi contenuti dei preimballaggi del campione preso in esame.
Inoltre, le Camere di commercio hanno
specifiche competenze sui tachigrafi analogici e digitali, strumenti
che permettono di registrare velocità,
tempi di lavoro e percorsi dei conducenti il cui utilizzo è obbligatorio per gli
autocarri con massa complessiva superiore a superiore a 3,5 tonnellate. L’installazione e la riparazione dei tachigrafi digitali, voluti dalla comunità
europea e destinati a sostituire quelli di
vecchia generazione, analogici, può
essere eseguita solo da officine autorizzate. Le Camere di commercio verificano i requisiti e le apparecchiature utilizzate dalle officine autorizzate al
montaggio e alla riparazione dei tachigrafi digitali (centri tecnici).
Tra le competenze camerali, di notevole rilievo è la vigilanza nel settore orafo, sulla produzione e sul
commercio dei metalli preziosi. Il personale della Camera di commercio,
attraverso visite non preannunciate,
preleva campioni di materie prime, di
semilavorato e oggetti contenenti metallo prezioso pronti per la vendita e
muniti di marchio, per accertarne il titolo mediante saggi che sono eseguiti
presso laboratori abilitati; controlla le
caratteristiche di autenticità dei marchi
e la loro perfetta idoneità all’uso.
Camera di commercio di Brescia
[email protected]
N.
2/10 ƒ 151
▲
STORIA E
CURIOSITÀ
Mario Savino
Le misure
e la loro evoluzione
Parte II – Un linguaggio mondiale
MEASUREMENTS AND THEIR HISTORICAL EVOLUTION PART II: A
GLOBAL LANGUAGE
We publish here the second part of the text of the Honorary Lecture by Prof.
Mario Savino, Past President of the GMEE and Full Professor of Electrical
Measurements at the Polytechnic of Bari, at the Opening of the Academic
Year 2009-10 at the Polytechnic. Part I has been published in T_M
01/2010 p. 76.
RIASSUNTO
Pubblichiamo qui la seconda parte della “Prolusione” tenuta dal Prof. Mario
Savino, Past President del GMEE e Ordinario di Misure Elettriche al Politecnico di Bari, in occasione dell’Inaugurazione dell’Anno Accademico
2009-2010 al Politecnico. La prima parte è stata pubblicata in T_M
01/2010 a pag. 76.
UN LINGUAGGIO MONDIALE
Ciò che non è riuscito con l’esperanto, tentativo di sviluppo di una lingua internazionale, proposto intorno
al 1880 dal medico polacco Zamenhof, si è ottenuto con il Sistema
Internazionale delle unità di
misura (SI).
Per esprimere il risultato di qualsiasi misurazione gli esseri umani si servono e si
sono serviti di numeri e di unità di misura. L’insieme delle unità di misura è chiamato sistema di unità di misura.
L’unificazione di tale sistema è stata
resa possibile grazie ad un lavoro antico
e faticoso al quale hanno partecipato
scienziati di tutto il mondo. Questo
mezzo efficiente di cui oggi si dispone,
T_M
N.
che ci consente di parlare la stessa lingua, anche se si lavora in continenti
diversi, e che ci appare così logico e
naturale, è in realtà il frutto di un lavoro
spesso sommerso che continua e procede di pari passo con lo sviluppo ad
abbracciare tutti i campi e i settori scientifici e tecnologici in rapida espansione.
L’esigenza di fissare regole precise per
quanto riguarda gli scambi commerciali e l’organizzazione sociale all’interno
di una comunità portò ogni
popolo a servirsi di propri sistemi di misura. Per facilitare gli
scambi tra le varie popolazioni
si tentarono di stabilire criteri di
equivalenza tra le varie unità di
misura sulla base di campioni
materiali. I primi campioni
scoperti nei templi e in altri edifici sacri assiri ed egizi sono
quelli di unità di lunghezza.
Così ad esempio tra le civiltà
antiche la lunghezza del cùbito, testimoniata da diversi campioni trovati, presenta valori poco differenti tra loro. La vastità dell’antico impero romano favorì il processo di unificazione, vanificato alla sua caduta con il
successivo formarsi della società feudale, quando si diffusero numerosi sistemi
di misura anche molto differenti tra loro.
Spostandosi da un feudo all’altro occor-
2/10 ƒ 152
reva effettuare la trasformazione delle
unità di misura il che risultava sempre
molto approssimativo. Anche in seguito,
considerando che le comunicazioni e la
mobilità continuavano a essere molto
limitate, si assistette alla proliferazione e
all’uso di unità molto differenziate nelle
diverse nazioni e, al loro interno, nei
vari comuni e paesi. Spesso con una
stessa denominazione si indicavano
unità di misura diverse da paese a
paese il che era causa di frodi e di possibilità di guadagni illeciti da parte di
quanti approfittavano della confusione
esistente. Questo il motivo per cui nelle
piazze dove si tenevano i mercati, per
evitare contestazioni tra commercianti e
acquirenti, le autorità del luogo indicavano in vario modo sui muri le unità di
lunghezza. Per esempio in un muro
della Cattedrale di Santo Stefano
a Vienna, grande centro commerciale
tra est e ovest nell’epoca medioevale, vi
sono due barre di ferro con le estremità
sporgenti a distanza all’incirca di un
metro l’una dall’altra.
Altri luoghi dove è possibile trovare
Dipartimento Ingegneria Elettrotecnica
ed Elettronica – Politecnico di Bari
Testo della Prolusione tenuta
in occasione dell’inaugurazione
dell’Anno Accademico 2009-2010
al Politecnico di Bari
[email protected]
indicazioni relative al campione
di
lunghezza
sono ad esempio
Parigi, patria
mondiale della
metrologia, dove
nel sedicesimo secolo in un muro esterno presso la scalinata del Grand
Chatelet era stata riportata in ferro la
tesa, unità di misura della lunghezza
per la Francia, pari a 1,95 m.
Anche a Bari sulla facciata della Basilica di San Nicola è incorporato il
campione di lunghezza detto cùbito
barese, di lunghezza leggermente differente dai più noti. Secondo alcune fonti
esso ha rappresentato l’unità di misura
adottata per sviluppare l’intero progetto
della Basilica, ultimata nel 1197, mentre
per il padre sacrista della Basilica il cùbito è stato realizzato per il mercato che si
teneva nella piazza antistante in epoca
medioevale, il che convaliderebbe quanto prima affermato in merito alla presenza di campioni di unità di lunghezza sui
muri delle cattedrali.
Alcuni sostenitori della prima tesi vanno
oltre la semplice relazione geometrica,
collegando il cùbito barese a criteri
occulti di architettura sacra che
sarebbero stati seguiti nella realizzazione della Basilica, perché essa alludesse, con la sua geometria, a verità
accessibili solo a pochi iniziati. Esiste
una vasta letteratura sulle relazioni tra
la Basilica di San Nicola e l’ordine
Templare, i Rosa-Croce, e altri. Il cùbito
barese può essere, quindi, visto come
simbolo della demarcazione tra due tipi
di scienza: una basata su affermazioni
verificabili o confutabili da chiunque lo
voglia, con strumenti accessibili pubblicamente in qualunque momento; l’altra
fondata su autorità ineffabili, su una
sapienza che non è spiegata e non è
spiegabile, su verità per pochi iniziati,
che gli iniziati non possono mettere in
discussione, pena la radiazione e la
persecuzione.
Fu Carlo Magno nell’Ottocento
che, avendo avviato le grandi riforme
amministrative, economiche e giudiziarie dell’impero carolingio promulgò un
decreto sull’unificazione dei campioni
di massa e istituì il principio che i
costruttori di bilance, una volta ottenuta
la licenza di vendita, fossero gli unici
responsabili del loro corretto funzionamento. Alla caduta dell’impero carolingio, con la moltiplicazione dei centri di
potere, la monarchia in Francia, il
regno d’Italia, il sacro romano impero
della nazione germanica, si moltiplicarono anche le unità di misura. Nonostante la necessità di unificazione fosse
sentita inizialmente nell’ambito del commercio per facilitare le operazioni di
scambio, in seguito fu la comunità
scientifica, con l’impulso dato da Galileo Galilei al metodo sperimentale, a
ritenere imperativa tale unificazione, in
quanto i diversi scienziati volevano far
conoscere e confrontare i risultati ottenuti nell’esecuzione di una stessa misurazione, anche se condotta in luoghi
diversi.
Solo alla fine del diciottesimo secolo si
assistette alla nascita di sistemi di misura che lentamente, ma inesorabilmente
acquisirono carattere mondiale. Fu ai
tempi della rivoluzione francese, intorno al 1790, che si iniziò il lungo processo di unificazione e razionalizzazione delle unità di misura per le grandezze d’interesse commerciale e scientifico. Il 7 aprile 1795 con decreto
legge in Francia la Convenzione
Nazionale istituì il Sistema Metrico Decimale, che riconduceva tutte le
unità di misura a soltanto quattro grandezze fondamentali, la lunghezza
misurata in metri, la massa misurata in
kilogrammi, la capacità e il volume
misurati in litri. Inoltre tale sistema permetteva l’uso di soli multipli e sottomultipli decimali. Allo scopo di facilitare la riferibilità delle misure a
entità ben precise si giunse all’accordo
di costruire dei campioni materiali disponibili in laboratorio. A giugno del
1799 una delegazione dell’Istituto
Nazionale delle Scienze e delle Arti
presentava al Consiglio dei Cinquecento e deponeva negli archivi francesi i prototipi metallici del metro e del
kilogrammo, detti degli Archivi8.
Nel 1875, con la partecipazione di
rappresentanti provenienti da diciassette paesi, era istituita la Conferenza
Generale dei Pesi e delle Misure
(CGPM), dove per misure si intendevano le lunghezze e le loro grandezze
geometriche derivate. La CGPM è
ancora operante e mentre inizialmente
si riuniva ogni sei anni, attualmente è
convocata a Sèvres ogni quattro anni.
Fu con l’undicesima CGPM, tenutasi a
Parigi dall’11 al 20 ottobre 1960 che
si giunse a un sistema veramente mondiale, l’attuale Sistema Internazionale di unità di misura (SI), fondato
sulle sei unità di misura base: metro;
kilogrammo; secondo; ampere;
kelvin; candela, al quale nel 1971 si
aggiunse una settima unità base per le
quantità di sostanza, costituita dalla
mole. Il Sistema Internazionale è
stato legalmente adottato in Italia con la
legge n. 122 del 14 aprile 1978 e con
il D.P.R. n. 802 del 12 agosto 1982 ed
ha avuto l’approvazione oltre che dall’IEC (International Electrotechnical
Commission) anche dall’ISO (International Standards Organization)[9].
Attualmente numerosi centri di ricerca
in tutto il mondo, tra i quali l’Istituto
Nazionale per la Ricerca Metrologica (INRiM), coordinati dal
Bureau International des Poids
et Mesures (BIPM), stanno collaborando per ridefinire le unità di misura,
con particolare riferimento alla massa e
alla corrente elettrica (o a un suo sostituto: la tensione elettrica), impiegando
le cosiddette costanti fondamentali
(costanti di Avogadro, di Planck, ecc.) e
la carica dell’elettrone, allo scopo di
ridurre quanto più possibile l’incertezza
associata alla realizzazione dei campioni relativi alle unità dell’attuale Sistema Internazionale.
ASPETTI PSICOLOGICI
Quando si acquisiscono i fondamenti
delle misure si impara anche una corretta filosofia di vita. La frase latina attribuita a Lucio Anneo Seneca errare
humanum est, perseverare autem diabolicum, significa commettere errori è
umano, ma perseverare è diabolico ed è
ormai entrata nel linguaggio comune.
T_M ƒ 153
Commettere errori nel corso di una misura è possibile e anzi molto probabile,
d’altra parte il solo fatto di esser obbligati a inserire uno strumento di misura in
un sistema altera le condizioni iniziali del
sistema stesso e non consente la misura
del valore che il misurando assumeva
prima dell’inserzione. Il procedimento di
misura disturba il sistema e determina
una variazione nel valore delle grandezze da misurare. L’entità del disturbo
varia con il tipo di strumento usato per la
misura. Si definisce errore assoluto
di misura la differenza tra il valore
della grandezza misurata e quello di
una grandezza di riferimento, derivante
ad esempio da un campione di misura.
La grandezza di riferimento è assunta
come valore convenzionalmente
vero del misurando.
Tra gli errori di misura sono contemplati
gli errori sistematici che si ripresentano sempre con lo stesso segno e la stessa ampiezza, ripetendo la misura di una
grandezza con la stessa strumentazione
quando siano immutate le condizioni
operative e ambientali. Si definisce correzione il valore da aggiungere algebricamente al risultato non corretto di una
misura per compensarne l’errore sistematico. La correzione non può mai
essere completa per i limiti intrinseci sia
alla strumentazione sia all’operatore che
esegue la misura. Non esiste una
misura perfetta, come non esistono
comportamenti umani privi di errori, la
perfezione non è di questo mondo.
Scrive Galimberti nel suo dizionario
di psicologia che per errore s’intende un’azione che comporta “un giudizio o valutazione che contravviene il criterio riconosciuto
valido nel campo a cui il giudizio si riferisce, oppure ai limiti
di applicabilità del criterio stesso”10. Come nell’ambito delle misure
occorre un riferimento rappresentato
dai campioni delle grandezze e dalle
scale di misura, così nella condotta
umana è necessario riferirsi a un “criterio riconosciuto valido nel campo”.
L’errore umano come quello delle
misure dipende unicamente da un
processo valutativo, da un confronto
con campioni di riferimento. Ognuno
di noi si crea un modello di vita, da
cui fa discendere una scala di valo-
T_M ƒ 154
N. 02ƒ
;2010
▲
STORIA E
CURIOSITÀ
ri e valuta i suoi atti e i suoi possibili
errori sulla base di questi. I propri
errori si possono correggere anche
con il dialogo e il confronto con gli
altri purché si sia in grado di ascoltare e di mettersi in discussione. È l’autocritica che nel campo scientifico fa
progredire la scienza e nel campo
umano fa crescere gli esseri umani. Il
progresso diventa illimitato solo quando si accetti la necessità di una sistematica correzione dei risultati della
ricerca nel campo delle scienze sia
umane, sia tecnologiche.
Spesso, dopo aver spiegato il significato di errore e di correzione, all’inizio di
una mia lezione riservo una parte della
lavagna al conteggio degli errori che
commetto e alle possibili correzioni,
esortando gli allievi ad aiutarmi nel procedimento di correzione. Per verificare
il grado di attenzione degli studenti, a
volte commetto volontariamente un errore. Questa pratica mi permette di dimostrare agli allievi che tutti sbagliamo,
che il docente è un essere umano come
loro, che i propri errori si possono correggere anche ascoltando gli altri. L’impossibilità di avere un campione di
riferimento perfetto rende il concetto
di errore idealizzato, in quanto non
può essere mai conosciuto esattamente,
quindi la correzione non potrà mai
essere completa. Ne scaturisce che
come ogni comportamento umano, così
ogni misura sarà affetta da incertezza dovuta sia all’imperfetta correzione, sia alla presenza di effetti casuali, dovuti per esempio all’interazione
del misurando con l’ambiente, con gli
strumenti, con l’operatore.
Nessun risultato di una misura
è esente da incertezza, parametro (sempre associato a tale risultato)
che caratterizza la dispersione dei
valori che potrebbero essere ragionevolmente attribuiti al misurando. Le
donne e gli uomini hanno bisogno di
certezze per costruire la loro scala
di valori, ma devono essere al tempo
stesso consapevoli che le loro azioni
saranno sempre accompagnate da
un’incertezza di fondo, dovuta a una
conoscenza inevitabilmente imperfetta. Non devono avere paura dei
dubbi che assalgono loro, nella consapevolezza che essi scaturiscono da
fattori molto spesso fortuiti o imprevedibili. È anzi auspicabile che il dubbio rientri nell’etica dell’esistenza
umana, perché si possa sperare in
una più cosciente crescita individuale
e collettiva. Il parallelismo tra la scienza delle misure e quella umana
potrebbe continuare esaminando i
concetti di precisione, accuratezza e
taratura, ma i limiti di tempo di questo
intervento non lo consentono.
PER IL BENESSERE
DEGLI ESSERI UMANI
Una filosofia di vita in cui il desiderio
di avere, di possedere beni e di consumarli, prevale spesso su aneliti di
solidarietà, sul bisogno di dare qualcosa di noi agli altri senza fini utilitaristici, sta portando donne e uomini a
vivere con ansia e schizofrenia la loro
esistenza.
Erich Fromm nel suo libro “La rivoluzione della speranza; verso
una tecnologia umanizzata”11,
individua come soluzione a questo
serio problema una nuova filosofia
dello sviluppo che veda l’affermarsi
della priorità della vita sulla morte. La
speranza è un elemento fondamentale di ogni tentativo di cambiare la società. Fromm distingue la speranza passiva, che è attesa e rassegnazione, da
quella attiva, che è invece la proiezione nel futuro. Una grande speranza è
che questo nuovo millennio sia dedicato al benessere degli esseri umani.
Un obiettivo a tal riguardo è certamente quello di migliorare la qualità
delle misure in campi strategici quali
l’ambientale e il biomedicale,
dove occorre stabilire se la grandezza oggetto della misura rientri in limiti specificati e ben definiti. Oggi si
assiste a un notevole incremento di
strumentazione biomedicale, che consente non solo la definizione della
malattia, ma anche la misura della
sua gravità, la determinazione dei fattori sia prognostici sia predittivi di
risposta della cura. Quanto più una
struttura ospedaliera è dotata di sistemi sensori in grado di fornire in tempi
brevi tutte le informazioni necessarie
a una rapida diagnosi, tanto minore
sarà l’incertezza con la
quale
il
medico assumerà le deci-
salute pubblica e dichiarare l’insorgere
della situazione di pericolo, anche se il
risultato della misura, al centro della
fascia, dovesse risultare inferiore al valore limite superiore di tollerabilità.
Quanto esposto potrebbe essere una
delle soluzioni a un problema aperto che
purtroppo non è stato ancora completamente considerato dalla normativa e
dagli organismi a vario titolo deputati a
stabilire i criteri relativi alla definizione
dei valori di tollerabilità di molte grandezze. Probabilmente non è sufficientemente cautelativo che il legislatore
imponga un semplice limite, forse sarebbe necessario indicare anche altri parametri come ad esempio un limite massimo ammissibile di incertezza delle misure, che deve essere opportunamente
definito e aggiornato.
Oggi i sistemi biomedicali, specie attraverso i biosensori e le bioimmagini, consentono misure sempre più accurate e
sensibili all’interno e all’esterno del
corpo umano. Purtroppo le case produttrici di apparecchi biomedicali, che sono
ormai numerose, raramente forniscono
informazioni adeguate su parametri fondamentali quali risoluzione, sensibilità e incertezza degli strumenti. In letteratura scientifica iniziano a essere pubblicati lavori che mostrano come la mancata considerazione delle incertezze di
misura nell’esecuzione di esami medici
porti a diagnosi e prognosi non sempre
corrette a volte con nocumento alla salute pubblica, a volte con consistenti
aggravi di spesa per i servizi sanitari
nazionali.
L’ambiente e la medicina avranno
sempre più bisogno di sistemi informativi basati sulle misure, di strumentazione elettronica sempre più automatizzata e in grado di eseguire l’autocontrollo delle prestazioni. È evidente che lo sviluppo tecnologico imporrà
anche un adeguamento legislativo e
normativo molto più frequente rispetto
al passato specie in settori che riguardano la salute pubblica e il benessere
degli esseri umani.
sioni sul da farsi4.
Nei suddetti campi di applicazione le
misure devono essere più corrette possibili. Colui che esegue la misura deve
avere ben presente lo scopo a cui è
destinato il risultato, deve fissare quantitativamente un limite massimo all’incertezza della misura superato il quale
nessuna decisione può essere ragionevolmente presa, in quanto essa risulterebbe arbitraria e potrebbe comportare
conseguenze pericolose. L’incertezza
massima tollerabile in una misura
dipende dalla decisione alla quale la
misura deve portare12. Nel caso di
misure sia ambientali, sia biomedicali,
in cui il superamento di precisi limiti
può comportare rischi alla salute pubblica, diventa essenziale individuare il
legame tra incertezza di misura e
rischio sociale accettabile13.
Poiché una misura è sempre accompagnata da un’incertezza, essa è meglio
rappresentabile attraverso una fascia di
valori al centro della quale è posto il risultato della misura e agli estremi la somma
e la differenza del risultato e dell’incertezza di misura14. L’ampiezza della
fascia di misura dipende dal livello di
confidenza che si vuole ottenere e nel
caso di misure ambientali e biomedicali
esso non può che essere il più elevato
possibile. Nell’ipotesi di una distribuzione di tipo gaussiano si ha un
livello di confidenza del 99,73 percento moltiplicando l’incertezza calcolata per un fattore di copertura pari a
tre. Nel caso il valore limite superiore di
tollerabilità, imposto dalle leggi ad alcune grandezze, cadesse al di fuori della
fascia di misura non sembrerebbe porsi
alcun problema di interpretazione, in
quanto se tutta la fascia di misura fosse
al di sopra della tollerabilità ammessa si
presenterebbe una situazione di pericolo, inesistente qualora invece tutta la
fascia di misura fosse al di sotto della tollerabilità ammessa. Nel caso invece il
valore limite superiore di tollerabilità CONCLUSIONI
cadesse all’interno della fascia di misura
si potrebbe adottare il principio del Lord Kelvin scrisse: “Io spesso
caso peggiore a salvaguardia della affermo che quando puoi misu-
▲
STORIA E
CURIOSITÀ
rare ciò di cui stai parlando e lo
puoi esprimere in numeri, tu
conosci qualcosa di ciò, ma
quando non puoi esprimerlo in
numeri, la tua conoscenza è
scarsa e insoddisfacente”. Eseguire misure è vitale e indispensabile
nelle relazioni umane, in quanto le
misure permettono la comprensione
del mondo nel quale si vive ed hanno
contribuito a elevare la qualità dei
prodotti e dei servizi. Diversi governi
delle nazioni più progredite dedicano
sempre maggiore attenzione alla
scuola, all’università e alla ricerca,
ritenute prioritarie per il rilancio e la
valorizzazione del capitale umano e
per lo sviluppo sociale.
In particolare si riconosce alla scienza delle misure notevole importanza
specie nella formazione dei quadri
dirigenti industriali, anche per le implicazioni che essa ha nelle transazioni commerciali, tanto da poter contare su una branca importante costituita dalla metrologia legale. Proprio
da parte del comparto industriale si
ritiene per il futuro che il settore delle
misure potrà avere ulteriori consistenti
sviluppi e una conseguente crescita di
interesse da un’utenza sempre più
ampia.
BIBLIOGRAFIA
[8] Egidi, C., Introduzione alla Metrologia, Ed. Garzanti, Milano, 1982.
[9] Savino, M., Fondamenti di scienza
delle misure, NIS, Roma, 1992.
[10] Galimberti, U. Dizionario di psicologia, UTET, 1999.
[11] Fromm E., The Revolution of Hope
Toward a Humanized Tecnology. Gesamtausgabe, (1968), (traduzione italiana in
Saggi Tascabili Bompiani).
[12] Sartori, S., Incertezza di misura,
ambiguità e diritto, Tutto Misure, A&T Editore, Torino, vol. 1, n. 1, 1999.
[13] Ferrero, A., Il ruolo dell’incertezza
nelle misure ambientali e nel loro confronto con i limiti, ARPA Piemonte, Convegno
su “Controllo ambientale degli agenti fisici: nuove prospettive e problematiche
emergenti”, Vercelli, 24-27 marzo 2009.
[14] UNI CEI ENV 13005, Guida all’espressione dell’incertezza di misura, 2000.
T_M ƒ 155
▲
STORIA E
CURIOSITÀ
Emilio Borchi1, Riccardo Nicoletti2, Gaetano Iuculano3
Il patrimonio strumentale
del Liceo Reale di Lucca
Parte III – Galvanometri e strumenti di Nobili
THE INSTRUMENTAL TREASURE OF THE ROYAL LYCAEUM OF
LUCCA - PART III: GALVANOMETERS AND NOBILI’S INSTRUMENTS
Continuation of the series of articles on the treasure of the Royal Lyceum of
Lucca, this article covering the galvanometers, most of which date mid
1800.
RIASSUNTO
Terzo articolo della serie riguardante il Tesoro di strumenti di misura antichi
conservati nel Liceo Reale di Lucca. Questo articolo copre i Galvanometri e
gli strumenti di Leopoldo Nobili.
I GALVANOMETRI
Il galvanometro (Fig. 7), nominato nell’inventario del 1849 come “modello di altro galvanometro su
altro sistema”, è il galvanometro
più antico della collezione del Liceo
Reale. Esso risale al 1830 circa. Il
costruttore è probabilmente E. Ugolotti, macchinista del gabinetto della
scuola di fisica.
di cartone con una scala divisa in
quattro quadranti graduati da 0° a
90° e con al centro un ago magnetico
libero di ruotare. Una colonnina di
legno fissata verticalmente sulla base
quadrata sorregge, fissato a varie
altezze con una vite, un supporto di
vetro e ottone piegato ad angolo retto
che sorregge un telaio di legno semicircolare, sopra il quale è avvolta con
parecchi giri una bobina di
filo di rame ricoperto di seta.
I capi della bobina sono fermati con ceralacca alla base
dello strumento. L’influenza
della bobina sull’ago magnetico viene messa in evidenza
facendo circolare corrente
nella bobina e spostandola e
orientandola rispetto alla
configurazione iniziale.
Il galvanometro per le correnti discontinue del Nobili,
costruito nel 1833, è nominato nell’inventario della Scuola
del 1856 come “galvanometro del Nobili di
Wolf”. Lo strumento è tipico
di Leopoldo Nobili (Fig. 8).
Figura 7 – Galvanometro
Le sue principali caratteristiche sono: la base circolare di
Su una base quadrata di legno è inse- legno con tre viti calanti di ottone e
rito un anello sagomato di legno con l’anello di piombo (andato perduto)
spessore. All’interno si trova un disco come zavorra; la bobina ricoperta
T_M
N.
2/10 ƒ 156
Figura 8 – Galvanometro di Nobili
di seta e avvolta sopra un telaio di
legno; la scala di cartone (divisa in
quattro quadranti, 0° - 90° - 0° 90°, con divisioni ogni 2°) bloccata
da quattro cavicchi di avorio che
servono anche a evitare eccessive
oscillazioni del sistema astatico; il
sistema di aghi astatici sospeso tramite un filo a un’asticella, mobile
verticalmente per mezzo di una
manopola di ottone posizionata
sulla campana di vetro; una sbarretta di ottone ripiegata ad angolo
retto che sorregge la campana di
(1)
Dip. di Energetica – Università di
Firenze
(2) CSO srl – Costruzione Strumenti
Oftalmici, Badia a Settimo (FI)
[email protected]
(3) La rubrica dedicata agli Strumenti
Scientifici Antichi fu ideata insieme al
Prof. Gaetano Iuculano, prematuramente scomparso. Ci preme ricordarlo, in
particolare in questa occasione, come
un appassionato amante della storia
della Scienza. Desideriamo esprimere
qui il nostro più affettuoso ricordo del
caro Gaetano.
N. 02ƒ
;2010
Figura 9 – Calamite coniugate
vetro; gli spinotti di collegamento
piegati a gomito sulla base.
Nei galvanometri per misurare le
correnti termoelettriche che si
costruivano a Firenze sotto la direzione del Nobili il filo di rame inargentato faceva 120 giri attorno al
telaio su cui era avvolto e aveva una
lunghezza di 12-13 m e un diametro
di 0,5 mm; nei galvanometri per le
correnti idroelettriche (della pila voltiana) il filo di rame faceva 500 e
più giri, aveva la lunghezza di 6667 m e un diametro di 0,25 mm; Per
le esperienze sull’elettricità statica
(correnti discontinue) veniva particolarmente curato l’isolamento dei fili
avvolti sul telaio della bobina.
1835 dal costruttore fiorentino Corrado Wolf. Su una base di legno a
“T”, verniciata di nero sono fissate
con manicotti di ottone due grosse
calamite a ferro di cavallo, composta ognuna da tre elementi. Tra di
esse è inserita un’ancora di ferro su
cui è avvolta una bobina di filo di
rame isolato con filo di seta verde.
La bobina viene fatta oscillare tra i
poli delle calamite mediante un
sistema di rotismi azionati da una
manovella. Il movimento produce,
per effetto dell’induzione elettromagnetica, scintille tra due lamine metalliche poste sulla bobina e i poli
delle calamite. Le correnti alternate
generate dall’apparecchio vengono
raddrizzate da una leva mobile che
▲
STORIA E
CURIOSITÀ
oscilla tra due contatti posti sulla
base dell’apparecchio.
Lo strumento è descritto nelle Memorie del Nobili, vol. II. del 1834. La
Fig. 10, presa dal testo dello Scinà,
riproduce i dettagli di una macchina
magneto-elettrica delle calamite
coniugate.
Alla base dell’apparecchio delle
calamite coniugate, c’è il fenomeno
dell’induzione
elettromagnetica
messo in evidenza da Nobili e Antinori nel gennaio 1832, dopo che i
due scienziati avevano appreso dei
risultati delle celebri esperienze di
Faraday. Il lavoro di Nobili e Antinori, intitolato “Sopra la forza elettromotrice del magnetismo”, fu pubblicato nel periodico fiorentino Antologia, vol. XLIV, pp. 149-161, del
novembre 1831. L’errore cronologico era involontario ma, anche a
causa di malintesi, scatenò la polemica e il risentimento di Faraday
che giustamente rivendicò la priorità
della scoperta.
Un altro strumento di grande importanza storica è il termomoltiplicatore (Fig. 11) che Nobili costruì
in collaborazione con l’altro grande
fisico italiano della prima metà dell’Ottocento: Macedonio Melloni.
Quando si riscalda uno dei due punti
di contatto (giunzione) di un circuito
formato da due metalli, ad esempio
antimonio e bismuto, si genera una
debole corrente elettrica che è
approssimativamente proporzionale
alla differenza di temperatura tra le
due giunzioni. Questo fenomeno, sco-
GLI STRUMENTI
DI LEOPOLDO NOBILI
Tra gli strumenti di Leopoldo Nobili le
calamite coniugate (Fig. 9) ricoprono, insieme al galvanometro già
visto, un ruolo di particolare importanza storica. Su una targhetta di ottone della macchina è riportata la scritta “L. Nobili Firenze 1835 N° 4”.
Un cartellino indica che l’apparecchio è stato presentato alla prima
esposizione nazionale di storia
della scienza di Firenze nel 1929.
Lo strumento fu costruito per il Gabinetto di Fisica del Real Liceo nel
Figura 10 – Dettaglio della macchina di Figura 9
T_M ƒ 157
Figura 11 – Il termomoltiplicatore di Nobili
perto da Thomas Johann Seebeck
(1770-1831) nel 1821 e chiamato
effetto termoelettrico, fu subito utilizzato per produrre una pila termoelettrica, ossia un dispositivo analogo
alla pila del Volta, formato da un
certo numero di termocoppie collegate in serie, in modo che un gruppo di
giunzioni si trovi davanti alla sorgente di calore, mentre l’altro gruppo ne
è schermato.
Nobili costruì la sua prima pila termoelettrica nel 1829. Essa era formata da sei elementi di antimonio e
bismuto, disposti circolarmente e
fissati nel mastice dentro una scatoletta di legno. Negli anni seguenti
Nobili realizzò diverse disposizioni
delle termocoppie, ottenendo pile
molto affidabili. Nel 1831 Nobili e
Melloni presentarono all’Académie
T_M ƒ 158
N. 02ƒ
; 2010
▲
STORIA E
CURIOSITÀ
des Sciences di Parigi il loro
sistema per studiare le proprietà della luce e del calore
servendosi di una pila termoelettrica collegata con un
galvanometro. Gli elementi
della pila erano disposti in
modo che le giunzioni mostrassero globalmente, da ogni parte, una superficie rettangolare. La pila era racchiusa in un cilindro di ottone
munito di un’apertura conica
a imbuto che convogliava l’energia termica sulla pila. L’apertura conica era provvista di una
chiusura costituita da un dischetto di ottone. Il dispositivo, detto
termomoltiplicatore quando era
unito con un galvanometro, era
molto più sensibile di un termometro differenziale di Leslie.
Con esso Macedonio Melloni
potette compiere i suoi studi fondamentali sul calore raggiante
(raggi infrarossi).
Lo strumento costruito da Corrado
Wolf per il Gabinetto di Fisica del
Liceo Reale nel 1833 è costituito da
un’elegante colonna su basamento di
legno verniciato di nero, sulla quale
poggia la colonnina di ottone, regolabile in altezza, che sostiene il contenitore con la pila termoelettrica del
Nobili.
Conclude la serie degli strumenti dedicati a Nobili l’accendilume elettromagnetico (Fig. 12).
L’originale accendilume a idrogeno
costruito da Corrado Wolf per il Liceo
Reale rappresenta un esemplare probabilmente unico che utilizza, al
posto della scintilla elettrica prodotta
da una differenza di potenziale elettrostatico tra due conduttori, la scintilla prodotta per effetto dell’induzione
elettromagnetica. Lo strumento sfrutta
lo stesso fenomeno che è all’origine
del funzionamento delle calamite scintillanti di Nobili e forse rappresenta
un omaggio del costruttore alla
memoria dello scienziato. L’apparecchio è segnato nel catalogo della
Scuola in data 9 febbraio 1839. Esso
fu esposto alla prima esposizione
nazionale di storia della scienza di
Firenze del 1929.
Figura 12 – L’accendilume elettromagnetico
L’accendilume di Wolf è costituito da
una scatola di legno, verniciata di
nero e dotata di uno sportello laterale, nel cui interno si trovano una
calamita verticale a ferro di cavallo
e un vaso di vetro destinato a contenere acido solforico. Al coperchio
del vaso è fissata una campana di
vetro dentro la quale è sospeso un
pezzo di zinco. Sopra i poli della
calamita, che fuoriescono dalla scatola, è collocata un’ancora di ferro
ricoperta da un avvolgimento di
molte spire di filo di rame isolato con
seta nera. Le due estremità dell’avvolgimento sono collegate una con la
calamita e l’altra, tramite una linguetta metallica, con un polo. L’ancora a sua volta è solidale con una
levetta di ottone munita di tasto. Premendo rapidamente il tasto la bobina si distacca dalla calamita e si origina una scintilla tra il polo e la linguetta metallica. Il movimento della
leva provoca l’apertura di una valvola che collega il vaso interno e un
ugello dal quale esce l’idrogeno che
si era formato nel vaso per reazione
tra acido solforico e zinco. L’idrogeno viene infiammato dalla scintilla e
accende una lampada a olio collocata vicino all’ugello.
N. 02ƒ
;2010
BIBLIOGRAFIA GENERALE
T. Lane, Description of an electrometer
invented by MR. Lane with account of
some experiments of him with it, Philosophical Transactions of the Royal Society,
London, 1767.
T. Cavallo, An account of some new experiments in electricity with the description
and use of two new electrical instruments,
Philosophical Transactions of the Royal
Society, London, 1780.
C. A. de Coulomb, Sur l’électricité et le
magnetisme, premier mémoire, construction et usage d’une balance électrique fondée sur la propriété qu’ont les fils de métal
d’avoire une force de torsion proportionelle a l’angle de torsion, Mémoires de l’A-
cademie Royale des Sciences, Paris,
1785.
J. Priestley, An account of a new electrometer contrived by Mr. William Henley,
and of several electrical experiments
made by him, Philosophical Transactions
of the Royal Society, London, 1772.
H. B. de Saussure, Voyage dans les Alpes,
Neuchâtel, 1786.
A. Bennet, Description of a new electrometer. Philosophical Transactions of the
Royal Society London, 1787.
L. Nobili, Comparison entre les deux
galvanomètres les plus sensibles, la grenouille et le multiplicateur à deux aiguilles, suivie de quelques résultats nouveaux, Annales de Chimie et de Physique, Paris, 1828.
■
è standardizzata attorno agli 8 A. La connessione in parallelo delle suddette stringhe costiNEWS
tuisce la potenza complessiva o totale-nominale del parco solare.
Queste centrali sono normalmente controllate
NUOVO DISPOSITIVO
tramite misuratori fatturatori, oppure tramite i
dati ottenuti dall’inverter. Siccome la situazione
DI CONTROLLO
meteorologica non è costante e non esistono
DELLE STRINGHE
schemi in grado di confrontare due giorni di
produzione consecutivi (radiazione solare,
FOTOVOLTAICHE
valori di temperatura, ecc.), è estremamente
Data l’attuale situazione economica globa- difficile garantire che una centrale stia lavole, dove il prezzo dell’energia cresce in rando al 100% delle sue potenzialità, senza
maniera drammatica a causa del continuo l’utilizzo di un sistema di controllo posto sulle
aumento nel costo dei combustibili fossili, sorgenti di generazione primaria.
le energie rinnovabili offrono una chiara
alternativa per tutti quei paesi la cui indi- Come è possibile documentare che
pendenza energetica è vitale per la conti- l’impianto sia totalmente funzionante?
nua crescita dell’economia e, quindi, di Non c’è altra alternativa che effettuare un confronto fra i settori delle sortutto il progresso economico.
Non c’è da meravigliarsi se le centrali foto- genti generanti (stringhe).
voltaiche sono state presentate sul mercato L’obiettivo non è quello di
come prodotti finanziari, con una redditivi- ottenere una misura di assotà stimata tra il 10 e il 12%. Lo scopo di luta precisione, ma è certaquesti prodotti è di recuperare l’investimen- mente necessario eseguire
to in un periodo di circa 12 anni e poi gua- un confronto che assicuri
dagnare per un periodo ben superiore a che tutti i blocchi di genera15 anni, finché il prodotto non esaurisce il zione siano operativi e lavosuo servizio. É quindi chiaro quanto sia di rino a livelli di produzione
vitale importanza che le centrali fotovoltai- simili, con minime deviazioche lavorino costantemente al massimo del ni tra l’uno e l’altro (misuraloro rendimento perché, se si verifica un te in corrente o come valore
problema con uno o più pannelli, la reddi- percentuale). È di vitale
tività si abbassa immediatamente, allun- importanza implementare
gando il rientro dei costi di investimento e sistemi che, oltre ad assicuil periodo di guadagno. Non a caso la rare la redditività dell’imguida CEI 82-25 raccomanda il "monito- pianto (ogni minuto in cui
l’impianto o uno dei suoi settori smette di generaggio continuo" del sistema.
Le centrali fotovoltaiche di una certa potenza rare, si traduce in un elevato costo di ripristino
sono oggi piuttosto comuni, caratterizzate da per l’utente, a cui corrisponde una perdita
numero enorme di pannelli che, prima di diretta di redditività), forniscano anche all’uessere collegati all’inverter, vengono divisi in tente e agli addetti alla manutenzione inforsettori e raggruppati in piccole potenze, chia- mazioni in tempo reale sul suo funzionamento,
mate stringhe solari, la cui corrente generata in modo da poter intervenire immediatamente
■
STORIA E
CURIOSITÀ
L. Nobili, Memorie e osservazioni edite e
inedite del Cavaliere Leopoldo Nobili,
colla descrizione e analisi de’ suoi apparati e istrumenti, Firenze, 1834.
D. Scina’, Elementi di Fisica Particolare,
Milano, 1842-1843.
L. Nobili, M. Melloni, Recherches sur plusieurs phénomènes calorifiques entreprises
au moyen du thermo-multiplicateur, présenté à l’Académie des Sciences le 5 septembre 1831, Paris 1831
C. Wolf, Atti dell’I. R. Accademia dei
Georgofili, Firenze, 1831,
A. Ganot, Trattato elementare di Fisica
Sperimentale e Applicata e di Meteorologia, Milano, 1862.
E. Borchi, R. Macii e G. Ricci, L’idrogeno
dalle origini a oggi, Lucca, 2003.
e nel luogo esatto in caso di malfunzionamenti.
Per tutte queste ragioni, ASITA ha sviluppato
la nuova gamma di dispositivi di controllo
TR8-RS485, il cui obiettivo è quello di controllare continuativamente la corrente generata da 8 stringhe fotovoltaiche: lo strumento
esegue le 8 misure di corrente fino a 25
Ampere, tramite sensori a effetto di Hall, dispone di un ingresso per la misura della tensione di stringa fino a 1 000 Vcc e di 8
ingressi a contatto pulito per rilevare lo stato
logico di altrettanti segnali di campo (scaricatori, fusibili, funzionamento inverter, ecc.).
Il dispositivo è inoltre dotato di una porta
di comunicazione RS485 con protocollo di
comunicazione Modbus/RTU per abbinarsi
al software di supervisione e monitoraggio
Power-Studio.
La facile configurazione tramite pannello
frontale, la robustezza e la facilità di installazione su pannelli già esistenti rendono
TR5-RS485 essenziale per il controllo delle
centrali fotovoltaiche.
Per ulteriori informazioni:
www.asita.com
T_M ƒ 159
N. 02ƒ
; 2010
T U T T O _ M I S U R E
Anno XII - n. 2 - Giugno 2010
Sped. in A.P. - 45% - art. 2 comma 20/b
legge 662/96 -Filiale di Torino
Direttore responsabile: Franco Docchio
Vice Direttore: Alfredo Cigada
Comitato di Redazione: Andrea Ferrero,
Antonio Boscolo, Pasquale Daponte,
Marcantonio Catelani, Salvatore Baglio,
Gianfranco Molinar, Luciano Malgaroli,
Massimo Mortarino
Redazioni per:
Storia: Emilio Borchi, Sigfrido Leschiutta,
Riccardo Nicoletti, Mario F. Tschinke
Le pagine del GMEE e dell’AIPnD: Paolo Carbone,
Carlo Carobbi, Domenico Grimaldi,
Claudio Narduzzi, Marco Parvis, Giuseppe Nardoni
Le pagine degli IMP: Saverio D’Emilio,
Gianfranco Molinar, Maria Pimpinella
Lo spazio delle CMM: Alberto Zaffagnini
Comitato Scientifico: ACISM-ANIMA (Roberto
Cattaneo); AICQ (Giorgio Miglio); AEI-GMTS
(Claudio Narduzzi); AIPnD (Giuseppe Nardoni);
AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione);
ANIE (Marco Vecchi); ANIPLA (Marco Banti,
Alessandro Ferrero); CNR (Ruggero Jappelli);
GISI (Abramo Monari); GMEE (Giovanni Betta);
GMMT (Paolo Cappa, Michele Gasparetto);
INMRI – ENEA (Pierino De Felice, Maria Pimpinella);
INRIM (Elio Bava, Flavio Galliana, Franco Pavese);
ISPRA (Maria Belli); OMECO (Clemente Marelli);
SINAL (Paolo Bianco); SINCERT-ACCREDIA
(Alberto Musa); SIT (Paolo Soardo);
UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione: la fotocomposizione - Torino
Stampa: La Grafica Nuova - Torino
Autorizzazione del Tribunale di Casale Monferrato
n. 204 del 3/5/1999.
I testi firmati impegnano gli autori.
A&T - Affidabilità & Tecnologia
Direzione, Redazione,
Pubblicità e Pianificazione
Via Palmieri, 63 - 10138 Torino
Tel. 011 5363440 - Fax 011 5363244
E-mail: [email protected]
Web: www.affidabilita.eu
ABBIAMO
LETTO PER VOI
■
ACQUISIZIONE 3D E MODELLAZIONE
POLIGONALE
di Gabriele Guidi, Michele Russo
e Jean-Angelo Beraldin
480 pagine in b/n - ISBN: 9788838665318
Euro 29,00 - © 2010 The McGraw-Hill Companies srl, Italia
Con l’evoluzione della tecnologia il costo di un apparato per il rilievo tridimensionale è
divenuto abbordabile anche per piccole imprese e singoli professionisti: per questo le tecniche di digitalizzazione 3D divengono via via più richieste sia in ambito didattico sia
applicativo. Il testo si propone di illustrare il principio di funzionamento dei diversi sensori 3D ormai disponibili sul mercato, li inquadra in un contesto generale specificandone i
principi di funzionamento, motivandone le prestazioni e fornendo dei criteri per permettere anche all’utente finale una caratterizzazione dei sistemi consentendone un uso consapevole. Descrive le modalità con cui questi sensori devono essere utilizzati per trasformare le superfici di un oggetto in un insieme di dati manipolabili con gli strumenti della rappresentazione digitale, come deve essere pianificato un progetto di acquisizione e quali
sono gli errori da evitare. Vengono inoltre analizzate le procedure per il post-processing
dei dati grezzi prodotti da un sensore 3D che consentono di arrivare a un modello tridimensionale completo di texture e ci si sofferma sulle modalità di applicazione delle tecniche di acquisizione 3D a due campi applicativi in particolare: l’Industrial Design e la conservazione dei Beni Culturali. Infine, vengono esposti una serie di casi di studio, presi da
differenti ambiti disciplinari, che illustrano come le tecniche descritte nella prima parte del
libro possano essere utilmente applicate per far fronte alle difficoltà pratiche.
Gabriele Guidi è Professore Associato di Disegno presso il Dipartimento INDACO del
Politecnico di Milano. Michele Russo è Professore a contratto presso la Facoltà del
Design del Politecnico di Milano. Jean-Angelo Beraldin è Senior Researcher presso il
National Research Council of Canada.
UNIVERSITÀ ITALICA
DAL LOCAL AL GLOBAL PER IL GLOCAL
Direzione Editoriale: Luciano Malgaroli
Massimo Mortarino
di Antonino Oliva, Nicola Uccella
372 pagine in b/n - ISBN: 9788854830004
Euro 22,00
© 2010 Aracne Editrice, Italia
È vietata e perseguibile per legge la riproduzione
totale o parziale di testi, articoli, pubblicità ed immagini pubblicate su questa rivista sia in forma scritta
sia su supporti magnetici, digitali, ecc.
L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento
effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il
presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato
della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO
• La formazione in metrologia
• La nuova metrologia legale
• Misure sull’ambiente e il costruito
E molto altro ancora
T_M
N.
La Redazione di Tutto_Misure
([email protected])
Il libro nasce da accese e vivaci discussioni conviviali tra colleghi di un’università locale,
ma rappresentativi di quella fauna universitaria del tardo 2008 d.C. che in tutta l’università italiana va discutendo dell’Onda e delle false verità del 3 più 2. Le convivialità si sono
trasformate in scripta: è giunto il tempo della verità verace, che partendo dal local tracima con naturalezza nel global. I contributi sono diversi per soggetto e per provenienza
disciplinare, e non manca il punto di vista di uno studente. Emerge un’Università in crisi,
debilitata dal 3 più 2, dove vige il “mors tua, vita mea!”, e non un Ateneo valutato su basi
transnazionali come fa l’Università di Shanghai, senza parametri nazionalpopolari. Altri
contributi di Ottavio Cavalcanti, Pietro De Leo, Paolo Giudici, Nicolino Lo Gullo, Giuseppe Parlato, Spartaco Pupo, Cesare Oliviero Rossi.
Antonino Oliva è Professore ordinario di Fisica Generale, corso di laurea in Fisica, presso la Facoltà di Scienze Matematiche Fisiche e Naturali dell’Università della Calabria.
Nicola Uccella è Professore ordinario di Chimica Organica presso l’Università degli
Studi della Calabria.
2/10 ƒ 160