Scarica qui il numero della Rivista in PDF!

8:48
Pagina 1
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XIV
N. 01 ƒ
2 012
EDITORIALE
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
AFFIDABILITÀ
& TECNOLOGIA
Coraggio!
IL TEMA: MISURE DIMENSIONALI
TRV: Le misure dimensionali oggi e domani
ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 1 - Anno 14 - Marzo 2012
In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
24-02-2012
TUTTO_MISURE - ANNO 14, N. 01 - 2012
COPER TM 1-2012 ok
ALTRI TEMI
Sistema di taratura dei portali Tutor
Sicurezza nei sistemi VoIP
Misure ENEA di Radon e Toron
Comunicazioni industriali a livello di campo
La rivoluzione nel sistema SI
Politiche energetiche e sistemi di monitoraggio
ARGOMENTI
Metrologia legale e forense: Le assicurazioni
a tutela dell’attività di misura e prova
Visione industriale: Nel blu dipinto di blu
IMP: Misure per illuminazione a LED
La norma 17025: Non conformità – parte II
TUTTO_MISURE
ANNO XIV
N. 01 ƒ
2012
IN QUESTO NUMERO
Misure per la sicurezza
nei sistemi VoIP
Measurements for VoIP
systems security
L. Angrisani, M. Di Lelio,
P. Morabito, R. Schiano
Lo Moriello, M. Vadursi
23
Le comunicazioni industriali
a livello di campo
Field-level industrial
communication: analysis
of the performance
S. Rinaldi
39
Il comportamento a radiofrequenza
dei componenti circuitali passivi:
un esempio applicativo
The radiofrequency
behaviour of passive
circuit components:
an actual example
C. Carobbi, M. Cati,
C. Panconi
47
Misurare l’affidabilità:
sollecitazioni e degrado
Measuring
dependability
L. Cristaldi,
M. Lazzaroni
55
Editoriale: Coraggio! (F. Docchio)
5
Comunicazioni, Ricerca e Sviluppo,
dagli Enti e dalle Imprese
Notizie nel campo delle misure e della strumentazione
7
Il tema: Misure dimensionali
Strumenti innovativi per le aziende competitive
(a cura di M. Mortarino)
11
Gli altri temi: Misure elettriche ed elettroniche
Collaudo delle barriere autostradali tutor: un moderno
sistema automatico (L. Fumagalli, M. Trebeschi, P. Tomassini,
G. Libretti, F. Docchio, M. Zanatta, M. Pellegrini, E. Fabbrizi) 19
Gli altri temi: Il meglio di GMEE 2011
Misure per la sicurezza nei sistemi VoIP (L. Angrisani,
M. Di Lelio, P. Morabito, R. Schiano Lo Moriello, M. Vadursi)
23
Gli altri temi: Il meglio di Metrologia & Qualità 2011
La misura della concentrazione del radon e del toron
(G. Sciocchetti, A. Sciocchetti, P. Giovannoli, P. De Felice,
G. Cotellessa, F. Cardellini, M. Pagliari)
27
Materiali di riferimento (RM) per le analisi degli alimenti
(R. Gatti, P. Sangiorgio, G. Zappa, C. Zoani)
31
Gli altri temi: Discussioni sul SI
La rivoluzione nel Sistema Internazionale di Unità,
vista da un pensionato che si ribella (S. Sartori)
35
Gli altri temi: Vincitore del premio “C. Offelli” 2011
Le comunicazioni industriali a livello di campo: strumenti
di misura dedicati all’analisi di parametri di reti real-time
(S. Rinaldi)
39
Gli altri temi: Energia e misure
Politiche energetiche e sistemi di monitoraggio:
prima parte (M. Savino)
43
Campi e compatibilità elettromagnetica
Il comportamento a radiofrequenza dei componenti
circuitali passivi (C. Carobbi, M. Cati, C. Panconi)
47
Le Rubriche di T_M: Visione Artificiale
Nel blu dipinto di blu (G. Sansoni)
53
I Seriali di T_M: Misure e Fidatezza
Misurare l’affidabilità: sollecitazioni e degrado
(L. Cristaldi, M. Lazzaroni)
55
Le Rubriche di T_M: Metrologia legale
Le assicurazioni a tutela dell’attività di misura e prova
(V. Scotti)
59
Spazio Associazioni Universitarie di Misuristi
Dalle Associazioni Universitarie di Misuristi
(F. Docchio, A. Cigada, A. Spalla, S. Agosteo)
63
Lo spazio degli IMP
Applicazioni metrologiche per l’illuminotecnica: caratterizzazione
metrologica di ambienti illuminati (P. Iacomussi)
65
Manifestazioni, eventi e formazione
2012: eventi in breve
69
Commenti alle norme
Non conformità, azioni correttive, azioni preventive, reclami
e miglioramento - Parte seconda (N. Dell’Arena)
71
Storia e curiosità
L’unificazione Metrica in Italia, vista
dal Regno delle Due Sicilie (P. Vigo)
75
Abbiamo letto per voi
80
News
30-45-60-64-66-70-72-74-79
T_M
N.
1/12 ƒ 3
Franco Docchio
EDITORIALE
■
Coraggio!
Cheer up!
Cari lettori!
Eccoci al numero uno del
terzo anno di vita della Rivista sotto la mia direzione.
Com’ero emozionato due
anni fa, quando mi accingevo a scrivere l’editoriale!
La continuità con la quale li
leggete e li commentate mi
ha piacevolmente sorpreso.
Continuate così! Questo è il
numero della rivista che
verrà distribuito, oltre alla
normale tiratura, a oltre 6.000 partecipanti di Affidabilità & Tecnologie 2012. Dunque è doveroso
un caloroso benvenuto a tutti coloro che hanno trovato nell’evento, che ha nella Rivista un suo portavoce e partner, un luogo per incontrarsi e discutere i temi dell’innovazione in comparti che anno
dopo anno si arricchiscono.
L’evento si svolge ancora una volta nel contesto di
un anno difficile per l’Economia mondiale e domestica, con le imprese che fronteggeranno un probabile decremento del PIL, nonostante gli sforzi che
il Governo attuale fa per rilanciare lo sviluppo e i
consumi (Decreti Liberalizzazioni e Semplificazioni). L’augurio ai miei lettori industriali è, ancora una
volta, che presto ci possano essere le condizioni
per una ripresa stabile e duratura.
Le Università si trovano, in questi mesi, occupate nel
riordino strutturale derivante dalla necessità di adeguarsi ai requisiti della Riforma Gelmini (che peraltro
sta subendo parziali correzioni proprio con il Decreto Semplificazioni). Questa, in aggiunta alle nuove
procedure per la valutazione dei docenti e ricercatori Universitari, è una buona occasione per il corpo
docente di trascendere l’autoreferenzialità che ha
spesso caratterizzato il funzionamento delle strutture
Dipartimentali e di Facoltà. Ne saremo capaci? A
giudicare dalle prese di posizione di alcuni dei componenti della mia Facoltà, ho il dubbio che l’impresa sia ancora epica, ma sono fondamentalmente
ottimista che la nuova governance porterà a un livello di responsabilizzazione adeguato.
Nei colloqui coi colleghi europei, qui in Portogallo, trovo che essi sono fortemente impegnati in una sana competizione tra le sedi Universitarie nazionali per l’eccellenza, sulla base del
fatto che i migliori avranno più finanziamenti
dallo Stato (e potranno accedere con più facilità a Progetti internazionali). Qui si sta lentamente procedendo in questa direzione, anche
se il cambiamento è spesso percepito con una
punta di fastidio e come un’imposizione.
Anche la capacità di produrre imprenditoria giovanile (start-up) è considerata un “must” all’estero,
che viene ricompensato adeguatamente. Da questo punto di vista non mi sono certo sentito in soggezione: anzi, l’opera svolta dal nostro Laboratorio, che ha portato alla formazione di una decina
di start-up nel campo dell’ottica e delle misure ottiche (uno degli articoli di questo numero è di una
di queste), è stata particolarmente apprezzata e
messa in evidenza anche con un pizzico d’invidia.
L’invito ai docenti e ai loro ricercatori/dottorandi
dunque è di perseguire su questa strada. L’invito
alle imprese è quello di aver fiducia negli start-up
universitari come “anello di congiunzione” tra il
mondo dell’Università e il bisogno d’innovazione
delle imprese.
Questa edizione dell’evento contiene un tema in
più: la Fotonica. Si consolida un secondo obiettivo
dell’editore A&T: ospitare nuovi comparti tecnologici di punta all’interno della manifestazione “Affidabilità & Tecnologie” (come l’ormai avviato comparto della Visione Industriale). Il nostro Paese
vanta un’intensa attività di ricerca di eccellenza
nella Fotonica (lo dimostrano i più di ottanta centri
di ricerca pubblici o privati che vi operano), ma è
carente nel numero d’imprese attive nel settore. È il
momento di fare emergere il settore anche in ambito industriale e l’opera del CSI di A&T verrà destinata in parte anche a ciò, con iniziative in questo
e nei prossimi eventi.
In questo numero, come negli altri tre numeri del
2012, il tema consiste in una Tavola Rotonda “virtuale” fra esperti di misure, appartenenti sia al
mondo della Ricerca sia a quello dell’offerta di
strumenti e servizi in questo specifico ambito. L’obiettivo è quello di delineare lo stato dell’arte, le
possibili evoluzioni e i reali vantaggi per le imprese che affrontano le misure non come semplice
“obbligo” ma come opportunità, operando scelte
ragionate e consapevoli finalizzate al miglioramento competitivo. La prima Tavola Rotonda è
dedicata alle misure dimensionali.
Seguono contributi sul tema “Misure Elettriche ed
Elettroniche”, nonché articoli e stimoli su altri temi,
ivi inclusi quello dell’amico Mario Savino sul tema
delle politiche energetiche e quello del fondatore
della Rivista Sergio Sartori che “dice la sua”
riguardo alla rivoluzione nel Sistema Internazionale di unità.
A tutti auguro una buona lettura di questo numero, buon evento e buon lavoro. E, soprattutto,
coraggio!
Franco Docchio
T_M
N.
1/12 ƒ 5
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure ([email protected])
Notizie nel campo delle misure
e della strumentazione
NEWS IN MEASUREMENT AND INSTRUMENTATION
This section contains an overview of relevant news of Italian R&D groups,
associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels.
RIASSUNTO
L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, start-up, dei Gruppi di R&S Italiani nel
campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie,
poiché i risultati di ricerca riportati possono costituire stimolo per attività di
Trasferimento Tecnologico.
CONCORSO DI IDEE A TRENTO
È stata presentata lo
scorso 14 dicembre,
presso il Polo Scientifico e Tecnologico Fabio
Ferrari, la seconda edizione del “Concorso di
idee” promosso dal
DISI – Dipartimento di
Ingegneria e Scienza
dell’Informazione dell’Ateneo. L’iniziativa, nata nel 2010 su
proposta di Dedagroup spa, ha visto
quest’anno l’adesione di quattro importanti realtà aziendali attive nel settore
ICT: DEDAGROPUP spa, GPI spa, ALES
srl e TELECOM Italia spa.
Il concorso prevede che ogni impresa
proponga un bando su specifiche
tematiche ICT, in relazione alle proprie attività aziendali. Quest’anno gli
argomenti hanno spaziato dall’informatica applicata ai servizi bancari e
sanitari, ai sistemi elettronici e alle
telecomunicazioni.
Nel corso dell’evento di presentazione
– a cui hanno partecipato numerosi studenti dei corsi di laurea triennale e
magistrale delle aree Informatica, Elettronica e Telecomunicazioni – le quattro
aziende hanno avuto l’opportunità di
far conoscere agli studenti le proprie
aree di business e le tecnologie da loro
utilizzate. Ciascuna ha poi illustrato le
modalità di adesione al bando, rispondendo alle domande degli studenti. I
quattro bandi sono stati aperti contemporaneamente lo stesso giorno della
presentazione, ed è ancora possibile
aderire inviando il progetto con l’idea
innovativa entro le date previste dai singoli regolamenti. Seguirà una fase di
selezione e valutazione e le tre migliori
idee per ogni area del concorso saranno successivamente premiate con computer portatili e smartphone.
Scopo principale del concorso è individuare e valorizzare idee innovative
nell’area delle nuove tecnologie. L’iniziativa mira a mettere in contatto la
realtà universitaria con quella aziendale, facilitando l’incontro tra gli studenti e il mondo del lavoro. Proprio in
quest’ottica è previsto che gli studenti
vincitori abbiano l’opportunità di realizzare personalmente la propria idea
presso l’azienda che ha proposto il
bando, nel corso di un periodo di
stage retribuito. In questo modo lo studente otterrà il triplice risultato di
vedere riconosciuto il valore della
propria idea, poterla realizzare direttamente, e soddisfare il vincolo di
stage curriculare previsto dai piani di
studio. Le aziende, a loro volta, possono avvicinarsi al mondo degli studenti e conoscerne i talenti per una
successiva ricerca di capitale umano.
Inoltre la presenza degli studenti in un
ambiente di lavoro – riconoscono unanimemente le aziende – stimola la
creatività interna e incentiva un approccio innovativo anche alle attività
di routine.
La premiazione ufficiale del concorso
è prevista nel corso degli ICT days
2012, che si terranno a Povo di Trento i prossimi 18, 19 e 20 aprile. Tutti
i dettagli sul concorso e i link ai bandi
sono disponibili alla pagina
http://disi.unitn.it/announcements/217.
LAB #ID CONFERMATO
IN QUESTIO
Il Lab#ID, che è stato
ampiamente illustrato nei
seriali di Tutto_Misure da
parte dei componenti del
Gruppo diretto da Luca
Mari della LIUC di Castellanza, è stato
confermato anche per il 2012 in QuESTIO (Quality Evaluation in Science and
Technology for Innovation Opportunity).
Il Lab#ID è in QuESTIO dal 2009,
primo tra i centri di ricerca della LIUC,
ed è grazie a questo che può essere
utilizzato come centro di ricerca e trasferimento tecnologico per voucher e
nell’ambito di bandi finanziati dalla
Regione Lombardia.
EVENTO DI TRASFERIMENTO
TECNOLOGICO A BRESCIA
Si è svolto il 25
Gennaio 2012
un interessante
seminario orientato al trasferimento tecnologico e alla valorizzazione della proprietà intellettuale di giovani, organizzato dalla Bocconi Alumni
T_M
N.
1/12 ƒ 7
Association Brescia. Il seminario
aveva il titolo “Due regole per la
crescita: talento e merito”.
All’incontro sono stati presentati 5 progetti di ricercatori/imprenditori under
35 del territorio, o già avviati o ancora
nella fase di elaborazione, caratterizzati per l’innovazione e ritenuti meritevoli
di promozione per il possibile riconoscimento di supporto. In particolare, è
stato presentato un nuovo biosensore da
parte del Gruppo di Chimica per le Tecnologie di Ingegneria di Brescia, caratterizzato da costi di apparecchiatura e
reagenti molto inferiori a quelli di mercato. Inoltre è stato presentato un prototipo di lampione per illuminazione autostradale, costruito dalla Società 030 di
Brescia, e utilizzante LED e ottica della
ditta T-Led di Rezzato, che consente un
reale risparmio energetico del 50-60%.
All’incontro hanno partecipato anche
fondi di private equity e venture capital,
di cui uno specializzato nel settore delle
energie rinnovabili e biomedicale.
PROGETTO
DI RICERCA EUROPEO BTTMON
Dal 16 Gennaio
2012, nell’ambito
dell’azione Marie
Curie – People del
7°PQ, prenderà il
via il progetto di
ricerca europeo
“BTTMON” c/o il
Von Karman Institute for Fluid Dynamics (VKI) di Rhode Saint Genese –
Bruxelles. Responsabile scientifico del
progetto e Visiting Professor per 18
mesi presso il VKI sarà il Prof. Gianluca Rossi dell’Università di Perugia (a
sinistra nella foto).
Tema del progetto è lo sviluppo di un
nuovo sistema di monitoraggio delle
vibrazioni di pale di motori di aerei in
esercizio. La metodologia di misura è
basata su sensori e algoritmi su cui il Prof.
Rossi lavora sin dalla sua tesi di Laurea e
Dottorato. Allora La tematica era stata
proposta dal Prof. Tomasini di Ancona al
fine di approfondire una collaborazione
di ricerca attiva in quel periodo con il
Nuovo Pignone di Firenze.
T_M ƒ 8
N. 01ƒ
; 2012
▲
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
Obiettivo del nuovo progetto BTTMON • I partecipanti sono stati suddivisi in
è di arrivare a sviluppare nuovi sengruppi eterogenei, cioè composti
sori e progettare sistemi particolarciascuno da docenti dei diversi ordimente prestanti e leggeri, in modo
ni e gradi di scuola;
tale che li si possa utilizzare anche • A ciascun partecipante è stato distribuito un elenco di termini, ritenuper il monitoraggio in esercizio di turti tra i più importanti per affrontare
bine aeronautiche.
nella scuola percorsi didattici orientati all’apprendimento delle misure.
NOTE SUL PRIMO CORSO
• I gruppi interdisciplinari hanno cercato di associare a ciascun termine
DI FORMAZIONE E PRATICA
una definizione che meglio risponEDUCATIVA DELLA METROLOGIA
desse, a loro parere, all’obiettivo di
(A. CALCATELLI, M. SARDI –
trasformare il singolo termine in uno
I.N.RI.M., TORINO)
strumento comunicativo concettualmente ben definito.
Secondo il protocollo d’intesa siglato
nel dicembre 2010 presso la sede • Nella discussione per ogni termine è
dell’Ufficio Scolastico Regionale, via
stata presentata la spiegazione sePietro Micca 20, Torino e sulla base
condo la versione italiana del diziodel progetto di formazione in precenario internazionale di metrologia.
denza discusso e approvato, nel periodo dal 15/02/2011 al 25/05/2011 2. Momento collettivo
si sono tenuti gli incontri con gli inse- di apprendimento di base
gnanti dei vari livelli scolastici. Il (lezioni frontali)
corso è stato condotto con la collabo- Le lezioni sono state suddivise in due
razione degli insegnanti tutor segna- gruppi in base agli argomenti:
lati dal MIUR.
1) Sistema Internazionale di unità di
Anita Calcatelli e Sergio Sartori hanno misura (SI) e i suoi futuri sviluppi: strutcondotto le lezioni frontali e per la tura e regole di scrittura del SI come
parte sperimentale hanno collaborato linguaggio universale, errori più comuAndrea Merlone, Andrea Malengo e ni; organizzazione internazionale e
Marina Sardi dell’I.N.Ri.M. Tutto il nazionale della metrologia, con partimateriale utilizzato é stato messo a di- colare attenzione alla situazione italiasposizione dei partecipanti al corso e na; presentazione dell’attività dell’Istitumemorizzato in una chiavetta USB. Al to Nazionale di Ricerca Metrologica.
corso hanno partecipato 25 insegnan- Questa parte è stata comune a tutti i
partecipanti e la lezione è stata tenuta
ti, dei vari ordini scolastici.
Il programma del corso è stato il se- dal Prof. Sergio Sartori.
2) Cenni sulla valutazione dell’incerguente:
tezza di misura; per questa parte gli
1. Autoverifica. Lezione
insegnanti sono stati suddivisi in due
introduttiva: Costruzione
gruppi in base a considerazioni sulla
di un linguaggio comune
formazione di base: Gruppo a) costiSono stati forniti a- tuito da insegnanti di scuola primaria
gli insegnanti due e secondaria di primo livello (lezione
documenti conte- tenuta dal Prof. Sergio Sartori); Grupnenti la spiegazio- po b) insegnanti di scuola secondaria
ne e il modo di di secondo livello (lezione tenuta
utilizzo del Dizio- dalla Dr.ssa Anita Calcatelli).
nario Internazionale di Metrologia e 3) Esperienza pratica di laboratorio. Si
una lista di 20 termini di cui i parteci- è partiti dalla considerazione che ciò
panti dovevano indicare il significato. che interessa non è la grandezza da
A questa attività sono state dedicate le misurare ma una definizione corretta
prime tre ore di incontro con lo scopo di dei motivi della scelta, della strumentaverificare il bagaglio metrologico pre- zione disponibile, della procedura di
sente nei partecipanti. La modalità di misurazione, l’elaborazione dei risultati
esecuzione è stata la seguente:
e la loro presentazione. Si è scelto di
N. 01ƒ
;2012
■
lavorare sulla densità di corpi solidi di
vario materiale e forma e sono state
approntate tre stazioni di lavoro nell’aula didattica allestita nella sede dell’I.N.Ri.M. di Corso Massimo D’Azeglio 42. Ciascuna stazione è stata dotata di tre campioni metallici di forma
cilindrica, prismatica e irregolare rispettivamente, di una bilancia, di due volumi tarati di diversa risoluzione e di un
calibro. Gli insegnanti sono stati suddivisi in tre gruppi: uno costituito da insegnanti di scuola primaria e secondaria
di primo grado e due gruppi costituiti
da insegnanti di scuola secondaria di
secondo grado.
4) Progetti di trasferimento in classe. Gli
insegnanti suddivisi nei sopra descritti
tre gruppi hanno presentato tre progetti
di trasferimento nelle rispettive classi di
quanto acquisito nelle esperienze eseguite durante il corso, soprattutto dal
punto di vista dell’impostazione dell’esperimento e della elaborazione dei
dati pur proponendo esperienze che
abitualmente vengono eseguite in classe. La più consistente novità consiste nel
fatto che tutti si sono preoccupati di
dare una valutazione dell’incertezza di
misura.
5) Questionario di valutazione del
livello di apprendimento. Sono stati
somministrati due questionari per i
due diversi livelli scolastici. Dei 24
insegnanti che hanno preso parte al
test ben 19 hanno risposto correttamente a 15 o più domande su 20 e
un solo insegnante ha risposto correttamente a tutte le 20 domande.
6) Questionario di valutazione del
corso. Alla fine del corso è stato inviato dall’USR a tutti i partecipanti un
questionario per la valutazione del
corso con lo scopo di ricavarne suggerimenti per l’eventuale prosecuzione con un secondo corso o anche con
un corso di “secondo” livello, per
quanti hanno partecipato al primo
con lo scopo di conseguire un miglioramento. Hanno inviato i questionari
compilati quattordici partecipanti
(inclusi quattro tutor).
In generale si può concludere che il
corso ha interessato al gran parte dei
partecipanti le cui difficoltà si sono
dimostrate principalmente nell’elaborazione dei risultati delle misurazioni
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
in modo completo, inclusa la valutazione dell’incertezza di misura.
Il corso si è
concluso con
un seminario
il 25 maggio
2011 presso
le OGR, nel
quale oltre a
due interventi a cura di Calcatelli e
Sartori sull’importanza degli aspetti
metrologici nel processo di unificazione dell’Italia è stato fatto un bilancio
del corso da parte dei docenti tutor e
dei corsisti e sono stati consegnati gli
attestati di partecipazione.
ma vendemmia dimostrando la capacità del dispositivo di misurare specifici parametri analitici in tempi compatibili con i moderni sistemi produttivi. Questa importante innovazione
tecnologica si inserisce in un processo
che mira al continuo miglioramento
della nostra produzione vitivinicola
mediante sistemi di monitoraggio distribuito.
Prosecuzione del progetto
Il Protocollo d’intesa USR-I.N.Ri.M.GMEE siglato il 28 ottobre 2010 ha
validità due anni, e considerata la
valutazione positiva e l’interesse che il
corso ha suscitato negli insegnanti
anche a fronte di una limitata e tardiva pubblicità che è stata svolta dal
MIUR poco prima dell’inizio, è intenzione degli enti firmatari riproporre
l’attività anche nel corrente anno scolastico 2011-2012, insieme al già
citato corso di secondo livello.
Il collega e amico
Gianfranco Molinar
Min
Beciet
dell’I.N.Ri.M. lascia, per
motivi strettamente personali, la direzione del
Congresso Biennale
“Metrologia e Qualità”,
che a partire dal 2005
ha gestito con il consenso degli Enti
promotori, curando in particolare i congressi del 2007, 2009 e 2011. “Per
prima cosa voglio ringraziare tutti voi
per la vostra continua collaborazione e
stimoli ricevuti in questi anni.” – dice
Gianfranco nella sua lettera – “È stata
una piacevole attività e sono lieto di
aver potuto apprezzare il vostro valore
e la vostra disponibilità. Voglio ringraziare in particolare Massimo Mortarino, Luciano Malgaroli e Silvia Pignatiello di Affidabilità e Tecnologie per la
loro continua e instancabile passione
per la cultura della metrologia e della
qualità e per le loro capacità logistiche
e amministrative senza le quali questo
evento biennale non sarebbe stato possibile. Un ringraziamento alla dirigenza dell’I.N.Ri.M. e ai numerosi colleghi
di questo Ente che mi hanno sempre
aiutato a realizzare gli obiettivi e gli
eventi utili al progresso della cultura
metrologica”.
A nome della Redazione della Rivista
Tutto_Misure, è mio desiderio ringraziare Gianfranco Molinar per l’assidua e
illuminata gestione delle scorse edizioni
del Congresso, e porgere gli auguri di
buon lavoro a chi vi subentrerà, assicurandogli l’appoggio della Rivista.
NUOVO SENSORE
PER L’INDUSTRIA VITIVINICOLA
DA GMEE MODENA
Nell’ambito
del progetto
“Interventi di
base
per
una viticoltura sostenibile e di qualità del territorio romagnolo” finanziato tramite la Misura 124
del Programma di sviluppo rurale
della Regione Emilia-Romagna, l’unità
GMEE di Modena in collaborazione
con il Gruppo CEVICO, il Centro
ricerche produzioni vegetali di Cesena, Astra Innovazione, il Dipartimento
di Chimica dell’Università di Modena
e Reggio Emilia e Enea CR Faenza ha
sviluppato un sensore innovativo per
la valutazione della qualità delle uve
in ingresso alla filiera produttiva. Le
prestazioni del primo prototipo sono
state valutate sul campo durante l’ulti-
GIANFRANCO MOLINAR
LASCIA LA DIREZIONE
DEL CONGRESSO
“METROLOGIA E QUALITÀ”
T_M ƒ 9
▲
MISURE DIMENSIONALI
IL
TEMA
a cura di Massimo Mortarino
Strumenti innovativi
per le aziende competitive
Tavola rotonda con autorevoli esperti di misure dimensionali
INNOVATIVE TOOLS FOR COMPETITIVE MANUFACTURERS
Tutto_Misure organizes a series of “virtual” Round Tables among experts in
measurement science and technology. They belong to the worlds of
Research and of manufacturing and marketing of instruments and services
in this field. The aim is to focus on the state of art, the possible evolution,
and the real advantages for all the manufacturers who wish to approach
measurements as an opportunity (not only as an obligation), and who make
reasoned and informed choices for a true competitive improvement.
The first round table is focused on Dimensional Measurements. In the next
issues: Controls and measurements: sensors and innovative solutions – Tests
and calibrations to ensure reliability – Legal metrology.
RIASSUNTO
Tutto_Misure ha organizzato una serie di Tavole Rotonde “virtuali” fra
esperti di misure, appartenenti sia al mondo della Ricerca sia a quello dell’offerta di strumenti e servizi in questo specifico ambito. L’obiettivo è quello di delineare lo stato dell’arte, le possibili evoluzioni e i reali vantaggi per
le imprese che affrontano le misure non come semplice “obbligo” ma come
opportunità, operando scelte ragionate e consapevoli finalizzate al miglioramento competitivo. La prima Tavola Rotonda è dedicata alle misure
dimensionali. Nei prossimi numeri: Controlli e misure: sensori e soluzioni innovative – Prove e tarature a garanzia dell’affidabilità – Metrologia legale.
MISURE DIMENSIONALI:
in atto da tempo in questi ambiti, fra
STRUMENTI PER L’INNOVAZIONE loro sempre più integrati e sinergici.
COMPETITIVA
Leggiamo, con sempre maggiore fre-
La sesta edizione di AFFIDABILITÁ & TECNOLOGIE (www.affidabilita.eu), la
manifestazione italiana focalizzata sui
Metodi, Soluzioni e Tecnologie per l’Innovazione Competitiva, ospiterà al proprio interno la più importante mostra di
strumenti, soluzioni e servizi nell’ambito
delle Misure, Prove e Controlli. È questo
un approfondimento obbligato, in considerazione della notevole evoluzione
quenza, che le aziende che gestiscono
le misure come “opportunità” e non
come mero “obbligo” possono godere
di vantaggi importanti in termini di qualità, affidabilità, flessibilità dei propri
prodotti e processi.
Ma in quali termini, a livello concreto?
A quali condizioni? Con quale impegno, a livello organizzativo ed economico?
Per tentare di rispondere a questi e
altri interrogativi, fondamentali per
moltissime imprese manifatturiere interessate ad affrontare soluzioni innovative in quest’ambito in funzione di
specifiche problematiche per le quali
trovare le risposte più efficaci e più
competitive, abbiamo interpellato i
rappresentanti di alcune realtà primarie operanti nell’ambito delle Misure
dimensionali, chiedendo loro di trac-
ciare uno “stato dell’arte” delle tematiche in questione e anticiparne le possibili future evoluzioni.
Nelle loro risposte sono contenute informazioni puntuali e aggiornate per chi
deve indirizzare e governare i progetti di
cambiamento all’interno delle nostre
aziende manifatturiere, presentando il
reale valore di soluzioni ancora poco diffuse (o, comunque, adottate più per
accontentare il committente che a fronte
di una scelta d’investimento consapevole
e ragionata), a causa di una scarsa specifica cultura da parte dell’utenza e, a
volte, della rapida evoluzione delle proposte presentate sul mercato.
Hanno partecipato alla nostra prima
Tavola Rotonda Virtuale:
• Maurizio Buono – METROLOGIC
GROUP (General Manager)
• Giorgio Friso – RUPAC
(Amministratore Unico)
• Stephan Greulich – DIATEST
(Sales Manager)
• Annarita Lazzari –
MITUTOYO ITALIANA (Mitutoyo Institute of Metrology – MIM, Manager)
• Roberto Rivetti – RENISHAW
(Amministratore Delegato)
• Levio Valetti – HEXAGON
METROLOGY (Mktg & Comm
Manager Commercial Operations Italia)
• Paolo Vigo – ACCREDIA
(Vicepresidente)
D: Le aziende manifatturiere
più lungimiranti investono per
garantire l’affidabilità della
propria produzione: è questa
una “politica industriale” in crescita nel nostro Paese? Come si
pongono le aziende italiane
rispetto ai propri competitor
esteri?
[email protected]
T_M
N.
1/12
T_M ƒ
ƒ 11
11
(P. Vigo) Spero che il dato, più volte
evocato durante la crisi economica di
questi ultimi mesi, che evidenzia la solidità industriale del nostro Paese quale
seconda economia manifatturiera dopo
la Germania, serva a spronare tutti gli
imprenditori delle aziende produttive italiane a investire sulle misure per la qualità e l’affidabilità dei prodotti, magari
puntando maggiormente sulla ricerca al
fine di una migliore competitività.
(R. Rivetti) Le aziende italiane stanno recuperando terreno, investendo il
loro tempo e mettendo in gioco le proprie conoscenze in un campo in cui
ancora c’è molto da fare.
(S. Greulich) Ovviamente per noi, in
quanto stranieri, non è facile rispondere
a questa domanda. Pensiamo comunque che le aziende italiane, come le
loro concorrenti straniere, cercheranno
di migliorare i loro prodotti, la loro produzione e la loro organizzazione.
(G. Friso) Oggi la parola d’ordine è
“investire sì, ma con la massima oculatezza”, a volte anche troppa (!!!)...
e questo spesso penalizza i risultati
che si vorrebbero e si potrebbero ottenere. Si tende, ancora troppo frequentemente, a penalizzare la “vera
qualità” a favore della “produzione”.
I concorrenti esteri (Europei – Germania in testa) delle nostre Aziende sono
molto più attenti alla qualità, anche
sotto il profilo normativo/formale.
(M. Buono) La crisi recente ha dimostrato che le aziende che avevano creduto nella qualità oggi sono in grado di
crescere e competere anche in un quadro economico difficile e ancora per
molti aspetti instabile. Molti dei gruppi
industriali nostri clienti hanno da sempre
investito per garantire l’affidabilità dei
propri prodotti, al fine di poter competere con la crescente pressione dei prodotti delle aree emergenti, e questa politica oggi sta dando i propri frutti. Due
buoni segnali, ad esempio: di recente il
gruppo Volkswagen è diventato il primo
costruttore al mondo di automobili e il
gruppo Peugeot è stato premiato dall’ADAC per la qualità costruttiva dei propri
modelli. In Italia la situazione è, a mio
avviso, ancora in forte ritardo; in particolare i grandi gruppi sono tradizionalmente recalcitranti a innovare strutture
organizzative che nel tempo si sono stabilizzate nell’ambito della qualità e del
miglioramento. Tali inerzie drenano
risorse, a tutto svantaggio degli investimenti in formazione e tecnologie. A
questo si contrappone, invece, una media impresa estremamente dinamica,
che da tempo ha indirizzato il proprio
interesse ai mercati più evoluti e quindi
è riuscita a recepire con minore difficoltà l’evoluzione tecnologica che ha investito in questi ultimi 5 anni il settore della
qualità. Resta invece ancora più di una
perplessità sulla piccola impresa, con
risorse limitate per investire e fortemente
provata dalla crisi finanziaria e dalla
stretta del credito.
(A. Lazzari) Per quanto riguarda le varie
aziende italiane si può constatare che
questo atteggiamento è sicuramente in
crescita, anche se in realtà sono ancora
poche le aziende che nel nostro Paese
investono in questa direzione. Purtroppo a
volte si deve anche ammettere che per
molte aziende italiane l’acquisto di tecnologia viene percepito più come un costo
inevitabile che come un vero e proprio
investimento nella direzione della garanzia della qualità e l’atteggiamento è in
realtà spesso quello di evitare altri costi
dello stesso tipo, avvertiti come inutili.
(L. Valetti) L’intervento di sistemi per
reverse engineering e verifica dimensionale di superfici complesse non è
limitata alla ricostruzione di oggetti
incogniti o alla verifica finale, ma può
essere distribuito lungo tutte le fasi del
processo, dalla progettazione alla prototipazione, alla realizzazione degli
stampi, alla produzione di serie e successivamente alla manutenzione degli
impianti di produzione. Tutti questi interventi danno modo all’azienda manifatturiera di ottimizzare le fasi di preparazione alla produzione e successivamente tenere sotto controllo ogni fase
del processo eliminando in modo mirato e tempestivo eventuali anomalie che
possono insorgere.
T_M ƒ 13
Maurizio Buono
Giorgio Friso
D: Dal Vostro punto di vista,
quali saranno gli scenari futuri
(evoluzione delle tecnologie,
nuovi ambiti di applicazione,
nuovi mercati)?
(P. Vigo) Una volta metabolizzato il
concetto che non possiamo competere
abbassando il livello dei prezzi dei
nostri prodotti, visti gli elevati costi (produttivi e sociali), l’unica alternativa è
quella di migliorare i livelli di qualità e
affidabilità dei prodotti stessi, eventualmente esplorando con l’arguzia che ci
caratterizza nuovi ambiti applicativi.
(R. Rivetti) Difficile prevedere nel
breve termine un cambiamento delle
tecnologie di base, piuttosto un loro
utilizzo sotto una luce leggermente
diversa che le renda appetibili a
nuovi ambiti di applicazione, spostando l’attenzione dalla tradizionale
misura di certificazione a misura
orientata al controllo di processo.
(S. Greulich) Prodotti sempre più
personalizzati per la soluzione delle
esigenze dei singoli clienti e completa
tracciabilità delle misure.
(G. Friso) Andremo sempre più verso
lavorazioni con macchine “multifunzione” e lavorazioni particolari, con la
conseguenza di una sempre maggiore
attenzione richiesta verso nuove normative (vedi USA) e una crescente
necessità d’interazione tra Aziende
e/o realtà di continenti diversi. Questo, secondo me, creerà grosse difficoltà alle nostre Aziende, proprio per
una mancanza di cultura e conoscenza della metrologia, a partire dalle
sue basi “teorico/normative”.
(L. Valetti) Relativamente agli strumenti
per il reverse engineering e la verifica
dimensionale, sarà importante perfezionare ancora di più i sensori, le loro capacità di acquisizione e la loro precisione,
mentre nell’ambito del software sarà fondamentale adeguare le piattaforme esistenti alla necessità di trattare quantità di
dati sempre maggiori in tempi sempre
più stretti. L’industrializzazione di questi
processi su scala via via più larga impone inoltre l’applicazione di questi sistemi
su macchine automatiche e compatibili
con gli ambienti produttivi.
T_M ƒ 14
Annarita Lazzari
Roberto Rivetti
(M. Buono) In futuro ci aspettiamo un
forte incremento dell’utilizzo di sistemi
ottici (laser, fotogrammetria, ecc.),
anche integrati a strutture tridimensionali tradizionali, come le CMM. Queste
tecnologie, in grado di raccogliere
enormi quantitativi d’informazioni in
poco tempo, saranno però poco
utili senza software altrettanto potenti,
capaci di analizzare correttamente l’enorme mole di dati inviata. È necessario possedere una forte mentalità metrologica per fare in modo che i dati vengano interpretati correttamente dal software, una solida base di partenza con
funzioni già predisposte per il collaudo,
un codice sorgente in grado di sfruttare
completamente le ultime tecnologie in
termini di processori e sistemi operativi.
Per quanto riguarda i mercati, è fin
troppo facile prevedere sviluppi nelle
aree dove si sta investendo di più come
Cina, Brasile, India e paesi limitrofi
come la Thailandia.
(A. Lazzari) Uno dei possibili scenari è sicuramente la misurazione online per una riduzione dei tempi di
produzione e contemporaneamente
dei costi di misurazione.
L’offerta nell’ambito delle Misure
dimensionali varia a seconda
della sensibilità delle singole
aziende manifatturiere e delle
richieste degli specifici mercati:
che cosa propone la Vostra
azienda di realmente distintivo/competitivo all’interno di
questo vastissimo panorama?
(P. Vigo) Uno dei settori nei quali, per
mia attività personale, vedo grandi
innovazioni affacciarsi sul mercato futuro è quello dei misuratori “intelligenti”
(smart, nel nostro gergo). Misuratori
che sappiano elaborare i segnali di
misura (i propri e anche gli altrui presenti) fornendo così utili servizi agli utilizzatori. Attenzione: le tecnologie di
misura, o meglio, i sensori che “estraggono” il segnale di misura resteranno
più o meno quelli attuali ma sarà possibile, tramite “intelligenze” diffuse, interpretare i segnali integrandoli con i contesti e anche valutandone criticamente
Levio Valetti
Paolo Vigo
le variazioni per poi fornire il service,
cioè le valutazioni, le diagnosi, gli allarmi in una visione di sistema.
(R. Rivetti) Proponiamo una gamma
di sensori a contatto e non contatto,
ormai standard industriale per la verifica dimensionale di pezzi e utensili su
macchine di misura, calibri automatici e
macchine utensili. Questi dispositivi
estendono il concetto di misura dimensionale mettendo le informazioni raccolte al servizio del controllo di processo, per far sì che il contributo della misura dimensionale sia positivo e orientato
alla maggiore produttività delle aziende, sia in officina sia in sala metrologica. Tra questi prodotti ricordiamo i più
famosi: Revo e PH20, le teste che
hanno rivoluzionato il modo di misurare i pezzi con aumenti percentuali della
produttività a tre cifre, ed Equator, il
calibro flessibile che affianca l’automazione alla flessibilità nella verifica di
conformità in produzione e alla tracciabilità tramite macchina di misura.
(S. Greulich) Un sistema di radio trasmissione dati flessibile e sicuro: un singolo ricevitore (antenna), collegato a un
normale PC, può ricevere i dati di misura provenienti da molteplici strumenti,
diversi tra loro per tipologia e marca. Il
software, oltre a visualizzare le misure,
mostra l’indirizzo dello strumento che le
ha inviate. Diatron 1000: un visualizzatore elettronico realmente portatile, per i
tamponi di misura Diatest, con una risoluzione di 0,1 µm e la possibilità, grazie
al sistema wireless opzionale, di inviare
i dati di misura a un PC, a una distanza
di 20 m. Prodotti speciali per esigenze
speciali: il nostro ufficio tecnico è composto da personale altamente specializzato con alle spalle percorsi formativi di
3-4 anni, di ingegneria meccanica di
precisione. Per questo motivo siamo in
grado di offrire prodotti speciali per risolvere problemi di misura particolari.
(G. Friso) Attualmente sul mercato non
c’è che l’imbarazzo della scelta relativamente a cosa acquistare; la tecnologia continua a offrire soluzioni sempre
più esasperate ed è sempre più orientata verso quelle basate su apparecchi di
misura “multisensore”. È difficile, in que-
N. 01ƒ
;2012
ce calibro, il cui sistema Absolute viene
riconosciuto come indispensabile per un
utilizzo sicuro e affidabile nelle misure
di produzione, ai nuovi micrometri
QuantuMike, la cui velocità di misurazione e accuratezza viene considerata
ai massimi livelli del mercato. Molto
apprezzati risultano anche i sistemi di
invio e ricezione dati U-Wave la cui flessibilità viene apprezzata non soltanto
dai clienti finali ma anche dagli sviluppatori di nuovi software di analisi dati
non strettamente legati all’ambito automotive per cui sono stati inizialmente sviluppati. Anche nell’ambito della misurazione della Rugosità il nuovo SJ210 sta
diventando ormai un riferimento, soprattutto nel settore della misurazione in produzione. Ma Mitutoyo è specializzata
anche in alta tecnologia e le caratteristiche richieste dalle aziende alle apparecchiature di misura sono sempre più
esigenti; la continua necessità di rincorrere il miglioramento continuo della qualità dei prodotti fa allo stesso tempo
aumentare anche le aspettative di vita e
contestualmente si ha l’esigenza di ridurre al minimo i consumi energetici.
Tutto ciò deve essere preso in considerazione da un’azienda nella scelta del
proprio sistema di misura. Mitutoyo
offre CMM ad alta accuratezza con
velocità di misura e accelerazione elevatissime. La possibilità di sostituire o
aggiungere sistemi di tastatura e software rende l’acquisto di tali apparecchiature di misura un ottimo investimento per il futuro. Precisione, velocità e flessibilità sono i tre aspetti che caratterizzano la nostra produzione.
D: Quali sono, oggi, i settori
che possono maggiormente
beneficiare delle Vostre proposte? E quali sono le esigenze
(prestazioni, prezzi, ecc.) alle
quali maggiormente vi chiedono di rispondere?
(R. Rivetti) Automotive, aerospaziale, packaging, medicale e meccanica
generale, con maggior enfasi laddove il controllo di qualità e il controllo
di processo determinano il successo
di una produzione. L’esigenza principale è quella di trovare una soluzione
che abbia il corretto bilancio tra i benefici di processo e i costi.
▲
sto contesto, riuscire a proporre qualcosa di realmente distintivo e innovativo.
La cosa su cui veramente si può contare
per distinguere la propria Azienda è il
servizio pre- e post vendita e la capacità di offrire un qualificato supporto di
consulenza in ambito delle tematiche
relative al “controllo qualità”.
(M. Buono) Ciò che distingue principalmente Metrolog risiede sicuramente
nella qualità, flessibilità e facilità d’utilizzo del prodotto. In effetti il software di
misura Metrolog permette di gestire con
un unico software tutti i tipi di macchine
di misura 3D, qualunque sia il tipo di tecnologia utilizzata (CMM tradizionali,
bracci antropomorfi, laser tracker, teste
laser, fotogrammetria, ecc.). Questo elemento distintivo, unito alle elevate prestazioni di calcolo, permette alle aziende di
standardizzare un solo software di misura per tutte le sale metrologiche del gruppo, a prescindere dalle macchine 3D
possedute, e poter continuare a utilizzare
i programmi e i dati acquisiti anche in
caso di sostituzione di una macchina con
una diversa soluzione. Inoltre il prodotto
è altamente intuitivo e progettato per l’operatore, permettendo così una riduzione
drastica dei costi di formazione e la possibilità d’interscambiare gli operatori tra
tutte le macchine possedute.
(L. Valetti) Hexagon Metrology, in
quanto fornitore di sistemi di misura a
coordinate, è in grado di fornire una
gamma completa di soluzioni per il
reverse engineering di superfici complesse. L’offerta spazia da sistemi per scansione laser ad altissima velocità e risoluzione utilizzabili con bracci articolati
manuali portatili e con sistemi laser tracker a sensori per scansione su macchine
automatiche. Sono inoltre disponibili
sistemi di fotogrammetria per l’acquisizione di grandi quantità di dati superficiali in tempi rapidissimi, sia utilizzabili in
modo manuale che guidati da robot industriali. La gestione software delle nuvole
di punti acquisite è affidata ad applicazioni specialistiche in grado di trattare
grandi quantità di punti e con essi ricostruire matematicamente le superfici, oppure confrontare i dati acquisiti con il
modello CAD dei pezzi per rilevare eventuali scostamenti dalle superfici teoriche.
(A. Lazzari) Tutti i nostri prodotti si
distinguono nel loro campo: dal sempli-
IL
TEMA
(S. Greulich) Affidabilità dei prodotti –
Affidabilità delle consegne – Soluzioni
personalizzate per problemi di misura
particolari – Massima accuratezza nella
misurazione di diametri interni (fino a
0,2 µm) – Sistemi di trasmissione wireless
sicuri, versatili e pratici.
(G. Friso) Lo strumento di misura dimensionale può essere utilizzato da
chiunque produca “pezzi”, per cui i settori a cui sono rivolte le nostre vendite
sono molteplici; se proprio vogliamo
identificarne un paio, tra i più importanti
ci sono la meccanica e l’automotive. L’esigenza primaria è quella di contenere il
“costo pezzo” e quindi le Aziende sono
spesso alla ricerca del miglior compromesso tra la “massima precisione nei
controlli, nel minor tempo possibile e con
la minima spesa”.
(M. Buono) Siamo un’azienda totalmente trasversale e, sebbene i nostri
prodotti rappresentino uno standard
principalmente nel settore aeronautico
(con una soluzione integrata in
CatiaV5) e in quello automotive, ormai
i nostri clienti appartengono ai settori
più impensati; questo grazie anche al
fatto che le esigenze del controllo
dimensionale 3D sono di recente molto
aumentate. In effetti la crisi che ha investito il settore manifatturiero in questi
anni ha fatto capire alle aziende che
investire in qualità per migliorare i propri prodotti è l’unica via per poter competere anche in momenti difficili. Le
aziende hanno investito in nuove tecnologie, che necessitano di potenze di
calcolo sempre maggiori: mi riferisco,
in particolare, al controllo tramite nuvole di punti, ambito nel quale abbiamo
investito tre anni di ricerca e sviluppo
per poter offrire ai nostri clienti il meglio
in termini di prestazioni e analisi.
(A. Lazzari) Ormai tutti i settori richiedono misurazioni affidabili e di elevata
accuratezza e tutti i settori ci richiedono
elevate prestazioni anche su semplici
strumenti di uso comune. Tuttavia il settore trainante è ancora quello dell’automotive, insieme al settore macchine
industriali e meccanica in generale.
(L. Valetti) Tutti i settori, industriali e
non, nei quali è necessario analizzare
superfici complesse sono virtualmente e
praticamente potenziali utilizzatori dei
sistemi descritti: dall’industria dei traspor-
T_M ƒ 15
N. 01ƒ
;2012
ti all’aeronautica, da ogni tipo di produzione legata al design alle applicazioni
dei materiali compositi, dalla cantieristica navale alla tutela del patrimonio artistico e architettonico. Le principali esigenze di ciascun mercato sono l’ottimizzazione delle attività di reverse engineering e verifica dimensionale al fine di
ridurre, nel modo più drastico possibile,
i tempi di acquisizione ed elaborazione
dei dati, nonché il raggiungimento di
risultati affidabili e di precisioni compatibili con l’applicazione specifica.
D: Secondo Voi, è necessaria
una maggiore cultura in materia? Quali strumenti di divulgazione suggerite?
(P. Vigo) La cultura metrologica o
delle misure in genere sta lentamente
tornando in auge dopo essere stata
offuscata dall’euforia informatica e
simulativa, anche perché il numero di
dati di misura che coinvolge quotidianamente qualsiasi operatore è elevatissimo! Comincia infatti a serpeggiare il
dubbio che molti di questi dati siano
inutili o dubbi e questo favorisce il diffondersi del concetto che è meglio
avere pochi dati certi e riferibili piuttosto che tanti dati inutili e falsi. Insomma
la cultura dell’incertezza di misura, che
deve accompagnare ciascun valore,
comincia a essere percepita da molti.
Infine fatemi sottolineare il mio condividere che l’arte di divulgare è la migliore espressione della docenza (noi professori dobbiamo essere dei lampadofori per gli allievi.....dobbiamo andare
avanti nel buio, con una lampada accesa portata dietro le nostre spalle....per
illuminare! Siamo mascherine nei cinematografi che illuminano la strada ai
clienti!).
(R. Rivetti) Le persone che decidono
come trasformare i processi all’interno
delle aziende avrebbero maggior
beneficio da eventi culturali in cui affrontare gli aspetti strategici e le motivazioni della misura, mentre gli operatori che ogni giorno devono cercare
soluzioni a problemi contingenti possono avere maggior beneficio da forme elettroniche di condivisione delle
esperienze e delle soluzioni, come forum e corsi elettronici.
(S. Greulich) Sì, un’evoluzione cultura-
IL
TEMA
le è di fondamentale importanza e dovrà
avvalersi, oltre che degli strumenti classici di comunicazione (siti web, flyer digitali e cartacei, newsletter, pubblicità e
articoli su riviste di settore, ecc.), di fiere
specialistiche e incontri/visite presso i
clienti. Sarà altresì necessario studiare
adeguate strategie per sfruttare i mezzi
di comunicazione offerti dalle nuove tecnologie: social network, Facebook, Xing,
YouTube, ecc.
(G. Friso) Sicuramente sì! Il problema
è: come, dove e da parte di chi…? I
Produttori, che sicuramente sono i più
coinvolti, lo possono fare, ma logicamente non possono sottrarsi all’aspetto
“commerciale” che il rapporto con lo
“studente”/Cliente può assumere (diffidenza da parte di quest’ultimo, relativa
al fatto che magari non riesce a capire
se quello che gli viene detto è realmente “obiettivo” o se contiene messaggi
finalizzati alla potenziale vendita).
Potrebbe avere senso, secondo me, che
i Produttori di strumentazione di misura
possano stringere accordi con gli enti
predisposti alla formazione (ITIS e Università) al fine di poter sponsorizzare
una maggiore diffusione della cultura
metrologica dotando (a titolo praticamente gratuito) questi Istituti di strumenti aggiornati e tecnologicamente “importanti” (facendosi anche carico di
una certa formazione rivolta al Corpo
Docente), a fronte di un deciso impegno a potenziare questo aspetto della
formazione “tecnica”. Sarebbe inoltre
auspicabile la creazione di un portale
“al di sopra delle parti” (Internet è a
oggi la fonte a cui si rivolge, in prima
battuta, chi è alla ricerca d’informazioni) dove poter trovare informazioni corrette su Normative, su campi applicativi, oltre a commenti e riferimenti su dove potersi rivolgere per poter operare
una corretta scelta sullo strumento più
idoneo a risolvere una determinata problematica.
(M. Buono) È evidente che aumentare la cultura in materia sia una necessità prioritaria, dal momento che
solo così le decisioni in seno a realtà
produttive possono essere consapevoli e scevre da ogni tipo di pregiudizio.
A mio avviso il contatto umano tra
aziende e fornitori rimane ancora il
modo migliore per poter divulgare
informazioni e innescare un circolo
virtuoso di crescita comune.
(L. Valetti) È fondamentale identificare con precisione le applicazioni
nelle quali queste tecnologie non sono
ancora sufficientemente conosciute e
divulgare la conoscenza attraverso
azioni e strumenti di comunicazione
mirati. Spesso la potenziale utenza ha
difficoltà a riferire una data tecnologia alla propria esigenza attraverso il
solo confronto con applicazioni già
consolidate ma appartenenti a settori
diversi.
(A. Lazzari) Purtroppo la formazione
nel nostro Paese non viene posta nella
giusta considerazione: capita spesso
che le aziende investano molto denaro
nelle nuove tecnologie, ma senza disporre del know how necessario per l’utilizzo ottimale delle potenzialità delle
apparecchiature acquistate, e quindi
l’investimento stesso viene vanificato e
alla fine non compreso e apprezzato.
Un modo per divulgare la cultura
venendo in qualche modo incontro alle
esigenze delle aziende è, soprattutto in
questi periodi di crisi conclamata, l’utilizzo delle tecnologie via Internet e di
tutte le forme di divulgazione a esso collegate: queste forme sono e saranno le
migliori. In Mitutoyo, vantiamo un centro di formazione per specialisti delle
misure: il Mitutoyo Institute of Metrology
(MIM) in cui, oltre a corsi pratici su prodotti Mitutoyo, vengono sviluppati ed
erogati corsi nell’ambito della Metrologia, Qualità e Statistica, pensati appositamente per le aziende e ritagliati
sulle loro specifiche esigenze. Da
tempo è stato attivato un progetto di formazione in e-learning, che ha riscosso
molto successo fra i nostri clienti, e sono
stati inoltre realizzati corsi di formazione in DVD, svolti proprio come un corso
tradizionale in aula. Tutto ciò ha dato la
possibilità di venire incontro alle molteplici esigenze del cliente e ai vari problemi delle aziende, che spesso lamentavano i costi di trasferta o l’impossibilità di essere operativi nel proprio posto
di lavoro nel momento in cui ci si assentava per frequentare un corso di formazione, fornendo in tal modo anche la
possibilità di avere sempre a propria
disposizione le necessarie informazioni, spiegate in forma semplice e diretta.
T_M ƒ 17
N. 01ƒ
; 2012
■
IL
TEMA
I Poli dell’Innovazione e della Ricerca
ad AFFIDABILITÀ & TECNOLOGIE 2012
ViaMéca (Polo di competitività francese della meccanica avanzata), MESAP (Polo dell’Innovazione piemontese della
meccatronica e dei sistemi avanzati di produzione), Tecnalia (Centro di ricerca privato no-profit dei Paesi Baschi), IAM
Abruzzo (Polo d’Innovazione Automotive) e Club Meccatronica avranno un ruolo di primo piano nella sesta edizione di AFFIDABILITÀ & TECNOLOGIE (Torino, 18/19 aprile 2012). Queste importanti realtà, oltre a partecipare all’ampia e qualificata parte espositiva, si proporranno anche come potenziali buyer e, a tale scopo, verranno organizzati
incontri fra i loro rappresentanti e quelli di aziende fornitrici di tecnologie e soluzioni innovative, selezionate direttamente tra quelle espositrici ad AFFIDABILITÀ & TECNOLOGIE 2012.
ViaMéca (www.viameca.fr) è una realtà che fa riferimento al polo industriale delle RHONE ALPES, particolarmente attiva per progetti con processi di produzione avanzati, ingegneria di superficie, sistemi intelligenti e di robotica applicata, macchine speciali, veicoli speciali, strutture speciali. ViaMéca opera nel settore dei beni industriali, industria automobilistica, aeronautica, energia e medicale.
MESAP (http://mesapiemonte.it) – Unione Industriale di Torino: Il Polo della meccatronica MESAP aggrega
piccole, medie e grandi imprese, centri e organismi di ricerca operanti nei campi della meccatronica e dei sistemi avanzati di produzione. L’Unione Industriale di Torino è un’associazione volontaria d’imprese, a livello territoriale, aderente a
Confindustria, per la rappresentanza, la tutela, la promozione e lo sviluppo delle aziende e dei loro interessi. All’Associazione aderiscono, in oltre 30 gruppi merceologici, oltre 2.300 imprese con circa 200.000 addetti.
Tecnalia Research & Innovation (www.tecnalia.com) è un centro nato dalla fusione di 8 centri con un lungo e
ampio curriculum di ricerca industriale e innovazione. Con circa 1.500 ricercatori, 120 M€ di fatturato e quasi 3.800
clienti, Tecnalia opera nella ricerca industriale e innovazione in diversi settori: tecnologie e sistemi per la salute, l’autonomia e la qualità di vita; sistemi industriali; tecnologie per lo sviluppo sostenibile (energia, edilizia, ambiente); ingegneria dei trasporti e aerospaziale; ecc.
IAM Abruzzo, Polo d’Innovazione Automotive (www.innovazioneautomotive.eu) che raggruppa 79 aziende
abruzzesi, prevede azioni di sistema (marketing per attirare nuove imprese e gestione delle infrastrutture ad accesso aperto, organizzazione di programmi di formazione, seminari e conferenze finalizzati a facilitare la condivisione delle conoscenze e il lavoro in rete) e servizi specialistici per le imprese aderenti.
Club Meccatronica (www.meccatronica.org), promosso da un gruppo d’imprenditori dell’Associazione Industriali di Reggio Emilia, si propone come punto d’incontro aperto per tutti coloro che operano nella meccanica avanzata e
nella meccatronica.
TORINO, NON PER CASO
AFFIDABILITÀ & TECNOLOGIE rappresenta una novità nel panorama fieristico italiano. Ispirata alla concretezza delle
fiere americane, si avvale di un progetto contenutistico in continua evoluzione e crescita, “tarato” sulle esigenze dei visitatori e degli espositori, in collaborazione con il mondo della ricerca. Una realtà in costante crescita di consensi, con strategie di sviluppo che vedono direttamente coinvolti i vari “partner” della manifestazione, realtà istituzionali, industriali e
associative che patrocinano e sostengono l’evento.
“Abbiamo realizzato la prima edizione nel 2007 – spiega Luciano Malgaroli, fondatore di AFFIDABILITÀ & TECNOLOGIE –
puntando a dar vita a un progetto fieristico che fosse realmente rispondente alle esigenze delle società espositrici e dei
visitatori. Ci siamo subito resi conto delle potenzialità della nostra formula e abbiamo registrato una costante crescita del
20/25% in ciascuna delle cinque edizioni”.
“La scelta di Torino come sede della manifestazione non è casuale.” – prosegue – “Nel nord ovest d’Italia hanno sede
industrie di primaria importanza e migliaia di aziende appartenenti alle relative filiere industriali. A ciò si aggiunge un’opportuna gestione delle risorse da parte della pubblica amministrazione, il ruolo fondamentale del Politecnico, che interagisce attivamente con l’industria, e quello della Camera di Commercio e dei Poli dell’Innovazione, che attuano politiche
di sviluppo e internazionalizzazione in grado di attrarre maggiormente gli investimenti di numerose aziende estere. Torino e AFFIDABILITÀ & TECNOLOGIE sono quindi diventate un appuntamento per migliaia d’imprenditori e tecnici da tutta
Italia: aziende che puntano sull’innovazione e hanno saputo conquistare anche i mercati esteri grazie alle loro capacità.
Torino è sempre più considerata città dell’innovazione e AFFIDABILITÀ & TECNOLOGIE è capace di attrarre visitatori di
alto profilo, a livello nazionale e internazionale, che cercano idee e soluzioni per incrementare la competitività della propria azienda”. “La nostra strategia è chiara: – conclude Malgaroli – ci consideriamo parte attiva di questo processo di
sviluppo e vogliamo crescere ulteriormente per poter offrire alle aziende e alla ricerca un luogo ideale d’incontro all’altezza delle loro aspettative, che favorisca opportunità di business e scambio di idee utili per la competitività”.
T_M ƒ 18
GLI
ALTRI TEMI
▲
MISURE ELETTRICHE ED ELETTRONICHE
L. Fumagalli 1, M. Trebeschi 1, P. Tomassini 1, G. Libretti 1, F. Docchio 1,
M. Zanatta 1, M. Pellegrini 2, E. Fabbrizi 2
Collaudo delle barriere autostradali Tutor
un moderno sistema automatico
AN AUTOMATIC TEST SYSTEM FOR MOTORWAY TUTOR PORTALS
Q-Tech srl has recently developed a new integrated system able to test Tutor
motorway portals of Autostrade per l’Italia, which integrates full custom and
off-the-shelf sensors, within a compact architecture based on National Instruments instrumentation.
SOMMARIO
Q-Tech srl ha portato a buon esito il progetto e la realizzazione di un nuovo
sistema integrato per il collaudo delle barriere Tutor installate dalla società
Autostrade per l’Italia spa, integrando sensoristica full-custom e off-the-shelf
all’interno di un’architettura unitaria basata su strumentazione National
Instruments.
INTRODUZIONE
Il Tutor è un innovativo sistema, ideato e sviluppato da Autostrade per l’Italia, che permette il controllo della
velocità media dei veicoli in transito.
Il sistema “SICVe Test”, realizzato da
Q-Tech per Autostrade per l’Italia, è
un sistema di misura installato su
un’autovettura di test, che acquisisce
ed elabora dati provenienti da sensoristica optoelettronica: lo scopo primario di questo sistema è di fornire
l’esatta velocità del veicolo durante il
transito del medesimo tra le due spire
installate nel manto stradale in corrispondenza delle barriere Tutor. Per
sviluppare la seconda versione del
sistema “SICVe Test” Q-Tech ha scelto
di basarsi sulla piattaforma NI CompactRIO e sulla programmazione grafica in ambiente NI LabVIEW, realizzando una soluzione integrata robusta, performante e semplice da utilizzare.
IL TUTOR DI AUTOSTRADE
PER L’ITALIA
Il SICVe (Sistema Informativo per il
Controllo della Velocità, più comunemente denominato “Tutor”), è un sistema di rilevazione della velocità istantanea e media ideato, progettato e
e dal portale di uscita, calcolando per
ciascun veicolo (identificato su base
targa) la velocità media tenuta nel
tratto sotto controllo. I dati dei veicoli
la cui velocità media non supera quella consentita sono immediatamente
eliminati, mentre le violazioni vengono accertate dalla Polizia Stradale.
A differenza dei sistemi tradizionali, il
Tutor permette di rilevare l’eccesso di
velocità come comportamento abituale di guida, ed è in grado di funzionare in qualsiasi condizione atmosferica e d’illuminazione. Attualmente il
controllo della velocità tramite Tutor è
attivo su oltre 2.500 km di carreggiate e ha permesso, nei primi 12 mesi di
funzionamento, di registrare una significativa riduzione della velocità
media (-15%) e della velocità di picco
(-25%), determinando anche una netta diminuzione dell’incidentalità e delle conseguenze alle persone [1].
sviluppato da Autostrade per l’Italia
spa, omologato dal Ministero delle
Infrastrutture e dei Trasporti, e gestito
dalla Polizia Stradale. Il Tutor è il
primo sistema che permette di rilevare
la velocità media dei veicoli su tratte
autostradali di lunghezza variabile,
indicativamente tra i 10 e i 25 km,
delimitate da due portali. Come mostrato in Fig. 1, ciascun portale Tutor
si compone per ogni corsia di transito
di due serie di sensori interrati, oltre DESCRIZIONE
che di un illuminatore IR, di una foto- DEL SISTEMA “SICVE TEST V2.0”
camera e di un orologio GPS posti sul
portale.
Q-Tech srl, grazie al suo know-how
nella progettazione di sistemi ottici e
optoelettronici [2-5], ha realizzato
con successo negli anni scorsi un sistema (denominato “SICVe Test”) per il
collaudo delle barriere Tutor. L’esperienza maturata nello sfruttamento
delle potenzialità offerte dalle soluzioni hardware e software National InFigura 1 – Schema del sistema Tutor per ogni
struments ha consentito a Q-Tech di
corsia di transito
progettare e mettere in opera una
nuova architettura per il sistema
I sensori posizionati sotto l’asfalto, al “SICVe Test V2.0”, basata su prodotti
passaggio dei veicoli, ne rilevano la National Instruments.
velocità istantanea e attivano le tele- Il sistema di misura in oggetto è instalcamere installate sui portali stessi. La
targa del veicolo viene fotografata e
vengono registrate la data e l’ora di (1)
passaggio. Un sistema centrale effet- (2) Q-Tech srl, Rezzato (BS)
Autostrade per l’Italia spa, Firenze
tua l’abbinamento tra gli orari di [email protected]
saggio rilevati dal portale d’ingresso
T_M
N.
1/12 ƒ 19
ottico commerciale con
elevata accuratezza di
misura. Il sistema è inoltre
in grado di rilevare l’orario e le coordinate GPS
del transito; la presenza
di un database contenente informazioni sulle barriere Tutor installate da
Autostrade per l’Italia
Figura 2 – a) L’autovettura di test su cui è installato il sistema
permette all’applicativo
“SICVe Test V2.0”, b) il sensore ottico IR sviluppato da Q-Tech
di riconoscere automaticamente la barriera sotto
lato su un’autovettura di test apposita- cui avviene il transito. La Fig. 2b mostra
mente allestita, mostrata in Fig. 2a. Nel in dettaglio il sensore ottico IR progettato
corso dei transiti della vettura lungo la e realizzato da Q-Tech per rilevare gli
rete autostradale, il sistema è in grado impulsi emessi dalla barriera Tutor.
di riconoscere gli impulsi prodotti dalle Il prototipo del sistema “SICVe Test
barriere Tutor grazie a un sensore otti- V2.0” è mostrato Fig. 3: esso si compoco IR appositamente sviluppato da Q- ne di un’unità di elaborazione allogTech; tali impulsi vengono correlati con giata nel bagagliaio dell’autovettura di
l’effettiva velocità istantanea del veicolo, test, che contiene sia il dispositivo NI
misurata per mezzo di uno strumento CompactRIO (provvisto di modulo GPS
T_M ƒ 20
N. 01ƒ
; 2012
▲
GLI
ALTRI TEMI
e di moduli di acquisizione analogica e
digitale) sia l’elettronica ausiliaria necessaria al funzionamento del sistema. L’unità viene alimentata dalla batteria dell’autovettura. Tutti i sensori sono direttamente connessi all’unità di elaborazione: come si può vedere in Fig. 2b, il sensore infrarosso Q-Tech e il sensore di velocità sono posizionati esternamente all’autovettura, su appositi supporti.
Figura 3 – Il sistema “SICVe Test V2.0”
installato nel bagagliaio dell’autovettura di test
N. 01ƒ
;2012
Figura 4 – Il posto di guida dell’autovettura di test
ARCHITETTURA DEL SISTEMA
“SICVE TEST V2.0”
Per realizzare il nuovo sistema “SICVe
Test V2.0” Q-Tech ha scelto la piattaforma National Instruments CompactRIO
[6]: essa infatti da un lato fornisce le
elevate prestazioni richieste dall’applicazione, e dall’altro garantisce la
robustezza necessaria per un’applicazione a bordo veicolo.
Per la realizzazione del sistema
“SICVe Test V2.0” si è utilizzato l’ambiente di sviluppo NI LabVIEW provvisto dei moduli LabVIEW Real-Time e
LabVIEW FPGA. La Fig. 5 mostra gli
strumenti a disposizione in ambiente
LabVIEW per realizzare le diverse
parti che compongono una generica
applicazione per la piattaforma NI
CompactRIO. Utilizzando il modulo
LabVIEW Real-Time è stato creato un
programma da eseguire sul controller
real-time CompactRIO (riquadro “Real
Time Processor” in Fig. 5). Questo
applicativo, denominato “SICVeTestcRIO”, ingloba tutte le funzionalità di
acquisizione dei dati dai sensori, elaborazione e generazione dei file di
output. È stato inoltre utilizzato il modulo LabVIEW FPGA per programmare e personalizzare la FPGA nello
chassis CompactRIO (riquadro “Reconfigurable FPGA” in Fig. 5). Le
applicazioni LabVIEW Real-Time e
LabVIEW FPGA sono state sviluppate
su un computer host utilizzando la
programmazione grafica e quindi
scaricate su CompactRIO per essere
eseguite in modalità stand-alone. Utilizzando LabVIEW è stato inoltre creato un applicativo d’interfaccia utente
per il sistema CompactRIO (riquadro
“User Interface” in Fig. 5). Questo
applicativo, denominato “SICVeTestUI”, viene eseguito sul Touch Panel
computer: esso permette all’operatore
di visualizzare lo stato del sistema e
di poter eventualmente interagire con
esso mediante una modalità avanzata
di gestione.
▲
L’interconnessione con i sensori esterni è effettuata mediante opportuni
connettori fissati al pannello frontale
dell’unità di elaborazione “SICVe Test
V2.0”. Il pannello posteriore dell’unità di elaborazione contiene il connettore al sistema di alimentazione, il pulsante di accensione/spegnimento dell’unità, la ventola di raffreddamento e
i fusibili. Sulla sinistra del pannello
posteriore è presente un pannello
rimovibile che copre il punto di accesso previsto per la taratura del dispositivo.
Il sistema è completato da un Touch
Panel computer veicolare da 12’’
montato accanto al posto guida come mostrato in Fig. 4. La connessione tra il pannello frontale dell’unità
di elaborazione e il Touch Panel
computer è diretta, mediante un cavo di rete.
GLI
ALTRI TEMI
affinché, nella modalità standard utilizzata nel corso delle campagne di
misura, l’operatore (che è anche il
guidatore dell’autovettura) si limiti a
verificare la corretta acquisizione di
ciascun transito attraverso una barriera Tutor, confermata da indicatori
macroscopici a video e da segnalazioni acustiche. Al termine di una
giornata di misurazioni l’operatore
può scaricare su chiavetta USB i file
di riepilogo contenenti i risultati delle elaborazioni del sistema “SICVe
Test V2.0”; i dati vengono quindi
inviati presso la sede di Firenze di
Autostrade per l’Italia, dove il personale addetto procede all’analisi dei
transiti effettuati.
Figura 6 – L’interfaccia utente dell’applicativo
Q-Tech “SICVeTest-UI”
CONCLUSIONI
L’applicazione realizzata
da Q-Tech srl è risultata
semplice da installare, da
configurare e da utilizzare.
L’integrazione tra i compoFigura 5 – La piattaforma NI CompactRIO:
nenti NI CompactRIO e
componenti hardware e strumenti software
l’ambiente di programmaa disposizione per lo sviluppo di applicazioni
(fonte: National Instruments)
zione grafica LabVIEW ha
permesso di progettare e
realizzare in tempi rapidi un
Opportuni punti di test sono stati sistema dall’architettura unitaria e
previsti per tutte le fasi della pro- consistente, caratterizzato da modugrammazione; la stretta integrazio- larità e scalabilità. L’autovettura
ne della piattaforma ha consentito di equipaggiata con il sistema “SICVe
ottenere una diagnostica puntuale e Test V2.0” è attualmente utilizzata
approfondita. Come mostrato in Fig. 6, con successo dalla società Autostral’applicativo d’interfaccia utente de per l’Italia spa per collaudare
“SICVeTest-UI” installato sul Touch regolarmente gli oltre trecento portaPanel Computer è stato progettato li Tutor installati in Italia.
T_M ƒ 21
N. 01ƒ
; 2012
RIFERIMENTI BIBLIOGRAFICI
1. www.autostrade.it/assistenza-al-traffico/tutor.
html
2. L. Fumagalli, P. Tomassini, M. Zanatta, F. Docchio, A 400kHz High-Accuracy, Laser Telemeter for Distributed Measurements of 3-D Profiles, IEEE Trans. Instr. Meas., 60(3), 2011,
pp. 1054-1060.
3. L. Fumagalli, P. Tomassini, M. Zanatta, F. Docchio, Laser
telemeter for distributed measurements of object profiles,
2009, Italian patent (granted).
4. L. Fumagalli, P. Tomassini, G. Libretti, M. Trebeschi, M.
Zanatta, F. Docchio, Telemetria laser avanzata: nuove applicazioni, Tutto Misure 1/2010, pp. 19-22.
5. L. Fumagalli, G. Libretti, P. Tomassini, M. Trebeschi, M.
Zanatta, Sistemi optoelettronici per portali multifunzione ferroviari, LabVIEW World 13, 2010, pp. 25-27.
Luca Fumagalli si è laureato nel 2000 in
Ingegneria Elettronica all’Università di Brescia
con una tesi sulla metrologia di fasci laser.
Cofondatore di Q-Tech s.r.l., ne è Amministratore Delegato.
Paolo Tomassini si è laureato nel 1998 con
lode in Ingegneria Elettronica all’Università di
Brescia, dove ha anche conseguito il Dottorato di
Ricerca in Strumentazione Elettronica. Dopo essere stato assegnista di Ricerca presso il Laboratorio di Optoelettronica, nel 2002 ha fondato la
Società Q-Tech s.r.l., divenendone Presidente, carica che tuttora ricopre.
Marco Trebeschi ha conseguito la Laurea con
Lode in Ingegneria Elettronica e il Dottorato di
Ricerca in Strumentazione Elettronica presso l’Università degli Studi di Brescia. Ha ottenuto le certificazioni National Instruments CLD (Certified
LabVIEW Developer) e CPI (Certified Professional
Instructor). Attualmente è Software Design Manager presso QTech srl.
Marco Zanatta si è laureato in Ingegneria Elettronica nel 2001. In seguito ha lavorato nella
divisione R&S di Agilent Technologies come progettista ottico, specializzato nella progettazione
e sviluppo di circuiti ottici planari basati su tecnologia “silica on silicon”. Nel 2004 ha lavorato ai Pirelli Labs come responsabile di progettazione ottica di
componenti attivi e passivi per fibre ottiche. Nel 2008 è iniziata la sua collaborazione con Q-Tech s.r.l.. Nel 2011 è entrato
a far parte della società in qualità di socio e membro del consiglio di amministrazione.
T_M ƒ 22
GLI
ALTRI TEMI
▲
IL MEGLIO DI GMEE 2011
L. Angrisani 1, M. Di Lelio 2, P. Morabito 3, R. Schiano Lo Moriello 1, M. Vadursi 4
Misure per la Sicurezza
nei Sistemi VoIP
Un test bed riconfigurabile per misurazioni in tempo reale
MEASUREMENTS FOR VOIP SYSTEMS SECURITY
The paper presents the design of an automatic real-time system for security
measurements over VoIP (voice over IP) systems, The system allows the evaluation of both objective and subjective quality parameters, in the presence
of typical security attacks to the infrastructure. VoIP application developers
and vendors could benefit from such a measurement system, especially for
the tests they are required to carry out to assess the robustness of their
products with respect to the most common security threats.
RIASSUNTO
L’articolo presenta un sistema automatico per la misura in tempo reale dei
parametri di sicurezza dei sistemi di voice over IP (VoIP), Lo scopo è la valutazione congiunta di parametri di qualità oggettiva e di qualità percepita
dall’utente in presenza di tipici attacchi alla security del sistema, al variare
dei parametri della infrastruttura di rete. Potenziali fruitori del sistema di
misura sono i vendor di applicazioni VoIP, cui spetta l’onere di effettuare test
specifici per verificare la robustezza delle applicazioni rispetto ai più comuni rischi.
SICUREZZA NEI SISTEMI VOIP:
QUALI I RISCHI?
Le problematiche di sicurezza dei sistemi VoIP sono peculiari e richiedono un
approccio nuovo e specifico, caratterizzato da robustezza e tempestività. Il
VoIP, infatti, non è semplicemente una
delle tante applicazioni che girano sull’infrastruttura IP; al contrario, si tratta di
un servizio complesso, simile ai sistemi
di telefonia già esistenti, quali PSTN,
ma caratterizzato da una ben più seria
vulnerabilità intrinseca. Inoltre, il buon
funzionamento dell’infrastruttura VoIP
richiede, come per tutte le applicazioni
real-time, valori molto stringenti dei
parametri di qualità del servizio (QoS),
come un’affidabilità pari al 99,999% o
un’indisponibilità massima inferiore ai
5 minuti di downtime all’anno. Ciò
comporta che un qualsiasi attacco all’infrastruttura va gestito e risolto in pochi secondi.
Gli attacchi cui possono essere soggetti i sistemi VoIP possono essere divisi in quattro categorie principali:
• attacchi che mirano a ridurre la disponibilità del servizio VoIP;
casi, ciò si traduce nella richiesta formale verso il cliente che ha richiesto la connessione di farsi carico di effettuare un
insieme di test specifici per verificare la
robustezza rispetto ai più comuni attacchi cui va incontro una rete IP. Da ciò scaturisce la forte esigenza di un approccio
ai problemi di sicurezza VoIP che consenta di dare risposte in tempi rapidi e in
modo automatico.
COSA MISURARE
E COME MISURARE
Metriche
L’obiettivo principale della metodologia proposta è la definizione di una
procedura di misura che non si limiti a
identificare i possibili punti di vulnerabilità del sistema, ma permetta di
valutare, per una specifica implementazione VoIP:
• punti di forza: caratteristiche di
sicurezza, integrate o esterne all’infrastruttura, che consentono di proteggere il sistema giorno per giorno dai
potenziali attacchi che subisce;
• punti di debolezza: falle nell’infrastruttura VoIP che rappresentano
potenziali punti ove gli attacchi possono fare breccia nel sistema.
La metodologia deve inoltre rappresentare per il responsabile del sistema
uno strumento per pianificare le modifiche necessarie alla piattaforma di
rete, nell’ottica di un incremento del
livello di sicurezza.
Le metriche considerate mirano a valutare le prestazioni e la qualità del
sistema sia da un punto di vista ogget-
• attacchi che mirano a danneggiare
l’integrità del servizio VoIP;
• Spam over IP Telephony (SPIT);
• eavesdropping, che è l’ascolto non
autorizzato delle chiamate da parte
di terzi;
• frodi tariffarie.
Tra le cinque categorie, gli attacchi
che minano la disponibilità del sistema sono senza dubbio quelli che hanno l’impatto maggiore sulla qualità
percepita dagli utenti, indisponibilità
del servizio, downtime del sistema,
perdita di produttività e costi legati a
manutenzione non programmata.
Un problema di sicurezza in un’infrastruttura VoIP potrebbe portare a una
grave failure di sicurezza per la rete
PSTN interconnessa, benché quest’ultima
sia di solito ritenuta un dominio sicuro e
affidabile. A causa di punti deboli come
questo, propri della tecnologia VoIP, i
responsabili tecnici degli operatori della
rete, che hanno il compito di gestione e (1)
sorveglianza dell’intera infrastruttura, (2) Università di Napoli “Federico II”
hanno un atteggiamento particolarmente (3) ATS Assistance
cauto quando si tratta di connettere una (4) Free-lance
Università “Parthenope” – Napoli
sottorete VoIP privata all’infrastruttura di
rete. Nella grande maggioranza dei [email protected]
T_M
N.
1/12 ƒ 23
▲
GLI
ALTRI TEMI
tivo (Quality of Service, QoS), sia da un
punto di vista soggettivo (Quality of
Experience, QoE). Per la QoS valutiamo parametri quali jitter, ritardo e percentuale di pacchetti persi (PLR), mentre
per la qualità percepita dall’utente effettuiamo valutazioni automatiche di
MOS (Mean Opinion Score) mediante
il software Empirix Hammer Call Analyzer, in accordo alla raccomandazione
ITU P-800 “Methods for subjective
determination of transmission quality”,
Test bed sperimentale
La metodologia deve essere progettata
in modo che il carico rappresentato
dalle attività di monitoraggio e misura
non vada a detrimento della QoS/QoE
del sistema in real-time. A tale scopo è
stata realizzata una piattaforma reale
con tutti i principali componenti di un
core network IP WAN, unitamente a
una implementazione reale VoIP che
include SIP Proxy, SIP UAs, Firewalls,
Core ed Edge Routers, telefoni IP, IPPBX. Modificando i parametri di sicurezza del sistema è possibile verificare
al contempo la resistenza della piattaforma agli attacchi e l’influenza del
sistema di misura sulle prestazioni del
sistema VoIP.
In Fig. 1 è riportato uno schema del
test bed di misura che rappresenta un
sistema integrato rete/VoIP. L’idea è di
riprodurre, su scala ridotta, lato utente, la gran parte delle attività ed eventi che un utente VoIP può sperimentare
durante il ciclo di vita del servizio multimediale che egli ottiene dall’operatore (QoE) e, lato rete, i principali problemi che gli operatori di gestione e
ingegneria devono affrontare (QoS).
A tale scopo, è stata progettata una
rete costituita da due rami, connessi tra
di loro da una WAN simulata e controllabile, In questo modo, è possibile
Figura 1 – Test bed di misura
misurare, al variare delle condizioni
della WAN (es.: i,e, valori di jitter, ritardo di trasmissione, percentuale di pacchetti persi), i diversi parametri a livello
applicazione VoIP, quando le condizioni della connessione variano nel tempo.
ALCUNI RISULTATI
La procedura operativa è stata progettata in modo da permettere la costruzione di una tabella che riporti i risultati dei test in termini di QoE e QoS, per
l’insieme di differenti condizioni operative WAN/LAN simulate col test bed
mostrato in figura. Il diagramma di flusso della procedura, riportato in Fig. 2,
consiste nei seguenti passi:
a) selezione dei parametri per le condizioni operative (“ambientali”): vengono qui fissati i valori dei parametri
relativi alle condizioni operative della
rete WAN, che saranno usati nelle
fasi successive di emulazione;
b) tuning dei parametri di sicurezza
dei dispositivi di rete relativi a una
delle tre condizioni: Maximum Security – Medium Security – Low Security;
c) esecuzione di un numero statisticamente significativo di chiamate per un
dato set di parametri ambientali e di
sicurezza, e misurazioni ripetute dei
parametric MOS/R-Factor all’altro
estremo della rete;
d) verifica del completamento dei test
per tutte e tre le condizioni di sicurezza:
[se NO, torna a (b), altrimenti vai a (e)];
e) verifica del completamento dei test
per tutte le condizioni operative della
rete WAN: [se NO, torna a (a), altrimenti vai a (f)];
f) Fine della sessione.
I test sono stati condotti su traffico
cifrato con un tunnel IP-SEC e su traffico non cifrato. In Tab. 1 sono riportati i casi di test più rilevanti, riferibili a
situazioni operative realistiche (JB è la
durata del buffer di jitter).
I casi di test dal #01 al #09 consentono di analizzare l’impatto del jitter e
del delay sulla qualità, in assenza di
perdita di pacchetti (PLR=0). Si prendano, ad esempio, i casi #01 e #02,
Mettendo a zero il delay sulla rete
WAN è possibile ottenere un limite
ideale per il Packet Loss Ratio (PLR) su
Figura 2 – Diagramma di flusso
della procedura operativa
una rete IP che supporti servizi VoIP:
se il valore di PLR supera il 2%, come
nei casi #10 e #11, è probabile che
la QoE percepita dall’utente risulti
non soddisfacente. Infatti, nonostante
il delay sia stato reso nullo e il jitter
sia assente, la QoE va in questo caso
al di sotto del limite accettabile per
una chiamata telefonica (MOS = 3,43,6). Da ciò è possibile concludere
che un carrier IP deve garantire un
PLR inferiore al 2% per poter supportare servizi VoIP di qualità accettabile.
Si considerino ora i casi di test #03,
#04, #05 e #06, nei quali sono state
emulate situazioni di vita reale di una
generica rete IP. I valori misurati per i
parametri di QoS sono coerenti con l’esperienza di chi opera su reti siffatte. Se
ci si concentra sui valori di jitter, è possibile notare come un moderato incremento di quest’ultimo determini un decremento significativo della QoE, che
corrisponde a una qualità inaccettabile
in presenza di un jitter buffer di durata
pari a 20 ms, o appena accettabile se il
buffer ha durata pari a 60 ms.
N. 01ƒ
;2012
Il test #07, in particolare, mostra come
si ottenga un Round-Trip-Time (RTT) pari
a 148 ms e un jitter pari a 7,78 ms (vale a dire circa il 5% del RTT). Eppure,
scegliendo opportunamente il jitter buffer, è possibile ottenere un ottimo punteggio MOS pari a 4,1.
Il test case #08 evidenzia una situazione differente, Si ottiene un RTT pari
a 86 ms, ma un jitter molto elevato,
pari a 12,41 ms, e ciò determina un
degrado inaccettabile della qualità
percepita.
Il test case #09 rappresenta una situazione duale: basso jitter associato a
un delay elevato (RTT = 404 ms). Per
tale ragione, la QoE percepita è scarsa, nonostante un jitter molto contenuto (pari a circa l’1% del RTT).
Si analizzino ora casi più realistici,
con PLR diverso da zero. Si prenda,
ad esempio, il test case #12, che dà i
seguenti risultati: jitter = 5,14 ms,
RTT = 202 ms, che significa un jitter
pari al 2,5% del RTT. In tale condizione, è lecito attendersi, in linea con le
analisi precedenti, un buon punteggio
MOS, rappresentativo di una buona
QoE. Al contrario, ciò non accade; il
valore di PLR, che supera l’1%, determina infatti una degradazione delle
prestazioni del sistema.
Analoga situazione si verifica nel
test case #13: jitter = 9,73 ms,
RTT = 255 ms, PLR = 0,47%. Il jitter è
pari al 3,8% del RTT, che è un valore
relativamente buono, eppure, per
effetto di un PLR non trascurabile, il
valore di MOS rientra nei limiti di
accettabilità solo per un jitter buffer di
durata pari a 100 ms.
L’OBIETTIVO: LINEE GUIDA
PER LA PROGETTAZIONE
DI APPLICAZIONI VOIP
I primi test di cui si è dato conto nella
sezione precedente sono finalizzati
all’analisi del comportamento del sistema al variare dei parametri di rete
che dipendono, a loro volta, sia dalle
condizioni operative della rete sia da
possibili attacchi tesi a degradarne le
prestazioni.
Il test bed riportato in Fig. 1 rappresenta l’ultima evoluzione del sistema di
Tabella 1 – Risultati di misura di QoS/QoE
misura realizzato, Esso consente di effettuare esperimenti anche al variare dei
parametri relativi alle possibili policy di
sicurezza (es. firewall SIP) implementate
dal sistema sotto esame, emulando così
gli effetti di possibili attacchi, al variare
delle contromisure rese disponibili dal
sistema. Inoltre si sta cercando di analizzare il problema sicurezza fino a livello applicativo, tramite l’adozione di SIP
Security Controller. Su questo si sta concentrando al momento l’attività congiunta tra l’Unità GMEE di Napoli e l’ATS
Assistance. L’obiettivo è trovare un tradeoff ottimale tra le esigenze di sicurezza
e quelle di QoE/QoS, che inevitabilmente risentono di sovrastrutture di qualsivoglia natura (hardware, software, di
processing, ecc.) introdotte per migliorare la sicurezza. Esse tipicamente comportano un deterioramento di QoS, in
termini d’incremento di jitter e/o delay
e/o PLR, e un conseguente peggioramento della QoE percepita. Lo scopo
finale è pervenire all’individuazione di
un insieme di “linee guida”, basate sui
risultati di un’ampia casistica di test, che
rappresentino un buon punto di partenza nella progettazione di nuove applicazioni VoIP.
RIFERIMENTI BIBLIOGRAFICI
[1] P. Thermos, A. Takanen, “Securing
VoIP Networks: Threats, Vulnerabilities, and Countermeasures” Addison
Wesley, 2007.
[2] S. McGann, D.C. Sicker, “An Analysis of Security Threats and Tools in SIPBased VoIP Systems”, Proc. of the
Second VoIP Security Workshop, Washington DC, USA, 1-2 June 2005.
[3] Telecommunication Standardization Sector of ITU, “ITU-T Recommen-
dation P,800 Methods for subjective
determination of transmission quality”, August 1996.
[4] Empirix Hammer Calls Analyzer
www,empirix,com/solutions/
products-ser vices/hammercall-analyzer,aspx [online].
[5] H. Abdelnur, R. State, I. Chrisment, C. Popi, “Assessing the security of VoIP Services” 10th IFIP/IEEE
International Symposium on Integrated Network Management, pp. 373382, 21 -25 Maggio 2007.
[6] D.R. Kuhn, T.J. Walsh, S. Fries,
“Security considerations for voice
over IP Systems” Recommendations of
the National Institute of Standards
and Technology (NIST), Special Publication 800-58, 2004.
[7] C.K. Hung, M. Vargas Martin, “Security Issues in VOIP Applications” Electrical and Computer Engineering, 2006,
CCECE ‘06, Canadian Conference, pp.
2361-2364, May 2006.
[8] S. Cardeal, F. Neves, S. Soares, F.
Tavares, P. Assuncao, “ArQoS®: System to monitor QoS/QoE in VoIP”,
IEEE International Conference on
Computer as a Tool (EUROCON)
2011, 27-29 April 2011.
[9] D. Butcher, Li Xiangyang, Jinhua
Guo, “Security Challenge and Defense
in VoIP Infrastructures”, IEEE Transactions on Systems, Man, and Cybernetics, Part C: Applications and Reviews,
vol. 37, n. 6, pp. 1152-1162, November 2007.
[10] A.D. Keromytis, “Voice-over-IP
Security: Research and Practice”, IEEE
Security & Privacy, vol. 8, n. 2, pp.
76-78, March-April 2010.
[11] D. Sisalem, J. Kuthan, S. Ehlert,
“Denial of service attacks targeting a
SIP VoIP infrastructure: attack scenarios and prevention mechanisms”,
T_M ƒ 25
N. 01ƒ
; 2012
▲
GLI
ALTRI TEMI
Mauro Di Lelio è MaRosario Schiano Lo
IEEE Network, vol. 20, n. 5, pp. 26naging Director nella BuMoriello è ricercatore
31, Sept-Oct 2006.
universitario di Misure
siness Unit Telco in ATS.
[12] D. Bao, L. De Vito, L. Tomaciello,
Elettriche ed Elettroniche
Da anni si occupa di pro“A method for classifying VoIP system
presso la Facoltà di Ingegettazioni VoIP con magimpairments” Proc. of XV IMEKO TC4
gneria dell’Università di
giore attenzione alla riInt. Symp. on “Novelties in Electrical
Napoli Federico II. Si occerca e sviluppo di piatMeasurements and Instrumentation”,
cupa
principalmente
di misure per la
taforme
nell’ambito
della
sicurezza.
Iasi – Romania, 19-21 Sept 2007,
sicurezza
e
per
la
caratterizzazione
di
Attualmente
conduce
uno
studio
sul
rapvol. 2, pp. 537-542.
porto tra sicurezza e Quality of Servi- componenti.
ce/Quality of Experience (QoS/QoE) in
applicazioni Real Time.
Leopoldo Angrisani è
professore Ordinario di
Misure Elettriche ed EletMichele Vadursi è ritroniche presso la Facoltà
Pasquale Morabito è
cercatore universitario
di Ingegneria dell’Univerconsulente free lance nel
di Misure Elettriche ed
sità di Napoli. Si occupa
campo delle TelecomuniElettroniche presso la
di misure su sistemi e reti
cazioni, Si occupa di miFacoltà di Ingegneria
di comunicazione, misure su sistemi wisure nel predetto campo,
dell’Università di Napoli
reless in presenza d’interferenza, misucon particolare focalizza“Parthenope”. Si occupa
re per la sicurezza. È General Chairzione sulle applicazioni principalmente di misure su sistemi e
man del IEEE International Workshop on multimediali realizzate in ambito TDM e reti di comunicazione e misure per la
Measurements & Networking.
IP.
dependability.
T_M ƒ 26
GLI
ALTRI TEMI
▲
IL MEGLIO DI METROLOGIA E QUALITÀ 2011
G. Sciocchetti 1, A. Sciocchetti 1, P. Giovannoli 1, P. De Felice 2,
G. Cotellessa 2, F. Cardellini 2, M. Pagliari 2
La misura della concentrazione
del radon e del toron
con il nuovo rivelatore passivo a tracce sviluppato dall’ENEA
ABSTRACT
The experimental device is based on Alpha-PREM, a new concept of integrating passive track detector developed at the INMRI-ENEA laboratory.
The unique features of this instrument allow controlling detector exposure
with a patented sampling technique. A novel prototype based on the project of Technoradon company is described. Applications in the field of area
and personal monitoring at workplaces are envisaged. A passive radonthoron discriminative measurement system based on Alpha-PREM application has been developed.
RIASSUNTO
L’INMRI-ENEA ha sviluppato e brevettato un dosimetro radon, basato su un
nuovo concetto di strumento integratore passivo a tracce, con caratteristiche
uniche per il monitoraggio sia ambientale sia personale nei luoghi di lavoro. Viene descritto un nuovo prototipo progettato dalla Technoradon srl,
riportando i primi risultati delle prove di qualificazione nella camera radon
a microclima controllato in funzione nel CR Casaccia. Viene inoltre presentato un sistema di misura della concentrazione media del toron basato sulla
tecnica della doppia cella a diffusione a permeabilità differenziata.
UN DISPOSITIVO INNOVATIVO:
IL DOSIMETRO RADON
INTEGRATORE PASSIVO A
PISTONE SVILUPPATO DALL’ENEA
L’Istituto Nazionale di Metrologia
delle Radiazioni Ionizzanti (INMRI)
dell’ENEA effettua ricerche, fra l’altro, sui metodi di misurazione del radon e sugli standard per la taratura
della strumentazione. Il dosimetro
radon Alpha-PREM (Piston Radon
Exposure Meter), di seguito indicato
A-PREM, è stato sviluppato e brevettato dall’ENEA. In questo lavoro viene presentato il prototipo progettato
e realizzato dalla Technoradon srl,
una società che provvede all’ingegnerizzazione del brevetto per il
quale sono state ottenute l’UE Patent
(convalidata in vari paesi europei)
e, di recente, l’US Patent (negli
USA).
Questi strumenti sono costituiti da
piccole celle con diverse geometrie
e volumi, che racchiudono lastrine di
materiale plastico (LR-115, policar-
ne ambientale del radon.
Questi dosimetri, per evitare l’esposizione delle lastrine sia durante lo
stoccaggio sia durante la movimentazione, devono essere protetti con
appropriati involucri protettivi antiradon. Nel nuovo dosimetro ENEA
l’inconveniente è stato eliminato da
uno speciale dispositivo che consente di controllare la durata del monitoraggio. Il dosimetro, grazie alla
sua speciale struttura meccanica, è
un vero strumento professionale,
riusabile senza limiti, a differenza di
quelli “usa e getta” basati sul dispositivo di filtrazione “air gap” [1] [2].
Esso consiste di cella cilindrica,
pistone e base intercambiabile realizzata con materiali trasparenti,
nella quale sono ricavate le sedi
delle lastrine. Le celle dei prototipi
sono state realizzate con materiale
conduttivo e non conduttivo per la
sperimentazione dell’effetto delle
cariche elettrostatiche, con un volume interno di circa 40 cm3 e l’impiego di una lastrina di Cr-39 del
tipo 25x2 mm 2 posizionata sulla
base.
Il pistone scorrevole all’interno della
cella cilindrica realizza una parete
mobile che consente di variare il
volume utile compreso tra la testa e
la base. Questo dispositivo ha due
funzioni: la funzione “statica” start/
stop che consente, nella posizione
di contatto della testa del pistone
con la superficie della lastrina, di ridurre a zero il volume della cella eli-
bonato, CR-39), sensibili alle particelle alfa emesse, all’interno della
cella, dal radon e dai suoi prodotti
di decadimento. Le alfa che incidono sulla superficie delle lastrine producono microscopiche tracce latenti
che, dopo uno sviluppo chimico con
soluzioni alcaline, possono essere
contate con appropriate tecniche di
analisi. L’aria penetra nella cella per
campionamento diffusivo attraverso
un filtro (oppure un dispositivo del
tipo “air gap”) che impedisce l’ingresso dei particolati, vettori dei
prodotti di decadimento del radon
presenti nell’aria. Il fattore di taratura, per questa tipologia di strumenti,
è dato dal rapporto tra il “segnale”
dello strumento (densità delle tracce
registrate al netto del fondo) e l’esposizione al radon, definita come
prodotto della concentrazione media per il tempo. Pertanto, cono- (1) Technoradon srl, Roma
scendo l’intervallo dell’esposizione (2) ENEA INMRI, Istituto Nazionale
con un appropriato fattore di taratu- di Metrologia delle Radiazioni Ionizzanti,
ra con il conteggio della densità di Centro Ricerche Casaccia, Roma
tracce si determina la concentrazio- [email protected]
T_M
N.
1/12 ƒ 27
Figura 1 – Dosimetro con corpo trasparente
(immagine virtuale)
minando l’esposizione dei rivelatori,
e la funzione “dinamica” che, mediante l’estrazione del pistone, consente, con l’effetto siringa, il prelievo istantaneo di campioni di radon
dall’aria circostante.
Figura 2 – Il prototipo reale nelle condizioni
start e stop (dosimetro aperto e chiuso)
Il pistone del nuovo prototipo è un dispositivo per il campionamento dell’aria, basato su una struttura a stelo
cavo e una testa con la sede di un filtro intercambiabile. L’ingresso dell’aria avviene attraverso un piccolo foro
sullo stelo che, opportunamente ottimizzato, può fungere anche come dispositivo selettivo dell’ingresso degli
isotopi del radon presenti nell’aria
(“pinhole effect”). A causa del ritardo
della diffusione gassosa, solo il radon
(222Rn), con emivita di 3,82 giorni,
attraversa il foro, mentre una larga
percentuale del toron (220Rn), con
breve emivita di 55,60 secondi, sarà
T_M ƒ 28
N. 01ƒ
; 2012
▲
GLI
ALTRI TEMI
eliminata. Così si evita l’interferenza
del 220Rn che potrebbe causare una
sovrastima nella misurazione del
radon. Il toron è presente in modo
significativo in alcune aree del nostro
paese e viene emesso da alcuni materiali da costruzione, ad esempio il tufo
largamente usato in passato [3] [4].
La base trasparente del dosimetro è
una “finestra” per la lettura dei codici
delle lastrine i quali possono essere
usati come codici d’identificazione
del dosimetro. Nella Fig. 3 sono riportate sedi di lastrine di largo impiego:
10x10 mm2, 25x25 mm2 e
37x13 mm2. La possibilità d’impiego
di diverse tipologie di lastrine consente ai laboratori di ricerca e di servizio
d’inserire A-PREM nella filiera operativa senza modificare le tecniche di sviluppo e di lettura, standardizzate in
base alla tipologia della lastrina.
secondo un segnale senza il contributo del toron che consente di determinare la concentrazione del radon.
Dopo avere determinato la concentrazione del 222Rn CRn con A-PREM/Rn,
applicando la relazione (1) è possibile valutare il segnale 222Rn di APREM/Tn.
DRn = kRn · CRn (1)
DRn – segnale 222Rn; kRn – fattore di
taratura 222Rn di A-PREM/Tn;
CRn – concentrazione del 222Rn.
Il segnale 220Rn si calcola con la sottrazione del segnale 222Rn dalla densità totale delle tracce della lastrina di
A-PREM/Tn.
DTn = kTn · CTn (2)
DTn – segnale 222Rn; kTn fattore di taratura 220Rn di A-PREM/Tn; CTn – concentrazione del 220Rn.
Con la formula (2) e il fattore di taratura kTn si può determinare la concentrazione
del
toron.
Nella Fig. 4 è
presentato un kit
sperimentale a
doppia cella basato su due dosimetri A-PREM [5].
L’unica differenza
Figura 3 – Basi con sedi di lastrine di geometrie
di largo impiego: 10x10 m2, 25x25 m2 e 37x13 m2
consiste nelle dimensioni dei fori
di campionamento sullo stelo cavo:
APPLICAZIONI DEL DOSIMETRO
uno è stato maggiorato per facilitare il
A-PREM NEL METODO
campionamento del 220Rn, mentre l’alDISCRIMINATIVO RN/TN
tro mantiene le dimensioni standard
A DOPPIA CELLA A DIFFUSIONE
PER IL MONITORAGGIO DEL TORON per eliminare il contributo del 220Rn.
Le concentrazioni indoor del radon
Il metodo discriminativo 222Rn/220Rn
a doppia cella consente la determinazione simultanea della concentrazione media del radon e del toron.
Esso si basa su una coppia di dosimetri con filtri a diversa efficienza di
filtrazione. Ad esempio il dosimetro
con filtro di carta ad alta permeabilità, denominato A-PREM/Tn, permette il campionamento del 222Rn e
del 220Rn, mentre quello a membrana con bassa permeabilità, denominato A-PREM/Rn, lascia passare il
222
Rn ma eliminerà una larga percentuale del toron, a causa del ritarFigura 4 – Coppia di dosimetri A-PREM
do della diffusione gassosa. Nel per la misura della concentrazione del toron.
primo caso si avrà sulla lastrina un A sinistra la cella A-PREM/Tn con foro magsegnale dovuto ai due isotopi, nel giorato, a destra la cella A-PREM/Rn standard
N. 01ƒ
;2012
conduttiva con foro d’ingresso dell’aria maggiorato non indica differenze
significative rispetto alla cella della
versione standard, se non per il valore dell’incertezza. Per la versione
standard A-PREM /Rn con cella acetalica conduttiva è stato determinato
un valore del fattore di taratura, pari
a 2,96 cm-2/kBqhm-3 ± 13% (incertezza percentuale).
APPLICAZIONE DEI DOSIMETRI
INTEGRATORI PASSIVI
NEI PROTOCOLLI
DI MONITORAGGIO DEL RADON
NEI LUOGHI DI LAVORO
PER GLI ADEMPIMENTI
DEL D.LGS. 230/1995 S.M.I.
I livelli di radon negli ambienti confinati sono variabili perché influenzati da fattori meteorologici, dalla
RISULTATI DELLE PROVE
tipologia edilizia, dai sistemi di ricambio dell’aria e dalle stesse attiviDI QUALIFICAZIONE
tà lavorative. La misurazione della
DEL DOSIMETRO A-PREM
concentrazione del radon può esseNELLA CAMERA RADON
re effettuata con metodi di tipo istanINMRI – ENEA
taneo oppure continuo, con l’impieLe prove sono state effettuate presso go di strumentazione attiva elettronila Camera Radon INMRI – ENEA su ca. La misura del valore medio della
prototipi realizzati, su progetto della concentrazione del radon con i dosiTechnoradon srl, dalla 4T-PLAST di metri integratori passivi a tracce
Roma con la tecnologia dello stam- trova un largo impiego per gli adempo a iniezione. Nella Tab. 1 sono pimenti di legge negli ambienti di
riportate le risposte di dosimetri con lavoro. La normativa si basa sul mocelle conduttive e non conduttive a nitoraggio delle concentrazioni di
un’atmosfera di riferimento di attività di radon medie annuali con
20.600 ±388 Bq/m3 di concentra- un livello di azione pari a
zione di radon costante. I vetrini 500 Bq/m 3. Sono previste misurasono stati analizzati con il supporto zioni in tutti i luoghi di lavoro sotterdel Laboratorio Radon U-Series srl di ranei e all’interno di locali situati in
Bologna.
zone in cui è alta la probabilità di
I dati non evidenziano sostanziali
riscontrare elevate concentrazioni.
differenze tra le prestazioni della L’applicazione dei dosimetri passivi è
cella a diffusione conduttiva e della prevista in modo esplicito nei protocolli
cella a diffusione non conduttiva. La di monitoraggio delle “Linee guida per
risposta al radon dei rivelatori a trac- le misure di concentrazione di radon in
ce della versione A-PREM/Tn a cella aria nei luoghi di lavoro sotterranei”
predisposte
dalla
Conferenza dei PreTabella 1 – Riepilogo delle prove di qualificazione
sidenti delle Regioni
di diversi tipi di dosimetri A-PREM (densità di tracce in cm-2 )
e delle Province
autonome. Il valore
medio annuale della concentrazione
di radon è un para-
▲
possono cambiare a causa di molti
parametri, tra cui la ventilazione. La
risposta dei dosimetri passivi chiusi dipende dal tempo di permeazione il
quale influenza l’equilibrio dinamico
tra le concentrazioni esterne e interne
del radon e, quindi, il valore del loro
rapporto: un valore troppo elevato
potrebbe sottostimare la concentrazione media. A-PREM è vantaggioso perché, senza la membrana, si basa su
una coppia di dosimetri che può funzionare con tempi di permeazione
brevi. La tecnologia A-PREM non
richiede, inoltre, dispositivi di filtrazione ausiliari come nel caso degli
“air gap”[6], [7]. Sono in corso verifiche sperimentali per ottimizzare le
applicazioni di coppie di dosimetri
con uguali filtri a elevata efficienza e
uguale fattore di taratura per il radon.
GLI
ALTRI TEMI
metro che caratterizza il locale nel
quale sono presenti postazioni di lavoro; tuttavia il monitoraggio ininterrotto
notte-giorno, anche in assenza di attività lavorative, previsto nelle Linee guida,
potrebbe sovrastimarne i valori [8] e
[9]. A differenza dei dosimetri convenzionali, A-PREM con la funzione
start/stop consente di determinare campioni rappresentativi. Queste prestazioni lo rendono idoneo per il monitoraggio dell’esposizione individuale perché
il dosimetro consente l’addizione di
esposizioni sequenziali basate su monitoraggi differenziati in diversi intervalli
e aree operative.
BIBLIOGRAFIA
1. Sciocchetti G., Cotellessa G., Soldano, E., Pagliari, M., “A new technique
for measuring radon exposure at working places”, Rad. Measurements, 36,
Issues 1.6, June 2003, 199-203.
2. Sciocchetti G., Cotellessa G, Soldano E., Pagliari M. and A. Ceccatelli,
“A new passive integrating detector for
measurement of individual radon exposure at working places”, IRPA 11 May
23-28, 2004.
3. Sciocchetti G., Bovi, M., Cotellessa,
G., Baldassini, P.G., Battella, C.,
Porcu, I., Indoor Radon and Thoron Surveys in High Radioactivity Areas of
Italy, Radiat. Prot. Dosim., 45, 509514 (1992).
4. Bochicchio F., Campos Venuti G.,
Nuccetelli C., Risica S. and Tancredi F,
Indoor measurements of 220Rn and
222Rn and their decay products in a
Mediterranean climate area, Environment International, Volume 22, Supplement 1, Pages 633-639 (1996).
5. Sciocchetti G., Sciocchetti A., Giovannoli P., De Felice P., Cardellini F.,
Cotellessa G., Pagliari M., “A new passive radon-thoron discriminative measurement system”, Thoron 2010, Workshop & intercomparison 12-22 May,
2010, NIRS, Chiba, Japan AIRM-AIRP.
6. Tokonami S., Takahashi H., Kobayashi Y., and Zhuo W., Up-to-date
radon-thoron discriminative detector for
a large scale survey, Review of Scient.
Instr. 76, 113505 (2005).
7. Calamosca M. e S., Penzo S., A
new CR-39 nuclear track passive thoron measuring device, Radiation Measurements 44 (2009) 1013-1018.
T_M ƒ 29
N. 01ƒ
; 2012
▲
8. Sciocchetti G., Sciocchetti A., Giovannoli P., Cotellessa G., Pagliari M.
“Monitoraggio dell’esposizione al
radon negli ambienti di lavoro”, Giornate di studio “Il rischio da contaminazione radioattiva: i casi radon e uranio
impoverito”. Paestum 29-30 aprile
2008.
9. Sciocchetti G., “Radioprotezione
radon negli ambienti di lavoro e garanzia di qualità”, XXXIV Convegno
Nazionale dell’AIRP, “Sicurezza e
Qualità in Radioprotezione”, Vasto
Marina (Chieti), 1-3 ottobre 2007.
Series srl di Bologna per l’analisi dei
Si ringraziano l’Ing. Massimo Esposito rivelatori a tracce delle prove di qualifie la Dott.ssa Marta Rossetti della U- cazione.
RINGRAZIAMENTI
Giuliano Sciocchetti ha svolto una lunga attività di ricerca al C.R. Casaccia dell’ENEA dove, fra l’altro, è stato Responsabile del Laboratorio
Misure Ambientali, curando la realizzazione di apparati di monitoraggio
e di taratura tra cui la Camera Radon Climatizzata. Responsabile scientifico e coordinatore delle campagne sul radon in ambienti di lavoro e
nelle abitazioni su scala nazionale. Ha fondato ed è titolare della società Technoradon srl specializzata nel settore del radon. Coordinatore del
Gruppo di Lavoro internazionale WG B10 “Radon and Radon Daughter Measuring
Instruments” dell’IEC. Per quest’attività nel 2005 gli è stato conferito il 1906 AWARD IEC.
NEWS
WIKA ACQUISISCE
SCANDURA
▼
GLI
ALTRI TEMI
Con la recente acquisizione della
SCANDURA,
WIKA ha compiuto un ulteriore
passo verso il rafforzamento della
propria posizione di leadership nel mercato delle apparecchiature e dei servizi di
taratura.
Fondata negli anni Cinquanta come fornitore di laboratori completi per la taratura
della strumentazione di processo, Scandura
è presto divenuta una delle aziende di riferimento e un marchio riconosciuto a livello
internazionale nel settore della taratura.
Il portafoglio prodotti include calibratori
portatili, bilance a pesi e strumenti campione per applicazioni metrologiche e industriali, integrati da pacchetti software,
accessori e una vasta gamma di servizi
complementari. Soprattutto i calibratori portatili soddisfano i massimi requisiti in termini di prestazioni e di standard di sicurezza
e offrono uno strumento di misura affidabile, ad esempio con certificazione ATEX,
anche per applicazioni critiche nell’industria di processo.
I sistemi completi di taratura per laboratori
e officine elettrostrumentali hanno una reputazione consolidata. Progettati e realizzati
secondo le specifiche esigenze dei singoli
clienti, essi consentono il raggiungimento
delle migliori accuratezze disponibili sul
mercato.
Scandura verrà integrata nel gruppo WIKA
ed è disponibile per tutti i clienti del mondo
attraverso la sua consolidata rete di vendita e il qualificato personale di supporto.
Per ulteriori informazioni:
[email protected]
T_M ƒ 30
GLI
ALTRI TEMI
▲
IL MEGLIO DI METROLOGIA E QUALITÀ 2011
R. Gatti 1, P. Sangiorgio 2, G. Zappa 1, C. Zoani 1
Materiali di Riferimento (RM)
per le analisi degli alimenti
RM per la valutazione delle caratteristiche organolettiche
REFERENCE MATERIALS FOR THE EVALUATION
OF THE ORGANOLEPTIC PROPERTIES OF FOODSTUFFS
To make the quality of food products objective and comparable, it is necessary
to use measurable parameters able to take into account all the characteristics
of a product. In particular, the organoleptic properties of a food product are
ultimately what determines whether or not a consumer will continue to use it. In
this work we examine the current production of RMs for the evaluation of the
organoleptic properties of foodstuffs and we discuss main issues linked to the
development of new RMs for this field.
RIASSUNTO
Per rendere oggettiva e comparabile la qualità delle produzioni alimentari è
necessario utilizzare parametri misurabili che coprano tutti gli aspetti qualitativi di un prodotto; tra questi, le proprietà organolettiche sono spesso il più determinante nel giudizio soggettivo e nelle scelte di consumo. Nel presente lavoro
si analizza la produzione di RM da impiegare per la valutazione delle caratteristiche organolettiche e vengono discusse le principali problematiche legate
alla realizzazione di nuovi RM per questo settore.
INTRODUZIONE
Per rendere oggettiva e comparabile la
qualità delle produzioni alimentari è necessario utilizzare parametri misurabili in
grado di coprire tutti gli aspetti qualitativi di un prodotto: dimensioni, aspetto,
proprietà fisiche e microbiologiche, assenza di pericoli e minor contenuto di sostanze nocive o indesiderate, composizione e presenza di nutrienti e sostanze
nutriceutiche, proprietà organolettiche,
origine delle materie prime, aspetti relativi al confezionamento, conservabilità e
facilità d’uso, aspetti legati alla sostenibilità ambientale e all’etica delle produzioni. Le proprietà organolettiche sono
spesso l’elemento che più condiziona il
giudizio soggettivo di qualità e le scelte
di consumo e tra queste il flavour è senz’altro il parametro più determinante.
Il flavour di un alimento è costituito dall’insieme di composti volatili e non volatili, che vengono percepiti attraverso i
recettori olfattivi (aroma) e gustativi
(taste). La definizione del profilo aromatico di un alimento è importante per:
valutarne o dimostrarne la qualità e l’origine; caratterizzare e selezionare spe-
cie o cultivar; valutare la genuinità e la
freschezza dei prodotti; avere informazioni sull’insorgenza di fisiopatie o sulla
maturazione dei prodotti; ottimizzare le
produzioni e migliorare il gradimento
dei prodotti. Per misurare le caratteristiche organolettiche di un alimento possono essere utilizzati, accanto all’analisi
chimica strumentale, i sistemi olfattivi e
gustativi artificiali (naso e lingua elettronici) e l’Analisi Sensoriale (AS), impiegata per evocare, misurare, analizzare
e interpretare le sensazioni che possono
essere percepite dai sensi della vista,
olfatto, gusto, tatto e udito. Ad esempio
nel comparto produttivo olio la normativa europea [1] prevede che la classificazione commerciale del prodotto in 8
categorie venga effettuata non solo in
base al valore dell’acidità libera, ma
anche in base alla valutazione oggettiva del gusto eseguita con un Panel Test.
La necessità di RM per le misure in questo settore è quanto mai pressante e diversificata. Infatti solo disponendo di adeguati RM è possibile stabilire valide correlazioni tra composizione chimica e flavour di un alimento, tarare i sistemi artificiali e gli stessi Giudici di AS (Panelisti).
DETERMINAZIONE
DEL FLAVOUR DEGLI ALIMENTI
Nella percezione del flavour degli alimenti l’olfatto riveste un ruolo spesso
essenziale: i recettori olfattivi sono circa
20 milioni, contro i circa 1.000 recettori
gustativi, e consentono il riconoscimento
di circa 10.000 odori differenti; l’apparato olfattivo è estremamente sensibile ed
è in grado di rilevare anche tracce di
molecole volatili (10 molecole/ml di
aria). Per stabilire l’aroma di un alimento
è necessario definire il suo “profilo aromatico”, ossia individuare e quantificare
decine (anche centinaia) di composti
volatili appartenenti a diverse classi chimiche (esteri, aldeidi, ammine, lattoni,
alcoli, terpeni, chetoni, idrocarburi,
acidi), presenti negli alimenti a basse
concentrazioni [2]. I composti volatili contribuiscono all’aroma solo se sono olfattivamente attivi e in relazione non solo alla
loro concentrazione nell’alimento, ma
anche all’impatto olfattivo (valore soglia,
intensità della risposta, saturazione), che
può essere influenzato da numerose variabili (fisiologiche, genetiche, patologiche, culturali) e dalla concomitante presenza di altri composti volatili.
La prima difficoltà nell’eseguire la determinazione dei composti volatili deriva
dalle modalità di estrazione dall’alimento, che deve avvenire con metodi “blan-
(1) ENEA - Agenzia Nazionale per le
nuove tecnologie, l’energia
e lo sviluppo economico sostenibile;
Unità Tecnica Sviluppo e Innovazione
del sistema Agroindustriale (UTAGRI) C.R. Casaccia, Roma
(2) ENEA - Unità Tecnica Tecnologie
di Trisaia - Laboratorio Biotecnologie
(UTTRI-BIOTEC)
C.R. Trisaia; Rotondella (MT)
[email protected]
T_M
N.
1/12 ƒ 31
di” per evitare modifiche dell’aroma in
seguito a reazioni enzimatiche (es.:
idrolisi di esteri, scissione ossidativa di
acidi grassi insaturi, idrogenazione di
aldeidi) e non enzimatiche (es.: idrolisi
di glicosidi, formazione di lattoni da
idrossiacidi, ciclizzazione di polioli).
Per eseguire l’estrazione completa dei
componenti volatili da una matrice alimentare, i metodi tradizionali sono stati
superati dalle tecniche di spazio di testa
statiche, dinamiche o di tipo SPME
(Solid Phase Micro-Extraction) [3]. Il riconoscimento qualitativo dei composti e la
loro quantificazione avviene per gascromatografia (GC); quali rivelatori vengono impiegati sia i sistemi a ionizzazione
di fiamma (FID) che rivelatori specifici a
spettrometria di massa (MS).
I nasi elettronici (eNOSE) [4] sono invece in grado d’identificare/riconoscere
gli odori emulando il sistema olfattivo
dell’essere umano attraverso sensori a
microarray. Essi caratterizzano e me-
T_M ƒ 32
N. 01ƒ
; 2012
▲
GLI
ALTRI TEMI
morizzano l’impronta olfattiva di una
miscela odorosa senza riferimento alla
sua composizione chimica e, dopo una
fase preliminare d’istruzione, sono in
grado di riconoscere un odore che sia
già nel proprio archivio.
L’AS è da considerare come un completamento ai classici metodi di valutazione chimici e fisici, che non prendono in
considerazione la psiche umana. In
campo alimentare l’AS è finalizzata –
proprio come l’analisi strumentale – all’ottenimento di risultati oggettivi, ripetibili e riproducibili relativi alle manifestazioni organolettiche dei prodotti attraverso l’intervento intelligente di un gruppo di esperti (il Panel) che utilizzano i
loro organi di senso come veri e propri
strumenti di misura, secondo ben precisi
protocolli e procedure d’analisi. Il Panel
Test si differenzia dalla “degustazione”
per la “scientificità” del metodo, che
ricalca nell’impostazione quello delle
rilevazioni strumentali attraverso (i) la
selezione degli strumenti di misura, (ii)
il controllo delle condizioni e delle
modalità di valutazione (assenza di
condizionamenti esterni, facilitazioni
all’utilizzo dello strumento), (iii) l’analisi approfondita dei dati rilevati. In particolare la formazione dei Giudici di
AS (Panelisti) avviene attraverso le
seguenti tappe:
• identificazione e riconoscimento
degli stimoli gustativi fondamentali:
dolce (saccarosio), acido (acido citrico), salato (sodio cloruro), amaro (caffeina), umami (sodio glutammato),
metallico (solfato ferroso);
• individuazione delle soglie di percezione e di riconoscimento;
• riconoscimento e memorizzazione
degli odori, ad esempio: mandorla
(benzaldeide), cannella (eugenolo),
burro (diacetile), ecc.;
• test di apprendimento delle modalità
di classificazione di uno stimolo per
gradi d’intensità (ranking) e di appren-
N. 01ƒ
;2012
MATERIALI DI RIFERIMENTO
PER LE CARATTERISTICHE
ORGANOLETTICHE
La produzione attuale di RM da impiegare per la valutazione delle caratteristiche organolettiche attraverso l’analisi
chimica e/o l’AS nei prodotti alimentari
è scarsa, nonostante le grandi necessità
per il settore. Al fine di valutare la pro-
duzione attuale di RM per la determinazione delle caratteristiche organolettiche,
è stata consultata la banca dati realizzata da ENEA nel 2001 specificatamente
per il settore agroalimentare [8,9] e
periodicamente aggiornata (aggiornamento ottobre 2011) ricercando MatrixRM o sostanze pure (sostanze aromatiche e sapori base) e loro miscele da
impiegare per le analisi chimiche e/o
per le AS. Vi è un solo produttore
(MUVA-Kempten) che realizza RM per la
valutazione di alcuni sapori base (amaro, acido, dolce) in specifiche bevande
(Tab. 1). Inoltre l’IRMM produce un RM
di grasso di burro anidro (BCR-633) in
cui, accanto ai parametri certificati,
viene fornito un valore indicativo per il
contenuto di vanillina. Non esistono RM
di sostanze pure specificatamente prodotti per questo settore; esistono però
alcuni RM di composti volatili (es.: acetone, acetaldeide, propanolo) certificati
per la purezza che, pur non essendo key
odorants (sostanze aromatiche che forniscono il caratteristico aroma di un alimento), per alcuni alimenti contribuiscono all’aroma complessivo [10].
La scarsa disponibilità di RM per le
caratteristiche organolettiche è dovuta
a numerose difficoltà, che riguardano:
l’individuazione delle sostanze responsabili del flavour di un alimento, la stabilità, l’omogeneità, la specificità delle
tecnologie da impiegare, la varietà e la
complessità delle tecniche analitiche da
utilizzare per la caratterizzazione e l’eventuale certificazione. Accanto a RM
da impiegare per la definizione del
profilo aromatico, possono essere di
grande utilità RM da impiegare per l’individuazione e la quantificazione dei
cosiddetti key odorants, oltre che per la
determinazione degli off-flavours (sostanze che conferiscono all’alimento
aromi estranei o sgradevoli).
Anche nell’applicazione della GC-O è
richiesta un’ampia varietà di RM, sia per
▲
dimento delle modalità di uso delle
scale d’intensità su soluzioni artificiali
prima semplici, poi complesse;
• Analisi Descrittiva Quantitativa su
matrici reali: seduta preliminare, individuazione degli attributi/descrittori; esecuzione del test sul prodotto e individuazione del profilo sensoriale.
La Gas-Cromatografia/Olfattometria
(GC-O), infine, viene utilizzata per attribuire una rilevanza sensoriale ai composti volatili e prevede l’accoppiamento della gascromatografia con l’AS [5]:
i composti volatili vengono separati ed
eluiti dalla colonna cromatografica e
quindi inviati in parallelo al detector
(FID o MS) e all’olfattometro, al quale le
sostanze giungono tramite un condotto
generalmente riscaldato per evitare la
condensazione dei componenti stessi;
esso è collegato a una maschera o a un
cono di vetro attraverso cui l’operatore
(il flavorist) percepisce l’odore al momento della comparsa di ogni picco del
cromatogramma. In questo modo è
possibile stabilire una correlazione tra
una determinata sostanza e le sue caratteristiche sensoriali.
Da un punto di vista analitico, risultano
utili le banche dati che contengono informazioni sui composti, le sostanze aromatiche e le loro proprietà sensoriali,
quali ad esempio: la banca dati VCF
(Volatile Compounds in Food) [6], con
informazioni analitiche (es.: tempo di
ritenzione, spettro di massa) per oltre
7.800 composti volatili, elencati per
categoria di prodotto alimentare e raggruppati per classi chimiche; la banca
dati Flavornet (accessibile liberamente
on-line, ma aggiornata soltanto al 2004)
[7], che cataloga le sostanze aromatiche
per le loro caratteristiche cromatografiche e proprietà sensoriali in base a dati
di letteratura ottenuti tramite GC-O [4].
GLI
ALTRI TEMI
quanto riguarda le sostanze pure da
impiegare per la corretta identificazione
del composto, sia per le miscele di sostanze – o meglio ancora Matrix-RM – per la
definizione di profili aromatici. L’AS, poi,
richiede un’ampia disponibilità di RM sia
in forma di sostanze pure che di matrici
alimentari. I Panelisti, infatti, devono essere “tarati” utilizzando soluzioni e matrici
di riferimento per l’identificazione e il riconoscimento dei sapori fondamentali,
degli odori, degli aromi e delle altre caratteristiche sensoriali dei prodotti (visive,
tattili, meccaniche). Pertanto le principali
necessità in questo settore riguardano
RM da impiegare per il riconoscimento
dei sapori di base presenti a diverso livello e di alcuni odori fondamentali e per il
riconoscimento delle produzioni in base
al profilo aromatico. Visto lo specifico utilizzo di questi RM (prove “scientifiche” di
degustazione), è necessario considerare,
oltre gli aspetti legati alla stabilità e omogeneità, anche le problematiche di rappresentatività organolettica e di sicurezza
e igiene alimentare.
Nella realizzazione di RM da impiegare nella valutazione e definizione del
profilo aromatico, la principale problematica è legata alla stabilità. Per superare questa difficoltà, nei laboratori
ENEA si sta studiando la possibilità di
preparare nuove tipologie di RM, quali
ad esempio i Double Phase-Reference
Materials (DP-RM) [11] e RM rappresentativi del campione a diversi stadi
del trattamento analitico, quali ad
esempio RM di estratti di componenti
volatili adsorbiti su cartucce SPME.
RIFERIMENTI BIBLIOGRAFICI
[1] Reg. CEE 2568/91, modificato dal
Reg. CE 640/2008.
[2] Food Chemistry. Cap.5: Aroma
compounds. H.D. Belitz, W. Grosch, P.
Schieblerle. Springer, 2009.
Tabella 1 – Disponibilità attuale di RM da impiegare per la valutazione
delle caratteristiche organolettiche di alimenti e bevande
N. 01ƒ
; 2012
[3] K. Robards, A. Sides, S.H. Helliwell. Developments in
extraction techniques and their application to analysis of
volatiles in foods. Trends in Analytical Chemistry, vol. 19,
n. 5, p. 322-329 (2000).
[4] M. Peris, L. Escuder-Gilabert. A 21st century technique
for food control: Electronic Noses. Analytica Chimica Acta,
638 (2009) 1-15.
[5] S.M. Van Ruth. Methods for Gas ChromatographyOlfactometry: a review. Biomedical engineering 17
(2001), 121-128.
[6] www.vcf-online.nl
[7] www.flavornet.org
[8] M.G. Del Monte, L. Troisi, G. Zappa. Reference materials
for agrofood – Rapporto tecnico ENEA n. 7/INN – 2000
[9] P. Carconi, R. Gatti, G. Zappa, C. Zoani. I materiali
di riferimento per il settore agroalimentare: stato attuale
e necessità. V Congresso “Metrologia & Qualità”, Torino,
14-16 Marzo 2007.
[10] Horticultural Reviews. Cap. 5: F. Rapparini, S. Predieri.
Pear Fruit Volatiles. John Wiley & Sons, New York, 2003.
[11] G. Zappa, R. Gatti, C. Zoani (ENEA); G. Diletti, G.
Scortichini (IZS_AM). Double-Phase Reference Materials.
“The Future of Reference Materials – Science and Innovation”. November 23-25 2010, Geel, Belgium.
Rosanna Gatti Ricercatore Chimico, specialista in tecniche cromatografiche. Svolge attività
di sviluppo di metodi e materiali di riferimento
per la qualità e la sicurezza alimentare, per la
caratterizzazione di materiali e processi e per
la valutazione del rischio chimico.
Paola Sangiorgio Ricercatore chimico,
referente dell’impianto ENEA UTTRI-BIOTEC
per la preparazione di materiali di riferimento per il settore agroalimentare. Come giudice di analisi sensoriale e panel leader, svolge
attività di ricerca volte alla valorizzazione e
recupero di prodotti dell’agricoltura tradizionale (quali il
grano saraceno) o all’individuazione di sistemi innovativi di
processo finalizzati al miglioramento delle proprietà organolettiche e nutrizionali di alcuni alimenti.
Giovanna Zappa Responsabile del Coordinamento “Qualità dei Test Chimici e Biologici” ENEA-UTAGRI. Membro di commissioni
tecniche e comitati consultivi nazionali e internazionali per la metrologia e la standardizzazione, la sicurezza alimentare e la salute
dei consumatori. Svolge attività di ricerca e di docenza e
formazione universitaria e post-universitaria.
Claudia Zoani Dottore di Ricerca in Chimica
Analitica (La Qualità delle Misure Chimiche per la
Sicurezza Alimentare e negli Ambienti di Vita e di
Lavoro). Assegnista di Ricerca ENEA. Svolge attività di ricerca sullo sviluppo di metodi e materiali
di riferimento per le misure chimiche e biologiche.
T_M ƒ 34
GLI
ALTRI TEMI
▲
DISCUSSIONI SUL SI
Sergio Sartori
La rivoluzione nel Sistema
Internazionale di unità
vista da un pensionato che si ribella!
THE REVOLUTION OF THE INTERNATIONAL SYSTEM OF UNITS
Resolution no. 1, adopted by the General Conference on Weights and Measures on Oct. 21st 2011, anticipates the general lines of 2015 decisions that
will produce a revolution of the International System of units. In the paper the
base units probable definition tests are presented, the reasons for the choice
are analyzed, and advantages and disadvantages are discussed.
RIASSUNTO
La risoluzione 1 del 21 ottobre 2011, assunta dalla XXIV Conferenza Generale dei Pesi e delle Misure, anticipa le linee generali delle decisioni che verranno prese nel 2015 e che rivoluzioneranno il Sistema Internazionale di unità.
Nell’articolo vengono presentati i probabili testi delle nuove definizioni delle
unità di base; si analizzano inoltre le ragioni di tali scelte, i vantaggi e gli svantaggi del cambiamento generale e le conseguenze implicite della linea scelta.
È FATTA
La risoluzione 1 del 21 ottobre 2011,
assunta dalla XXIV Conferenza Generale dei Pesi e delle Misure, rivoluziona
il Sistema Internazionale di unità di
misura. L’organismo intergovernativo di
governo della metrologia globale ha
deciso di esporre quali contenuti avrà il
nuovo sistema, rimandando al 2015 la
sua entrata in vigore per dar tempo ad
alcuni laboratori di portare a termine
misure in corso. È la risoluzione1 più
lunga, articolata e complessa della storia della metrologia. Ed ecco, in
esclusiva per il lettori di Tutto_Misure,
in prima mondiale le due notizie
chiave su come sarà il nuovo sistema,
una buona e una cattiva.
Prima la buona notizia. È stato deciso di non buttare nel pattume delle
grandezze e delle unità derivate le sette
grandezze e le loro unità della tradizione: lunghezza con il metro,
massa con il kilogrammo, tempo con
il secondo, intensità della corrente
elettrica con l’ampere, temperatura termodinamica con il kelvin,
quantità di sostanza con la mole,
intensità luminosa con la candela.
Stando alla proposta iniziale, abbiamo
rischiato di veder sostituire le nostre
il valore esatto della costante che funge
da riferimento, immutabile e senza
incertezza, secondo i desideri dei fisici
e degli astronomi. Tre piccole precisazioni preliminari. Il termine taglia è la
mia traduzione del francese amplitude e dell’inglese magnitude. È possibile che si possa individuare un termine
in italiano meno ambivalente. I numeri
riportati nelle definizioni potranno subire marginali variazioni a seguito dei
risultati sperimentali prodotti dai laboratori ritardatari. Il nuovo ordine
della sequenza delle definizioni deriva
dalla gerarchia che tra loro esiste.
1. Il secondo, simbolo s, è l’unità di
tempo; la sua taglia è determinata fissando il valore numerico della transizione iperfine dello stato fondamentale dell’atomo di cesio 133 a riposo, a
una temperature di 0 K, esattamente a
9 192 631 770 quando essa è espressa in s-1, unità del SI uguale a hertz, Hz.
2. Il metro, simbolo m, è l’unità di
lunghezza; la sua taglia è determinata
fissando il valore numerico della velocità della luce in vuoto esattamente a
299 792 458 quando essa è espressa
in unità SI m·s–1.
3. Il kilogrammo, simbolo kg, è l’unità di massa; la sua taglia è determinata fissando il valore numerico della
costante di Planck esattamente a
6,626 069 3 × 10-34 quando essa è
espressa in m2·kg·s–1, unità del SI uguale al joule secondo, J·s.
4. L’ampere, simbolo A, è l’unità di
intensità di corrente elettrica; la sua
taglia è determinata fissando il valore
numerico della carica elementare esattamente a 1,602 176 53 × 10-19 quando essa è espressa in s·A, unità del SI
uguale al coulomb, C.
5. Il kelvin, simbolo K, è l’unità di
sette accoppiate con le seguenti altre:
1. frequenza, la cui unità assume
come riferimento la frequenza della
transizione tra i due livelli iperfini dello
stato fondamentale dell’atomo di cesio
133;
2. velocità, la cui unità assume come
riferimento la velocità della luce in
vuoto;
3. azione, la cui unità assume come
riferimento la costante di Planck;
4. carica elettrica, la cui unità assume come riferimento la carica elementare;
5. entropia, la cui unità assume come
riferimento la costante di Boltzmann;
6. rapporto tra il numero di entità X in uno specifico campione2 e
la quantità di sostanza della
stessa entità X nel medesimo
campione, la cui unità assume come
riferimento la costante di Avogadro;
7. efficienza luminosa spettrale, la cui unità assume come riferimento l’efficienza luminosa della
radiazione monocromatica di frequenza 540 × 1012 Hz.
Ed eccovi la cattiva notizia: tutte le
definizioni delle unità di misura di base
saranno profondamente cambiate e
avranno la forma detta “a costanti espli- Fondatore della Rivista Tutto_Misure
cite”, cioè in ciascuna sarà specificato [email protected]
T_M
N.
1/12 ƒ 35
N. 01ƒ
;2012
assunzioni presenti nelle definizioni
delle unità di base. Non ci saranno più
freni alla fantasia dei ricercatori, perché il vincolo di congruenza alle sette
assunzioni è ovviamente entro i limiti
dell’incertezza necessaria.
Tutti avrete subito pensato agli effetti
secondari di queste decisioni. Vi sarete
immaginati i fiumi di parole spese per
discuterle e le migliaia di tonnellate di
carta, speriamo riciclata, indispensabili
per fissarle. Vi sarete messi le mani nei
capelli, pensando alla mole di lavoro
da effettuare: norme da riscrivere,
manuali di qualità da aggiornare, leggi
da revisionare; libri di testo da emendare. Qualcuno avrà pensato anche al
business: ci saranno corsi di aggiornamento da progettare, per insegnanti, per tecnici delle aziende, magari anche per manager e per ricercatori;
ha inizio la corsa alla caccia dei finanziatori.
Ma chi ci guadagna da questa rivoluzione, oltre chi per primo la propose,
visto che acquisterà gloria (e odio?)
imperituri, e i pochi istituti metrologici
nazionali che troveranno, nel nuovo SI,
la giustificazione delle cifre enormi dei
contribuenti spese per trasferire l’incertezza da alcune costanti ad altre? La
risposta al quesito è nel messaggio subliminale contenuto nella delibera. Esso
dice pressappoco così:
“Cari biologi, economisti, ingegneri,
sociologi, fisiologi, tutti voi insomma
che fate misure non fisiche, sappiate
che se volete entrare con le vostre
unità nell’Olimpo delle unità del SI, e
vedervi pertanto citati nelle leggi degli
Stati e, di conseguenza, poter accedere alla torta dei finanziamenti pubblici destinati alla metrologia, sappiate che dovrete presentarvi con un
modello fatto di costanti fondamentali
collegato alle nostre costanti. Altrimenti siete fuori per sempre.”
Si potrebbe ribattere a questo messaggio con la seguente domanda:
“Come mai, cari colleghi fisici, proprio ora ancorate il Sistema Internazionale di unità alle vostre costanti
fondamentali, mentre i neutrini se ne
vanno a spasso nel ben noto “tunnel
della Gelmini” superando la velocità
limite della luce in vuoto? E mentre
quelli di voi che si occupano di astro-
▲
temperatura termodinamica; la sua
taglia è determinata fissando il valore
numerico della costante di Boltzmann
esattamente a 1,380 650 5 × 10-23
quando è espressa in m2·kg·s-2·K-1, unità
del SI uguale al joule diviso kelvin, J·K-1.
6. La mole, simbolo mol, è l’unità di
quantità di sostanza; la sua taglia è
determinata fissando il valore numerico
della costante di Avogadro esattamente
a 6,022 141 5 × 1023 quando essa è
espressa in unità SI mol-1.
7. La candela, simbolo cd, è l’unità
d’intensità luminosa in una data direzione; la sua taglia è determinata fissando il valore numerico dell’efficienza
luminosa della radiazione monocromatica di frequenza 540 × 1012 Hz esattamente a 683 quando essa è espressa
in unità SI m-2·kg-1·s3·cd·sr, o cd·sr·W-1,
che è uguale all’unità SI lumen diviso
watt, lm·W-1.
Avrete notato che tutte le sette definizioni sono circolari, ossia nella definizione è usata l’unità che si sta definendo. Inoltre solo le definizioni 1 e
6 sono indipendenti; tutte le altre
dipendono almeno dalla prima.
Da queste scelte derivano tre importanti conseguenze:
a. Tutte le definizioni esistenti saranno
abrogate;
b. Poiché le costanti citate nelle definizioni sono esatte, cioè prive d’incertezza, e immutabili, le incertezze che avevano i loro valori, in quanto risultato di
esperimenti, si devono “scaricare” da
qualche parte. La risoluzione precisa
che si scaricheranno sulla massa del
prototipo, sul valore della permeabilità
magnetica del vuoto, sulla temperatura
termodinamica del punto triplo dell’acqua, sulla massa molare del carbonio
12; queste quattro grandezze manterranno i valori che avevano in passato,
ma tali valori, prima esatti per definizione, ora saranno affetti da incertezza
in quanto determinati sperimentalmente3. In conclusione, nessun guadagno
sull’incertezza dell’intero sistema: solo
una nuova distribuzione delle incertezze tra vecchi e nuovi attori;
c. La messa in pratica delle nuove definizioni, ossia la realizzazione dei campioni di misura, potrà essere fatta
seguendo un percorso sperimentale
qualsiasi, purché si rispettino le sette
GLI
ALTRI TEMI
fisica e di cosmologia, cominciano a
pensare a una infinità di universi, ciascuno con le sue leggi e le sue costanti universali, infinite uguali alle vostre
ma altre infinite diverse?”.
Per parte mia la domanda ha una risposta filosofica e politica. Il potere della
scienza si è alleato con il potere dell’economia per gestire lo sviluppo delle
misure a livello mondiale. Attori di questa alleanza sono gli Istituti Metrologici
nazionali, i cui direttori, presidenti, ricercatori e amministratori occupano il
95% dei posti di governo negli organismi previsti dall’accordo internazionale
del 1875, “La convenzione del Metro”.
Inchiniamoci e applaudiamo.
NOTE
1 Il
testo ufficiale della risoluzione e la sua
traduzione in inglese possono essere scaricati dal sito www.bipm.org/jsp/fr/
ListCGPMResolution.jsp?CGPM=24
2 In questo contesto il termine campione
traduce il termine inglese sample.
3 Non sarà necessario compiere gli
esperimenti. Infatti siamo di fronte a un
cambio di paradigma: quegli esperimenti, che prima venivano condotti per
determinare al meglio il valore numerico delle costanti, ora fissate esatte e
immutabili, sono gli stessi che domani
serviranno per determinare il valore
della massa del prototipo, la permeabilità magnetica nel vuoto, la temperatura
termodinamica del punto triplo dell’acqua, la massa molare del carbonio 12.
Poiché il risultato degli esperimenti è già
noto, si tratta solo di calcolare, mediante le usuali regole di propagazione
delle incertezze, l’incertezza da associare a esso.
Sergio Sartori è membro emerito dell’Accademia Internazionale di Ingegneria della Produzione e membro onorario
del GMEE. È stato direttore dell’IMGC-CNR, consulente UNESCO per i laboratori tecnologici in America Latina, consulente
della Commissione Europea per l’ingegneria di precisione, vicepresidente di
European Society for Precision Engineering and Nanotechnology, fondatore e
direttore della rivista Tutto_Misure.
T_M ƒ 37
GLI
ALTRI TEMI
▲
VINCITORE DEL PREMIO “C. OFFELLI” 2011
Stefano Rinaldi
Le comunicazioni industriali
a livello di campo
Strumenti di misura dedicati all’analisi dei parametri di reti real-time
FIELD-LEVEL INDUSTRIAL COMMUNICATION:
ANALYSIS OF THE PERFORMANCE
In recent years, industrial control system are based on communication infrastructures interconnecting the actors of the automation system. An innovative
distributed instrument has been proposed and implemented in order to optimize the network performance. The proposed device is able to acquire in a
non-invasive way the information from the field and to integrate it with
appropriate simulation models.
RIASSUNTO
Negli ultimi anni, i sistemi di controllo industriale sono incentrati sull’utilizzo d’infrastrutture di comunicazione che permettono d’interconnettere tra di
loro i diversi attori che compongono il sistema di automazione. Al fine di
ottimizzare le prestazioni di queste reti di comunicazione, è stato sviluppato uno strumento di misura in grado di acquisire in modo non invasivo le
informazioni dal campo e d’integrarle in opportuni modelli di simulazione.
LE RETI DI COMUNICAZIONE
INDUSTRIALI A LIVELLO DI CAMPO
Originariamente la comunicazione ai
livelli più bassi di un sistema di automazione, il cosiddetto livello di
campo, era gestita attraverso connessioni punto a punto. Sensori e attuatori si interfacciavano mediante segnali
analogici e digitali direttamente al
controllore. Questo approccio implicava un gran numero di cablaggi, a
discapito dei costi e dell’affidabilità
dell’impianto. Le prime reti di comunicazione digitale introdotte per
sostituire queste connessioni sono i
bus di campo, soluzioni proprietarie
in grado di offrire elevate prestazioni
e affidabilità. Tuttavia, l’utilizzo di tecnologie di comunicazione differenti
per i diversi livelli dell’impianto limita
lo scambio delle informazioni tra gli
attori del sistema di automazione.
Negli ultimi anni Ethernet, la tecnologia largamente utilizzata per la realizzazione di reti locali (LAN) aziendali,
è stato introdotto anche a livello di
campo, attraverso le Real-Time Ethernet (RTE). Queste ultime riescono a
soddisfare gli stringenti requisiti, in
termini di affidabilità, prestazioni e si-
spetto a quelli definiti per valutare le
infrastrutture di comunicazione tradizionali, in quanto diversi sono i servizi che devono offrire. Le prestazioni
di un bus di campo cablato vengono
misurate attraverso l’utilizzo di specifici indicatori, definiti nella norma
IEC61784-2 [1]. Questi indicatori
possono essere raggruppati in due
classi: i parametri che dipendono dal
tempo e quelli legati alla banda utilizzata dal sistema. I primi si occupano
di caratterizzare il tempo di trasferimento dell’informazione sull’infrastruttura di comunicazione, cercando di
identificare le variazioni nel tempo di
trasferimento, chiamate anche jitter,
che affliggono il sistema di controllo. I
secondi invece si occupano di caratterizzare la composizione del traffico
presente sul bus di campo, ovvero di
identificare la percentuale di banda
trasmissiva riservata alla comunicazione real-time e quella riservata al
traffico normale.
Accanto a questi parametri è in generale necessaria un’attenta analisi dei
meccanismi di sincronizzazione, quali i protocolli Network Time Protocol
(NTP) [2] e IEEE 1588 Precision Time
Protocol (PTP) [3], utilizzati nelle moderne infrastrutture di rete per ottimizzare il tempo di trasferimento sulla rete e la correlazione tra dati di misura
distribuiti.
curezza, richieste dal sistema di automazione, modificando alcune caratteristiche della tecnologia Ethernet. In
questa tipologia d’infrastruttura è fondamentale garantire il trasporto delle
informazioni in un tempo ridotto e
noto (determinismo) e in modo ripetitivo (isocronia).
Recentemente nel campo delle comunicazioni industriali si è affacciata anche
la tecnologia wireless. Questo tipo di
infrastrutture, in generale basate su tecnologia IEEE 802.15.4, permette a
nodi autonomi di comunicare senza l’utilizzo di cavi. Tuttavia la quantità di
informazioni che possono essere scambiate attraverso queste soluzioni e le
prestazioni real-time non sono comparabili con quelle garantite da reti cablate; per questo motivo, queste due UNO STRUMENTO DI MISURA
nuove tecnologie possono essere adot- DISTRIBUITO PER L’ANALISI
tate nello stesso impianto, formando le DI RETI INDUSTRIALI
cosiddette reti ibride.
La stima di questi indicatori richiede
molta attenzione, specialmente per
QUALI SONO I PARAMETRI DI
VALUTAZIONE DELLE PRESTAZIONI PER LE RETI INDUSTRIALI?
Università di Brescia, Dip. Ingegneria
Le reti di automazione industriale han- dell’Informazione
no indici di prestazione differenti ri- [email protected]
T_M
N.
1/12 ƒ 39
quanto riguarda la stima dei parametri
temporali. Infatti, un’analisi completa
del sistema richiede l’acquisizione di
pacchetti e di segnali fisici che indicano
lo stato interno dei nodi (quali il livello
applicativo e la temporizzazione interna). L’utilizzo di un ambiente di simulazione può essere d’aiuto solo fino a un
certo punto, in quanto la modellizzazione di dispositivi reali non è facile. D’altro canto, gli analizzatori di rete disponibili hanno un’architettura a singola
sonda di acquisizione che rende difficile eseguire misure distribuite (quale la
stima del ritardo di propagazione dei
pacchetti). Nel caso di reti ibride, è importante anche poter correlare i dati che
sono presenti sulla rete Real-Time cablata con i dati presenti sulla rete wireless.
Al contrario, uno strumento distribuito,
con diverse sonde di acquisizione, in
grado di acquisire sia il traffico sulla
rete cablata che sulla rete wireless, è la
T_M ƒ 40
N. 01ƒ
; 2012
▲
GLI
ALTRI TEMI
soluzione ideale per le reti industriali, in
quanto permette la ricostruzione del
comportamento del sistema.
Per questo motivo è stato sviluppato un
innovativo strumento distribuito, la cui
architettura è riportata in Fig. 1, costituito da diverse sonde, in grado di
acquisire contemporaneamente il traffico in diversi punti della rete sotto
esame. Le sonde che compongono lo
strumento sono in grado di collezionare
il traffico sia dalla rete cablata sia dalla
rete wireless [4], [5] e di assegnare precisi marker temporali (timestamp) agli
eventi avvenuti sulla rete.
Al fine di monitorare il traffico sono
state realizzare due diverse tipologie di
sonde (Fig. 2): una dedicata all’acquisizione su Ethernet, l’altra per l’acquisizione di pacchetti wireless. La prima
tipologia è dedicata all’acquisizione di
traffico a livello MAC di Ethernet e quindi può essere adottato per monitorare
Figura 1 – L’architettura dello strumento
di misura distribuito
tutti i protocolli RTE definiti in
IEC61784-2. La seconda tipologia
invece è dedicata all’acquisizione delle
informazioni dai bus di campo wireless
e quindi lavora a livello fisico IEEE
802.15.4. I pacchetti catturati da queste sonde sono poi trasmessi verso una
stazione di supervisione attraverso una
N. 01ƒ
;2012
▲
GLI
ALTRI TEMI
rete di misura dedicata. Come in ogni
sistema di misura distribuito, le sonde
devono essere tra loro sincronizzate.
Ogni sonda può essere connessa a una
sorgente in grado di fornire un valido
segnale temporale, distribuito attraverso una linea dedicata (1-PPS, 1 Pulse
Per Second o GPS) oppure attraverso la
rete di misura, utilizzando un opportuno protocollo di sincronizzazione,
quale IEEE 1588 PTP (Precision Time
Protocol), in grado di garantire incertezze di sincronizzazione inferiori al
microsecondo.
Figura 3 – Lo strumento distribuito, un prototipo per il monitoraggio di reti RTE e WirelessHART
Figura 2 – Schema a blocchi
di una generica sonda
Per limitare il costo dell’intero sistema
di misura, l’architettura proposta utilizza una sonda realizzata utilizzando un system-on-chip mentre la stazione di supervisione è stata realizzata
utilizzando un PC, la cui interfaccia
utente è stata ottenuta utilizzando l’analizzatore di rete Wireshark. Il prototipo completo è illustrato in Fig. 3.
Le diverse modalità di sincronizzazione delle sonde distribuite sono state
accuratamente testate. Nel primo
esperimento, è stata valutata la capacità del sistema di sincronizzarsi utilizzando un segnale di riferimento esterno (1-PPS), fornito attraverso un generatore di funzioni (Agilent 33220A).
Ogni sonda è in grado di generare un
segnale di riferimento (1-PPS_out) connesso con il proprio riferimento tem-
porale interno; l’entità dello sfasamento tra questi segnali, misurato
attraverso un frequenzimetro (Agilent
53123) è una misura della capacità
delle sonda di agganciare il riferimento temporale. In Fig. 4a è riportata la distribuzione dello sfasamento
temporale tra due sonde (4.000 campioni). La massima variazione tra i
riferimenti temporali è inferiore ai
100 ns su due ore di osservazione.
Successivamente sono state valutate le
prestazioni ottenibili utilizzando il protocollo PTP per sincronizzare i riferimenti temporali delle sonde. Anche in
questo caso l’indice valutato è lo sfasamento tra i segnali di riferimento di due
sonde: una sonda agisce come master
PTP, trasmettendo periodicamente
(ogni 1 s) i messaggi di sync all’altra. In
Fig. 4b è riportata la distribuzione
dello sfasamento temporale misurato su
4.000 campioni. Il massimo sfasamento è stato nell’ordine di 145 ns, comparabile con la soluzione precedente.
GLI AMBIENTI
DI SIMULAZIONE:
UN AIUTO
ALLE RETI INDUSTRIALI
L’analisi e lo sviluppo di nuovi impianti di comunicazione può notevolmente
Figura 4 – Distribuzione temporale dell’offset il riferimento temporale della sonda 1 e della
sonda 2 sincronizzate utilizzando un segnale 1-PPS esterno a) e il protocollo PTP b)
T_M ƒ 41
N. 01ƒ
; 2012
▲
GLI
ALTRI TEMI
avvantaggiarsi dall’uso di strumenti di
simulazione, attraverso cui analizzare
potenziali situazioni di conflitto prima
della realizzazione della rete in situ.
Per potenziare le capacità di analisi
dello strumento di misura presentato
nella precedente sezione, è stato sviluppato un framework di simulazione
per reti RTE, principalmente per i protocolli EtherNet/IP e PROFINET IO.
L’ambiente realizzato permette di raffinare i modelli di simulazione attraverso i parametri ottenuti da campagne di misura sul campo. Il framework
di simulazione è stato sviluppato utilizzando un simulatore a eventi discreti, OMNeT++.
Per la validazione di questi modelli è
stata realizzata una infrastruttura PROFINET ai cui estremi sono stati collocati
due nodi EtherNet/IP [6]. In Fig. 5a è
riportata la distribuzione del ritardo del
tempo di propagazione (TFPD) dei pacchetti EtherNet/IP sulla rete. Come si
può notare dal grafico, l’infrastruttura
PROFINET introduce un ritardo variabile in quanto gli switch regolano il trasferimento dei pacchetti al fine di garantire il determinismo, influenzando al
contempo il tempo di propagazione
degli altri protocolli. In Fig. 5b i risultati ottenuti sulla rete sono stati confrontati con quelli ottenuti dall’ambiente di
simulazione, risultando in perfetto accordo con quanto ottenuto in simulazione e validando la correttezza dei modelli realizzati.
è stata ampiamente adottata anche in
molte applicazioni industriali critiche,
quali il motion control, dove sono
richieste comunicazioni Real-Time. L’adozione di questa tecnologia richiede
tuttavia strumenti di analisi e di misura dedicati, in grado di valutare parametri di rete quali il jitter di propagazione e la sincronizzazione dei nodi,
per identificare possibili condizioni di
malfunzionamento o di guasto [7],
[8]. L’analisi delle prestazioni di tali
reti è possibile solo grazie allo sviluppo di un innovativo strumento di misura distribuito. Ognuna delle sonde
che compongono lo strumento, può
essere sincronizzata con un’incertezza di sincronizzazione nell’ordine di
100 ns. Tuttavia tale strumento da solo
non è sufficiente per una corretta analisi del sistema e quindi è stato integrato con un ambiente di simulazione
e di analisi, dedicato ai principali
protocolli RTE.
I parametri ricavati attraverso lo strumento di misura possono essere integrati all’interno del simulatore, al fine
di raffinare i modelli. L’utilizzo combinato dello strumento di misura e del
simulatore permette di analizzare correttamente le problematiche delle
comunicazioni industriali, quali la
coesistenza di diversi protocolli RTE
sulla stessa infrastruttura o la propagazione delle informazioni su reti ibride industriali.
LE MISURE SULLE RETI
DI COMUNICAZIONE AL
SERVIZIO DELLE PRESTAZIONI
RIFERIMENTI BIBLIOGRAFICI
[1] “IEC 61784-2 (Ed. 1): Industrial
communication networks – Profiles –
La tecnologia Ethernet/Internet ormai Part 2: Additional fieldbus profiles for
real-time
networks
based on
ISO/IEC
8802-3”,
IEC, 2007.
[2]
D.L.
M i l l s ,
“Network
Time Protocol (verFigura 5 – Distribuzione del ritardo di propagazione, TFPD,
sion
3)
di due nodi EtherNet/IP su un’infrastruttura PROFINET a) ottenute attraverso
misure su un’infrastruttura reale e b) in ambiente di simulazione
Specificat i o n ,
T_M ƒ 42
Implementation and Analysis”, RFC1305, March 1992.
[3] “IEEE Standard for Precision Clock
Synchronization Protocol for Networked Measurement and Control
Systems”, IEEE 1588-2008”, IEEE,
2008.
[4] P. Ferrari, A. Flammini, D. Marioli,
A. Taroni. “A Distributed Instrument for
Performance Analysis of Real-Time
Ethernet Networks”, IEEE Trans. Industrial Informatics, Vol. 4, No. 1, pp.
16-25, 2008.
[5] P. Ferrari, A. Flammini, D. Marioli,
S. Rinaldi, E. Sisinni. “On the Implementation and Performance Assessment of a WirelessHART Distributed
Packet Analyzer”, IEEE Trans. Instrumentation and Measurements, May,
2010, Vol. 59, N. 5, pp. 13421352.
[6] P. Ferrari, A. Flammini, S. Rinaldi,
G. Gaderer, “Evaluation of clock
synchronization accuracy of coexistent Real-Time Ethernet protocols”, in
Proc. of IEEE ISPCS2008, Ann Arbor,
MI, USA, Sept., 2008, pp. 87-91.
[7] P. Ferrari, A. Flammini, D. Marioli,
S. Rinaldi, A. Taroni, “Testing coexistence of different RTE protocols in the
same network”, in Proc. of IEEE
WFCS2008, Dresden, 2008, pp.
179-187.
[8] P. Ferrari, A. Flammini, S. Rinaldi,
E. Sisinni, “On the Seamless Interconnection of IEEE 1588-Based Devices
Using a PROFINET IO Infrastructure”,
IEEE Trans. Industrial Informatics,
August, 2010, Vol. 6, N. 3, pp.
1551-3203.
Stefano Rinaldi ha
conseguito il Dottorato di
Ricerca presso l’Università degli Studi di Brescia
nel 2010. Attualmente è
titolare di Borsa di Ricerca “Dote Ricercatore” per
lo sviluppo di strumenti per la sincronizzazione nella distribuzione dell’energia
elettrica. Le sue attività di ricerca riguardano l’analisi delle prestazioni delle reti
di comunicazione industriali, le reti di
sensori wireless e i metodi di sincronizzazione avanzati.
▲
ENERGIA E MISURE
GLI
ALTRI TEMI
Mario Savino
Politiche energetiche
e sistemi di monitoraggio
prima parte
ENERGY POLICIES AND MONITORING SYSTEMS
When dealing with the problem of the future of energy policies, some
questions, such as renewable energy sources, energy saving and CO2
emissions, need to be addressed. This paper highlights the increasing
importance of solar power plants, which require a supervisory control system
to improve their efficiency and reliability. A related problem is that of the
nuclear power, the only readily available large-scale alternative to fossil fuels
for continuous low-emission supply of electricity.
RIASSUNTO
Nell’affrontare il futuro delle politiche energetiche è necessario porsi alcune
domande su fonti di energia rinnovabili, risparmio energetico ed emissioni di
CO2. Questo articolo evidenzia l’importanza crescente degli impianti fotovoltaici, che richiedono un sistema di supervisione per migliorare efficienza e
affidabilità. Un problema correlato è quello del nucleare, l’unica alternativa
ai combustibili fossili disponibile su grande scala per fornitura continua di
energia elettrica con basse emissioni.
LA CRISI EPOCALE
E IL RUOLO DEI METROLOGI
In una fase storica di profonda crisi
economica nella quale i politici riconoscono i loro limiti e chiedono sostegno
alla propria azione, scienziati, tecnici
e ingegneri sono chiamati a fornire il
loro contributo per pervenire il più rapidamente possibile al suo superamento
e per evitare conseguenze drammatiche che la storia ci ricorda. Un ruolo
importante nell’ambito delle scelte da
operare è rappresentato dalle politiche
energetiche. La crisi energetica mondiale, accelerata dal disastro alla centrale nucleare giapponese di Fukushima Daiichi, sta obbligando tutti i paesi
del mondo a rivedere le proprie politiche energetiche. Com’è ormai noto in
tutte le nazioni molta gente sta citando
tale disastro come prova inconfutabile
che l’energia nucleare metterebbe in
pericolo la sopravvivenza del genere
umano sulla terra e per questo motivo
dovrebbe essere vietata. Scienziati di
tutto il mondo lavorano all’innovazione
puntando sulle fonti energetiche che
consentano un risparmio e rispettino
ci intelligenti a basso consumo energetico e ponendo attenzione nelle abitazioni alla manutenzione dei sistemi di
riscaldamento e refrigerazione, oltre a
un adeguato isolamento delle pareti e
degli infissi.
L’ENERGIA SOLARE
Fino alla metà del diciottesimo secolo,
quando furono scoperti i combustibili
fossili, le fonti d’energia rinnovabile
erano le uniche disponibili. Da quel
periodo in poi si è avuto un uso sempre
più intenso dei combustibili fossili, e ciò
ha contribuito in modo consistente al
cambiamento climatico nel nostro pianeta. È principalmente questo cambiamento che sta inducendo i governi di
tutto il mondo a riconsiderare seriamente la sostituzione dei combustibili
fossili con fonti energetiche rinnovabili.
Queste, escludendo l’energia idroelettrica, fino agli inizi di questo secolo
rappresentavano una percentuale tanto irrisoria da non comparire nelle tabelle relative alle tipologie di energia
impiegata nel mondo. Si può quindi
considerare il nuovo millennio l’inizio
di una diversa filosofia di approccio
alle fonti energetiche.
Le donne e gli uomini hanno finalmente alzato la testa. Invece di guardare
verso il basso al sottosuolo, saccheggiato per anni attraverso l’estrazione di
petrolio, gas, carbone, uranio, si pensa di utilizzare al meglio l’energia che
ci viene dal sole e dal vento. Come
riportato nell’ultimo rapporto pubblicato da REN21 (Renewable Energy Network for the 21st Century) le energie
l’ambiente, nell’ambito delle direttive
contenute nel protocollo di Kyoto. In
particolare i metrologi hanno il compito di sviluppare sistemi più efficienti di
monitoraggio e controllo, tali da migliorare le prestazioni degli impianti e
garantire la loro sicurezza.
Oltre a oculate scelte concernenti le
fonti energetiche, occorre puntare in
modo più sostanziale sul risparmio
energetico. Erich Fromm scrive nel suo
bel libro “La rivoluzione della speranza”: “Uno spettro si aggira fra noi, ma
solo pochi riescono a vederlo con chiarezza. Non è il vecchio fantasma né
del fascismo, né del comunismo. Si tratta di un nuovo spettro, una società
completamente meccanizzata, dedita
alla massima produzione di beni e al
loro consumo”. Occorre porre sia fine
a un consumismo sfrenato, sia maggiore attenzione alla riduzione dei consumi energetici. Un primo risparmio può
partire dalle nostre abitazioni e dagli
edifici commerciali, dove si consuma
più del 41% dell’energia utilizzata,
come risulta da uno studio condotto Prima Facoltà di Ingegneria,
negli USA. Tale risparmio è ottenibile Politecnico di Bari
sviluppando sempre più elettrodomesti- [email protected]
T_M
N.
1/12 ƒ 43
rinnovabili alla fine del 2009 rappresentavano un quarto dell’energia elettrica mondiale, e tutto lascia prevedere
una loro ulteriore crescita negli anni a
venire. Il Presidente Giorgio Napoletano ha sostenuto più volte la sua convinzione di puntare sulle energie rinnovabili per soddisfare il fabbisogno
energetico del nostro paese nell’ambito delle politiche di tutela e protezione
dell’ambiente.
Tra le energie rinnovabili particolarmente attrattiva è quella solare, prodotta da miliardi di anni e notevolmente la più disponibile sulla terra. Gli
impianti energetici che sfruttano il sole
sono di due tipi, basati gli uni sugli
effetti termici, gli altri su quelli fotovoltaici. Impianti solari termici stanno sorgendo in tutto il mondo: solo per fare
qualche esempio, in Italia a Priolo in
Sicilia è attiva una centrale sperimentale basata su una tecnologia sviluppata all’ENEA e sostenuta dal premio
Nobel Carlo Rubbia; in Spagna in
Andalusia è già attiva una centrale
elettrica da 19,9 MW, nel deserto dell’Australia è prevista una centrale da
250 MW, in California nei pressi della
città di Blyte sta sorgendo una centrale
con una potenza complessiva di
1 GW. Il vantaggio di queste centrali,
rispetto a quelle basate sull’effetto fotovoltaico, sta nella loro capacità di
immagazzinare in serbatoi di sali fusi
l’energia termica generata durante il
giorno, in modo da produrre il vapore
per le turbine anche dopo il tramonto,
in assenza del sole.
Gerhard Knies afferma, nella presentazione della DESERTEC Foundation che
“In sei ore i deserti ricevono più energia dal sole di quella utilizzata dalla
specie umana in un anno”. Quasi due
miliardi di persone nel mondo non
hanno accesso all’elettricità, e la maggior parte di loro si trova in Asia e
Africa, dove l’energia solare potrebbe
contribuire a un solido sviluppo delle
zone meno industrializzate di questi
continenti, attraverso la crescita di
moderni sistemi di comunicazione e di
fornitura dell’energia.
Il progetto DESERTEC è stato sviluppato da politici, scienziati ed economisti
dei paesi del Mediterraneo, e ha dato
luogo sia alla nascita di una fondazio-
T_M ƒ 44
N. 01ƒ
; 2012
▲
GLI
ALTRI TEMI
ne, sia, nel 2003, al piano delle Nazioni Unite, denominato DESERTEC
Concept, per sviluppare una rete elettrica tra Europa, Medio Oriente e Africa settentrionale, in grado di trasportare energia rinnovabile ricavata da centrali da 100 GW, basate prevalentemente sul solare termico. Purtroppo
non tutte le zone del pianeta sono
adatte ad assicurare un buon rendimento di queste centrali, il che spiega
le ragioni della diffusione del fotovoltaico, impiegabile anche per piccole
e medie utenze.
GLI IMPIANTI FOTOVOLTAICI
L’aumento dei costi del gas naturale e
del carbone, insieme con i vincoli
ambientali, è tra i fattori che contribuiscono a investire in fonti di energia
alternative e rinnovabili. La tecnologia
fotovoltaica (PV) ha un grande potenziale di sostanziale miglioramento per
quanto attiene al rendimento delle
celle solari, il cui massimo valore teorico, ottenibile con materiali quali l’arseniuro di gallio, il tellururo di cadmio
o il seleniuro d’indio e rame, si aggira intorno al 30%, valore che si riduce al 25% nelle migliori realizzazioni
pratiche a singola giunzione e che si
raggiunge impiegando particolari
strutture tandem con due assorbitori.
Nel passato solo poche industrie
hanno considerato conveniente investire in ricerca e sviluppo per la produzione di celle e pannelli PV, che
possono considerarsi ancora nella
loro infanzia. Ci si aspetta che i notevoli investimenti fatti in USA possano
portare a un ulteriore incremento del
loro rendimento, l’obiettivo è quello
del 65%, impiegando le nanotecnologie e, in particolare, piccoli nanocristalli, noti come quantum dot. Tali
investimenti sono giustificati in quanto
negli ultimi dieci-quindici anni la crescita degli impianti PV è stata considerevole, con un incremento del trentacinque percento negli ultimi due
anni.
Sempre nel RED21 si afferma che i PV
sono passati come potenza totale
installata da 7,3 GW nel 2009 a
17 GW nel 2010, con il maggior
incremento nei paesi Ue, in particolare
in Italia e Germania, la quale ha installato nel 2010 più pannelli di quanti
l’anno precedente erano stati venduti
nel mondo intero. La rapida evoluzione
del mercato si è avuta grazie alla drastica riduzione dei prezzi operata
soprattutto da dieci (dislocati in Asia)
tra i quindici maggiori produttori di
celle PV. Si valuta pari (a volte anche
superiore) al 50% l’incidenza del costo
dei pannelli PV su quello complessivo
di un impianto completamente installato, valutato in base ai chilowatt di picco. Il costo medio di un chilowatt di picco oscilla tra i 4.000 € e i 7.000 €, in
base alle dimensioni del sistema, alla
qualità dei moduli PV e alle condizioni
d’installazione.
Papa Benedetto XVI ha proclamato la
tutela dell’ambiente tra gli obiettivi del
suo pontificato. Sul tetto dell’aula per le
udienze pontificie, conosciuta con la
doppia denominazione di Aula Paolo
VI, in quanto realizzata sotto il pontificato di Papa Montini, e Sala Nervi,
dal nome del grande architetto e ingegnere italiano che l’ha progettata,
sono stati installati 2.400 pannelli PV,
con una potenza massima di 222 kW,
in grado di soddisfare le esigenze
energetiche in un anno di molte stanze
degli edifici pontifici. È stata inoltre
annunciata la realizzazione entro il
2014 di un impianto PV da 100 MW
nella zona di Santa Maria di Galeria,
in prossimità dell’ubicazione di Radio
Vaticana.
In realtà, non solo nello Stato Pontificio, ma in tutto il mondo i governi stanno incoraggiando lo sviluppo di fonti
energetiche alternative. Così si ha che
nei paesi OCSE circa il 2% dell’elettricità è prodotta da fonti rinnovabili,
escludendo l’idroelettrico, e si prevede
un aumento del 4% entro il 2015. In
Italia sono stati installati impianti PV
decentralizzati sui tetti delle scuole, dei
grandi magazzini e degli uffici, di
dimensioni da 1 kWp fino a 20 kWp,
nelle grandi industrie da 20 kWp fino
a 1 MWp e al suolo dell’ordine di
10 MWp. È quindi evidente che si sta
passando da una struttura centralizzata con grandi stazioni di potenza a
una decentrata di piccole e medie
dimensioni.
N. 01ƒ
;2012
■
GLI
ALTRI TEMI
LA RIDUZIONE DEI GAS
A EFFETTO SERRA
EVITIAMO IL CONFLITTO
SOLARE-NUCLEARE
IL MONITORAGGIO
PER MIGLIORARE I RENDIMENTI
L’Agenzia Internazionale dell’Energia
(AIE) dell’OCSE ha stimato che l’impiego d’energia primaria nel mondo sia
destinato a crescere da questo anno al
2030, specie in paesi emergenti come
Cina e India, a un tasso leggermente
inferiore al 40%. Sempre l’AIE ha
manifestato grande preoccupazione
per l’incremento delle emissioni di gas
a effetto serra, che hanno raggiunto
livelli record nonostante la crisi economica. In particolare la Cina ha superato gli USA come emettitore di CO2 nel
2007, probabilmente per l’eccessivo
incremento delle centrali a carbone.
Allarmanti sono i dati riportati dall’Earth Systems Research Laboratory di
Hawaii’s Mauna Loa in USA, che ha
rivelato alla fine di maggio 2011 il livello di CO2 nell’atmosfera pari a
395 ppm, il 46% superiore a quello
misurato in epoca preindustriale. Dalle
previsioni fatte dallo stesso laboratorio
si evince che i pericoli legati al riscaldamento globale e ai cambiamenti climatici potrebbero essere evitati solo
aumentando l’uso di fonti energetiche
a basse emissioni di gas a effetto serra
e che per limitare al di sotto di 3°C
l’aumento di temperatura nel pianeta
sarebbe necessario incrementare le
centrali a energia pulita rispetto a quelle a carbone tra il 34% e il 52% entro
il 2030.
Al riguardo lasciano ben sperare le
nuove politiche energetiche in Cina,
che nel 2010 si è attestata al primo
posto per investimento pubblico nel settore dell’energia pulita, mentre gli USA
sono al terzo posto, dietro anche alla
Germania. Chiaramente la riduzione
di quantità di CO2 emessa è fortemente dipendente dalla fonte dell’energia
sostituita. Per esempio si stima che la
sostituzione di una centrale a carbone
con una idroelettrica o solare permetterebbe una riduzione d’unità di carbonio equivalente da 1 kg a meno di
10 g, per ogni chilowattora. Per ottenere questo risultato, nelle centrali PV
un fattore molto importante è rappresentato dalla progettazione dei pannelli e dal loro controllo mediante
monitoraggio.
Ha suscitato molte polemiche la prima
dichiarazione pubblica del Ministro
dell’ambiente Corrado Clini, che ha
affermato qualcosa difficilmente contestabile: “La tecnologia nucleare ha
ancora un ruolo rilevante nel sistema
energetico europeo e globale”. Le
previsioni sono di un incremento della
domanda di energia elettrica, il che
rende impossibile pensare alla prossima chiusura di tutte le centrali nucleari, che come gli impianti solari sono a
bassa emissione di CO2 e forniscono
circa il 14% d’energia elettrica nel
mondo, il 24% nei paesi OCSE e il
34% nella UE. Esiste chiaramente una
tendenza a ridurre il numero di centrali nucleari, dismettendo quelle più
vecchie, come sta avvenendo in Germania e negli USA, ma sarebbe un
errore non contribuire alle ricerche
scientifiche sul nucleare, in quanto, a
parte le centrali idroelettriche, le altre
rinnovabili non sono ancora adatte
alla grande produzione e a una fornitura continua.
Oggi, specie dopo i disastri di Chernobyl e Fukushima, la parola nucleare
fa paura, tanto che si parla di “risonanza magnetica”, eliminando l’aggettivo nucleare, per un esame diagnostico a volte indispensabile. Il nostro pianeta non può fare a meno nel prossimo
futuro della fissione nucleare, nonostante i problemi che essa pone
soprattutto d’alterazioni genetiche del
DNA, trasmesse per molte generazioni, e di smaltimento delle scorie. Purtroppo il plutonio può rimanere radioattivo per centinaia di migliaia
d’anni e non è facile trovare siti geologici dove depositarlo. Se un futuro può
ancora esserci per la fissione nucleare,
questo è legato a norme più severe
sulla sicurezza e sullo smaltimento
delle scorie, per non lasciare una tremenda eredità alle generazioni future.
Nel lungo periodo una solida speranza viene dalle ricerche condotte sulla
fusione nucleare, che sembra comportare molti minori rischi della fusione.
Particolarmente interessante è il progetto ITER (International Thermonuclear
Experimental Reactor).
Nella seconda parte di questo articolo
si esamineranno i moderni sistemi di
monitoraggio in grado di migliorare
prestazioni, affidabilità e sicurezza
delle centrali elettriche, con particolare
riferimento a quelle PV.
NEWS
▼
Mario Savino è professore Ordinario di Misure
Elettriche ed Elettroniche
presso la Prima Facoltà di
Ingegneria del Politecnico
di Bari. Si occupa di misure elettriche, strumentazione elettronica biomedicale, sensori e trasduttori. È Honorary Chairman del Comitato Tecnico TC-4 “Measurement of Electrical Quantities” della Confederazione
Internazionale delle Misure (IMEKO).
BIKINI DALL’UNITÀ
GMEE DI BRESCIA
Il Laboratorio di Optoelettronica dell’Università di Brescia, diretto da Giovanna Sansoni, presenta il nuovo Bikini, sistema per
misurare l’eccentricità dei tubi dalle promettenti applicazioni industriali, soprattutto nel
settore della produzione di tubi, trafilati e
tondini.
La prima versione del sistema (che utilizzava
la tecnica 3D e garantiva una precisione di
misura inferiore ai due centesimi di millimetro) è nata dalle esigenze di controllo di
prodotti trafilati.
La nuova versione di Bikini, pur mantenendo
le stesse prestazioni, è semplificata nella
struttura e limitata nei costi. “Oggi il nostro
prototipo ha una struttura più semplice –
spiega Giovanna Sansoni –. Utilizza due
laser, anziché quattro, e una sola fotocamera. Ha quindi una struttura più compatta e
flessibile, costa meno e richiede una manutenzione meno complessa”. Bikini è anche
già equipaggiato con un software di misura
dotato di un’interfaccia utente user-friendly.
Ora tutto è pronto per la fase di ingegnerizzazione di Bikini. Le trafilerie interessate a
investire sull’innovazione e a migliorare i propri processi produttivi o le aziende interessate
all’ingegnerizzazione del prodotto, possono
condividere con Optolab questa attività e, successivamente, potranno garantire alle loro
lavorazioni un prezioso valore aggiunto.
Per contatti:
[email protected],
o 030/3715446.
T_M ƒ 45
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
▲
LA COMPATIBILITÀ ELETTROMAGNETICA
Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3
Il comportamento a radiofrequenza
dei componenti circuitali passivi
Un esempio concreto
THE RADIOFREQUENCY BEHAVIOUR OF PASSIVE CIRCUIT
COMPONENTS: AN ACTUAL EXAMPLE
After the discussion on the behavior of radiofrequency passive circuit components (capacitor, inductance and resistance) in this issue of Tutto_Misure
we want to show the impact of the concepts described so far on a practical
case: the design and synthesis of a radio-frequency filter for attenuation of
signals in the radio broadcast FM band (88 MHz – 108 MHz). As it will be
explained in the article, the use of this type of filters is often “a must” to
ensure a correct radiated emission measurement carried out in an open
area test site for EMC assessment.
blu). Nella stessa figura sono riportati
come riferimento (linea rossa) anche i
limiti di classe A di emissione radiata
riferiti a 10 metri di distanza della
norma EN 55022 [3].
RIASSUNTO
Dopo la trattazione approfondita sul comportamento a radiofrequenza dei
componenti circuitali passivi (condensatore, induttore e resistore), in questo
numero di Tutto_Misure vogliamo far vedere come i concetti fin qui descritti incidano su un caso applicativo reale: il progetto e la sintesi di un filtro a
radiofrequenza per l’attenuazione dei segnali nella banda FM (88 MHz –
108 MHz), quella cioè delle stazioni radio a modulazione di frequenza.
Come sarà chiarito nell’articolo, l’impiego di questa tipologia di filtri risulta infatti molto spesso fondamentale per garantire una corretta determinazione delle emissioni radiate effettuate nei siti di prova all’aperto nell’ambito della Compatibilità Elettromagnetica.
Figura 1 – OATS, Open Area Test Site
(riproduzione autorizzata da PMM)
LO SPETTRO ELETTROMAGNETICO Come facilmente intuibile quando venIN CAMPO APERTO
gono effettuate misure di emissione
Qualsiasi dispositivo elettronico per
essere immesso sul mercato deve essere sottoposto a specifiche prove che,
nell’ambito della compatibilità elettromagnetica, ne garantiscono la presunzione di conformità ai requisiti della
direttiva europea 2004/108/CE [1].
Una di queste è la misura delle emissioni radiate tra 30 MHz e 1.000 MHz. Il
sito ideale, di riferimento, per la misura delle emissioni radiate è definito
dalla normativa [2] e consiste in un
uno spazio semi-infinito sopra a un
piano di massa infinito, perfettamente
piatto e perfettamente conduttivo: si
tratta del sito di prova all’aperto o, in
inglese, OATS, “Open Area Test Site”
(Fig. 1).
radiata in una realizzazione pratica
del sito all’aperto, l’antenna ricevente
Figura 2 – Ambiente urbano,
posizionata a una specifica distanza
livelli di campo elettromagnetico tipico
(in genere 10 metri) dal dispositivo
in campo aperto. Linea rossa: limiti
sotto test (DUT, Device Under Test)
EN 55022 di classe A a 10 metri
capterà, oltre alle emissioni elettromagnetiche generate dal DUT stesso,
anche tutti i segnali dovuti ad esempio
a stazioni radio broadcast, ripetitori
televisivi, stazioni radio base, commutazioni impulsive, rumore di fondo,
ecc.. Questi segnali, normalmente
presenti nell’ambiente urbano e indu- 1
Dip. Elettronica e Telecomunicazioni
striale, costituisco il così detto livello
Università
di Firenze
di rumore ambientale. Un tipico esem- 2
Ricerca e Sviluppo, Esaote S.p.A.,
pio di livelli di campo elettromagnetico E (espressi in dBµV/m) misurati al- 3Firenze
Elettroingegneria, Pistoia
l’aperto in ambiente urbano tra 30 MHz
e 300 MHz è riportato in Fig. 2 (linea [email protected]
T_M
N.
1/12 ƒ 47
LA NECESSITÀ DEL FILTRAGGIO
Come si osserva dalla Fig. 2, l’emissione elettromagnetica più intensa che
generalmente si registra in campo aperto è proprio quella dovuta ai segnali
nella banda FM (88 MHz - 108 MHz)
quella cioè delle stazioni radio a
modulazione di frequenza. La presenza di livelli di emissione così intensi può causare alcuni inconvenienti nella corretta determinazione
dell’emissione elettromagnetica del
DUT che, al contrario, risulta essere
di ridotta intensità. Tra le problematiche più importanti si ricorda che:
1) la contemporanea presenza di
segnali intensi (banda FM) assieme a
segnali deboli (emissioni del DUT)
richiede elevate prestazioni in termini
di dinamica e linearità del ricevitore;
2) segnali molto intensi in ingresso
al ricevitore possono provocare una
T_M ƒ 48
N. 01ƒ
; 2012
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
saturazione dello stesso con conseguente generazione di armoniche fittizie (prodotti d’intermodulazione) che
possono essere attribuite erroneamente proprio a emissioni del DUT.
Per limitare gli inconvenienti di cui
sopra, è possibile seguire due possibili approcci: a) impiego di ricevitori
dotati di filtro preselettore in ingresso
(banco di filtri a sintonia fissa oppure
preselettore a inseguimento, tracking
preselector), oppure b) impiego di un
filtro a radiofrequenza applicato
all’ingresso del ricevitore. Entrambe le
soluzioni permettono di eliminare il
problema della saturazione del ricevitore “facendo passare” soltanto la frequenza che deve essere rivelata nel
caso a), oppure attenuando significativamente i segnali della banda FM
nel caso b). Considerato che la soluzione a) risulta essere più costosa perché richiede l’impiego di strumenta-
zione specifica (per esempio ricevitori
EMI), la seconda soluzione è generalmente quella preferita soprattutto nelle
misure di pre-conformità: quelle cioè
a carattere indicativo, ad uso del progettista che, sebbene non spendibili in
fase di certificazione di prodotto, forniscono utili indicazioni nella identificazione delle emissioni elettromagnetiche generate dal DUT ai fini della
successiva mitigazione.
PROGETTO E SINTESI
DEL FILTRO FM
A partire dalle considerazioni precedenti, abbiamo scelto di progettare un filtro elimina banda del terz’ordine con risposta in frequenza
Chebyshev del II tipo in quanto, sebbene quest’ultimo non presenti una
regione di transizione tra banda
N. 01ƒ
;2012
passante e banda d’interdizione ripida (roll-off) come nel caso del filtro
Chebyshev del I tipo, le oscillazioni
(ripple) nella banda passante risultano del tutto assenti. Nella Tab. 1 sono
riportate le principali specifiche di
progetto richieste dal filtro a radiofrequenza; si noti in particolare l’attenuazione nella banda FM di
60 dB necessaria a riportare i valori dei segnali delle stazioni radio a
livelli prossimi a quelli di rumore di
fondo (vedi Fig. 2) e l’impedenza di
ingresso e di uscita progettata per
un sistema a 50Ω (valore tipico per
un ricevitore).
Figura 3 – Sintesi della rete passiva che realizza il filtro FM con le specifiche di Tab. 1
za in termini di attenuazione
d’inserzione del circuito
di
Fig. 3 è riportata con
la linea blu
in Fig. 4.
Come evidente tutte
le specifiche di progetto richieste dalla Tab. 1
sono soddisfatte.
La prima difficoltà di realizzazione
pratica del circuito di Fig. 3 è quella di “tradurre” i valori di progetto
delle induttanze e dei condensatori
determinati con la teoria delle reti
elettriche con quelli realmente disponibili sul mercato. Quasi sempre
infatti il valore teorico di progetto
deve essere approssimato con una
combinazione attraverso collegamenti in serie e/o in parallelo di
valori di mercato appartenenti a serie standardizzate. In riferimento al
circuito di Fig. 3 abbiamo perciò
considerato le seguenti sostituzioni
con componentistica commerciale
(tra parentesi è indicato l’errore percentuale commesso):
L1 = L2 = 16,36 nH = 8,2 nH + 8,2
nH (0,24%); L3 = 408,60 nH = 220
nH + 180 nH + 8,2 nH (–0,10%);
L4 = 397,40 nH = 220 nH + 180 n
H (0,65%); C1 = C2 = 161,200 pF
= 110 pF//51 pF//0.2 pF (0,0%);
C3 = 6,637pF = 3,3pF//33pF
Tabella 1 – Specifiche del filtro elimina banda progettato
Dalla teoria delle reti elettriche, la
generica risposta nel dominio di
Laplace F(s) per la tipologia di filtro
è riportata nell’equazione (1). La
risposta in frequenza si ottiene quindi sempre dalla (1) con la sostituzione s = jω, con j unità immaginaria
j2 = –1.
F( s ) =
(s
2
2
+ ω n ,1
)(s
2
+ ω n ,2
2
)(s
2
+ ω n ,3
2
)
 2 ω 0,1
ω 0,1
ω 0,3
2  2
2  2
2
 s + Q s + ω 0,1   s + Q s + ω 0,2   s + Q s + ω 0,3 




1
2
3
(1)
Senza entrare nei particolari di progetto per i quali si rimanda a specifici testi come [4], i parametri della (1)
che realizzano le specifiche della
Tab. 1 sono:
ωn,1 = 6,158 ⋅ 108, ωn,2 = 6,072 ⋅ 108,
ωn,3 = 6,244 ⋅ 108, ω0,1 = 6,158 ⋅ 108,
ω0,2 = 5,637 ⋅ 108, ω0,3 = 6,726 ⋅ 108,
Q1 = 4,962, Q2 = 9,963, Q3 = 9,963.
La rete elettrica passiva in configurazione a pi-greco che sintetizza la funzione di trasferimento (1) è riportata
nella Fig. 3.
La risposta nel dominio della frequen-
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
(–0,56%); C4 = 6,454 pF = 4,3
pF//2,2 pF (0,71%) dove con il simbolo “+” abbiamo indicato un collegamento serie e con il simbolo “//”
un collegamento parallelo tra i componenti. Come si può notare gli errori percentuali legati al processo di
implementazione del filtro sono tutti
sotto all’1% e comunque tutti inferiori alla tolleranza tipica (1% o 5%)
che specificano i costruttori di componentistica SMD. Sempre nella Fig. 4
è mostrato (linea rossa) come si modifica la risposta in frequenza del filtro FM con la componentistica SMD
standard selezionata. Di fatto, come
atteso, si osserva una non significativa variazione della risposta in frequenza con un sostanziale accordo
con quanto previsto teoricamente sia
in termini di attenuazione in banda
d’interdizione sia in termini di frequenze di taglio a –3 dB.
Figura 4 – Risposta in frequenza
(attenuazione d’inserzione) del filtro FM
di Fig. 3. Linea blu: valori di progetto.
Linea rossa: valori serie SMD
T_M ƒ 49
N. 01ƒ
; 2012
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
…E I PARASSITI DEI COMPONENTI? stenza parassita pari a 200 mΩ per passa da 98 MHz a circa 97 MHz, 2)
Nel progetto fin qui descritto non abbiamo ancora considerato l’effetto sulla
risposta in frequenza dei parassiti dei
componenti. In base a quanto già discusso nei numeri precedenti di
Tutto_Misure [5,6,7,8], sostituendo a
ciascun condensatore e a ciascuna
induttanza (selezionata dalla famiglia
SMD in package 0603) il relativo modello circuitale equivalente, è possibile
simulare il circuito complessivo del filtro
FM che tiene conto dell’effetto dei parametri parassiti. In particolare per tutti i
condensatori utilizzati (110 pF, 51 pF,
4,3 pF, 3,3 pF, 2,2 pF, e 0,2 pF) sono
stati estrapolati dai dati forniti del
costruttore [10] una resistenza parassita di 50 mΩ e una induttanza parassita di 360 pH; analogamente per le
induttanze è stata estrapolata una
capacità parassita da 0,5 pF e una resi-
T_M ƒ 50
8,2 nH, 5 Ω per 180 nH e 6 Ω per
220 nH. Il fatto che la resistenza parassita per le induttanze sia diversa a seconda del valore della induttanza considerata dipende, come noto, dal fatto
che le induttanze sono realizzate con
l’impiego di ferriti le cui proprietà sono
molto più complicate da modellare
rispetto ai dielettrici dei condensatori e
fortemente dipendenti dalla frequenza.
I valori di resistenza parassita utilizzati
nella simulazione sono perciò quelli
relativi alla frequenza di centro banda
del filtro cioè 98 MHz.
La risposta in frequenza sempre in termini di attenuazione d’inserzione del
circuito che rende conto dell’effetto dei
parassiti è riportata in Fig. 5. Come è
possibile osservare la risposta in frequenza risulta morfologicamente diversa rispetto a quanto atteso. In particolare: 1) la frequenza di centro banda
l’attenuazione nella banda d’interdizione risulta essere di circa 41 dB contro i
60 dB richiesti e 3) la banda a –3dB si
allarga di circa 12 MHz passando da
88 MHz – 108 MHz a circa 80 MHz –
112 MHz.
Figura 5 – Risposta in frequenza (attenuazione
d’inserzione) del filtro FM di Fig. 3. Linea blu:
valori di progetto. Linea marrone: valori
serie SMD con effetto componenti parassiti
N. 01ƒ
;2012
Le considerazioni svolte ci permettono
senz’altro di concludere che l’effetto
dei parassiti può risultare deleterio su
tutto il progetto a radiofrequenza
soprattutto nelle situazioni in cui le
prestazioni del circuito dipendono
essenzialmente dall’interazione di
componentistica reattiva.
Viste le difficoltà incontrate, come
facciamo allora a progettare un filtro per la banda FM? Esistono per lo
meno due possibilità: la prima è
quella di cercare di tenere sotto controllo e di considerare fin dalle fasi
iniziali della progettazione l’effetto
dei parametri parassiti dei componenti avvalendosi di strumenti di progettazione che possono predire l’effetto dei parassiti prima di qualsiasi
realizzazione pratica, per esempio
valutando l’effetto delle perdite dei
componenti, selezionando quindi tra
le serie disponibili sul mercato quelle maggiormente performanti (per
esempio se il progetto lo consente si
può pensare di utilizzare induttori
avvolti in aria).
La seconda, nel caso in cui il tempo
sia la variabile di progetto più
importante, è quella di ricercare se
sul mercato esistano già realizzazioni collaudate e funzionanti che soddisfino alle specifiche richieste. Per
esempio, nel caso del filtraggio
della banda FM esistono alcune
soluzioni commerciali [11] che presentano caratteristiche sufficienti per
essere utilizzate con successo nelle
misure in campo aperto. Nella Fig. 6
sono mostrate le risposte in frequenza in termini di perdita d’inserzione
(opposto della attenuazione di inserzione) per le due soluzioni commerciali identificate: a connettore coassiale e a montaggio superficiale;
entrambe le soluzioni presentano
una attenuazione in banda di interdizione di oltre 70 dB e una frequenza di taglio a –3 dB di 80 MHz
e di 120 MHz.
cinamento delle legislazioni degli Stati membri relative alla compatibilità elettromagnetica e che abroga
la direttiva 89/336/CEE.
2. CISPR 16-1-4, “Specification for radio disturbance and immunity measuringapparatus
and
Figura 6: Esempio di Filtri FM commerciali
methods - Part 1-4: Radio
con montaggio a connettore coassiale
e con montaggio superficiale
disturbance and immunity
(per gentile concessione di Mini-Circuits)
measuring apparatus Ancillary equipment Radiated disturbances”, Ed. 3.0,
Carlo Carobbi si è laureato con lode in Inge2010.
gneria Elettronica nel
3. CEI EN 55022 - Class. CEI 110-5
1994 presso l’Università
- CT 210 - Fascicolo 9636 - Anno
di Firenze. Dal 2000 è
2009 - Edizione Quarta “Apparecchi
Dottore di Ricerca in
per la tecnologia dell’informazione “Telematica”. Dal 2001 è
Caratteristiche di radiodisturbo - Limiti
ricercatore
presso
il Dipartimento di
e metodi di misura”.
4. R. Schaumann, M.E. Van Valken- Elettronica e Telecomunicazioni dell’Uniburg, “Design of Analog Filters”, versità di Firenze dove è docente di
Oxford University Press, 15 January Misure Elettroniche e di Compatibilità
2001, ISBN-10: 0195118774, ISBN- Elettromagnetica. Collabora come ispettore tecnico con l’ente unico di accredi13: 978-0195118773.
tamento Accredia. È presidente del SC
5. C. Carobbi, M. Cati, C. Panco210/77B (Compatibilità Elettromagnetini, “The Radio Frequency Behavior
ca, Fenomeni in alta frequenza) del CEI.
of Passive Circuit Components:
The Capacitor – Parte 1”, Tutto_MisuMarco Cati si è laureato
re, periodico trimestrale, A&T,
con lode ed encomio son. 4/2010.
lenne in Ingegneria Elettro6. C. Carobbi, M. Cati, C. Panconica all’Università di Firenni, “The Radio Frequency Behavior
ze nel 2001. Dal 2005 è
of Passive Circuit Components:
Dottore di Ricerca in IngeThe Capacitor – Parte 2”, Tutto_Misugneria dell’Affidabilità,
re, periodico trimestrale, A&T, Manutenzione e Logistica. Dal 2005 fa
parte del reparto R&S di Esaote dove è
n. 1/2011.
7. C. Carobbi, M. Cati, C. Panconi, responsabile delle verifiche di Compatibi“The Radio Frequency Behavior of lità Elettromagnetica su dispositivi ecograPassive Circuit Components: The fici. Collabora come ispettore tecnico con
Inductor”, Tutto_Misure, periodico tri- l’ente unico di accreditamento Accredia.
Svolge attività di consulente nel campo
mestrale, A&T, n. 2/2011.
8. C. Carobbi, M. Cati, C. Panconi, della compatibilità elettromagnetica e
“The Radio Frequency Behavior of della sicurezza elettrica.
Passive Circuit Components: The ResiCarlo Panconi si è laustor”, Tutto_Misure, periodico trimereato nel 2003 in Ingegnestrale, A&T, n. 3/2011.
ria Elettronica all’Università
9. H.W. Ott, “Electromagnetic Comdi Firenze È Dottore di Ripatibility Engineering”, John Wiley &
cerca in “Controlli non diSons,
August
2009,
ISBN
struttivi”. Dal 1988 è inse9780470189306.
gnante di Laboratorio di
10. Johanson Technology, Camarillo, Elettrotecnica e di Elettronica nel triennio
RIFERIMENTI BIBLIOGRAFICI
CA - USA,
degli Istituti Tecnici e Professionali. Come
1. Direttiva 2004/108/CE del Parla- www.johansontechnology.com libero professionista svolge attività di conmento Europeo e del Consiglio, 15 11. Mini-Circuits, Brooklyn, NY - USA, sulenza nel campo della compatibilità elettromagnetica e della sicurezza elettrica.
dicembre 2004, concernente il ravvi- www.minicircuits.com
T_M ƒ 51
VISIONE
ARTIFICIALE
▲
A cura di Giovanna Sansoni ([email protected])
Nel blu dipinto di blu
IES – Imaging Elaboration Systems
“VOLARE”
The section on Artificial Vision is intended to be a “forum”
for Tutto_Misure readers who wish to explore the world of
components, systems, solutions for industrial vision and
their applications (automation, robotics, food&beverage,
quality control, biomedical). Write to Giovanna Sansoni
and stimulate discussion on your favorite topics.
RIASSUNTO
La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori della
rivista Tutto_Misure interessata a componenti, sistemi, soluzioni per la visione
artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare,
controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e sottoponetele
argomenti e stimoli.
Cari lettori, immaginate di andare in
ufficio e di trovare sulla vostra scrivania, oltre alla fattura del telefono e a
quella dell’energia elettrica, anche la
fattura relativa ai costi di utilizzo di un
sistema di elaborazione d’immagine (lo
vogliamo chiamare IES, come “Imaging
Elaboration System”?). Vi siete abbonati a IES perché vi fornisce una lista
di servizi che realizzare all’interno
della struttura nella quale operate sarebbe troppo costoso.
Se siete nel campo dei trasporti e lavorate con immagini termiche, IES vi offre
la possibilità di calibrarle a partire dalle
specifiche del vostro sensore termico e
dai parametri delle superfici da misurare. Il tecnico addetto alla gestione di
queste immagini non dovrà porsi domande troppo complesse su quali siano
i modelli che stanno alla base di questa
operazione. IES lo farà per lui.
Se vi occupate di leggere vetrini da un
microscopio e avete il problema di separare l’informazione legata alla struttura cellulare in esame dall’inevitabile
rumore introdotto dal dispositivo, IES vi
mette a disposizione strumenti di denoising e di deconvoluzione che vi consentono di evidenziare con un alto grado di
dettaglio la struttura biologica alla quale
siete interessati. Non dovete necessaria-
mente sapere tutta la teoria dei metodi
di denoising, né lo stato dell’arte sui
metodi di deconvoluzione. Il sistema vi
offre un banco di filtri per il pre-processing, insieme a indici che vi forniscono
informazioni in merito alla qualitàdell’immagine; vi consente inoltre di “disaccoppiare” le aberrazioni e le componenti out-of-focus delle vostre immagini premendo il tasto “Deconvoluzione”.
Se operate in un reparto di radiologia,
avrete certamente a che fare con immagini prodotte da sistemi TAC (Tomografia
Assiale Computerizzata) e RM (Risonanza Magnetica). Vi trovate sommersi da
stack d’immagini per le quali avete certamente problemi d’immagazzinamento,
problemi di visualizzazione e problemi
di elaborazione. L’immagazzinamento,
direte voi, è presto fatto. Basta avere un
Centro di Calcolo come si deve, che utilizzi modalità ben standardizzate
(DICOM ne è un esempio), ne condivida
i protocolli e le modalità di salvataggio.
Ma IES vi consentirebbe di comprimere i
dati in modo efficiente prima di salvarli
nei vostri server: anche in questo caso
non vi dovreste preoccupare di come si
fa. Non dovreste chiedere alla vostra
direzione sanitaria di acquistare hardware o software specifico, e non avreste
bisogno di assumere un ingegnere per
effettuare la compressione. Tutti gli algoritmi sono nel sistema IES, che accetta i
vostri stack e ve li restituisce in forma
compressa, corredati delle informazioni
circa la percentuale di compressione, e
la qualità della stessa.
IES vi consentirebbe anche di visualizzare gli stack d’immagini utilizzando
una modalità molto simile a quella che
utilizzate per vedere il posto nel quale
andrete in vacanza quest’anno mediante Google Earth, e cioè in modo interattivo, scegliendo quali parti dello
stack trasmettere a bassa risoluzione e
quali ad alta risoluzione, potendo vedere la stessa scena secondo punti di osservazione diversi, e utilizzando codifiche diverse e sovrapposte (non sto
pensando solo a falsi colori, ma a
mappe funzionali, che indichino livelli
di concentrazione, grado di ossigenazione, ecc.).
Quanto alle elaborazioni possibili sulle
immagini, lo so come la pensate: l’analisi visiva da parte del diagnosta è fondamentale ma certo, avere a disposizione un sistema che lo aiuti nell’indagine non sarebbe male. IES vi potrebbe
essere di aiuto, ad esempio riducendo
gli artefatti del movimento, i disturbi di
un segnale eco, gli speckle presenti in
un OCT, o la saturazione indotta da elementi protesici.
E che dire delle possibili applicazioni
nell’ambito dei controlli non distruttivi,
laddove il riconoscimento di difetti
viene fatto mediante uno o più sistemi
di visione? Se il sistema si potesse ridurre alla sola telecamera e le immagini
potessero poi essere trasferite a IES, per
il riconoscimento dei difetti?
Il lettore che è arrivato fin qui si sta chiedendo se IES sia la versione moderna
di “Mother” in “2001 Odissea nello
spazio”, cult movie di Stanley Kubric, di
cui, francamente, non ho mai capito la
conclusione. Vi tranquillizzo in proposito: IES è semplicemente un prototipo di
sistema di elaborazione e gestione di
T_M
N.
1/12 ƒ 53
immagini utilizzante tecnologie basate
su Cloud Computing.
Quando si parla di Cloud Computing si
fa riferimento a un insieme di tool informatici aventi come finalità quella di fornire servizi a coloro che ne facciano
richiesta (client) attingendo a risorse la
cui collocazione, gestione e manutenzione sia a carico di altri. Il paragone
con la rete di distribuzione elettrica è a
tal proposito illuminante: ciascuno di
noi è un client che utilizza il servizio
secondo tariffe stabilite. Non paghiamo
quello che non consumiamo, non dobbiamo preoccuparci di sapere dove sia
la cabina primaria di distribuzione, né
dobbiamo manutenerla. Ci pensa il
gestore del servizio. Inoltre non ci è
richiesta una particolare specializzazione in materia di flussi di corrente, trifase e impedenze per accendere una
lampadina: la parte più spinosa è riuscire a leggere la bolletta (speriamo
che il decreto semplificazione ci aiuti in
tal senso!).
In materia di Cloud Computing, l’obiettivo è lo stesso: fare sì che al client sia
consentito fare SOLO il client, non dovendo chiedersi dove prendere le risorse per attrezzarsi di server locali, di programmi con licenze singole, di operatori qualificati e specializzati, ed essendo
garantito nella continuità del servizio. La
metafora della nuvola è volta a “far sparire” dentro la nuvola tutto ciò che il
client non è tenuto a sapere: quali sono
i server che immagazzinano le informazioni e quali i programmi che le elaborano, quali i linguaggi utilizzati nei programmi, come debbano essere formattati i dati, come trasferirli in modo sicuro, con quali metodi essi vengano analizzati, e così via.
Per realizzare la nuvola è necessario
disporre di architetture che, come minimo, consentano la totale traducibilità di
formati e contenuti “locali” in un formato condiviso all’interno della nuvola.
Non mi addentrerò nella selva di sigle
che ad oggi vengono utilizzate per fare
riferimento a queste architetture per due
ragioni: l’una è che non è il mio mestiere, l’altra è che non è nemmeno il
vostro. A noi utilizzatori serve sapere
che si può fare, e che quello che sta
dentro la nuvola tutto è tranne che nebuloso: al contrario è un insieme molto
T_M ƒ 54
N. 01ƒ
; 2012
■
VISIONE
ARTIFICIALE
ordinato di protocolli di comunicazione, che “traducono”le informazioni in
entrata per renderle comprensibili ed
elaborabili da risorse distribuite e, a
valle dell’elaborazione, le riportano
alla lingua originale.
La realizzazione di un sistema basato
su Cloud Computing e finalizzato alla
gestione delle immagini come IES è
solo agli inizi. I motivi sono molteplici,
e sono principalmente legati alla complessità dell’informazione che deve
transitare, che è per l’appunto l’immagine. Un primo problema è la comprimibilità delle immagini, in relazione
alla velocità con la quale possono essere inviate alla nuvola, elaborate nella
nuvola eda questa trasferite all’indietro.
È infatti evidente che l’utilizzatore client,
se deve attendere ere geologiche in
linea, alla fine preferirà avere il suo
sistema locale di gestione.
Un secondo problema è il protocollo
da utilizzare nel trasferimento dell’immagine: deve essere un protocollo che
sia il più semplice possibile, leggibile da
una amplissima varietà di macchine,
con piattaforma all inclusive (Linux,
Mac, Windows…). È ovvio che lo standard XML si mostra assolutamente adatto allo scopo: si tratta di una codifica
“non codifica”, dato che utilizza una
descrizione testuale. L’aspetto delicato è
la dimensione dei file risultanti, e questo
riporta al problema della compressione.
Un terzo aspetto da tenere in considerazione è la filosofia di elaborazione
delle immagini da seguire: se nell’elaborazione “in locale”, è ovvio partire
dalle immagini “tali e quali”, cioè elaborare tutti i valori presenti nella matrice immagine, quando si guarda a un’elaborazione fatta in cloud bisogna pensare per prima cosa a massimizzare la
quantità d’informazione non significativa. Si entra così nel campo dell’analisi
d’immagini sparse,definite come
immagini che, se osservate in un dominio diverso da quello usuale, sono matrici per la maggior parte riempite di valori molto vicini allo zero, e pertanto
prive d’informazioni. Il campo di studio
al quale mi riferisco è quello dell’analisi Wavelet (ma ci sono anche le curvlet, e le ridglet...).
Tali tecniche, vi assicuro, necessitano di
una base teorica estremamente com-
plessa, fatta di analisi matematica, di
statistica, e di metodi di analisi di fenomeni stocastici. Quindi, è meglio che ci
pensi la nuvola. Tuttavia mostrano un
potenziale di applicazione di tutto rilievo, quando si pensi che servono a comprimere (lo standard JPEG2000 è solo
l’inizio), a ridurre il rumore, a effettuare
l’enhancement di dettagli, e a trasferire
in multirisoluzione stack d’immagini.
Io sono molto fiduciosa: la fusione di
competenze informatiche, misuristiche,
matematiche si renderà indispensabile
nel futuro. Forse anche per questo i miei
laureati in elettronica, che ne sanno di
misura e di visione, quando vanno ai
colloqui in azienda (NdR: una delle
aziende è fatta di ex dottorandi del mio
laboratorio, fondatori del nostro primo
spin-off) si trovano test d’ingresso fatti al
50% di quesiti d’informatica...?
Abbonarsi ORA
per 2 anni a
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
CONVIENE!!!
66 euro
(anziché 72 euro)
L’abbonamento biennale
Vi offre 8 numeri cartacei
+ 8 telematici
(Tutto_Misure News)
Per richiedere le modalità
di abbonamento,
telefonare al n° 011/0266700
o inviare una e-mail a:
[email protected]
I SERIALI
MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA
Loredana Cristaldi 1, Massimo Lazzaroni 2
Misurare l’affidabilità
Sollecitazioni e degrado
MEASURING DEPENDABILTY
In the paper the relationship between the stress externally applied at the
component or material and the strength is introduced. To this aim information concerning the failure condition can be obtained with reliability tests
and measurements.
RIASSUNTO
Il lavoro evidenzia come, attraverso le misure e le tecniche di affidabilità, si
possa definire una relazione tra la sollecitazione applicata esternamente a
un dispositivo, o a un materiale, e il comportamento del materiale stesso. La
risposta del materiale, o dispositivo, alla sollecitazione esterna ne influenza
il processo di degrado e,in ultima istanza, la condizione di guasto.
nici, ma anche su altre tipologie di
componenti (si pensi ad esempio agli
isolamenti delle macchine elettriche);
• meccanici – vanno considerati gli
shock legati all’installazione e al trasporto e, in particolare, le vibrazioni a cui
sono soggetti i dispositivi durante il loro
normale funzionamento (si pensi, ad
esempio, al caso dei dispositivi installati
sui diversi tipi di mezzi di trasporto);
• elettrici – interferenze di tipo elettromagnetico, legate alle caratteristiche dell’alimentazione o alla mutua
interferenza tra apparati.
In generale ogni dispositivo è soggetto ai fattori d’influenza: è ovvio che è
proprio la tipologia di dispositivo e di
utilizzo dello stesso a rendere un fattore predominante rispetto agli altri.
Dal momento che le modalità di utilizzo
dei componenti e dei materiali hanno un
forte impatto sull’affidabilità dei sistemi
[1-3], lo studio dei modelli è stato affiancato, in ambito normativo, dalla definizione di parametri e di griglie da utilizzare per la selezione e la qualificazione
dei materiali/componenti oltre che per la
definizione degli standard operativi. Per
capire l’importanza di questo aspetto
basti pensare, relativamente alle condizioni ambientali, alle classificazioni definite in ambito elettronico dai diversi enti
nazionali e internazionali (per esempio
ETSI - European Telecommunication Standards Institute e IEC - International ElectrotechnicalCommission). Le norme prodotte specificano, infatti, i limiti di stress
e le condizioni di prova relativamente a:
temperatura, umidità, precipitazioni,
radiazioni, sabbia, rumore, vibrazioni,
shock elettrico e meccanico.
INTRODUZIONE
LE SOLLECITAZIONI
L’affidabilità “fisica” si basa sullo studio della vita di un componente, o di
un sistema, attraverso opportuni modelli matematici. In qualunque ambito ci si trovi a operare, meccanico,
elettrico o elettronico, la definizione
e l’individuazione dei modelli richiede la conoscenza dello stato del componente o sistema in termini di ingressi (per es. le condizioni di carico), di fattori d’influenza (ambientali, meccanici, elettrici ecc.) e,
non ultimo, delle prestazioni richieste. Ciò consente la formalizzazione
di opportune equazioni che includono le variabili rappresentanti il fenomeno che ha dato origine alla definizione del modello, gli ingressi e le
misure.
Lo scopo di tutto ciò è, in genere, lo
studio dei meccanismi che possono
eventualmente portare a processi di
degrado, affaticamento, invecchiamento. È evidente che tali meccanismi possono essere talvolta estremamente rapidi, al limite istantanei
quando le sollecitazioni sono di entità e dinamica tali da eccedere la
resistenza del materiale, e altre volte
assai lenti, instaurandosi, in quest’ultima eventualità, i tipici fenomeni di affaticamento.
Lo studio di un modello per un componente che sia utile ai fini della definizione di parametri affidabilistici presuppone che vengano ben interpretati
due aspetti fondamentali dello studio
fisico dell’affidabilità: i meccanismi di
guasto e i tipi di guasto (che saranno
descritti in un successivo articolo).
Il meccanismo di guasto, definito
come il processo chimico-fisico che
porta al guasto, dipende dalle sollecitazioni applicate al dispositivo. Al loro
instaurarsi concorrono sia le modalità
di utilizzo durante il normale funzionamento sia i fattori d’influenza legati
all’ambiente. A seconda del contesto
operativo i fattori d’influenza che, cumulandosi, portano allo stato di avaria
possono essere di tipo differente. Ad
esempio, per i componenti elettronici la
temperatura di lavoro del componente
è spesso un fattore d’influenza estremamente importante, mentre per componenti d’impianti chimici lo è spesso
la capacità di corrosione del fluido presente nel sistema.
È possibile suddividere i principali fattori d’influenza in tre tipiche tipologie:
• climatici – l’aumento della tempera- 1 Politecnico di Milano
tura ambiente rende meno agevole la [email protected]
dissipazione del calore e ciò incide sul 2 Università degli Studi di Milano
comportamento dei componenti elettro- [email protected]
T_M
N.
1/12 ƒ 55
N. 01ƒ
; 2012
Le norme classificano gli ambienti
definendo per ognuno di essi i valori
dei parametri ambientali caratteristici
(temperatura, umidità relativa, vibrazioni, ecc.). Si veda a questo proposito la Tab. 1 relativa alle condizioni
normali standardizzate, che fa riferimento a temperature intese come baricentro di quel particolare diagramma
che, mostrando le combinazioni dei
valori possibili della temperatura dell’aria e dell’umidità relativa, è noto
con il nome di climatogramma [4].
seguito di un guasto al sistema di condizionamento, qualora presente).
Nella zona intermedia deve essere
garantita la piena funzionalità degli
apparati, mentre in quella più esterna
è ammesso un degrado, che però
deve essere reversibile.
Ci si potrebbe chiedere se sia possibile trovare una relazione che leghi le
sollecitazioni imposte alla resistenza
del componente, la qual cosa consentirebbe di progettare dispositivi per i
quali la condizione di rottura verrebbe raggiunta solo a fronTabella 1 – Esempio di classificazione ambientale
te dell’applicazione di
elevati livelli di sollecitazione. In realtà sia il carico sia la resistenza del
componente seguono di
fatto una loro distribuzione statistica.
Nell’ipotesi di una distribuzione di tipo normale
(va tuttavia segnalato che
in letteratura sono presenti studi in cui tale analisi è compiuta ricorrendo
anche a differenti distribuzioni) si può ipotizzare che l’affidabilità diTre sono le zone individuate nel cli- penda dalla distanza che esiste fra le
matogramma:
“code” delle due distribuzioni (come
• una più interna che rappresenta le qualitativamente illustrato in Fig. 2).
condizioni incontrate per il 90% del Tale distanza porterebbe quindi alla
tempo;
definizione di un opportuno margine
• una intermedia riferita a condizioni di sicurezza. In realtà è lo studio dei
ambientali limite normali;
parametri caratteristici della distribu• una più esterna riferita a condizioni zione, per es. la sua media e la sua
ambientali eccezionali (ad esempio a deviazione standard, che consente
la definizione quantitativa di tale
margine.
Figura 2 – Relazione tra stress e resistenza
Figura 1 – Esempio di climatogramma
Indicando con L ed S (Fig. 3) i valori
medi e con σL e σS le deviazioni standard delle distribuzioni rispettivamente della sollecitazione applicata al dispositivo (Load) e della sua resistenza
N. 01ƒ
;2012
(Strength), è possibile definire due
indici: il primo esprime un margine di
sicurezza (MS) mentre il secondo (LR)
tiene conto della forma della sollecitazione [3, 5, 6]:
MS =
LR =
S −L
σ S2 + σ L2
σL
σ S2
+ σ L2
(1)
(2)
Figura 3 – Relazione tra stress e resistenza:
analisi dei legami
La probabilità che avvenga un guasto
è, ovviamente ma anche intuitivamente, legata alla distanza e alla forma
delle due distribuzioni (illustrate, sempre qualitativamente, in Fig. 3).
Com’è evidenziato dai grafici di
Fig. 3, mentre il caso illustrato in (a)
rappresenta la condizione ideale, in
(b) e (c) sono riportati due possibili
casi in cui potrebbe insorgere (con
frequenza elevata) il guasto: in (b) il
margine di sicurezza è basso in quanto, pur avendo una distribuzione della
sollecitazione molto stretta, è proprio
la campana della resistenza ad allargarsi. Come evidenziato, la probabilità di guasto interessa solo una pic-
cola frazione dei dispositivi che rispondono a tale legge. In (c) è invece
rappresentata una situazione a maggiore criticità: in questo caso la probabilità di guasto per sollecitazione
interessa una frazione decisamente
più consistente di dispositivi.
Quanto detto, con particolare riferimento al caso (b), fornisce un elemento di indagine assai utile qualora si sia interessati, come avviene
praticamente sempre, a effettuare il
controllo della qualità: lì dove i
requisiti di affidabilità sono stringenti ma i controlli sull’intero lotto non
sono possibili o sono sconsigliabili
per l’elevato costo che ne deriverebbe (si pensi ai sistemi dove è prevalente la presenza di componenti elettronici), si può attuare una strategia
di prova tale da sottoporre i dispositivi a un overstress che elimini
quelli la cui resistenza appartiene
alla coda della distribuzione. È questo un esempio di quelle prove di
screening che hanno per obiettivo,
tra l’altro, quello di evidenziare la
percentuale di componenti intrinsecamente deboli che caratterizzano
la zona dei guasti prematuri della
curva a vasca [1].
▲
I SERIALI
MISURE E FIDATEZZA
posto all’azione delle sollecitazioni
mantiene inalterate le proprie caratteristiche nel tempo. In realtà la resistenza del dispositivo va incontro a un
continuo degrado con conseguente
modifica delle sue caratteristiche
nominali. Richiamando per semplicità
l’ipotesi di distribuzione normale, è
possibile ipotizzare un’evoluzione
qualitativa nel tempo della resistenza
del componente sottoposto alle sollecitazioni esterne del tipo indicato in
Fig. 4.
Corre, tuttavia, l’obbligo di segnalare che l’andamento di figura è del
tutto qualitativo, fermo restando il
principio secondo cui, nel tempo, le
due distribuzioni tendono ad avvicinarsi.
Definire un andamento come quello
indicato presuppone la conoscenza
del comportamento del dispositivo attraverso una caratterizzazione che
può passare attraverso un modello
analitico ma, sicuramente, passa dalle prove di vita eseguite sui dispositivi
della stessa famiglia.
CONCLUSIONI
In questo lavoro si è cercato di mettere in evidenza l’importanza di conoscere la relazione di legame tra la
IL DEGRADO
sollecitazione applicata esternamente
NEL TEMPO DEI COMPONENTI
a un dispositivo, o a un materiale, e
il comportamento del materiale stesCom’è immaginabile, solo nel caso so. Anche se nell’articolo non si è
puramente ideale un dispositivo sottopotuto scendere in ulteriori
dettagli, appare evidente
che la conoscenza di tale
relazione porta alla definizione e all’individuazione
dei modelli fisico-chimici di
degrado. È anche chiaro il
fatto che tecnologie diverse,
come ad esempio quella
elettrica ed elettronica rispetto alla meccanica, manifestano (o possono manifestare) comportamenti completamente diversi. Per il costruttore di componenti lo
studio del meccanismo di
guasto è di estremo interesFigura 4 – Andamento qualitativo del degrado
se per migliorare le prestadella resistenza
zioni di affidabilità del di-
T_M ƒ 57
N. 01ƒ
; 2012
spositivo o del materiale. In un successivo articolo, infine,
saranno presentate alcune applicazioni di quanto qui brevemente illustrato.
BIBLIOGRAFIA
[1] M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P.
Rinaldi, Le parole della fidatezza, Tutto_Misure - ISSN
2038-6974 - Anno 13, N° 1, Marzo 2011, pagg. 49-53
- ISSN 2038-6974.
[2] M. Catelani, L. Cristaldi, M. Lazzaroni, Le funzioni di
affidabilità, Tutto_Misure - ISSN 2038-6974 – Anno 13,
N° 2, Giugno 2011, pagg. 131-134.
[3] M. Lazzaroni, L. Cristaldi, L. Peretto, P. Rinaldi and
M. Catelani, Reliability Engineering: Basic Concepts and
Applications in ICT, Springer, ISBN 978-3-642-20982-6,
e-ISBN 978-3-642-20983-3, DOI 10.1007/978-3-64220983-3, 2011 Springer-Verlag, Berlin Heidelberg.
[4] ETSI ETS 300 019-1-3-Edition 1-1992-02, equipment
Engineering (EE) – Environmental conditions and environmental tests for telecommunications equipment; Part
1-3: Classification of environmental conditions; Stationary use at weather protected locations.
[5] M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto,
P. Rinaldi, “L’affidabilità nella moderna progettazione:
un elemento competitivo che collega sicurezza e certificazione”, Collana I quaderni del GMEE, Vol. 1 - Editore: A&T, Torino, 2008, ISBN 88-90314907, ISBN13: 9788890314902.
[6] R. Bellington, R.N. Allan: “Reliability Evaluation of
Engineering Systems” - Plenum Press, NY, 1983.
Loredana Cristaldi è Professore Associato
di Misure Elettriche ed Elettroniche presso il
Dipartimento di Elettrotecnica del Politecnico
di Milano. La sua attività di ricerca è svolta
principalmente nei campi delle misure di
grandezze elettriche in regime distorto e dei
metodi di misura per l’affidabilità, il monitoraggio e la diagnosi di sistemi industriali. Fa parte del CT
56 – Affidabilità del CEI.
Massimo Lazzaroni è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Tecnologie dell’Informazione dell’Università degli Studi di Milano. La sua
attività di ricerca è rivolta alle misure per le applicazioni industriali, per la diagnostica dei sistemi industriali, per l’Affidabilità e il Controllo della Qualità. Fa parte del CT 85/66 – Strumenti di misura delle grandezze elettromagnetiche Strumentazione di misura, di controllo e da laboratorio e del CT 56 –
Affidabilità del CEI.
T_M ƒ 58
METROLOGIA
LEGALE
▲
A cura dell’Avv. Veronica Scotti ([email protected])
Le assicurazioni a tutela
dell’attività di misura e prova
Insurances covering test and measurement activities
LEGAL AND FORENSIC METROLOGY
This section intends to discuss the great changes on
Legal Metrology after the application of the Dlgs
22/2007, the so-called MID directive. In particular, it
provides information, tips and warnings to all “metric
users” in need of organizations that can certify their
metric instruments according to the Directive. This section is also devoted to enlighting aspects of ethical
codes during forensic activities where measurements
are involved. Please send all your inquiries to Ms. Scotti or to the Director!
RIASSUNTO
Questa rubrica intende discutere i significativi cambiamenti in tema di
Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni,
consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del
loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di
aspetti etici correlati allo svolgimento di misurazioni legate ad attività in
ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete
accontentati!
IL CONTRATTO ASSICURATIVO
Un tema d’interessante attualità, considerato l’estendersi delle responsabilità associate all’attività di misura,
prova e certificazione, è quello dei
contratti assicurativi a copertura dei
rischi collegati allo svolgimento di
determinati compiti e incarichi. In particolare, il contratto assicurativo che
assume maggiore rilevanza è la polizza RCT (Responsabilità Civile verso
Terzi), ovvero quel contratto volto a
indennizzare un soggetto del danno
patito in conseguenza del verificarsi
dell’evento/rischio contemplato dalla
polizza.
Al riguardo è fondamentale fare riferimento a due concetti che, apparentemente, sembrano essere diversi ma
tendono a sovrapporsi divenendo
quasi un aspetto unitario poiché circoscrivono l’area di competenza della compagnia ai fini del risarcimento:
oggetto della polizza e limitazioni
di responsabilità della compagnia.
Oggetto della polizza assicurativa
RCT è il rischio coperto dalla polizza,
ovvero (solitamente) una elencazione
di eventi o di tipologie di attività,
potenzialmente verificabili, che risultano coperti dalla polizza, con l’effetto che il soggetto che abbia patito un
danno in dipendenza di tali attività
venga indennizzato dalla compagnia. Le clausole limitative della responsabilità sono, invece, come indica la terminologia, la previsione di
condizioni o di eventi che, sebbene
inclusi nell’oggetto di polizza, non
possono essere indennizzati e, pertanto, sebbene astrattamente riconducibili agli eventi coperti dal contratto
assicurativo, per la loro specificità,
non potranno essere risarciti tramite
tale mezzo. Per questi eventi, qualora
si verificassero e fossero, ai sensi del
codice civile, riconducibili a responsabilità del soggetto autore del danno, l’onere del risarcimento sarebbe
posto direttamente in capo al soggetto assicurato, seppure a titolo di mera
colpa lieve (vedi infra).
Sebbene i due concetti citati siano
diversi, la loro funzione è analoga in
quanto destinati a prevedere, rispettivamente, i rischi coperti e le esclusioni; disciplinano cioè, letti in modo
complementare, il campo di applicazione della polizza stipulata.
Sul punto la Corte di Cassazione è
intervenuta più volte a dichiarare la
nullità di alcune clausole limitative della responsabilità in quanto, atteso il loro tenore spesso vessatorio, non erano approvate espressamente secondo lo schema previsto
dalle norme stabilite in materia ed
erano volte a ridurre e ridimensionare
i rischi coperti dalla polizza. Infatti,
spesso nelle polizze RCT, per definire
il campo di applicazione del contratto
assicurativo si è soliti utilizzare la seguente espressione: La Società si obbliga a tenere indenne l’assicurato di
quanto questi sia tenuto a pagare,
quale civilmente responsabile a sensi
di legge, a titolo di risarcimento per
danni involontariamente cagionati a
terzi, sia per lesioni personali che per
danneggiamenti a cose. Tale definizione, che riproduce quasi fedelmente la norma civilistica in materia di
danni extracontrattuali1, evidenzia
una notevole ampiezza della polizza
RCT che richiede, evidentemente a
tutela della compagnia, alcune limitazioni ovvero l’individuazione di aree
ove la polizza è del tutto inoperante.
I limiti individuati nel contratto assicurativo non costituiscono oggettivamente, sotto il profilo sostanziale, una violazione delle norme: per tale ragione
non sono considerabili automaticamente nulli. Tuttavia ai fini della loro
validità, secondo l’orientamento mani-
T_M
N.
1/12 ƒ 59
Un importante ulteriore elemento nell’ambito delle polizze RCT è dato
dalla connotazione soggettiva della
condotta posta in essere da colui che
ha determinato l’evento dannoso. È
infatti opportuno rammentare che le
ipotesi di danni coperti dalla polizza
RCT solitamente riguardano una condotta colposa da parte del soggetto assicurato mentre sono escluse, per
definizione, le condotte dolose ovvero
volontarie poste in essere dagli assicurati. La condotta colposa può tuttavia manifestare alcune sfumature che,
sebbene apparentemente trascurabili
giacché sempre di colpa si tratta, determinano l’obbligo o meno da parte
della compagnia assicuratrice d’indennizzare il danno che la condotta
colposa ha generato.
Le gradazioni comunemente riconosciute della entità della colpa sono:
– Colpa lievissima
– Colpa lieve
– Colpa grave
Va necessariamente evidenziato che le
polizze assicurative RCT standard prevedono la copertura per danni cagionati per colpa lievissima e colpa lieve,
mentre escludono totalmente la colpa
grave, assimilandola quasi al dolo. In
realtà sono previste ulteriori polizze
(meglio definite come integrazioni alla
polizza RCT classica) che contemplano
il risarcimento anche per danni cagionati con colpa grave, ma si tratta di
contratti assicurativi autonomi (e complementari) rispetto alla assicurazione
per risarcimento derivanti da responsabilità civile verso terzi.
In linea generale il quadro brevemente
descritto sembra piuttosto chiaro e inequivocabile (colpa lieve e lievissima =
copertura; dolo e colpa grave = no
copertura, salvo il caso di stipula di
apposita polizza integrativa che con-
no impiegati nelle applicazioni per l’automatizzazione nel settore industriale e, grazie alla tecnica di misurazione a frequenza
portante, misurano grandezze come la
forza, la deformazione, il momento torcente e la pressione, in maniera semplice e
affidabile.
La tecnologia Field DeviceTool (FDT) assicura una parametrizzazione unitaria
delle apparecchiature di campo di produttori diversi. Si tratta in questo caso di
una definizione delle interfacce e delle
funzioni, che semplifica il processo di
engineering nella tecnologia di automatizzazione. Il fulcro di questa tecnologia
è
rappresentato
dai cosiddetti Device Type Manager
(DTM), messi a disposizione dal produttore delle apparecchiature di campo sotto forma di
driver standardizzati. Con essi è possibile prevedere un
efficiente asset management degli impianti, indipendentemente dal produttore o dal protocollo fieldbus. Inoltre,
grazie alla tecnologia FDT si possono
parametrizzare e
gestire centralmente
gli amplificatori di misura assieme ad
altre apparecchiature di campo, e allo
stesso tempo leggere i dati aggiornati,
visualizzati su un sistema sovraordinato.
L’amplificatore di misura digiCLIP è già
impiegato con successo dai clienti in abbinamento alla tecnologia FDT, ad esempio
nell’industria delle macchine da stampa. Il
DTM per l’amplificatore di misura digiCLIP
viene fornito su CD insieme a ogni modulo,
ma è anche disponibile sul sito
www.hbm.com/it/menu/prodotti/
amplificatori-industriali,
da dove è possibile scaricarlo gratuitamente.
▼
festato dalla giurisprudenza, è necessaria un’approvazione espressa formalizzata mediante apposita sottoscrizione, secondo quanto stabilito
dal codice civile per le clausole vessatorie ai sensi dell’art. 13412.
Il rischio insito in un’amplificazione
delle ipotesi di clausole di limitazione
della responsabilità (ovvero di riduzione dell’oggetto della polizza e quindi
diminuzione delle ipotesi di rischio coperto dal contratto assicurativo) è dato
principalmente dal fatto che, vista la
tecnica espressiva utilizzata per tali
condizioni, che sono frequentemente
indicate in maniera estremamente generica, si assista ad una indebita riduzione dei rischi coperti dalla polizza
con la conseguente inoperatività del
contratto assicurativo per molteplici fattispecie, per le quali al contrario l’assicurato ritiene (erroneamente) di essere
coperto e garantito.
NEWS
N. 01ƒ
; 2012
▲
METROLOGIA
LEGALE
SUPERVISIONE
EFFICIENTE
DEI MACCHINARI
TRAMITE IL CONTROLLO
DELLA FORZA, GRAZIE
AL DTM CERTIFICATO
NEGLI AMPLIFICATORI
DI MISURA DIGICLIP
LHBM, lo specialista in tecnica di misura-
zione, offre ora per il suo amplificatore di
misura digitale di tipo digiCLIP un DTM
(Device Type Manager) certificato, con il
quale è possibile ricorrere alla tecnologia
Field Device Tool (FDT).
Il DTM per amplificatore di misura digiCLIP
ha ottenuto infatti la certificazione dall’ufficio conformità del FDT Joint Interest Group
e sarà inserito nell’elenco dei dispositivi
certificati a partire da subito
(www.fdtgroup.org/de/product
catalog/certified-dtms).
In tale elenco vengono accolti soltanto quei
dispositivi che corrispondono alla norme
stabilite dal gruppo FDT e si dimostrano poi
ineccepibilmente funzionanti nel loro impiego sul campo.
Gli amplificatori di misura digiCLIP vengo-
T_M ƒ 60
N. 01ƒ
;2012
tra soggetti operanti nel medesimo
campo di attività. Tale considerazione
permette quindi a colui il quale ha causato un danno di prevedere anticipatamente (con un certo grado di ragionevolezza) l’esito di una istruttoria volta a
valutare la sua condotta dalla quale sia
conseguito un evento dannoso, nonché
di riconoscere se trattasi di colpa lieve
o grave, alla luce dello stato delle
conoscenze tecniche al momento in cui
è avvenuto il fatto.
Tuttavia ai fini della copertura assicurativa non è sufficiente individuare se
la condotta colposa fonte di danno
ricada o meno nelle fattispecie contemplate dalla polizza, in quanto vi
sono altri elementi da considerare per
ottenere l’indennizzo del risarcimento; in particolare tutte le polizze prevedono un termine, solitamente
perentorio e decadenziale (in genere
sono 60 giorni ma varia da compagnia a compagnia), entro il quale
comunicare alla compagnia l’accaduto (che può coincidere con il momento del verificarsi dell’evento dannoso
ovvero con il momento della ricezione
della richiesta di risarcimento del
danno della parte lesa) così come è
previsto (per legge) un termine
prescrizionale di due anni per il
riconoscimento dei propri diritti.
Pertanto, ai fini della operatività della
polizza non è sufficiente che l’evento sia coperto da assicurazione, ma è fondamentale il rispetto
delle tempistiche previste dalla legge
e dalle condizioni contrattuali per l’esercizio dei diritti derivanti dal contratto assicurativo. Diversamente, in
caso di mancato rispetto di ogni singola condizione contrattuale indicata
in polizza per la richiesta d’indennizzo, sorge l’obbligo di risarcimento a carico del soggetto
autore del danno5 che, contrariamente a quanto avviene per le compagnie assicurative, esposte a un termine di prescrizione biennale, resta,
invece, assoggettabile a richiesta di
risarcimento per 5 anni a decorrere
dal verificarsi dell’evento.
Infine, è opportuno specificare, sebbene sia circostanza nota, che nel caso in cui il risarcimento del danno sia
richiesto in sede di procedimento
■
templi la colpa grave): in realtà la
distinzione dei casi di colpa diventa
tanto più difficile quanto più complessa
è l’attività considerata come oggetto di
polizza. La colpa, secondo la definizione tradizionale, è costituita dalla
violazione delle norme di comune
conoscenza, e l’atteggiamento si può
manifestare sia attraverso l’inconsapevolezza o ignoranza dell’esistenza di
tali norme, sia attraverso la conoscenza di tali norme e la loro violazione
consapevole, con la prefigurazione del
possibile verificarsi del danno unitamente all’accettazione del rischio.
Per il professionista3 la colpa lieve si
manifesta attraverso la violazione di
regole particolari attinenti il settore di
attività ma che rappresentano comunque un aspetto marginale: viceversa la
colpa grave è costituita essenzialmente
dall’assenza del livello minimo di cultura e di esperienza indispensabile. Concorre, poi, a formare la colpa grave
l’errore inescusabile derivante dalla
mancata applicazione delle cognizioni
generali e fondamentali attinenti alla
professione, ovvero nel difetto di quel
minimo di abilità, perizia tecnica e diligenza, che non devono mai mancare
in chi esercita una attività da ritenersi
altamente qualificata. Infatti, le attività
non ripetitive che richiedano specifiche
competenze e conoscenze, come quelle che spesso è chiamato a svolgere il
tecnico che esegue prove particolari o
utilizzi metodi ancora in corso di sperimentazione che non abbiano ancora
trovato norme e protocolli di riferimento4, possono porre problemi interpretativi circa il grado di colpa da associare ad un evento dannoso verificatosi in
conseguenza di dette attività.
L’indagine volta ad accertare se sussista colpa o meno (escludendo ovviamente il caso di dolo) è necessariamente svolta con l’ausilio di soggetti
particolarmente esperti nella materia
oggetto di esame, in quanto gli elementi che devono essere valutati ineriscono agli aspetti tecnici di cui, solitamente, il soggetto chiamato a giudicare ha scarsa conoscenza. Pertanto si
può sostenere che il giudizio che
riguarda se una condotta debba essere considerata colposa o meno è una
sorta di giudizio inter pares, o meglio
METROLOGIA
LEGALE
penale (avviato per danneggiamento,
lesioni ecc.), la polizza RCT resta
operante esclusivamente per
gli aspetti patrimoniali relativi
all’indennizzo mentre rimangono a
carico dell’autore del danno le eventuali sanzioni derivanti dal processo
che hanno natura puramente individuale e personale.
NOTE
1
Art 2043 c.c. - Qualunque fatto doloso o colposo, che cagiona ad altri un
danno ingiusto, obbliga colui che ha
commesso il fatto a risarcire il danno.
2 In ogni caso non hanno effetto, se
non sono specificamente approvate
per iscritto, le condizioni che stabiliscono, a favore di colui che le ha predisposte, limitazioni di responsabilità,
facoltà di recedere dal contratto o di
sospenderne l’esecuzione, ovvero
sanciscono a carico dell’altro contraente decadenze, limitazioni alla facoltà di opporre eccezioni, restrizioni
alla libertà contrattuale nei rapporti
coi terzi, tacita proroga o rinnovazione del contratto, clausole compromissorie o deroghe alla competenza dell’autorità giudiziaria.
3 La nozione qui considerata di professionista è più ampia rispetto a quella comunemente intesa di soggetto
iscritto presso i pertinenti Ordini professionali. In questo contesto si fa riferimento a soggetti muniti di particolari conoscenze e specifiche competenze talché è loro richiesta, per l’esercizio delle loro attività, una particolare
diligenza estremamente qualificata.
4 La colpa sarà tanto più facile da
dimostrare tanto più dettagliatamente
sono disciplinate le modalità operative per lo svolgimento di una data attività.
5 L’obbligo in realtà è strettamente
derivante dalla condotta del soggetto
autore del danno e pertanto sorge al
momento in cui si verifica il danno
ma, nel caso in cui tale evento sia indennizzabile secondo la polizza stipulata, la compagnia si sostituisce,
sotto il profilo patrimoniale, all’obbligato impegnandosi direttamente al risarcimento.
T_M ƒ 61
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie
di Misuristi
THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT
This section groups all the relevant information from the main University
associations in Measurement Science and Technology: GMEE (Electrical
and Electronic Measurement), GMMT (Mechanical and Thermal Measurements), AUTEC (Cartography and Topography) and Nuclear Measurements.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia
delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure
Nucleari.
li. Si sottolinea l’importanza di contributi attivi da parte di tutti i Soci, in
particolare dai Soci che hanno riferimenti più diretti con il mondo induSintesi del Consi- striale.
glio Direttivo del
GMEE del 16 DiEventi GMEE
cembre 2011
Convegno GMEE 2012
(a cura
(2-5 settembre):
di Roberto Buccianti)
i lavori di preparazione del ConveIl Consiglio Direttivo del GMEE si è
gno a Monopoli sono a buon punto
tenuto in data 16 dicembre 2011
ed è necessario procedere alla prepresso il Politecnico di Milano.
iscrizione (tramite il sito raggiungibile dal sito www.GMEE.org) al più
Iniziative ministeriali
presto per consentire all’organizzaed ANVUR
zione di definire gli aspetti contratVengono presentati dal Presidente i
tuali con le diverse controparti. Il
documenti più recenti, con particolare
prezzo stimato (da confermare) per
riferimento ai processi di valutazione
le camere è di circa 75-80 Euro/
delle attività di ricerca.
notte per doppia uso singola e 6065 Euro/notte a persona per caSituazione economica di GMEE
mera doppia. Probabilmente gli
Le iniziative del 2011 (Convegno e
accompagnatori avranno una quota
Scuola di Dottorato) sono state svilupmolto ridotta (circa 50 Euro) con il
pate con esiti positivi per i contenuti
pagamento diretto delle diverse
tecnici, per la partecipazione e per il
escursioni.
risultato economico.
GMEE – ASSOCIAZIONE
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
Rivista Tutto_Misure
Franco Docchio è confermato come
Direttore, con un forte apprezzamento
per i risultati conseguiti e per il successo delle diverse iniziative editoria-
Giornata della Misurazione 2012:
si terrà a Roma in data da definire.
Valorizzazione delle attività
scientifiche
dei ricercatori del GMEE
È stato ancora analizzato in dettaglio
il documento presentato già nella
riunione precedente e si pone l’attenzione su come valorizzare il contributo di autori diversi, anche appartenenti a università diverse. La Presidenza elaborerà una versione finale sulla
base anche delle osservazioni che
perverranno.
Progetto RIDITT “Rete Italiana
per la Diffusione
dell’Innovazione
e il Trasferimento Tecnologico
alle imprese”
Daponte ha ricordato che il GMEE
partecipa (nell’ambito di una specifica Associazione Temporanea di
Scopo - ATS in via di formalizzazione) a uno dei progetti ammessi a
finanziamento
nel
Programma
RIDITT, denominato “DIffusione e
TRasferimento di tecnologie ad
IMprese nel settore delle MISure”
(acronimo DI.TR.IM.MIS.), il cui
capofila è l’Università del Sannio. Il
Progetto ha l’obiettivo di valorizzare
i risultati della ricerca pubblica
nazionale nel settore delle misure
elettriche, elettroniche ed elettroottiche, individuando quali possano
apportare i maggiori benefici al tessuto delle PMI delle area depresse
delle province dell’Aquila, Benevento, Taranto e Cosenza (per poi estendere l’approccio prima alle intere
aree regionali di Abruzzo, Campa-
Scuola di Dottorato Gorini 2012:
Si terrà a Bari immediatamente a valle
del Convegno e le tematiche proposte
sono di forte interesse anche per le
aziende.
[email protected]
T_M
N.
1/12 ƒ 63
▼
nia, Puglia e Calabria e, successivamente, a livello nazionale) e operando la loro diffusione e trasferimento
tecnologico in tali aree, sollecitando
al contempo la nascita nelle aree
suddette di nuove imprese ad alta
tecnologia che industrializzino e
commercializzino tali tecnologie,
ovvero che siano in grado di erogare servizi ad elevato valore aggiunto
del mercato indotto dalla diffusione
NEWS
LE CELLE DI CARICO
FUTEK IN VIAGGIO
VERSO MARTE
28 novembre 2011: la NASA dà inizio
alla missione spaziale con destinazione
Marte, il pianeta rosso, quarto nel sistema solare in ordine di distanza dal sole.
Un viaggio lungo 25 volte la distanza
dalla Terra alla Luna.
Questa è una delle tante sfide della missione, tra le quali, non certamente le
meno importanti, sono la temperatura di
Marte (da -140 °C a +20 °C, un gradiente di 160 °C spostato sulla parte
negativa) e l’ammaraggio di un veicolo
laboratorio di dimensioni paragonabili a
una vettura.
T_M ƒ 64
N. 01ƒ
; 2012
■
SPAZO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
delle tecnologie stesse. Ulteriori det- operativo in tempi brevi.
tagli sono sul sito di GMEE 2012.
Collana Misure e Automazione
Quote Soci per il 2012
Si segnala che presso Franco Angeli EdiSono state confermate le quote già in tore è stata attivata una Collana di Misuessere (40 Euro per i Soci Ordinari). re e Automazione per la quale si possono presentare proposte editoriali al Prof.
Nuove iniziative
Cascetta. Il Presidente, il Segretario e il
Sito Web
Direttore di Tutto Misure sono stati nomiIl nuovo Sito WEB sta procedendo nati, per conto del GMEE, nel Comitato
e si prevede che possa divenire Editoriale della Collana.
Il veicolo Rover Curiosity (Mars Science
Laboratory) è un laboratorio mobile che
ha come obiettivo l’analisi geologica e
strutturale del suolo, oltre alle analisi chimiche e fisiche; per questo è stato sviluppato uno speciale laser trivella per penetrare in profondità. Da questa missione la
NASA conta di ricavare un’enciclopedia
scientifica di informazioni. Questo programma spaziale si avvale della collaborazione internazionale di altri Stati e
aziende che partecipano con le loro tecnologie per lo sviluppo di sistemi, apparati e componenti. Ciò implica investimenti e una padronanza nella struttura
aziendale, per offrire tutte le più ampie
garanzie tecniche e funzionali.
È questo il caso della Futek, primaria
azienda americana nella produzione di
trasduttori di forza con tecnologia estensimetrica, che partecipa alla missione su
Marte con una serie di trasduttori di forza
biassiali e triassiali espressamente sviluppati per assolvere alle specifiche ambientali e meccaniche. La composizione geometrica delle celle di carico triassiali consente di controllare dinamicamente le
forze secondo gli assi e ricostruire lo spostamento dinamico del baricentro del
Rover.
La tecnologia estensimetrica racchiude
quella semplicità applicativa e conoscitiva che, nei molti anni di presenza , l’ha
resa familiare anche se vincolata ad alcuni limiti (la temperatura che può arrivare
a coprire le MILL STD -55 °C…+125 °C
con qualche estensione, l’incollaggio del-
l’estensimetro sulla superficie, il suo invecchiamento nei cicli termici e l’invecchiamento a fatica). Futek ha realizzato queste speciali celle di carico, che hanno
rivoluzionato il concetto costruttivo con
una rinnovata tecnologia basilare per il
gradiente di temperatura -270 °C…
+125 °C (campo criogenico) e un’estensione di oltre 235 °C presente su Marte.
La realizzazione degli estensimetri è stata
completamente rivoluzionata: materiale
isolante di supporto, materiale della griglia, collante, connessioni elettriche interne ed esterne, acciaio del corpo trasduttore e saldature. Insomma una vera rivoluzione tecnologica. Alle temperature
criogeniche tutto si cristallizza cambiando le caratteristiche di base; per questo il
metallo del corpo è un acciaio legato,
trattato con materiale di riporto, le saldature sono realizzate con uno speciale
gas, “l’incollaggio” è coperto da riservatezza e le connessioni elettriche sono isolate con materiali vetrosi speciali. Questi
trasduttori hanno superato tutte le verifiche e le qualifiche NASA e sono installati sul ROVER Cortesy. Per Futek, questo è
un primo traguardo; infatti, sta collaborando intensamente con alcuni clienti nel
settore delle biologia, dove il mantenimento in vitro degli elementi è in ambiente criogenico. In questo ambiente si potrà
ricercare, in modo diretto e semplificato,
la variazione delle masse (peso).
L’8 agosto 2012 è previsto l’ammaraggio su Marte; da quel momento le celle
di carico Futek dovranno cominciare a
lavorare e dare il loro contributo alla
missione.
La Futek vanta un catalogo di oltre 1.600
modelli, da quelli miniatura ai grandi tonnellaggi, dei quali il 70% acquistabili in
pronta consegna e a costi competitivi. Al
suo interno, un Centro di Taratura e Certificazione accreditato A2LA e una specializzazione nello sviluppo di trasduttori
specifici su richiesta dei clienti.
La DSPM Industria di Milano è il riferimento Futek per l’Italia:
www.dspmindustria.it
▲
LO SPAZIO
DEGLI IMP
Paola Iacomussi
Applicazioni metrologiche
per l’illuminotecnica
Caratterizzazione metrologica di ambienti illuminati
METROLOGICAL APPLICATIONS FOR LIGHTING ENGINEERING
Metrological applications in lighting engineering means an approach to the
science of lighting that includes the study of the characteristics and of the
reciprocal interactions between sources, materials and observers. The
design of a lighting plan is not the main aspect, on the contrary the goal is
reaching higher performances from the point of view of observer perception, safety and energy saving. The paper is an introduction to lighting
engineering and road lighting.
RIASSUNTO
La definizione “Applicazioni metrologiche per l’illuminotecnica” vuole evidenziare che il fulcro centrale dello studio dell’illuminazione non è più la
realizzazione di un progetto, magari esteticamente piacevole e in grado di
soddisfare le richieste normative, bensì la caratterizzazione metrologica di
tutte le componenti presenti in un ambiente illuminato e della loro interazione reciproca: sorgenti, materiali e osservatori. Lo scopo è di ottimizzare
l’impianto affinché raggiunga le migliori prestazioni in termini di percezione visiva, sicurezza e consumi energetici, arrivando ad assicurare prestazioni anche migliori di quelle minime previste nelle norme. L’articolo è introduttivo all’illuminotecnica e presenta alcune considerazioni sull’illuminazione stradale e i risultati ottenibili grazie a un simile approccio.
L’ILLUMINOTECNICA: UNA
SCIENZA INTERDISCIPLINARE
L’illuminotecnica è la tecnica dell’illuminazione, cioè la disciplina che si
occupa di studiare, progettare e verificare l’illuminazione per ambienti
esterni e interni di qualunque tipo, sia
con sorgenti artificiali sia naturali. Un
approccio metrologico all’illuminotecnica comporta che le conoscenze
coinvolte siano molte e interdisciplinari, le principali sono:
– la fotometria: cioè la scienza della
misurazione della luce;
– visione e percezione: cioè lo studio
di come riusciamo a vedere e percepire oggetti e non solo;
– la metrologia: cioè la scienza della
misura applicata ovviamente sia alle
sorgenti illuminanti, sia ai materiali
presenti nella scena illuminata, sia all’uomo come osservatore (soft metrology) e alla loro reciproca interazione;
– il panorama normativo.
La fotometria consiste nel misurare la
radiazione elettromagnetica in modo
tale che i risultati siano correlati alla
sensazione visiva umana: le grandezze radiometriche sono integrate nell’intervallo del visibile e pesate per il
fattore spettrale di visibilità V(λ), cioè
la curva che rappresenta la sensibilità
dell’occhio umano alle varie lunghezze d’onda (definizione n. 845-01-22
in [1]) e moltiplicate per il coefficiente
di visibilità massimo di una radiazione Km, (definizione n. 845-01-56 in
[1]) parametro che permette, nel sistema SI, la coerenza tra le unità di misura. L’esigenza di misurare la radiazione visibile ha fatto sì che la candela
sia una delle unità base del Sistema SI
[2] e che, in conseguenza di ciò,
all’interno degli Istituti Metrologici Primari vi siano gruppi di ricerca in illuminotecnica. In funzione dell’intensità
della radiazione che incide sull’occhio, si individuano diverse condizioni di visione (fotopica, cioè diurna,
mesopica e scotopica, cioè notturna)
a cui corrispondono diversi valori del
coefficiente di visibilità di una radiazione (K(λ) e K’(λ)), cioè il prodotto
del fattore di visibilità per il coefficiente di visibilità massimo della radiazione.
Le misurazioni avvengono per il tramite di sensori, la cui curva di sensibilità spettrale deve approssimare la
curva del fattore spettrale di visibilità,
scegliendo, generalmente, la curva
fotopica, anche quando, come nel caso dell’illuminazione stradale notturna, altre scelte potrebbero essere più
pertinenti.
Fondamentale è la capacità metrologica di caratterizzare sorgenti, materiali, impianti d’illuminazione e la loro
reciproca interazione, dal punto di
vista (i) fotometrico, (ii) radiometrico,
(iii) spaziale e (iv) percettivo, sviluppando appositi sistemi di misura. L’osservatore è elemento chiave le cui prestazioni, analizzate con tecniche di
soft metrology, diventano un fattore
importante anche per la redazione di
norme tecniche.
FINALITÀ E OBBIETTIVI
DI UN APPROCCIO METROLOGICO
ALL’ILLUMINOTECNICA
La fotometria e l’illuminotecnica hanno una grande varietà di grandezze
ognuna delle quali si riferisce a specifiche applicazioni: come per caratterizzare particolari capacità dei materiali o di sorgenti e impianti, che non
saranno affrontate in questa sede. Le
Istituto Nazionale di Ricerca
Metrologica (I.N.Ri.M.), Torino
[email protected]
T_M
N.
T_M ƒ
ƒ 65
65
1/12
N. 01ƒ
; 2012
2011
▲
LO SPAZIO
DEGLI IMP
NEWS
▼
grandezze fondamentali, richiamate L’illuminamento è legato al flusso lumiin tutte le normative, sono:
noso dalla seguente relazione:
Luminanza: grandezza fotometrica
dφ
associata a superfici reali o immagiE =
narie, definita per una data superficie
dA
elementare in una data direzione
L’illuminazione riveste un ruolo fondadalla seguente relazione:
mentale nei consumi di un Paese industrializzato: in Italia, nel 2010, la sola
dφ
illuminazione pubblica ha comportato
L=
dΩdA cos ϑ
consumi per circa 6,4 TW/h [3], mentre quella privata rappresenta circa
Essa rappresenta quindi il flusso di un l’80% dei consumi domestici [4]. Esseraggio elementare (dΦ) passante per re in grado d’illuminare meglio grazie
il punto di misura che si propaga nel- a migliorate capacità di misura e prol’angolo solido contenente la direzio- gettazione porta un evidente vantagne considerata (dΩ) per unità di area gio economico per tutto il Sistema Itaproiettata (dAcosϑ). Si misura in can- lia migliorando i consumi energetici e
dele al metro quadro [cd/m2] con uno lo sviluppo eco-sostenibile.
strumento chiamato luminanzometro. L’illuminazione stradale, sia per i suoi
Illuminamento: rappresenta il flus- consumi energetici che per il carattere
so incidente su una superficie, si misu- di sicurezza che riveste, è il principara in lux [lx] e viene misurato con uno le campo di studio su cui le ricadute
economiche, tecnologiche, normative
strumento chiamato luxmetro.
Affidabilità nell’Elettronica
L’affidabilità dell’elettronica diventa sempre più un aspetto fondamentale da
governare in molte filiere produttive e, di
conseguenza, si inserisce fra le priorità
delle aziende che intendono innovare per
competere.
Incrementare il valore
degli edifici civili e industriali
Il valore dell’affidabilità delle misure, prove
e certificazioni nella Diagnosi Energetica,
in collaborazione con ACCREDIA.
I CONVEGNI
DELLA SESTA EDIZIONE
della manifestazione italiana
dedicata a Metodi,
Soluzioni e Tecnologie
per l’Innovazione Competitiva
(Torino, Lingotto Fiere –
18/19 aprile 2012)
Mercoledì 18 aprile
Caratterizzazione dei materiali
Materiali innovativi e lavorazioni speciali
offrono enormi opportunità per vincere le
sfide tecnologiche e incrementare la competitività aziendale ma, obbligatoriamente,
debbono essere affiancati da prove affidabili a garanzia della sicurezza del consumatore e della credibilità del produttore.
T_M ƒ 66
TESTING e MISURE al servizio
delle prestazioni e dell’affidabilità
Due fra gli ambiti più importanti sui quali
ogni azienda manifatturiera deve concentrare la propria attenzione e convogliare i
giusti investimenti per garantire la qualità
e conformità dei propri prodotti e lavorazioni.
Sistemi elettronici per la sicurezza
dei veicoli: presente e futuro
Il ruolo della norma ISO 26262 per la Sicurezza Funzionale, in collaborazione con
AICQ Automotive e AICQ Piemontese.
Giovedì 19 aprile
Visione artificiale e robotica
nei controlli e nell’automazione
Le produzioni che utilizzano queste soluzioni possono portare valore aggiunto alle
imprese manifatturiere, impegnate a competere perseguendo il miglioramento della
qualità, affidabilità, flessibilità dei propri
prodotti e processi.
e culturali di un approccio più metrologico all’illuminotecnica, sono più
evidenti. Contribuisce a ridurre la criminalità e aumentare il senso di sicurezza ambientale, ma è anche un potente mezzo di prevenzione che, operando direttamente sull’ambiente, non
richiede particolare cooperazione volontaria da parte degli utenti della
strada.
La progettazione d’impianti d’illuminazione pubblica è particolarmente
complessa e per semplificazione i valori normativi, essenzialmente luminanza L (effettivo indicatore delle condizioni di visione) e illuminamento e le
loro rispettive uniformità, vengono calcolati e verificati solo in alcuni punti di
griglie opportunamente disposte.
In questo modo impianti con caratteristiche normative simili possono fornire
prestazioni molto diverse. Per ovviare
a questo problema e valutare efficacemente i consumi, I.N.Ri.M. ha pro-
Soluzioni e Tecnologie innovative
nella manutenzione e ispezione
Come garantire l’incremento dell’affidabilità di macchine e impianti. La manutenzione come ambito della Progettazione.
Virtual Commissioning: integrare
mondo reale e virtuale
per la massima efficacia
ed efficienza di avvio e operatività
dei sistemi produttivi
A cura di Siemens Industry Software.
Simulazione e prototipazione
Migliorare la qualità e affidabilità dei prodotti, riducendo tempi e costi.
Fotonica industriale e biomedicale
Evoluzione e futuri sviluppi della Fotonica
come strumento per l’Innovazione Competitiva. A cura della Piattaforma italiana della
Fotonica.
Macchine utensili innovative
al servizio della competitività
Come cambia un settore in funzione delle
mutate esigenze degli utenti: macchine multifunzione, flessibili, eco-efficienti, per
microlavorazioni, per elettroerosione, ecc.
Per consultare i programmi dettagliati:
www.affidabilita.eu
La partecipazione è gratuita, previa iscrizione.
Per ulteriori informazioni, contattare la
Segreteria Organizzativa:
tel. 011/0266700
E-mail: [email protected]
N. 01ƒ
;2012
posto un approccio mirato per la progettazione degli impianti basato sull’estensione del coefficiente di luminanza normalmente utilizzato per la
caratterizzazione dei materiali (definizione n. 845-04-71 in [1]) agli impianti d’illuminazione [5].
Per strade a traffico motorizzato [6] la
condizione necessaria e sufficiente
perché si realizzi un risparmio enerFigura 1 – Il laboratorio mobile
getico è l’ottenimento dei valori norrealizzato dall’I.N.Ri.M.
mativi di luminanza con il minimo
livello d’illuminamento. Questa condizione si verifica se il valore del coeffi- limite di velocità), e di valutare i livelli d’inquinamento luminoso [10].
ciente di luminanza dell’impianto
In questo modo è possibile assicurare
non solo i vincoli di sicurezza, ma ottiL
Qi = R
mizzare anche i costi di gestione,
ER
manutenzione e i consumi con un conseguente risparmio economico ed
è massimo (LR, ER sono rispettivamen- energetico.
te la luminanza e l’illuminamento Le norme vigenti richiedono che venmedio dell’impianto). Poiché la lumi- gano effettuate verifiche sia a fini di
nanza dipende dalle caratteristiche collaudo sia nel corso della vita deldell’asfalto illuminato, per rendere l’impianto e specificano le condizioni
paragonabili i risultati è conveniente di misura in cui operare. Inoltre i valonormalizzare rispetto a una condizio- ri misurati da Tiresia superano le
ne campione rappresentata dal para- richieste normative sie per numero di
metro Q0 coefficiente di luminanza punti misurati (Fig. 2) sia per accuramedio di una strada con asfalto cate- tezza di misura (incertezze inferiori al
goria C2 come definito dalla CIE [7] 3% in modalità metrologica).
in [8], ottenendo il Fattore di Qualità
dell’Installazione qi [6]:
qi =
L’accuratezza ed efficienza nelle misure
non può prescindere
dalla
valutazione
delle condizioni di
percezione degli osservatori: un miglioramento delle condizioni di visione, non
necessariamente corTiresia
relato a un aumento
dei livelli d’illuminazione, comporta una
maggior sicurezza. Infatti, la riduzione del flusso luminoso installato è il
primo ed essenziale passo verso il
contenimento dell’impatto ambientale
e dei consumi energetici. Le norme,
specialmente le più recenti come la
UNI 11248 [11], considerano questi
aspetti, indirizzando il progettista a
prevedere riduzioni delle prestazioni
dell’impianto in base a parametri di
influenza, quali il volume del traffico o
la presenza di sistemi alternativi di
segnalazione, purché vi sia, attraverso una assunzione diretta di responsabilità, il presupposto che le prestazioni, in termini di sicurezza, di tale
impianto siano pari o superiori a un
analogo impianto normativo.
LR
Q0 ER
In questo modo, sono vincenti sia per
le prestazioni visive, sia per i consumi
che per l’inquinamento luminoso (dispersione del flusso verso la volta
celeste), impianti in grado di assicurare valori più alti del parametro qi.
Il rispetto costante dei valori normativi
d’illuminamento e luminanza su strada assicura le condizioni di sicurezza
per il traffico: una maggiore accuratezza nelle misure consente il corretto
dimensionamento dell’impianto ai valori normativi e tecniche di misura ottimizzate con sistemi di misura mobili,
come il laboratorio Tiresia [9], illustrato in Fig. 1, consentono di effettuare verifiche continue per ottimizzare gli interventi di manutenzione e i
parametri esterni (come ad esempio il
Figura 2 – Misurazione della luminanza operata con il laboratorio mobile
Tiresia equipaggiato con un video luminanzometro a matrice CCD.
I quadrettini neri indicano i punti normativi ove è necessario
effettuare le misurazioni puntuali di luminanza, mentre i rettangoli bianchi
indicano le possibilità di misura di un luminanzometro
non basato su tecnologia CCD. È evidente come con strumenti
non basati su CCD non sia possibile rispettare i requisiti normativi
di misura sui punti di una griglia
Per effettuare una corretta valutazione
delle condizioni di percezione, è possibile ricorrere a nuove metodologie
di misura basate sulle condizioni di
visione mesopica, cioè quella condizione di visione intermedia tra le condizioni diurne (fotopiche e descritte
dalla curva V(λ)) e notturne (scotopiche e descritte dalla curva V’(λ)), che
è tipica della condizione di visione
notturna in presenza d’impianti d’illuminazione.
Per la condizione mesopica non è
possibile definire una curva di visibilità, ma piuttosto un modello di visibilità in quanto si tratta di una condizione di adattamento transiente in cui
intervengono nel processo di visione
sia i coni che i bastoncelli (le due tipologie di recettori presenti sulla retina
la cui attivazione è legata alle condizioni fotopiche, coni, e scotopiche,
bastoncelli).
Vista la peculiarità dell’occhio umano
di essere maggiormente sensibile alla
radiazione più “blu” dello spettro in
condizioni di visione scotopica, si
aprono nuove possibilità per la valutazione delle effettive condizioni di
visione che potrebbero avvantaggiare, anche per l’aspetto percettivo oltre
che di efficienza energetica, impianti
d’illuminazione con sorgenti LED. La
possibilità di valutare i livelli d’illuminazione secondo i modelli di visione
mesopica non è ancora prevista a livello normativo a causa del numero ridotto di ricerche svolte nel campo,
benché recentemente la CIE abbia
proposto un modello di visione sviluppato nell’ambito di un Progetto Europeo [12].
L’Italia ad esempio ha un numero di
gallerie stradali e autostradali, dove
gli impianti sono costantemente accesi, pari a quello di tutto il resto d’Europa. Società Autostrade per l’Italia
ha iniziato una campagna di sostituzione d’impianti obsoleti con impianti
a LED, la cui progettazione dei corpi
illuminanti è stata ottimizzata sulla
base della caratterizzazione metrologica efficace degli stessi, degli impianti e delle condizioni di visione
[13] ottenendo risparmi energetici
dell’ordine del 37% (Fonte Società
Autostrade per l’Italia).
T_M ƒ 68
N. 01ƒ
; 2012
■
LO SPAZIO
DEGLI IMP
Figura 3 – Impianto d’illuminazione in galleria, a sinistra,
impianto tradizionale, a destra dopo la sostituzione con apparecchi a LED
ottimizzati per le condizioni d’installazione e le richieste normative.
Fonte Società Autostrade per l’Italia
Istanbul, in CD ROM.
6. CIE Pubblicazione n.115, Lighting
for road of motor and pedestrian traffic.
7. www.cie.co.at.
8. CIE Pubblicazione, Road Surface
and lighting Joint, TR CIE PIARC
1984, CIE Vienna.
9. Paola Iacomussi, Giuseppe Rossi,
M. Castellano “Caratterizzazione
degli impianti d’illuminazione pubblica” Rivista Luce n.2-2004, p. 38-43.
10. P. Soardo, P. Iacomussi, G. Rossi,
L. Fellin, Compatibility of road lighting
with stars visibility, Lighting Research
and Technology, Vol. 40, No. 4, pp
307-322, December 2008.
11. UNI 11248:2007; “Illuminazione
stradale – Selezione delle categorie
Illuminotecniche”.
12. Progetto MOVE: Mesopic Optimization of Visual Efficiency.
13. Contratto di Ricerca INRIM RIFERIMENTI BIBLIOGRAFICI
Società Autostrade per l’Italia.
14. EMRP 2009 JRP09 Metrology for
1. CIE Pubblicazione n.17, IEC Sold State Lighting.
50(845) International Lighting Vocabulary.
2. www.bipm.org/utils/common/
pdf/si_brochure_8.pdf.
3. Dati Terna - Consumi elettrici per
Paola Iacomussi è
settore Merceologico anno 2010
ricercatore presso l’Istituwww.terna.it/default.aspx?
to Nazionale di Ricerca
tabid=419.
Metrologica I.N.Ri.M., si
4. ENEA Res-Relprom “Risparmio
occupa in particolare
Energetico con l’illuminazione”, Enea,
della caratterizzazione
giugno 2008.
spettro-fotometrica e per5. P. Soardo, P. Iacomussi, G. Rossi, cettiva (soft metrology) di materiali e
The luminance Coefficient in road sistemi d’illuminazione anche tramite
lighting: a parameter for saving sistemi di misura digitali sviluppati
energy and reducing atmospheric pol- appositamente. È docente presso l’Unilution, Congresso Lux Europa 2009, versità di Torino.
Le applicazioni con sorgenti LED in
illuminotecnica sono la grande sfida
per il futuro, ma poiché gran parte
delle conoscenze illuminotecniche
non risultano più valide per questo
particolare tipo di sorgenti, solo un
approccio metrologico allo studio
delle sorgenti, delle possibili applicazioni e delle prestazioni visive umane,
potrà consentire di ottenere i migliori
risultati. L’importanza di un simile
approccio è stata riconosciuta dalla
Comunità Europea, che ha finanziato
un progetto di ricerca tra gli Istituti
Metrologici Primari, proprio per la
definizione di una “metrologia dei
LED” a cui l’I.N.Ri.M. partecipa sia
per le sue competenze nella caratterizzazione di sorgenti, materiali e
loro interazione, sia per soft metrology [14].
MANIFESTAZIONI
EVENTI E FORMAZIONE
■
2012
eventi in breve
2012
18 - 19 APRILE
Torino, Italy
Affidabilità & Tecnologie 2012
www.affidabilita.eu
21 - 22 APRILE
Changsha, China
2012 International conference on Biochemistry,
Environment and Energy Materials (BEEM 2012 )
www.iser-association.org/BEEM2012/Home
7 - 8 MAGGIO
Nanchang, China
2nd International Conference on Materials, Mechatronics
and Automation (ICMMA 2012)
www.hkedu.biz/icmma2012/index.htm
9 - 11 MAGGIO
Grenoble, France
9th European Workshop on Microelectronics Education (EWME ‘12)
http://cmp.imag.fr/conferences/ewme2012
13 - 16 MAGGIO
Graz, Austria
2012 I2MTC - IEEE International Instrumentation and Measurement
Technology Conference
http://imtc.ieee-ims.org/index.php
15 - 17 MAGGIO
Firenze, Italy
Fotonica 2012
www.fotonica2012.it
7th
18 - 19 MAGGIO
Budapest, Hungary
IEEE
International Symposium on Medical Measurement
and Applications (MeMeA 2012)
http://memea2012.ieee-ims.org
26 - 29 MAGGIO
Xiían, China
2012 Spring International Conference on Computer Science
and Engineering
www.engii.org/scet2012/CSE2012.aspx
26 - 29 MAGGIO
Xiían, China
Spring Int’l Conf. on Electronics and Electrical Engineering
(CEEE-S 2012)
www.engii.org/scet2012/CEEE2012.aspx
4 - 8 GIUGNO
Stockholm, Sweden
12th EUSPEN Conference
www.stockholm2012.euspen.eu
20 - 22 GIUGNO
Sorrento, Italy
IEEE International Symposium on Power Electronics,
Electrical Drives, Automation and Motio (SPEEDAM 2012)
http://webuser.unicas.it/speedam/
CallForPaper_Speedam2012.pdf
20 - 22 GIUGNO
Roma, Italy
25th International Symposium on Computer-Based
Medical Systems
www.math.unipa.it/cbms
26 - 29 GIUGNO
Ancona, Italy
10th Intl Conference on Vibration Measurements
by Laser and Noncontact Techniques (AIVELA)
www.aivela.org
17 - 20 LUGLIO
Orlando, USA
The 5th International Multi-Conference on Engineering
and Technological Innovation: IMETI 2012
www.2012iiisconferences.org/imeti
28 - 31 LUGLIO
Roma, Italy
9th International Conference on Informatics in Control,
Automation and Robotics (ICINCO 2012)
www.icinco.org
10 - 12 AGOSTO
Shanghai, China
The 6th International Conference on Management
and Service Science (MASS 2012)
www.massconf.org/2012
19 - 23 AGOSTO
Moscow, Russia
32th Progress in Electromagnetics Research Symposium (PIERS)
http://piers.org/piers/submit/survey.php
19 - 24 AGOSTO
Roma, Italy
CENICS 2012: The Fifth International Conference
on Advances in Circuits, Electronics and Micro-electronics
www.iaria.org/conferences2012/CENICS12.html
19 - 24 AGOSTO
Roma, Italy
The 3rd International Conference on Sensor Device
Technologies and Applications (SENSORDEVICES 2012)
www.iaria.org/conferences2012/SENSORDEVICES12.html
3 - 5 SETTEMBRE
Monopoli, Italy
Congresso GMEE 2012
www.gmee.org
3 - 5 SETTEMBRE
Monopoli, Italy
Congresso GMMT 2012
9 - 14 SETTEMBRE
Busan, Korea
XX IMEKO World Congress
http://imeko2012.kriss.re.kr
16 - 19 SETTEMBRE
Anchorage, USA
2012 International IEEE Conference on Intelligent
Transportation Systems
www.itsc2012.org
16 - 18 OTTOBRE
Bologna, Italy
2nd International Conference on Electrical Systems
for Aircraft, Railway and Ship Propulsion
16 - 19 OTTOBRE
Torino, Italy
13th Int’l Computer Graphics Conference (VIEW)
21 - 25 OTTOBRE
Crete, Greece
4th International Symposium on Transparent Conductive Materials
(TCM2012)
www.iesi.forth.gr
26 - 28 OTTOBRE
Chongquing, China
The Second International Conference on Information Science
and Manufacturing Engineering (ICISME 2012)
http://isme2012.cqnu.edu.cn
28 - 31 OTTOBRE
Tapei, Taiwan
IEEE Sensors 2012
www.ieee-sensors.org
22 - 24 NOVEMBRE
Belgrade, Serbia
2012 Telecommunications Forum TELFOR2012
www.telfor.rs/?lang=en
www.esars.org
www.viewconference.it
T_M
N.
1/12 ƒ 69
N. 01ƒ
; 2012
▲
NEWS
INCREMENTARE IL VALORE
DEGLI EDIFICI CIVILI E INDUSTRIALI
Il valore dell’affidabilità delle misure, prove e certificazioni
nella Diagnosi Energetica
Mercoledì 18 aprile 2012 – ore 10.30 - 13.00
Torino, Lingotto Fiere
nell’ambito della Sesta edizione di AFFIDABILITÀ & TECNOLOGIE
la manifestazione italiana dedicata a Metodi, Soluzioni e Tecnologie
per l’Innovazione Competitiva
Introduzione ai lavori: Situazione attuale e problematiche applicative – Paolo Vigo (Vice Presidente ACCREDIA)
Il ruolo dei servizi di certificazione, prova e taratura
nella diagnosi energetica degli edifici
Filippo Trifiletti (Direttore ACCREDIA)
Tecniche di misura dell’energia e dei flussi energetici
Marco Dell’Isola (Università di Cassino - Direttore Fac. Ingegneria
Civile e Meccanica)
Problematiche di misura in campo e di riferibilità delle
misure – Luigi Iacomini (INRIM)
Strumenti e servizi di misura e prova (ACCREDIA)
Fattori di incertezza nella certificazione energetica
Vincenzo Corrado (Politecnico di Torino)
Esigenze delle imprese edili in ottica di garanzia delle
“performance” energetiche degli edifici e miglioramento dei protocolli operativi – Nicola Massaro (ANCE)
Fonti rinnovabili di energia, efficienza energetica e certificazione delle professionalità: un trinomio imprescindibile
Anna Moreno (ENEA UTT-LEARN, Servizio Informazione e Formazione)
Il parere degli “addetti ai lavori”
Michele Fazzini (Ordine degli Ingegneri di Torino)
Dibattito finale
Obiettivi
–- analizzare l’attuale situazione riguardante l’accertamento delle
“performance” energetiche del patrimonio edile esistente (in gran
parte costruito parecchi decenni fa). Accertamento che ricorre ancora in modo insufficiente a sistemi di misura e di diagnosi affidabili e
riferibili e, pertanto, non sempre garantisce il rispetto dei parametri
definiti dalle apposite normative;
– promuovere e diffondere la cultura della misura, della diagnosi e
dell’efficientamento energetico, presso il mondo degli “addetti ai
lavori”, delle imprese edili e degli impiantisti, ma anche presso quello delle aziende e degli utenti;
– analizzare i problemi connessi alla riferibilità metrologica in campo energetico edilizio e promuovere efficaci servizi metrologici e di
certificazione e prova. Stimolare indagini di settore per la riduzione
dei costi della diagnosi energetica, certificazione e gestione dei
sistemi energetici;
– promuovere un confronto tra i costruttori di strumenti, ricercatori e
certificatori per stimolare la soluzione e il superamento delle criticità del mercato, ovvero cercare di definire protocolli operativi che
partendo da dati certi garantiscano uno sviluppo al settore consono
alle ricadute che certificazione e diagnosi possono avere sul valore
del patrimonio edilizio.
Destinatari
Professionisti della diagnosi e certificazione energetica - Costruttori
e fornitori di strumenti - Fornitori di servizi di certificazione e prova
e metrologici in campo energetico - Costruttori di software di diagnosi e certificazione energetica - Università e centri di ricerca Ordini professionali (Ingegneri, Architetti,…) - Imprese edili (Ance,
Finco) - Impiantisti (elettrici, idraulici, termici, ecc.).
La partecipazione è gratuita, previa iscrizione.
Per informazioni e iscrizioni: www.affidabilita.eu
oppure contattare la Segreteria Organizzativa: tel. 011/0266700
Email: [email protected]
NUOVO CALIBRATORE IN CAMPO E COMUNICATORE EVOLUTO
Danetech srl,
azienda milanese specializzata
nella fornitura
di strumenti e
sistemi dedicati
alle tarature di
strumentazione
di misura industriale, presenta
un’impor tante
novità della propria rappresentata Beamex:
MC6, Calibratore multifunzione e Comunicatore da campo
di nuova generazione.
In seguito alla richiesta di misurazioni sempre più stabili e precise e a trasmettitori
sempre più sofisticati, gli strumentisti e i tecnici di taratura sono costretti a utilizzare un
numero sempre maggiore di dispositivi di
T_M ƒ 70
misurazione: di conseguenza, è aumentata
la domanda di dispositivi di misurazione
automatizzati e intuitivi. Inoltre, le aziende
sono alla ricerca di nuove soluzioni per
ridurre il costo di gestione dei dispositivi di
misurazione e sostituire diversi singoli dispositivi con un dispositivo multifunzione.
Il nuovo calibratore in campo e comunicatore evoluto Beamex MC6 è la soluzione ideale per i requisiti dell’industria di
processo moderna. Lo strumento, ad alta
precisione, offre la possibilità di tarare
segnali di pressione, temperatura e vari
segnali elettrici. Inoltre, MC6 comprende
un comunicatore fieldbus completo per
strumenti Hart, Foundation Fieldbus e Profibus PA. Le sue caratteristiche principali
sono la praticità e facilità d’uso, grazie
al grande touch-screen a colori da 5.7” e
all’interfaccia multilingua. Il robusto involucro con classe di protezione IP65 (a
prova di acqua e polvere), il design ergonomico e il peso ridotto lo rendono un
dispositivo di misurazione ideale per
l’uso in campo in vari settori: farmaceutico, energetico, gas e petrolio, alimenti e
bevande, assistenza, nonché chimico e
petrolchimico.
Grazie alle cinque modalità operative,
MC6 è facile e veloce da usare, oltre che
estremamente pratico, in quanto permette
di trasportare minore attrezzatura in
campo. Le modalità operative sono: Misurazione, Taratura, Documentazione, Registrazione dati e Comunicazione Fieldbus.
Inoltre, in combinazione al software di calibrazione Beamex CMX, MC6 consente
una calibrazione e una documentazione
completamente automatiche e senza documentazione cartacea. Allo stesso tempo,
Beamex ha lanciato anche una nuova versione del software di taratura CMX che, in
combinazione a MC6, offre nuove possibilità di gestione della taratura senza documentazione cartacea.
Per maggiori informazioni:
www.danetech.it
COMMENTI
ALLE NORME
▲
COMMENTI ALLE NORME: LA 17025
A cura di Nicola Dell’Arena ([email protected])
Non conformità, azioni correttive, azioni preventive,
reclami e miglioramento - Parte seconda
Non conformità
le la politica, ma ciò non è in uso
nella situazione odierna.
A great success has been attributed to this interesting series of comments by
Si riporta un esempio di politica conteNicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025.
nuto nel manuale della qualità. “Le condizioni avverse alla qualità sono identiRIASSUNTO
ficate e registrate al fine di correggerle
Prosegue con successo l’ampia e interessante serie di commenti di Nicola
il più rapidamente possibile. Esse sono
Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La
sottoposte a un procedimento di analisi
struttura della documentazione (n. 4/2000); Controllo dei documenti e
e valutazione da posizioni organizzatidelle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e labove ben definite con l’adozione delle
ratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto (n.
azioni correttive. Il laboratorio conside3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004
ra due tipologie di non conformità che
e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecsono rilevate durante l’esecuzione delle
chiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n.
proprie attività: non conformità minore;
1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali (n.
non conformità maggiore. Si definisce
3/2007, n.2/2008 e n.3/2008); il Campionamento (n.4/2008 e n.
non conformità minore situazioni (dei
1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assiculocali e delle apparecchiature) di picrazione della qualità parte 1.a (n.4/2010); Assicurazione della qualità
cola entità che non influenzano la quaparte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011).
lità finale delle attività svolte. Si definiNon conformità, azioni correttive, ecc. parte 1.a (n. 4/2012).
sce non conformità maggiore situazioni
(dei locali e delle apparecchiature dePREMESSA
una politica e delle procedure che viazioni dalle procedure tecniche) che
Dopo la tratta- devono essere attuate quando qualun- influenzano la qualità finale delle attivizione
storica que aspetto delle attività di prova e/o tà svolte”.
della non confor- taratura, o i risultati di queste attività,
mità, si inizia non siano conformi alle procedure o ai Conforme alle proprie procedure
dal capitolo 4.9 requisiti concordati con il cliente”.
Come detto per altri requisiti, il laboradal titolo “Tenuta Innanzitutto la norma definisce la non torio deve scrivere una procedura tecsotto controllo conformità e quando il laboratorio de- nica che descriva tutta l’attività di prodelle attività di ve agire. Esso deve agire in due situa- va. Questa procedura può essere sostiprova e/o di zioni: durante le attività e alla fine, a tuita da norme, se esistono e sono esautaratura non conformi”. Il titolo parla seguito di risultati negativi. La non rienti. La procedura può contenere tutto
con il linguaggio iniziale del Quality conformità si ottiene quando, durante il comportamento del laboratorio dalAssurance, a cominciare dal termine la prova o alla fine della stessa, risul- l’ingresso alla riconsegna dell’oggetto
inglese “Control to”, tenuta sotto con- ta qualcosa che non sia conforme alle da provare e può anche contenere le
trollo, e si capisce che la non conformi- “proprie procedure o ai requisiti con- modalità e le responsabilità delle aziotà si applica ad attività tecniche e non cordati con il cliente”.
ni da effettuare a seguito delle non congestionali. All’interno ritorna il linguag- La norma prescrive politica e proce- formità riscontrate. Questo caso si pregio delle nuove norme, quando richie- dure, e poi le attività di prova devono senta quando il laboratorio conosce a
de di adottare “azioni correttive”.
essere conformi alle proprie procedu- perfezione il processo di prova e le
Nel corso degli articoli mi sforzo di non re. Vediamo di capire di cosa ha biso- diverse tipologie delle non conformità
chiamare azioni correttive le soluzioni gno un laboratorio.
che possono accadere. Al laboratorio
adottate per risolvere la non conformità.
che si trova in questa situazione basta
Politica
solo questa procedura tecnica.
Per questo requisito basta riportare sul
POLITICA E PROCEDURE
manuale della qualità la politica che il Conforme ai requisiti concordati
laboratorio intende adottare sulle non Già ho detto di questo requisito per
Il paragrafo 4.9.1 della norma prescri- conformità: non serve altro. Si potreb- altri punti della norma. Se ci sono, bive che “il laboratorio deve possedere be riportare nella procedura gestiona- sogna applicarli e non aggiungo
COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025
T_M
N.
1/12 ƒ 71
nulla, vista la facilità della loro appli- tempi e, se servono, anche le responsabilità sui costi, registrazioni da uticazione.
lizzare.
Possedere procedure
Come al solito la norma parla di pro- Attribuzione di responsabilità
cedure al plurale, senza specificare e autorità
se siano tecniche o gestionali.
La norma afferma che bisogna attribuiPer le procedure tecniche il laborato- re le responsabilità e le autorità, tuttavia
rio può seguire due strade: (i) posse- non era necessario farlo poiché tale
dere la sola procedura di prova, requisito è insito in tutto il sistema qualicome detto sopra, oppure (ii) posse- tà e nel concetto di procedura. Per
dere, oltre alla procedura di prova, rispettare questo requisito le responsatante procedure tecniche per ogni bilità devono essere definite da quando
tipologia di non conformità, anche se nasce la non conformità fino alla chiua priori non tutte le non conformità sura. Le responsabilità da definire sono:
hanno la soluzione già pronta. In que- rilevazione della non conformità, inizio
sto settore il laboratorio può anche iter, valutazione dell’importanza della
non scrivere le procedure, ma citare i non conformità, l’analisi della non conmanuali d’istruzione delle apparec- formità e l’adozione delle azioni da efchiature e dei materiali di consumo fettuare, l’attuazione delle azioni deciche riportano cosa può accadere, e la se, la verifica dell’attuazione, la verifica
soluzione del problema. Nel caso di della validità dell’azione effettuata, la
una non conformità non conosciuta a verifica dell’impatto che la non conforpriori il laboratorio deve applicare mità ha sulle prove/tarature effettuate
quanto richiesto dalla norma.
in precedenza, l’arresto dei lavori e la
Per le procedure gestionali il labora- sospensione dell’emissione dei rapporti
torio deve emettere una sola procedu- di prova o dei certificati di taratura, il
ra che comprenda tutto quanto richie- richiamo del lavoro, l’informazione al
cliente, l’autorizzazione a riprendere le
sto dalla norma.
attività. Nella procedura gestionale
bisogna riportare con precisione tutte
CONTENUTO DELLA PROCEDURA queste responsabilità.
L’attribuzione delle responsabilità diGESTIONALE
pende dalle dimensioni e dalla comIl secondo comma del paragrafo 4.9.1 plessità del laboratorio. Per un piccolo
prescrive che ”la politica e le procedu- laboratorio le responsabilità possono
re devono assicurare che: a) siano attri- rimanere confinate a una sola persona.
buite le responsabilità e le autorità per Per un laboratorio con diverse tipologie
la gestione delle attività non conformi e di prove le responsabilità possono rimasiano definite e adottate le azioni (com- nere confinate alle persone di quella
preso l’arresto dei lavori e la sospen- determinata prova e solo per grossi
sione temporanea dei rapporti di prova costi la decisione delle azioni da effeto dei certificati di taratura, se necessa- tuare può arrivare al livello superiore.
rio) quando viene identificata un’attività Per un laboratorio più grande le responnon conforme; b) sia eseguita una valu- sabilità possono essere attribuite a
tazione dell’importanza delle attività diversi livelli, fino ad arrivare al massinon conformi; c) siano tempestivamente mo livello. L’unico aspetto cui si deve
adottate azioni correttive, assieme ad porre attenzione è quello di attribuire la
ogni decisione circa l’accettabilità del- responsabilità della scelta delle azioni
l’attività non conforme; d) se necessa- da effettuare a personale competente.
rio, sia informato il cliente e sia richia- La norma riporta una serie di azioni
mato il lavoro; e) sia definita la respon- che sono importanti, anche se qualcusabilità per autorizzare la continuazio- na non è applicabile a tutte le non
ne delle attività.”
conformità. Tutte queste azioni sono
Amo ripetermi. Ogni procedura ge- applicabili a gravi e significative non
stionale deve sempre contenere re- conformità, mentre la maggior parte
sponsabilità, modalità di attuazione, di quelle che si verificano nei labora-
N. 01ƒ
; 2012
■
COMMENTI
ALLE NORME
tori sono lievemente gravi e risolvibili
con facilità e in breve tempo all’interno del laboratorio.
Esempi di non conformità fanno capire
con più facilità quanto detto. La rottura
di un’apparecchiatura può anche essere considerata una grave non conformità, ma sicuramente non è necessario
avvertre il cliente, né deve essere avviato l’iter per il richiamo. Il superamento
dei limiti di taratura di un’apparecchiatura che influisce sui risultati della
prova/taratura è sicuramente una grave non conformità (maggiore), e per
essa bisogna valutare l’impatto sulle
prove/tarature effettuate da quando
l’apparecchiatura era nei limiti di taratura, ma potrebbe non essere necessario avviare l’iter del richiamo.
Valutazione dell’importanza
della non conformità
La norma prescrive la valutazione dell’importanza della non conformità. Per
l’applicazione di questo requisito al laboratorio conviene come politica suddividere la non conformità in maggiore e minore, in modo da prevedere due iter di risoluzione diversi. Naturalmente per un laboratorio piccolo potrebbe non convenire effettuare tale suddivisione. I criteri di
scelta sono: importanza della non conformità ai fini dei risultati di prova/taratura, costo delle azioni da effettuare, responsabilità delle decisioni (una società
può stabilire che qualsiasi decisione da
prendere deve essere effettuata dal top
manager), intervento del cliente. Se il
cliente vuole prendere la decisione sulla
scelta delle azioni da effettuare (caso
rarissimo per non dire inesistente) la non
conformità deve essere considerata maggiore. Una volta effettuata la valutazione
deve essere registrata.
A parole sembra una cosa complicata,
ma la valutazione può essere anche
semplice quando è divisa in minore e
maggiore, e dipende dall’esperienza
del laboratorio nel classificare le tipologie di non conformità che si possono
verificare. I manuali delle case costruttrici aiutano il laboratorio nell’effettuare
la classificazione delle non conformità.
Essi riportano i problemi che si possono
verificare e la loro risoluzione: in questi
casi la non conformità può essere definita minore.
T_M ƒ 73
MICROFONI IN PRONTA
CONSEGNA
CON LA SEMPLICITÀ
DELLA TECNOLOGIA ICP®
DI PCB PIEZOTRONICS, INC.
PCB Piezotronics offre una varietà di prodotti per
le misure acustiche, tra cui microfoni ICP® prepolarizzati serie 377 (moderna versione del tradizionale microfono a condensatore esternamente
polarizzato), microfoni da array, microfoni piatti
e microfoni per impieghi speciali. La linea dei
microfoni è integrata da un assortimento di
preamplificatori, condizionatori di segnale, filtro
di ponderazione A, calibratori portatili e accessori. Tutti i prodotti acustici PCB® vengono utilizzati in una varietà di industrie tra cui: automotive,
aerospaziale e difesa, OEM, università, consulenti, elettrodomestici, ricerca e sviluppo, ecc.
PCB® è l’inventrice della tecnologia ICP®, parte
integrante del progetto dei moderni microfoni prepolarizzati, ed è fra i pionieri nella microelettronica: questo dimostra i nostri continui investimenti in ricerca avanzata per essere sempre all’avanguardia nei progetti acustici.I microfoni prepolarizzati hanno molti vantaggi rispetto ai modelli
esternamente polarizzati, soprattutto nell’ambito
delle applicazioni portatili o dell’uso in ambiente
esterno (“prove sul campo”) con elevati tassi di
umidità. I microfoni di misura PCB sono conformi
allo standard di alta qualità IEC 61094-4, quindi
in classe 1, sono utilizzabili da 80 °C (elettronica), con una versione HT fino a 120 °C (Industry
exclusive). Il risultato è che la performance è
migliorata, la gamma dinamica può rimanere
precisa per un intervallo di temperatura maggiorato e il loro rumore di fondo è molto basso.
Calibratori acustici di precisione portatili: PCB®
offre calibratori per microfoni, leggeri, portatili
con funzionamento a batteria, che soddisfano gli
standard IEC e ANSI. PCB® realizza anche un
sistema di taratura acustico allo stato dell’arte.
Tutti i rapporti di prova e i certificati di taratura
mostrano la risposta in frequenza del microfono
alla pressione (con l’utilizzo dell’attuatore) e al
campo libero, la sua correzione, le condizioni in
cui è stata eseguita la taratura, i relativi fattori di
incertezza e le attrezzature utilizzate. La taratura
dei microfoni di riferimento è tracciabile attraverso documentazione PTB e la maggior parte delle
tarature sono A2LA, che per il mutuo riconoscimento interlaboratori (ILAC_MRA) sono equivalenti ai certificati ACCREDIA.
Per ulteriori informazioni:
www.pcbpiezotronics.it
T_M ƒ 74
N. 01ƒ
; 2012
▲
NEWS
NUOVA PRESSA ELETTRICA
DOPPIA SCALA PER PIANTAGGI
DA 5 KN + 15 KN E 25 KN + 50 KN
La nuova pressa elettrica Kistler con motore in
linea si distingue, oltre che per la robustezza e
l’affidabilità, anche per alcune caratteristiche
che la rendono unica per operazioni di piantaggio per alberi, cuscinetti, boccole, anelli di
tenuta, guarnizioni e una serie di altri particolari meccanici:
• dimensioni ridotte: la taglia da 15 kN ha
una lunghezza totale di 748 mm;
• cella di carico piezoelettrica: sensibile,
resistente ai sovraccarichi, lineare più di ogni
altra cella con diversa tecnologia;
• encoder assoluto: risoluzione 0,001 mm;
• doppia scala: Taglia piccola: Scala 1 = 5 kN; Scala 2 = 15 kNTaglia grande:
Scala 1 = 25 kN; Scala 2 = 50 kNLa doppia scala offre il vantaggio di poter adattare la stazione di piantaggio a prodotti molto diversi tra loro in termini di forze in
gioco, permettendo così di salvare i costi legati allo sviluppo di più stazioni dedicate
e opportunamente dimensionate. Tutto questo senza rinunciare a un’ottima risoluzione
su entrambe le scale, grazie alla cella piezoelettrica;
• manutenzione minima: con la sua specifica di ingrassatura ogni milione di cicli
oppure 1..2 volte all’anno secondo il programma di manutenzione;
• corsa: Taglia piccola: 200 mm, Taglia grande: 400 mm;
• velocità: Taglia piccola: 250 mm/s, Taglia grande: 150 mm/s.
Per ulteriori informazioni: www.kistler.com
2012 LMS EUROPEAN VEHICLE CONFERENCE
Vehicle Synthesis redesigned: where controls & mechanics
meet to deliver vehicle brand performance
LMS International organizza dal 18 al 19 aprile 2012,
presso il Kempinski Airport Hotel di Monaco di Baviera,
la European Vehicle Conference 2012: il forum annuale per manager e tecnici che vogliono discutere e confrontarsi sui più recenti sviluppi del settore automobilistico.
I lavori si apriranno con il benvenuto di Urbain Vandeurzen (Chairman and Chief Executive Officer, LMS
International) e Jan Leuridan (Executive Vice-President and Chief Technical Officer, LMS
International), che condivideranno la strategia e la visione di LMS.
Sefuiranno le prestigiose testimonianze di:
Guglielmo Caviasso (Head of Vehicle Integration and Validation, R&D, Fiat Group
Automobiles);
Christof M. Weber (Senior Manager, Durability and Benchtesting, Daimler Trucks);
Ryusaku Sawada (Project General Manager, Engine Planning Department, Toyota
Motor Corporation);
Durante le due giornate di conferenza saranno trattati i seguenti temi:
Evoluzione dei sistemi meccatronici: applicazioni motore, cambio, trasmissione,
autotelaio, sistemi termici e di raffreddamento, impianti elettrici e batterie
Gestione energetica: come bilanciare i requisiti di economia nei consumi, con il
comfort di guida e il comfort termico
Le nuove sfide nell’acustica, le vibrazioni, le prestazioni di guida e comfort a livello del veicolo e dei suoi componenti
Affidabilità e fatica: come contribuire alla qualità dei sottosistemi e del veicolo completo.
Relatori dalle maggiori realtà industriali e istituti di ricerca presenteranno le loro scelte strategiche per affrontare le nuove sfide ingegneristiche: Autoneum Management,
Cummins, Daimler, Eta, FluiDesign, Fraunhofer, Hutchinson, CNR Imamoter, John
Deere, Landi Renzo, Mann+Hummel, Magneti Marelli, Magna Powertrain, Mitsubishi
Heavy Industries, Opel, Piaggio, Renault, Università di Padova e altri.
Per ulteriori informazioni: visitare il nostro sito
www.lmsitaly.com/vehicle-europe-2012
o contattare Alessandra Fabiani [email protected]
STORIA E
CURIOSITÀ
▲
Paolo Vigo
L’Unificazione Metrica in Italia
vista dal Regno delle due Sicilie
METRIC UNIFICATION IN ITALY,
AS SEEN FROM THE NEWLY BORN ITALIAN KINGDOM
In this paper the right testimony on the relevant contribution given by the scientists of the Kingdom of the Two Sicilies to the complex “metrological unification” process occurred during the first years of the newly born Italian
Kingdom in the second half of the 19th century is presented. Obviously,
Piedmont and its Kingdom were the chief protagonists of this process, but
“metrological unification” prolegomena have been found in the Kingdoms
and Principalities existing before the unified Italian Kingdom.
RIASSUNTO
In questa memoria si intende presentare una doverosa testimonianza del
contributo che anche gli scienziati del Regno delle due Sicilie hanno dato
all’articolato processo di “unificazione metrica” che si verificò in Italia
durante il Risorgimento e che in particolare vide fattiva attuazione nel neonato Regno d’Italia nella seconda metà del XIX secolo. Processo di “unificazione metrica” che ha avuto come protagonista il Piemonte e il suo allargato Regno Unitario, ma i cui prolegomeni costellano la storia preunitaria.
INTRODUZIONE
Numerose sono le testimonianze più o
meno note e documentate, sia dal
punto di vista storico che da quello
tecnico-scientifico e commerciale,
delle istanze e dei conseguenti atti
legislativi regolatori dei mercati che
nei vari regni e ducati italici (Regno
Borbonico, Principato di Toscana,
Ducato di Modena, il Lombardo-Veneto, le Repubbliche di Genova e Venezia e il Piemonte stesso) si sono susseguiti tra la fine del 1700 e la prima
metà del 1800 [1,2]. In una “analogia metrica” europea [3,5] che ovviamente il “vento napoleonico” amplificò e la restaurazione non seppe che
confermare, al più modificando le
denominazioni “rivoluzionarie” delle
unità di misura ma non la sostanza
delle decisioni in materia di universalità e di non antropomorfismo dei
campioni, nonché della organizzazione decimale dei multipli e sottomultipli
(escluse ovviamente le misure di
tempo nei fatti “antropomorfe” o meglio “terrestri”). Organizzazione su
base decimale semplice e razionale,
e che si è dimostrata nella pratica
facilmente metabolizzabile dalla società [6,7].
In un arco di tempo storico non perfettamente definibile e tipico dei suddetti anni, si verificò infatti in Europa
e in particolare anche in Italia un processo di riordino e di pratica attuazione di regole unitarie per le misure,
le loro unità e campioni e la relativa
diffusione (riferibilità), che ha dell’incredibile se non viene ricollegato a
una specifica analisi del contesto storico e sociale.
Le misure e la loro codifica legislativa erano, infatti, sino a quei tempi
strettamente connesse principalmente
allo scambio delle merci e alla loro
valorizzazione, più che alla quantificazione delle proprietà (edili e terriere) e dei connessi raccolti o rendite. In queste ultime due specificità
risiede, molto probabilmente, il principale ostacolo che nei diversi contesti storici ha sempre limitato o ritardato il varo di una codifica unitaria
e oggettiva, istanza più volte soste-
nuta dagli scienziati, dai militari e
dai funzionari dello stato, ma fortemente ostacolata specie dalla nobiltà, preoccupata di poter vedere in tal
modo quantificate esattamente e univocamente le proprie capacità produttive e reddituali [8], cosa quest’ultima che poteva da un lato aumentare i tributi e dall’altro rendere
troppo oggettive e contestabili le
esose richieste ai sottoposti.
È infatti possibile affermare che, in
tutti i principali regni europei e ancor più in quelli italiani, l’affermarsi
di qualsiasi “razionalizzazione e
universalità” metrica è stata ostacolata o procrastinata dalla tacita alleanza della nobiltà con i mercanti,
ai quali le regole metriche di quantificazione delle merci erano note e
oggetto della loro precipua personale professionalità e capacità di
orientarsi e condizionare i mercati.
Questo consentiva loro di generare
un valore aggiunto, non solo non
collegabile direttamente alla quantificazione delle merci, ma che spesso
risultava amplificato dall’incertezza
metrica. Di questo sono indiretta testimonianza i numerosi e continuamente aggiornati “manuali dei Mercatores” [9,10], che riportano in
dettaglio e con pedanteria le unità
di misura in uso nei diversi mercati
per le specifiche merci e, naturalmente, i cambi delle monete a base
oro o argento in corso legale.
Quando poi la complessità sociale ed
economica generata dall’affermarsi
Dipartimento DiMSAT,
Università di Cassino
[email protected]
Presentato alla settima edizione del
Congresso “Metrologia e Qualità”, Torino
aprile 2011
T_M
N.
1/12 ƒ 75
della rivoluzione industriale ha per
così dire rotto il patto scellerato, rendendo improcrastinabile la certezza e
unificazione metrica per la realizzazione e la circolazione dei manufatti
industriali, contemporaneamente allargando il respiro mercantile a nuove
e meno localistiche visioni dell’intero
scambio delle merci, anche di tipo
agricolo e alimentare, e tutto questo
si è coniugato con il crescere dell’idea dello Stato [11], allora il processo di razionalizzazione e unificazione metrica ha bruciato i tempi della
storia, in una sintesi che ha ad esempio avuto nei primi quindici anni di
vita del Regno d’Italia dell’inimmaginabile, in efficienza ed efficacia legislativa e normativa [12]. Tanto da portare in soli tre lustri, dalla promulgazione (SMD adottato in Piemonte nel
1853) ed estensione del Sistema
Metrico Decimale a tutto il Regno d’Italia con una delle prime leggi del
Regno Unitario (1861), alla firma dell’Italia, quale “socio fondatore”, della
Convenzione del Metro (1875, Parigi) [13]. Convenzione ancora oggi
cardine di tutto il Sistema Internazionale SI di cui siamo figli e attuatori,
visti anche gli accordi vigenti del
WTO (World Trade Organization)
che come tutti sanno vedono nella unitarietà e riferibilità delle misure una
T_M ƒ 76
N. 01ƒ
; 2012
▲
STORIA E
CURIOSITÀ
delle colonne portanti della uni- spesso si trovano inchiavardati sulle
versalità dei mercati.
mura delle chiese prospicienti, in una
primordiale ma efficace riferibilità
metrologica ai campioni di misura,
L’UNIFICAZIONE METRICA
ammantata di sacralità [15,16].
Esempi di assoluto pregio sono le
IN ITALIA
“Logge dei mercanti” di Ascoli PiceNel su descritto quadro d’insie- no e di Norcia, ma numerose e poco
me, così furente (poco nota è la note restano altre vestigia metriche
specificità che il regolamento at- disseminate nei territori, spesso tratuativo della su richiamata legge scurate nel loro valore storico e
di adozione del SMD in Italia fu sociale.
promulgato il giorno successivo Ritornando al Regno delle due Siciall’approvazione in Parlamen- lie appare ovvio e giusto evidenziato!), certamente unificante per il re in questo contesto che esso, anRegno d’Italia nei suoi primi pas- che in qualità di più antico e consosi nella costituzione dello Stato lidato stato italico, più o meno per
unitario, è giusto ricordare che lunghi secoli unitario e federato
alla rapidità e all’efficacia attua- (nella denominazione “due Sicilie”
tiva, di stampo prettamente pie- si nasconde una tradizionale sepamontese, contribuirono senza razione delle due società e culture,
ombra di dubbio anche tutte le quella napoletana e quella siciliadiverse esperienze di razionaliz- na), vanta una lunga tradizione mezazione e unificazione metrica che, trica più che documentabile storicacome ricordato, si erano verificate nei mente, frutto delle attività dei merdifferenti territori italiani, pur con cro- canti, degli scienziati e dei funzionologie diverse e differenti gradi di nari dello Stato [17].
successo attuativo [14].
Si può allo scopo partire dalla purLa diversificazione metrica italiana, troppo smarrita legge Aragonese del
caratteristica di quegli anni pre-uni- 6 aprile 1480 nella quale, probabiltari, era la conseguenza storica del- mente per la prima volta in Europa, si
l’autonomia comunale, tipica dei ter- fa riferimento a una unità di lunghezritori del centro e del nord, che costi- za (miglio) non antropomorfa, ma
tuisce una vera e propria “bio-diver- basata su una definizione astronomisità” anche economica e sociale ca, e a una unità di peso (quartana)
della storia della nostra nazione.
Autonomia conquistata sul campo, già dai tempi dell’impero,
dalle città e dai territori più fattivi
e virtuosi che, nell’avere riconosciuti i loro diritti impositivi, avevano anche di riflesso ottenuto
l’autonomia metrica. Si pensi che
nel manuale Hoepli di Metrologia
[15] nel 1895 vengono dettagliatamente descritte e convertite le
misure di lunghezza superficie,
capacità (per liquidi e aridi) e di
peso ancora in uso nelle 68 province del Regno, alcune suddivise
anche per comprensori comunali
nei quali ultimi vigevano ulteriori
diversificazioni.
Testimonianze storiche di questo
sono le tante “lapidi metriche” e i
campioni di “volume o di forma”
che nelle varie piazze dei mercati
N. 01ƒ
;2012
Palermo, ma nei fatti rigorosamente
lontani dai pesi e dalle misure del
continente.
Molti storici hanno paura ad affermare esplicitamente che il decennio
Francese tolse ai Borbone anche in
campo metrico, così come in campo
sociale e di organizzazione dello
stato, tante rogne, introducendo regole e norme che sotto gli stessi Borbone non avrebbero mai avuto rapida attuazione, influenti come ancora
erano nel loro regno il clero e la
nobiltà. Ma una lettura attenta di
questa legge metrica, connessa a
una valutazione critica degli avvenimenti coevi, non può non validare
questa affermazione [20,21]. Va
quindi documentato che, nel lunghissimo arco dei quattro secoli che dividono le due leggi metriche unitarie
delle due Sicilie, le attività metriche
nel Regno avevano continuato a
essere il caposaldo organizzativo
dei mercati, seppur mantenendo
sempre la ricordata separazione tra
“le Sicilie” specchio di un regno
che, come molti sanno, era organizzato su due capitali e su due megaterritori al loro completo sostegno
nonché con due sole Università attive (retaggio quest’ultimo che ha condizionato lo sviluppo e la diffusione
della cultura nei territori meridionali).
In una giusta ottica storica vanno quindi inquadrati episodi più che significativi che testimoniano delle istanze tante volte sottoposte alla
sensibilità del Re
da militari e da
commercianti (in
questo sostenuti
dagli scienziati
del regno) purtroppo mai ascoltate. Così come vanno ricordati in questo contesto i contributi
alla codifica delle unità e dei
campioni presenti nella storia e
▲
definita tramite un recipiente cubico
di dimensioni note (1 palmo) riempito
di olio di oliva, quest’ultimo individuato come fluido “universale”, visto
il respiro prettamente agroalimentare
dei mercati da regolare [18]. Detta
legge era avanzatissima per i suoi
tempi, ed è documentabile come essa
sia frutto, solo dopo pochi secoli di
unità del regno, della osservazione
che Federico II all’atto della sua incoronazione evidenzia sulla “diversità
siciliana” delle misure in uso “al di
qua e al di là del fiume Salso”
[17,18].
Un’altra splendida testimonianza di
unificazione metrica è la legge borbonica, sempre del 6 aprile, ma del
1840 (sarebbe divertente poter provare storicamente che la data di promulgazione fu volutamente da qualcuno resa sincrona). Legge che, nel cercare di sintetizzare gli eventi metrici
vissuti nel regno nei primi anni dell’800 e connessi alla travolgente sequenza (i) della rivoluzione napoletana, (ii) del decennio francese e (iii)
della restaurazione borbonica, reintroduce i campioni di Napoli capitale
[19]. Ridenominandoli secondo tradizione (ritornano la canna metrica e
altri nomi noti), adeguandoli nelle
definizioni alle vincenti tecnologie
impostesi nel decennio Francese (che
aveva dato luogo a una ricchezza di
manufatti e successi quali quelli della
Real Scuola di Ponti e Strade che poi
diventerà Facoltà di Ingegneria dell’Università oggi intitolata a Federico
II), nonché riorganizzando multipli e
sottomultipli su base decimale, e cioè
riconoscendo alla decimalità una praticità attuativa che è ormai patrimonio
dell’umanità e della intera comunità
socio economica.
La legge borbonica prova a sintetizzare e aggiornare i quattro secoli di
“vigenza unitaria” delle regole metriche degli Aragona, che il su evidenziato federalismo e antagonismo
napoletano e siciliano invece avevano abbondantemente “tradito” con
una inconfutabile divergenza fra gli
“usi” riferibili ai campioni di Napoli
capitale e quelli della tradizione autonomistica siciliana, non collegati univocamente alla seconda capitale
STORIA E
CURIOSITÀ
nelle poche (rispetto all’Italia dei comuni) steli metriche esistenti nel regno
(a eccezione del distrutto monumento
dei pesi e misure nel tribunale e della
splendida lapide metrica del Duomo
di Acireale). Si inquadrano poi nello
scenario dell’unificazione metrica
anche il fiorire di lodi, anche di autori meridionali, all’unificazione e alla
universalità del sistema metrico decimale che caratterizzarono l’avvio
del processo unitario e della codifica
di una metrologia universale [22].
Infine c’è da sottolineare, in un momento storico quale quello attuale,
che fu proprio il federalismo a impedire nelle due Sicilie la promulgazione di leggi metriche unitarie e aggiornate, e che invece nei principati
degli estensi, in quello toscano, e in
quello di Milano esistono testimonianze storiche più che interessanti
sul processo di unificazione metrica.
Nessuna risulta però eccelsa nella
efficacia attuativa quale quella piemontese. Questa infatti si distinse per
il “gioco di squadra” che si verificò
in quegli anni tra Stato e Chiesa
sotto l’influenza determinante di Don
Bosco, il che permise, proprio per il
tramite delle parrocchie, la diffusione territoriale delle nuove unità decimali contribuendo al successo irreversibile del Metro [23].
Interessante poi sarebbe poter
approfondire il tema della unifica-
T_M ƒ 77
N. 01ƒ
; 2012
▲
STORIA E
CURIOSITÀ
vicende metriche e della consolidata presenza nelle Università torinesi
di valenti studiosi di metrologia i
due gioielli, Istituti Metrologici Primari (IEN e IMGC) sono recentemente confluiti in un unico istituto
l’INRIM a Torino, nel quale si svolge la quasi totalità della ricerca
metrologica italiana e delle attività
correlate di diffusione e mantenimento dei campioni di misura. Una
specificità torinese alla quale, da
rappresentante delle terre dei Borbone, ho avuto il piacere e l’onore
di partecipare, sempre ben accolto.
RINGRAZIAMENTI
zione monetaria del neonato Regno
d’Italia, quale principale concausa
della rapidità attuativa dell’unificazione metrica. Visto che, come molti
sanno, per l’imprevedibilità e la
rapidità dell’unificazione restarono
in corso legale per anni monete
auree coniate dai differenti stati
preunitari e agli ufficiali metrici del
tempo fu imputato anche, se non
principalmente, il ruolo di verificatori dei contenuti in oro di dette monete, a garanzia del consumatore e
della fede pubblica [12,13,24].
Principio quest’ultimo ispiratore di
quella branca della metrologia
denominata metrologia legale. Branca che trasse dalla su menzionata
firma della Convenzione del Metro
del 1875 tanta linfa vitale da dar
luogo, alla fine del 1800, a una
legge metrica tanto dettagliata e
perfetta da saper resistere, sin quasi
ai nostri giorni, a tutte le novità che
hanno interessato la metrologia e i
mercati [25].
Occorre oggi poi evidenziare che il
primato metrologico del Piemonte e di
Torino, capitale della metrologia italiana, si inquadra perfettamente in
quanto detto, visto che sulla scia delle
T_M ƒ 78
L’autore ringrazia la Prof. Costanza D’Elia e i tanti amici e colleghi,
metrologi e non, che hanno voluto
reperire atti e documenti metrici
utili. Doveroso è poi un pensiero
di commosso ricordo per l’amico
collega Prof. Sigfrido Leschiutta
autore di tante opere storiche sulla
metrologia piemontese alle quali
l’autore si è indegnamente ispirato
riconoscendolo Maestro.
BIBLIOGRAFIA
1. Tillet M. e anonimo “Saggio
rapporti dei pesi stranieri con il
marco di Francia”, Adunanza
Pubbl. Acc. Francia 9 aprile
1766 e stamperia SAR Firenze
1799;
2. Melchiorre Delfico “Sulla
necessità di rendere uniformi i
pesi e le misure del Regno”,
Stamp. Reale Acc. Militare,
Napoli 1787;
3. Adler K. “La misura di tutte le
cose”, Rizzoli editore, Milano
2002;
4. Cipolla M. “Storia economica
dell’Europa preindustriale”, Universal Paperbooks, Il Mulino,
Bologna 1980;
5. Tucci U. “Pesi e misure nella
Storia d’Italia”, Einaudi, Torino
1973;
6. Leschiutta S. “L’arte della
misura del tempo presso le cortigiane
e altre curiose storie……”, Quaderni
GMEE, Torino 2008;
7. Anonimo, Don G. Bosco?, “Lezioni
popolari sul sistema metrico”, Stamp.
Sociale degli Artisti Tipografi, Torino
1849;
8. De Lorenzo R. “Storia e Misure”,
Franco Angeli, Milano 2007;
9. Griserini F. “Dizionario delle Arti e
dei Mestieri”, M. Fenzo, Venezia
1768-78;
10. Frosoni G. “Il giovane istruito nell’arimmetrica pratica…… delle principali piazze d’Europa loro monete,
pesi e misure”, G. Cambiagi, Firenze
1792;
11. De Simone E. “Storia Economica,
dalla Rivoluzione Industriale alla Rivoluzione”, Franco Angeli Ed., Milano
2008;
12. Lombardi L. “Storia del sistema
metrico e l’opera dell’ufficio internazionale di pesi e misure”, Soc. It.
Progr. Scienze, Roma 1941;
13. Francisci P. “La Convenzione del
Metro e la Metrologia legale”, Edizioni CieRe, Roma, 2003;
14. Sestini M.C. “La rivoluzione
Metrologica”, Tesi- Università di
Camerino A.A. 2007-08;
N. 01ƒ
;2012
NEWS
■
15. Tacchini A. “La metrologia universale e il codice metrico internazionale”, Hoepli, Milano, 1845.
16. Vigo P. “Metrologia e Società: l’evoluzione dei Codici delle Misure nel
Sistema Metrico Decimale”, DIMSAT,
Cassino 2006;
17. Salvati C. “Misure e Pesi nella
documentazione storica dell’Italia del
Mezzogiorno”, L’arte Tipografica
Napoli, 1976;
18. Iovieno S. “Legal Metrology in the
city of Naples during Aragonesi domination”, OILM Bulletin Vol XL n. 4, 1999;
19. Vigo P. “Metrologia e Società
Civile un binomio in continua evoluzione anche nella nostra Italia”, L’arte
della misura ed. CieRe Roma 2003;
20. Zerbi R. “La Polizia Amministrativa Municipale del Regno delle Due
METROLOG XG
E METROLOG X4 SOLUZIONI PRONTE
PER IL FUTURO
Metrolog è un software 3D polifunzionale, che soddisfa tutte le
esigenze di misura e di controllo
qualità.
Metrologic Group offre la possibilità, unica nel suo genere,
di connettere il Metrolog a tutti
i sistemi di misura 3D presenti
sul mercato siano essi a contatto oppure ottici, dai bracci portatili sino ai laser tracker, passando per gli scanner 3D
manuali, CMM manuali e automatiche.
Sviluppato da un gruppo forte di
30 anni d’esperienza, integra
Sicilie”, Tipografia Urania, Napoli,
1846;
21. Molinari V. “Trattato di Metrologia Universale”, Stab. Tipogr. Servio
Tullio, Napoli 1862;
22. Alfano de Rivera Carlo “Tavole di
riduzione dei pesi e delle misure delle
Due Sicilie in quelli statuiti dalla legge
del 6 aprile 1840”, Stamperia del
Fibreno, 1840;
23. Leschiutta S. “Il Metro è bello, è
difficile, ma soprattutto va insegnato”,
Torino 1999;
24. Roth J. “Il peso Falso”, Aldelphi,
1999:
25. Russi A., Vigo P. “Dall’antropomorfo all’universale: l’evoluzione dei
codici e delle misure nella storia italiana”, II Convegno Nazionale Storia
dell’Ingegneria, Salerno, 2006.
tutte le ultime tecnologie in materia
di controllo tridimensionale. Si
possono effettuare misure di tipo
geometrico (algoritmi certificati da
PTB e NIST) e di misure libere
(curve e superfici) con qualsiasi
tipo di sistema CAD.
La scalabilità della soluzione è
assicurata grazie alla realizzazione di pacchetti applicativi che consentono alle aziende appartenenti
al settore automotive aerospaziale, construction, energia ecc., di
accedere alla migliore configurazione in relazione alla tipologia di
attività. Metrolog fornisce anche
funzionalità specifiche quali le
GD&T (ISO-ASME) studiate per la
gestione avanzata delle tolleranze
geometriche nonché moduli opzionali concepiti per l’acquisizione
diretta o l’import della nube di
punti, come anche per la misurazione delle pale e palette di turbine o la misura e analisi di ingranaggi.
Metrologic Group è una multinazionale, di origine francese, leader mondiale nello sviluppo e
■
STORIA E
CURIOSITÀ
Paolo Vigo è Professore Ordinario presso l’Università degli Studi di Cassino. Dal 2000 al 2008 è
stato Presidente del Comitato Centrale Metrico del
Ministero delle Attività
Produttive. Dal 2001 al 2009 è stato
Rettore dell’Università degli Studi di
Cassino. È attualmente Prorettore dell’Università di Cassino e Presidente del Palmer, Parco Scientifico e Tecnologico del
Lazio Meridionale. Dal 1986 collabora
con l’Istituto di Metrologia G. Colonnetti del CNR di Torino e dal 2006 è Consigliere di Amministrazione dell’Istituto
Nazionale di Ricerca in Metrologia
I.N.Ri.M. di Torino in cui l’IMGC è confluito. È Vicepresidente con delega al
settore Taratura di ACCREDIA, Ente
Unico nazionale per l’Accreditamento.
nella produzione di sistemi di
controllo dimensionale e nella
fornitura dei servizi collegati.
Le nostre attività sono: l’equipaggiamento elettronico hardware e
software di macchine di misura
tridimensionali (CMM) nuove o
usate (retrofit), la fornitura di
sistemi di controllo on-line, la formazione, la manutenzione e la
calibrazione delle CMM.
La dimensione internazionale è
garantita da una rete di vendita
estesa a 30 paesi e dalla presenza delle filiali in Italia, USA, Germania, Spagna, Cina, e Svezia.
Per ulteriori informazioni:
www.metrologicgroup.com
T_M ƒ 79
T U T T O _ M I S U R E
Anno XIV - n. 1 - Marzo 2012
ISSN: 2038-6974
Sped. in A.P. - 45% - art. 2 comma 20/b
legge 662/96 - Filiale di Torino
Direttore responsabile: Franco Docchio
Vice Direttore: Alfredo Cigada
Comitato di Redazione: Salvatore Baglio,
Antonio Boscolo, Marcantonio Catelani,
Marco Cati, Pasquale Daponte, Gianbartolo Picotto,
Luciano Malgaroli, Gianfranco Molinar,
Massimo Mortarino
Redazioni per:
Storia: Emilio Borchi, Riccardo Nicoletti,
Mario F. Tschinke
Le pagine delle Associazioni Universitarie di Misuristi:
Stefano Agosteo, Paolo Carbone, Carlo Carobbi,
Alfredo Cigala, Domenico Grimaldi,
Claudio Narduzzi, Marco Parvis, Anna Spalla
Lo spazio delle altre Associazioni: Franco Docchio,
Giuseppe Nardoni
Le pagine degli IMP: Domenico Andreone,
Gianfranco Molinar, Maria Pimpinella
Lo spazio delle CMM: Alberto Zaffagnini
Comitato Scientifico: ACISM-ANIMA (Roberto
Cattaneo); AEI-GMTS (Claudio Narduzzi);
AIPnD (Giuseppe Nardoni);
AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione);
ANIE (Marco Vecchi); ANIPLA (Marco Banti,
Alessandro Ferrero); AUTEC (Anna Spalla),
CNR (Ruggero Jappelli); GISI (Abramo Monari);
GMEE (Giovanni Betta); GMMT (Paolo Cappa,
Michele Gasparetto); GRUPPO MISURISTI
NUCLEARI (Stefano Agosteo)
INMRI – ENEA (Pierino De Felice, Maria Pimpinella);
INRIM (Elio Bava, Flavio Galliana, Franco Pavese);
ISPRA (Maria Belli); OMECO (Clemente Marelli);
SINAL (Paolo Bianco); SINCERT-ACCREDIA
(Alberto Musa); SIT (Paolo Soardo);
UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione: la fotocomposizione - Torino
Stampa: La Grafica Nuova - Torino
Autorizzazione del Tribunale di Casale Monferrato
n. 204 del 3/5/1999.
I testi firmati impegnano gli autori.
A&T - sas
Direzione, Redazione,
Pubblicità e Pianificazione
Via Palmieri, 63 - 10138 Torino
Tel. 011 0266700 - Fax 011 5363244
E-mail: [email protected]
Web: www.affidabilita.eu
Direzione Editoriale: Luciano Malgaroli
Massimo Mortarino
È vietata e perseguibile per legge la riproduzione
totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta
sia su supporti magnetici, digitali, ecc.
ABBONAMENTO ANNUALE: 36 EURO
(4 numeri cartacei + 4 numeri telematici)
ABBONAMENTO BIENNALE: 66 EURO
(8 numeri cartacei + 8 numeri telematici)
Abbonamenti on-line su: www.tuttomisure.it
L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento
effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il
presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato
della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO
• Il tema: Controlli e misure
sensori e soluzioni innovative
• MEMS per rilevare il movimento umano
• La competenza nei laboratori di taratura
E molto altro ancora
T_M
N.
ABBIAMO
LETTO PER VOI
■
La Redazione di Tutto_Misure
([email protected])
LA VITA INASPETTATA –
IL FASCINO DI UN’EVOLUZIONE
CHE NON CI AVEVA PREVISTO
di Telmo Pievani
Scienza e Idee – Raffaello Cortina Editore
253 pagine
ISBN 9788860304070: € 17,85 (amazon.com), 2011
Interrogato da un teologo su quale fosse la caratteristica più spiccata di Dio creatore, il biologo
inglese J.B.S.Haldane rispose: “Una smodata predilezione per i coleotteri”. All’epoca se ne consideravano circa quattrocentomila specie contro... una sola del genere Homo. E forse i coleotteri popoleranno il pianeta quando Homo sapiens non sarà nemmeno più un ricordo. Frutto di
cosmica contingenza, uno dei tanti arbusti del “cespuglio della vita” sopravvissuti alla lotta per
l’esistenza, l’essere umano si è fatto strada in una natura che non perde occasione di schiacciarlo, facendogli provare il senso della solitudine nell’Universo. In questo libro Telmo Pievani ci
rammenta che la comparsa degli organismi viventi è stata un fenomeno inatteso, e ne ricostruisce la storia evolutiva come un intrico di biforcazioni privo di direzioni privilegiate, sicché anche
l’animale uomo si rivela tutt’altro che l’eccezione animata dalla scintilla divina. Proprio in questo modo si conquista una rinnovata solidarietà con tutta la “rete del vivente”, come la chiamava Charles Darwin, senza nessuna concessione a fondamentalismi e superstizioni.
L’autore è professore associato di filosofia della scienza presso la facoltà di scienze della formazione dell’Università degli studi di Milano-Bicocca. Ha ricoperto gli insegnamenti di epistemologia e di epistemologia evolutiva. Dal 2007 è vice-direttore del dipartimento di scienze
umane per la formazione “Riccardo Massa” e vice-presidente del corso di laurea in scienze dell’educazione.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO
AEP Transducers
p. 2
Affidabilità & Tecnologie
3a di cop
Aviatronik
4a di cop
Bocchi
p. 38
CAM 2
p. 58
CCIAA di Prato
p. 32
Cibe
p. 26
Coop. Bilanciai Campogalliano p. 62
Danetech
p. 70
Delta Ohm
p. 10
DGTS
p. 40
DSPM Industria
p. 64
Fluke-CalPower
p. 12
Hexagon Metrology
p. 4
HBM
p. 34-60-72
IC&M
p. 48
1/12 ƒ 80
Kistler Italia
Labcert
LMS Italiana
LTTS
Luchsinger
Mager
Metrologic Group
Mitutoyo Italiana
PCB Piezotronics
Physik Instrumente
Renishaw
Rupac
Soc. Bilanciai Porro
Vision Engineering
Wika Italia
p. 20-74
p. 36
p. 46-74
p. 16
p. 22
p. 50
p. 79
p. 1
p. 74
p. 56
p. 6
2a di cop
p. 52
p. 72
p. 30