TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ” ANNO XIII N. 03 ƒ 2 011 GRUPPO MISURE ELETTRICHE ED ELETTRONICHE EDITORIALE Meditazioni di mezza estate AFFIDABILITÀ & TECNOLOGIA IL TEMA: VISIONE INDUSTRIALE La guida robot come sistema di misura Profilometro ottico 3D ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 3 - Anno 13 - Settembre 2011 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi TUTTO_MISURE - ANNO 13, N. 03 - 2011 Verifica di conformità nell’assemblaggio con sistemi di visione ALTRI TEMI Il venture capital Sensori autonomi Progetti con RFId ARGOMENTI Metrologia legale e forense: Controlli successivi su sistemi di misurazione di liquidi diversi dall’acqua Visione artificiale: Visione e taratura IMP: Nanometrologia per caratterizzazione di nanoparticelle Metrologia per capillarità 43. verticale Azienda leader di strumenti e sistemi di misura... ... da oltre 50 anni la soluzione giusta Dal micrometro alle Macchine di Misura Ottiche e Multisensore 3D www.rupac.com Via Alamanni, 14 - 20141 Milano - tel 02.53.92.212 r.a. - fax 02.56.95.321 - [email protected] TUTTO_MISURE ANNO XIII N. 03 ƒ 2011 IN QUESTO NUMERO La guida Robot come sistema di misura affidabile Robot guide as a reliable measurement system F. Rosi 171 Confronti remoti di frequenze campione Remote comparisons of frequency standards through optical fiber links C. Clivati, D. Calonico, F. Levi, A. Mura, G.A. Costanzo e A. Godone 199 Come si realizza un progetto RFId How to make a RFId projeect L. Cremona 217 Storia e curiosità: l’Osservatorio di Pesaro - Parte III The collection of ancient measurement instruments of the “Valerio” observatory in Pesaro - part 3 E. Borchi R. Macii R. Nicoletti A. Nobili 237 Editoriale: Meditazioni di mezza estate (F. Docchio) 165 Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese Notizie nel campo delle misure e della strumentazione 167 Il tema: Visione industriale La guida Robot come sistema di misura affidabile (F. Rosi) 171 Spotsurf: un profilometro ottico 3D per la caratterizzazione dimensionale di pezzi meccanici (A. Bandera, M. Donini, A. Pasquali) 177 Verifica di conformità nell’assemblaggio con sistemi di visione (G. Bassi, A. Basso, M. Galimberti, R. Sala) 181 Gli altri temi: Trasferimento tecnologico Lo sviluppo dell’innovazione tecnologica: come intervengono i fondi di venture capital, gli incubatori e i business angels? (M. De Paolis) 187 Gli altri temi: Il meglio di Metrologia & Qualità Nanometrologia per la caratterizzazione di nanoparticelle (G. Zappa, C. Zoani) 189 Gli altri temi: Sensori Un sensore autonomo per misure di forza in protesi del ginocchio (E. Sardini, M. Serpelloni) 195 Gli altri temi: Metrologia fondamentale Confronti remoti di frequenze campione tramite link in fibra ottica (C. Clivati, D. Calonico, F. Levi, A. Mura, G.A. Costanzo, A. Godone) 199 Gli altri temi: Misure per il settore ferroviario The Power Quality of DC and AC Railways: spectral and temporal characterization (A. Mariscotti, P. Pinceti) 203 Campi e compatibilità elettromagnetica Il comportamento a radiofrequenza dei componenti circuitali passivi. L’induttore - parte seconda 207 (C. Carobbi, M. Cati, C. Panconi) Le Rubriche di T_M: Visione Artificiale Visione e taratura: il back stage della visione industriale (G. Sansoni) 211 I Seriali di T_M: Misure e Fidatezza L’affidabilità come requisito di progetto di componenti e sistemi. Le strutture Serie e Parallelo 213 (M. Catelani, L. Cristaldi, M. Lazzaroni) I Seriali di T_M: I sistemi RFId Come si realizza un sistema RFId (L. Cremona) 217 Le Rubriche di T_M: Metrologia legale Le verifiche periodiche degli strumenti: un “work in progress“ (V. Scotti) 221 I controlli successivi sui sistemi di misurazione di liquidi diversi dall’acqua (M.C. Sestini) 222 Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi (F. Docchio, A. Cigada, A. Spalla, S. Agosteo) 225 Le Rubriche di T_M: Metrologia per Capillarità Sul concetto di Precisione: il significato di un termine di cui spesso si abusa (G. Miglio) 227 Lo spazio degli IMP Il sistema di taratura dell’INMRI-ENEA per le misure di Radon (F. Cardellini) 229 Manifestazioni, eventi e formazione 2011-2012: eventi in breve 235 Le Rubriche di T_M: Storia e curiosità La collezione degli antichi strumenti di Ottica dell’Osservatorio Valerio di Pesaro. Parte 3a – gli strumenti per il magnetismo terrestre (E. Borchi, R. Macii, R. Nicoletti, A. Nobili) 237 Abbiamo letto per voi 240 News 208-218-226-228-230-232-234-236-239 T_M N. 3/11 ƒ 163 Franco Docchio EDITORIALE ■ Meditazioni di mezza estate Midsummer meditations Cari lettori! Scrivo quest’editoriale dalla Sardegna dove resterò ancora qualche giorno. In questo periodo, e dall’ultima volta che vi ho scritto (Editoriale di Tutto_Misure News n. 2/2011), si sono succeduti numerosi eventi significativi, quasi tutti negativi. Innanzitutto è stata approvata la manovra finanziaria, che per i prossimi tre anni prevede sacrifici alle famiglie e tagli indiscriminati alle spese della pubblica amministrazione. Ciò avrà sicuramente ripercussioni negative sul finanziamento dell’Università e della Ricerca. Prepariamoci al peggio, anche perché non c’è, nella manovra, alcun incentivo alla ripresa economica. Ormai sono rassegnato al fatto che difficilmente nei prossimi anni vedrò una manovra finanziaria coraggiosa e con una spiccata propensione allo sviluppo del nostro Paese… A questo scenario prossimo futuro corrisponde, per la ricerca, uno scenario presente altrettanto cupo e desolante. I progetti del Ministero dello Sviluppo Economico Industria 2015, così come quelli del Ministero della Ricerca Eurostar sono al palo: chi ha già iniziato i lavori (anche due anni fa) si ritrova con crediti verso lo Stato che non sa se riuscirà a riscuotere. Spesso per avere informazioni sullo stato dei finanziamenti è necessario andare al Ministero, come questuanti, e ci si sente rispondere frasi del tipo “voi partite pure con i lavori, poi speriamo che i fondi prima o poi vengano erogati e soprattutto non vengano tagliati dalla manovra”. Questa è la ricerca in Italia, proprio quella ricerca che dovrebbe (sulla carta) rilanciare la competitività del sistema Italia nel mondo. A livello internazionale, siamo (quasi) tutti sotto shock per l’incredibile tragedia di Oslo. Come genitori e formatori, restiamo allibiti per questa crudeltà nei confronti di ragazzi nel fiore della loro adolescenza e che, come tutti i loro coetanei, erano in quell’isola pieni d’ideali e d’idee per un mondo migliore. In molti degli ambienti che frequento c’è il solito diffuso timore per il dilagare del “fondamentalismo islamico”. Ora non possiamo disconoscere che siamo davanti a un fatto nuovo, ed è il farsi avanti di un “fondamentalismo cristiano” altrettanto pericoloso che ha armato le mani del pluriomicida. Non mi illudo che questo resterà un caso isolato, specie se viene in qualche modo giustificato da esponenti politici (anche italiani) che affermano che le idee di fondo dell’omicida sono corrette (questo giustifica il “quasi” di poc’anzi). Una canzone dei miei diciott’anni aveva il titolo “silence is golden”: come vorrei che alcuni politici la ascoltassero bene! Per venire alle vicende della nostra comunità di misuristi, la rivista arriverà nei vostri uffici o nelle vostre case dopo che si saranno svolti, in parallelo, i Congressi nazionali delle Associazioni Italiane del Misuristi Meccanici (GMMT) ed Elettrico-Elettronici (GMEE) a Genova, in vista della convergenza in un’unica Associazione di Misuristi. Nel frattempo il Ministero della Ricerca ha approvato i Progetti di Rilevante Importanza Nazionale (PRIN): un numero consistente di coordinatori di Progetto afferenti alle due associazioni è risultato vincitore, come si evince dalla comunicazione nella rubrica delle Associazioni dei Misuristi. Complimenti e buon lavoro (e, come dicevo sopra, incrociamo le dita perché i finanziamenti restino disponibili)! Come i lettori della rivista telematica hanno potuto leggere in anteprima, A&T, organizzatore dell’evento “Affidabilità e Tecnologie”, che si svolge con crescente successo ogni anno al Lingotto di Torino, intende dotarsi di un Comitato Scientifico Industriale che detti le linee d’indirizzo per l’iniziativa e fornisca indicazioni su contenuti, convegni, ecc.. Mi sembra un’iniziativa che consolida un evento sempre più di successo, che sta affermandosi come valido concorrente d’iniziative più “blasonate”. È dunque un mio dovere e piacere stimolare chi, tra voi miei lettori, è interessato a collaborare con l’iniziativa, di farsi avanti e proporsi per l’inserimento tra i membri del Comitato. A proposito di lettori, segnalo che da un paio di mesi la rivista ha un “fan” di prestigio. Si tratta nientedimeno che il quotidiano della mia città, il “Giornale di Brescia”, che avendo letto alcuni dei miei editoriali su T_M e T_M News e avendo “curiosato” all’evento tra gli stand degli espositori bresciani, si è reso disponibile a ospitare editoriali, contributi e “impressioni” in un blog che, giocando ironicamente (come da quando sono piccolo) sul mio nome, ho chiamato “A vista… Docchio”. Vi invito a visitare il sito www.sitoi.it, leggere l’archivio degli editoriali, soprattutto perché su quel blog è possibile depositare commenti e suggerimenti e divulgare a conoscenti, colleghi e amici gli articoli contenuti, mediante gli ormai classici tastini dei principali network sociali (Facebook, LinkedIn, Twitter). Aspetto vostri commenti! E, soprattutto, fate pubblicità alla rivista (se vi piace)! Il tema principale di questo numero è la Visione Industriale. Per un tema di così grande importanza abbiamo ricevuto proposte di contributi in eccesso rispetto alla disponibilità di spazio sul numero e dunque distribuiremo i contributi restanti sui prossimi numeri. Il connubio robotvisione 2D e 3D sta veramente prendendo il volo! A tutti, buona lettura! Franco Docchio T_M N. 3/11 ƒ 165 COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE ▲ La Redazione di Tutto_Misure ([email protected]) Notizie nel campo delle misure e della strumentazione NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of relevant news of Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, start-up, dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. COLLABORAZIONE TRA IL GRUPPO GMEE DELL’UNIVERSITÀ DELL’AQUILA E BTICINO PER LA CARATTERIZZAZIONE IN FREQUENZA DI TRASFORMATORI ISOLATI IN RESINA I trasformatori sono macchine elettriche fondamentali ai fini della produzione, del trasporto e della distribuzione dell’energia elettrica; per avere una maggiore affidabilità e ridurre i costi di manutenzione, negli ultimi anni si va sempre maggiormente diffondendo un approccio predittivo in manutenzione, con attenzione crescente verso la diagnostica. Il gruppo BTicino Legrand, presso lo stabilimento Castellalto (TE) (ex Elettromeccanica di Marnate) per produzione di trasformatori MT-BT isolati in resina, ha avviato una collaborazione con i docenti dell’Unità GMEE della Facoltà di Ingegneria dell’Università dell’Aquila per quanto concerne le tematiche di collaudo e di diagnostica sui propri trasformatori, nello sviluppo delle quali si sono impegnati laureandi in inge- gneria elettronica ed elettrica in possesso della certificazione NI CLAD conseguita presso la NI LabVIEW Academy della stessa Facoltà. È stato sviluppato un sistema automatico di misura per l’implementazione della caratterizzazione in frequenza degli avvolgimenti dei trasformatori, di seguito descritta; a partire da Giugno 2012, la normativa IEC 6007618 imporrà ai costruttori di trasformatori di aggiungere al bollettino di collaudo anche i risultati di detta caratterizzazione. In dettaglio, la caratterizzazione in frequenza degli avvolgimenti dei trasformatori, denominata Sweep Frequency Response Analysis (SFRA) consente di ottenere indicazioni sulle condizioni delle parti attive, cioè del nucleo e degli avvolgimenti, che compongono il trasformatore. La misura viene eseguita mediante l’applicazione di un segnale sinusoidale, di ampiezza dell’ordine di pochi volt, su ogni avvolgimento del trasformatore; viene mantenuta inalterata l’ampiezza del segnale, facendone variare la frequenza da 20 Hz a 2 MHz almeno, e viene misurata la risposta in frequenza dell’avvolgimento in modulo e fase, così da vedere come esso si comporta alle diverse frequenze. I trasformatori, infatti, possono essere schematizzati con reti elettriche in cui sono presenti parametri capacitivi, induttivi e resistivi che sono dipendenti dalla caratteristiche dei materiali e dalle specifiche geometriche di progetto; quando vi è una variazione di un parametro di una qualsiasi parte della macchina, vi è anche una variazione della risposta in frequenza del trasformatore. Sulla base di questo principio, tramite la SFRA, è possibile effettuare una diagnostica del trasformatore, così da accertarsi delle condizioni dei vari componenti, della vita residua della macchina e, nel caso di forti alterazioni, intervenire prima che si verifichi il guasto. Il vantaggio dell’utilizzo di questa tecnica risiede nel poter effettuare analisi ripetute nel tempo, idonee a individuare eventuali deterioramenti della macchina, così da prevenire i guasti, limitando così i fermi di produzione e i danni che si verificherebbero in seguito al guasto della T_M Figura 1 – Il sistema automatico di misura in sala prove durante il test di un trasformatore isolato in resina MT/BT da 1 MVA N. 3/11 ƒ 167 Figura 2 – Confronto tra i risultati della SFRA sulle 3 fasi Lato BT di un trasformatore MT/BT stessa. Le verifiche attualmente in uso, come ad esempio l’analisi dei gas disciolti (nei trasformatori in olio), il fattore di perdita e la prova alle scariche parziali, rilevano il guasto solo quando si è verificato un deterioramento della macchina spesso non più recuperabile. La tecnica SFRA consente di ottenere diagrammi che possono essere interpretati come impronta digitale di ogni trasformatore. T_M ƒ 168 Figura 3 – Confronto tra i risultati della SFRA sulle 3 fasi Lato MT di un trasformatore MT/BT A causa della recente applicazione di tale tecnica diagnostica, che non è ancora obbligatoria, vi è la mancanza dei dati di riferimento per la quasi totalità dei trasformatori già entrati in funzione. Per rimediare a questa situazione si vanno a confrontare gli spettri ricavati sulle macchine installate con quelli ricavati su trasformatori gemelli o in alternativa confrontandoli con quelli ricavati sulle diverse fasi dello stesso trasformatore, così da vedere la presenza di alterazione della fase guasta rispetto alle fasi sane. La collaborazione attiva tra BTicino e i docenti dell’Unità GMEE della Facoltà di Ingegneria dell’Università dell’Aquila è volta inoltre ad acquisire conoscenze interpretative sulla correlazione tra deterioramento dei trasformatori isolati in resina e risultati della SFRA. Vi è difficoltà di reperire diagrammi SFRA per trasformatori ad iso- N. 03ƒ ;2011 NASCE A NAPOLI L’AICTT, ASSOCIAZIONE ITALIANA CULTURA TRASFERIMENTO TECNOLOGICO – PRIMA RIVISTA NAZIONALE SUL TT nale sul trasferimento tecnologico, dal titolo appunto TT-Trasferimento Tecnologico, animata dall’obiettivo di creare un matching tra il mondo della ricerca (Centri di Ricerca, Università, Laboratori, ecc.), il mondo industriale (medie e grandi aziende) e quello delle PMI. La presentazione della rivista si è tenuta il giorno 29 maggio 2009 presso la stazione marittima a Napoli nell’ambito dell’evento librario Galassia Gutenberg 2009. La copia digitale della rivista è disponibile on line sul sito web al seguente URL: www.trasferimentotecnologico.it La diffusione della rivista è sul territorio nazionale in quanto ha coinvolto già in questa prima fase di start up, Università, Centri di Ricerca, Enti e Imprese presenti in tutto il territorio. DALLA NEWSLETTER LUGLIO-AGOSTO DI ACCREDIA: RICHIESTE DI ACCREDITAMENTO ■ lamento solido, poiché la quasi totalità della documentazione presente in letteratura sulla SFRA è riferita a trasformatori in olio, le cui caratteristiche differiscono da quelli a isolamento solido; la rapida diffusione odierna di questi ultimi, tra cui quelli isolati in resina prodotti da BTicino, pone quindi nuovi problemi sull’interpretazione delle risposte in frequenza a causa dell’assenza di diagrammi di riferimento associati alle diverse tipologie di guasto. Il sistema automatico di misura è stato sviluppato dall’Ing. M. D’Andrea in ambiente NI LabVIEW come lavoro di tesi di Laurea Magistrale in Ingegneria Elettrica, sotto la supervisione del Prof. E. Fiorucci e dell’Ing. A. Di Pasquale (Analista Progetto Lean Manufacturing) di BTicino. Contatti: Prof. E. Fiorucci, Dipartimento di Ingegneria Elettrica e dell’Informazione, Università dell’Aquila, Via G. Gronchi 18, Campo di Pile, 67040 L’Aquila, tel. +39-0862434464, fax +39-0862-434403, email: [email protected] website: www.diei.univaq.it COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE Macchine; 1995/16/CE Ascensori; 9. 2006/95/CE Bassa tensione; 10. 1989/686/CEE dispositivi di protezione individuali; 11. 2004/52/CE Servizio Europeo di Telepedaggio. 8. Per gli Organismi di certificazione operanti per tali direttive l’accreditamento costituisce pre-requisito obbligatorio per il rilascio dell’autorizzazione da parte dei Ministeri competenti e conseguente notifica alla Commissione Europea da parte del Ministero dello Sviluppo Economico. Con l’accreditamento Accredia, gli Organismi di certificazione autorizzati saranno regolarmente iscritti nella banca dati NANDO (New Approach Notified and Designated Organizations) Gli Organismi interessati possono presentare domanda di accreditamento utilizzando i documenti allegati DA00 e DA-04. Il 25 luglio Accredia ha avviato un programma informativo presso le sedi di Milano e di Roma per venire incontro alle esigenze degli Organismi notificati. Sono stati firmati gli accordi con i Ministeri competenti per le notifiche: per gli Organismi interessati, che pos- E-LEARNING SU METROLOGIA A riprova dell’accresciuto interesse sono già inoltrare domanda di accre- E MISURA DAL SITO DEL NPL per tutte le ini- ditamento, Accredia ha avviato un ziative di trasfe- programma informativo. rimento tecnologico, è stata co- 1. 2009/48/CE stituita a NapoSicurezza giocattoli; li, come prima 2. 2004/22/CE - MID sede nazionale Strumenti di misura; Il National Physical Laboratory, già (ci saranno poi 3. 1992/42/CE all’avanguardia nella ricerca scientifialtre sedi fedeCaldaie ad acqua calda; ca e nell’erogazione di servizi alle rate in tutta Ita- 4. 1997/23/CE - PED lia, a cominimprese, lancia un programma eduAttrezzature a pressione; ciare da Pu- 5. 1994/09/CE - ATEX cazionale e informativo per aiutare glia, Calabria e Sicilia per il Sud) Apparecchi e sistemi di protezio- chiunque desideri apprendere in tema dell’Associazione AICTT, Associane destinati a essere utilizzati in di scienza della metrologia o svilupzione Italiana Cultura Trasferimento atmosfera potenzialmente esplo- pare nuove competenze e tecniche di Tecnologico. misura. siva; Visita il sito Si è concretizzato anche un progetto 6. 2004/108/CE www.npl.co.uk/learning-zone editoriale che ha dato luogo alla reaCompatibilità elettromagnetica; lizzazione della prima rivista nazio- 7. 2006/42/CE T_M ƒ 169 ▲ VISIONE INDUSTRIALE IL TEMA Fabio Rosi La guida Robot come sistema di misura affidabile ROBOT GUIDE AS A RELIABLE MEASUREMENT SYSTEM In recent times there is an increase in the use of vision systems in industry, with the aim of guiding robots for piece gripping and manipulation. I will call “robot guide” these vision systems. Robot guide systems can be considered real measurement systems, capable of determining the position of objects in plane and space. With robot guide, robot automation systems gain flexibility, simplicity and thus greater reliability and low maintenance. From surveys it appears how robot guide sometimes create problems for users and for installers, and is often considered as a product generally unreliable and complex to use. I will try to discuss common problems and their solutions. RIASSUNTO Ultimamente si nota un incremento dell’uso dei sistemi di visione nell’industria con lo scopo di guidare robot per la presa e manipolazione dei pezzi. Per comodità chiamerò “guide robot” questi sistemi di visione. Le guide robot si possono considerare veri e propri sistemi di misura atti a determinare la posizione nel piano e nello spazio di oggetti. Con le guide robot gli impianti di automazione acquisiscono flessibilità, semplicità costruttiva e di conseguenza maggiore affidabilità e bassa manutenzione. Da sondaggi effettuati emerge anche che le guide robot alcune volte generano problemi a chi le installa o a chi le utilizza, e spesso vengono considerate un prodotto poco affidabile e generalmente complesso da usare. Cercherò d’illustrare quali sono i problemi più frequenti e le loro soluzioni. INTRODUZIONE In questi ultimi anni, se osserviamo gli impianti industriali, non possiamo fare a meno di notare che ai robot stanno decisamente “spuntando gli occhi”. I robot prendono pezzi sparpagliati da nastri, scatole o cassoni, li manipolano, alcune volte li analizzano e li ripongono con cura. Chi utilizza questa tecnologia è abituato a dare a questi occhi nomi diversi: sistema di visione, sensore di visione, telecamera oppure guida robot; penso che quest’ultima definizione sia preferibile alle altre, se non altro perché identifica la funzione piuttosto che l’oggetto che la esegue. Le guide robot portano sugli impianti di automazione innumerevoli vantaggi, come la flessibilità nel cambio prodotto, la semplicità costruttiva, e di PERCHÉ POSSIAMO TROVARE PROBLEMI NELLA GUIDA ROBOT Ho accennato alla guida robot come un sistema di misura percepito come complesso. Tuttavia, come capita frequentemente, è necessario considerare in quale ambito questo sistema è inserito. Infatti la guida robot è uno strumento di discreto livello, utilizzato in ambiti industriali comuni, spesso da personale non particolarmente qualificato, più preparato dal punto di vista meccanico che non informatico-matematico. Mi è capitato, in alcune occasioni, di dover fare addirittura un corso sull’uso del mouse. Quindi è opportuno tener conto che questo scenario sicuramente non aiuta allo sviluppo del prodotto, anche se gli spazi di miglioramento esistono. Le problematiche legate alla guida robot sono molte ed eterogenee. Ci viene in aiuto il fatto che alcune di queste sono più frequenti di altre, e sono direttamente collegate all’algoritmo di visione utilizzato. Ad esempio, la variazione della luce ambientale può sicuramente influenzare un algoritmo di template matching o pattern matching, a meno che, nell’algoritmo stesso, non sia prevista l’invarianza luminosa (ad esempio utilizzando una correlazione normalizzata al posto di una correlazione ordinaria). L’uso di una correlazione normalizzata può risolvere un problema di variazione di luce lineare, ma inizia a dare problemi quando la variazione di luce non è lineare (come quasi sempre accade nel modo reale), quando conseguenza una maggiore affidabilità meccanica e una bassa manutenzione. È vero d’altronde che, in alcune occasioni, le guide robot generano problemi a chi le installa o a chi le utilizza, tanto che, da sondaggi effettuati, si nota che mentre i robot sono considerati prodotti generalmente affidabili, la visione viene percepita come un prodotto poco affidabile e generalmente complesso da usare. Queste considerazioni hanno portato nel corso degli anni a trovare soluzioni che possano dare una piena fiducia nello strumento di visione, facendo dimenticare quello che spesso molti hanno vissuto come una sorta di percorso ad ostacoli, e, da che mondo è mondo, gli ostacoli si VEA srl - Canegrate (MI) rimuovono o si trova qualcosa che possa superarli. [email protected] T_M N. 3/1 T_M 1 ƒ ƒ 171 171 N. 03ƒ ; 2011 Figura 1 questa è dovuta alla generazione di ombre sul pezzo a causa della sua diversa posizione, o alla luce che proviene da una finestra, o altro ancora. Di questo passo si può andare avanti all’infinito. Ma allora cosa bisogna fare? Come accennato nell’introduzione, o viene rimosso l’ostacolo, o viene trovato un mezzo che lo possa superare, o, ancora, entrambe le soluzioni, perché spesso è difficile rimuovere definitivamente un ostacolo oppure non si riesce a trovare il mezzo perfetto per superarlo. La soluzione tipica di chi lavora nel mondo della visione è spesso un mix tra le due soluzioni, anche se spesso è più facile rimuovere l’ostacolo che non sviluppare un algoritmo ad hoc capace di superarlo. Per questo spesso siamo abituati a vedere “camere oscure” che chiudono la luce esterna, oppure costosi illuminatori che generano luce omogenea. Tuttavia esistono casi in cui queste soluzioni non possono essere adottate perché difficoltose o particolarmente onerose. In tal caso è necessario puntare sugli algoritmi di visione, sul software, sull’intelligenza della macchina. Questo è proprio il punto debole della catena della visione artificiale: l’intelligenza del sistema di visione. Se provassimo a paragonare un sistema di visione a un essere umano, e a dare pesi ad ogni componente (vedi Fig. 1), risulta evidente che il punto debole di un sistema robotizzato risiede nell’unità designata all’elaborazione. Infatti una telecamera può essere più sensibile o precisa di un occhio umano, un robot può essere più forte e ripetitivo, ma un computer, anche se può essere più preciso, difficilmente potrà avere (almeno per il momento secondo alcuni) l’elasticità mentale di un essere umano. ANALIZZIAMO LE PRINCIPALI PROBLEMATICHE Nel paragrafo precedente abbiamo accennato alle variazioni di luce ambientale, che è sicuramente N. 03ƒ ;2011 uno dei problemi che più assillano gli operatori nel campo. In generale qualunque cosa sia dissimile dal campione originale genera problemi. Variazioni luminose, differenze tra i pezzi, sporco, o liquidi che si depositano sugli stessi, vibrazioni del macchinario, il supporto o il nastro che porta i pezzi che cambia colore per usura o perché è bagnato, sono le principali problematiche che si possono trovare. Nel seguito le esaminiamo. Variazione luminosa Per risolvere il problema delle variazioni luminose abbiamo utilizzato logiche di tipo ibrido. “Logica ibrida” è un termine generico usato per classificare una serie di algoritmi composti da una miscellanea di logiche. Non si tratta di un termine propriamente “esatto”, e spesso è classificato con nomi diversi per cui è difficile identificarlo. Reputo più interessante il significato che si nasconde dietro questo termine: per risolvere problematiche reali con un alto indice di affidabilità, logiche di tipo classico (matematico e statistico) e logiche neurali sono state “mescolate” tra loro, da qui il termine “ibrido”. I risultati prodotti rispetto alla tecnologia classica sono sicuramente soddisfacenti, e un esempio della loro funzionalità si può vedere dal test riportato in Fig. 2. Il vantaggio di trovare uno strumento che compensi le variazioni luminose anche quando queste siano visibilmente marcate porta a evitare di realizzare strutture di schermatura della luce particolarmente costose ed ingombranti. Inoltre questi tipi di algoritmi hanno il vantaggio di poter lavorare con comuni lampade a fluorescenza, spesso chiamate impropriamente “al neon” al posto di costosi illuminatori per visione artificiale. Tappeti sporchi o bagnati Anche per risolvere questo problema abbiamo utilizzato lo stesso tipo di logiche. La Fig. 3 è un collage di videate che illustra come questi algoritmi agiscano in pratica. Si vede chiaramente come le coordinate vengano individuate indipenden- Figura 2 temente dalla luminosità dell’oggetto e dalla presenza di emulsione sul tappeto. Queste logiche sono così potenti da correggere tutti gli effetti della riflessione, anche quando raggiungono intensità tali da trasformare un nastro da nero a bianco. Pezzi con forma eterogenea Non è sempre detto che i pezzi siano tutti uguali tra loro. Esistono fondamentalmente due tipologie di pezzi: quelli simili e quelli che hanno forme diverse per natura. I pezzi simili sono quelli che cataloghiamo come “uguali”, ossia riproduzioni di uno stesso modello: per esempio un rubinetto, un pezzo plastico ecc.. Possono esistere pezzi che possono assumere forme diverse, perché magari di origine naturale: i sassi di una cava, alcune produzioni dolciarie, i funghi secchi tagliati, ecc. Mentre i primi vengono normalmente individuati basandosi su un modello, i secondi vengono individuati tramite caratteristiche geometri- ▲ IL TEMA che. In questa analisi mi soffermerò sulla prima tipologia, anche perché l’altra è sicuramente meno frequente. Anche quando si tratta di pezzi riproduzioni di uno stesso modello, non è detto che questi si possano definire uguali. La colorazione di un pezzo grezzo non è sempre ripetitiva, così come può variare la riflettività della superficie del pezzo. Un altro esempio tipico sono i pezzi pressofusi, con evidenti bave ai bordi che li rendono eterogenei tra loro. Le bave assumono spesso aree così importanti da rendere una classificazione geometrica inutilizzabile per definire il punto di presa del pezzo. A questo punto non resta che analizzare il pezzo partendo da un campione. Ma se il campione è diverso rispetto agli oggetti che troveremo in seguito come è possibile identificarlo con sicurezza? Anche qui ci vengono in aiuto le logiche ibride che riescono ad estrapolare la forma di base dell’oggetto filtrando tutto quello che non è ripetitivo, come nella Fig. 4. A colpo d’occhio gli oggetti dell’immagine sembrano molto simili tra loro, tuttavia è necessario pensare che un sistema di visione ragiona con logiche di punti luminosi e punti scuri, e se si fa attenzione all’immagine, i Figura 3 T_M ƒ 173 Figura 4 gambi degli oggetti alcune volte hanno il bordo luminoso, altre volte no. Da un’analisi dettagliata dei pezzi risulta che la distribuzione dei chiaroscuri non è uniforme, almeno non così come sembrerebbe a prima vista. Questa è un’altra dimostrazione di come il ragionamento umano riesca istintivamente a riconoscere gli oggetti malgrado le loro diversità, e di quante variabili possono influenzare gli algoritmi dei sistemi di visione. Prendo spunto per segnalare che alcune volte si affrontano le applicazioni di visione pensando che il sistema di visione agisca pressappoco come la mente umana; questo genera una sottovalutazione del problema con conseguenze spesso negative. Alcuni casi di perdita di fiducia nella visione artificiale sono dovuti a questa causa. GUIDA ROBOT 3D Guidare un robot per prendere oggetti “alla rinfusa” da un contenitore è un po’ il sogno di tutti coloro che hanno a che fare con la robotica e la visione. Un’altra applicazione della visione 3D con i robot ha come scopo la misura di grossi oggetti più che la presa degli stessi. Un’altra applicazione 3D ancora è la guida di robot semoventi su un percorso. Illustrerò la prima applicazione, ossia la presa di oggetti. Come è facile immaginare le applicazioni 3D sono più complesse di quelle 2D, e per questo si è visto un po’ di tutto, alcuni progetti interessanti e funzionali, altri un po’ meno: sembra quasi di rivedere gli esperimenti agli albori del volo con macchine volanti che sbattono le ali e velivoli a pedali. Come è naturale, alcune tecnologie si sono affermate più di altre. Tra queste ricorderei (i) la tecnologia stereoscopica composta da un gruppo ottico di due o più camere montate su un supporto fisso o in polso al robot, (ii) la tecnologia laser, quest’ultima montata soprattutto su polso robot. Ultimamente si vedono le prime applicazioni fatte con telecamere a “tempo di volo”. Ho seguito progetti sia con tecnologia stereoscopica, sia con laser, ognuna con i suoi pro e contro. Ho riscontrato che, a differenza del 2D, difficilmente si riesce a trovare nel 3D un sistema unico che possa andare bene per ogni applicazione. La soluzione con gruppo di visione stereoscopico 3D fisso, montato sopra il contenitore, permette di eseguire una movimentazione con l’ausilio di sole tre componenti: un robot, un sistema di visione e una pinza. Il vantaggio di questa tipologia d’impianto sta nella grande semplicità che porta a flessibilità elevate con costi di manutenzione decisamente bassi. L’uso di telecamere fisse rispetto a quelle mobili montate sul polso del robot porta ulteriori vantaggi di robustezza e affidabilità dell’applica- ▲ IL TEMA zione evitando problematiche di perdita di taratura e rottura dei cavi tipiche dei sistemi montati a bordo robot. Per far fronte alla complessità dell’immagine e alla piccola dimensione degli oggetti rispetto al campo inquadrato, si è fatto anche qui un gran uso di varie tipologie di algoritmi. L’intero cassone viene ricostruito spazialmente in modo digitale tenendo conto delle variazioni prospettiche, inoltre anche ogni modello viene ricostruito digitalmente in modo da adattarsi al pezzo reale, in qualunque posizione dello spazio all’interno del contenitore. In Fig. 5 viene illustrata l’analisi dei pezzi all’interno di un cassone. Le soluzioni con laser 3D si basano su una ricostruzione geometrica di una “lama laser”, ossia una linea proiettata da un laser su un oggetto, vista da una telecamera. La telecamera trasforma la linea vista in coordinate XZ, mentre la coordinata Y viene rilevata muovendo tutto il gruppo lasertelecamera. Al pari della soluzione stereoscopica si riescono a rilevare le coordinate spaziali X,Y,Z, tuttavia questa soluzione è più performante nella rilevazione degli angoli di rota- Figura 5 T_M ƒ 175 N. 03ƒ ; 2011 ▲ IL TEMA zione del pezzo sul proprio asse. Come svantaggio si ha una maggior lentezza operativa della scansione, e la perdita d’informazioni sull’immagine dovute a problematiche legate alla tecnologia laser. Per questa ragione solitamente si hanno buoni risultati se i pezzi sono geometricamente semplici. Anche nell’applicazione laser, l’uso di logiche evolute ci ha permesso di risolvere condizioni reali particolarmente problematiche, quali ad esempio la ruggine sui pezzi che trasformava in modo casuale superfici lucide e speculari in superfici opache e butterate. Ciononostante è anche vero che l’offerta è variegata, e che si tratta di applicazioni da non prendere “sotto gamba” né da affrontare in modo disinvolto. Fondamentale è scegliere un partner affidabile con comprovata esperienza nel settore, con cui discutere tecnicamente, e non farsi abbagliare da proposte economicamente allettanti che spesso si “pagano” abbondantemente con la necessità di adeguamenti posteriori e con scarsa affidabilità. RINGRAZIAMENTI Ringrazio i miei clienti e i miei collaboratori che mi hanno dato l’opportunità CONCLUSIONI di crescere e sviluppare la tecnologia che ho illustrato, e di nuovo i miei clienLa guida robot non sta soltanto cre- ti che mi hanno permesso di divulgare scendo, ma sta diventando adulta. foto eseguite con i loro pezzi. T_M ƒ 176 Fabio Rosi è nato il 24/1/65 a Milano. Nel 1985, dopo la maturità scientifica, inizia a lavorare nel campo dell’informatica e nel 1989 intraprende i primi passi nella visione artificiale. A 26 anni è inventore designato del primo brevetto su un impianto di taglio laser comandato da un sistema di visione. Contemporaneamente dal 1990 lavora al progetto del sistema di audience televisivo noto in Italia come Auditel e, dal 1992 al 1994, diviene responsabile della progettazione software. Attualmente questo progetto è il pacchetto di rilevazioni televisive più venduto al mondo. Nel 1992 crea la prima azienda di visione artificiale “Visione e Automazione” che nel 2003 diventa “VEA S.R.L.”. Attualmente ha un bagaglio di più di 600 impianti di visione progettati e un’esperienza ventennale nel campo della visione artificiale. [email protected] ▲ VISIONE INDUSTRIALE IL TEMA A. Bandera, M. Donini, A. Pasquali SpotSurf: un profilometro ottico 3D per la caratterizzazione dimensionale di pezzi meccanici ABSTRACT We present Spotsurf, a 3D optical profilometer based on microscopy optics. This measuring system reconstructs shape and roughness of mechanical parts and microstructures down to sub-micron accuracy. RIASSUNTO Nirox presenta il profilometro ottico 3D SpotSurf. Spotsurf è stato progettato e sviluppato per il controllo dimensionale di pezzi meccanici nel settore aerospaziale e consente la misura di dimensioni e l’analisi di pezzi senza contatto con precisioni sub-micrometriche. IL CONTROLLO DIMENSIONALE DEI PEZZI Il controllo dimensionale di pezzi lavorati a macchina è un settore nel quale, nel corso degli ultimi anni, si è potuto assistere a una vera e propria rivoluzione copernicana. Accanto ai sistemi di misura più tradizionali quali le CMM (coordinate measuring machine), hanno fatto la loro comparsa sul mercato sistemi di visione ad altissime prestazioni di misura. I motivi fondamentali del loro successo sono l’assenza di contatto tra il sistema di misura e il misurando, nonché la possibilità di effettuare le misure dimensionali anche su particolari altrimenti non accessibili per via delle dimensioni finite dello stilo di tastatura utilizzato sulle CMM. Nirox, in seguito a esigenze di misura riscontrate nell’ambito del controllo dimensionale di precisione di pezzi meccanici destinati al settore aerospaziale, ha progettato, sviluppato ed ingegnerizzato SpotSurf, un profilometro ottico tridimensionale. Tale sistema di misura, visibile in Fig. 1, si basa sull’approccio noto come shape from focus [1, 2]. Si tratta di un sistema ottico per microscopia dotato di obiettivo con profondità di fuoco molto ridotta (inferiore a 15 µm); questa caratteristica si traduce nella possibilità di riprendere distanza tra il sistema ottico e il pezzo in analisi è possibile ricostruire una mappa della quota alla quale ciascun pixel della camera di ripresa fornisce una porzione del pezzo meccanico in analisi correttamente a fuoco. Tale mappa rappresenta l’informazione cercata, ossia l’insieme delle terne di punti (x,y,z) appartenenti alla superficie del pezzo in esame. Il campo inquadrato dal sistema ottico dipende dall’ingrandimento fornito dall’obiettivo utilizzato. Per consentire la ricostruzione di particolari meccanici le cui dimensioni nel piano oggetto sono superiori a quelle del campo inquadrato, è stato implementato un sistema di acquisizione e di movimentazione automatizzata del pezzo (stitch). Lo stitch consente di effettuare una serie di scansioni verticali, ciascuna delle quali fornisce una diversa porzione del pezzo in analisi. Dopo aver adeguatamente unito le informazioni derivanti da ciascuna scansione verticale, si ottiene una mappa complessiva del pezzo in analisi. In questo modo le dimensioni massime del cuboide che contiene il pezzo da analizzare sono incrementate fino a 100x100x50 mm3. SPOTSURF: IL SISTEMA FLESSIBILE DI ANALISI DI PEZZI MECCANICI Figura 1 – Vista d’insieme del sistema Nirox SpotSurf. È visibile il sistema di imaging, il sistema di movimentazione dell’ottica e la meccanica di movimentazione del pezzo da analizzare. Il supporto del sistema è in granito Le prestazioni di misura del profilometro ottico SpotSurf dipendono, in gran parte, dalle caratteristiche ottiche dell’obiettivo utilizzato nel sistema di imaging. Per soddisfare le diverse esigenze della propria clientela, Nirox ha pertanto previsto la possibilità di dotare SpotSurf di un revolver per obiettivi, a fuoco (mediante un’opportuna camera CCD) tutte e sole le parti del pezzo in esame che si trovano a una distanza dall’obiettivo pari alla di- Nirox srl, Brescia stanza di lavoro. Facendo variare la [email protected] T_M N. 3/11 ƒ 177 N. 03ƒ ;2011 Tabella 1 – Caratteristiche ottiche fondamentali degli obiettivi da microscopia utilizzati nel sistema Nirox SpotSurf CFI60-5 CFI60-10 CFI60-20 CFI60-50 ingrandimento 5x 10x 20x 50x distanza di lavoro (mm) 23,5 17,3 13 10,1 3,06 1,72 0,91 profondità di fuoco 12,22 (µm) ossia di una meccanica in grado di alloggiare contemporaneamente fino a quattro diversi obiettivi. La Tab. 1 riporta le caratteristiche ottiche fondamentali degli obiettivi che si possono alloggiare sul revolver. La profondità di fuoco degli obiettivi riportati in Tab. 1 è indice della precisione raggiunta dal sistema di misura; ne deriva pertanto che, utilizzando ingrandimenti elevati (ad esempio 50x), la precisione del sistema è submicrometrica. Ciò rende possibile l’analisi di rugosità del pezzo in esame, accurate analisi di forma del pezzo, e la rivelazione di eventuali discrepanze rispetto alla forma teorica che dovrebbe possedere. SpotSurf può essere utilizzato con successo anche nel caso di reverseengineering di pezzi: la nuvola di punti del pezzo in esame, infatti, può essere esportata nei più comuni formati di lavoro 3D (ad esempio .stl). A titolo di esempio vengono di seguito riportati due esempi di scansioni effettuate su diversi pezzi meccanici. La Fig. 2 mostra una acquisizione effettuata su un particolare di una chiave di automobile. Si noti come da tale figura risultino evidenti Figura 3 – Interfaccia utente al termine dell’acquisizione di un profilo le disuniformità di un ugello di scarico di lavorazione del fondo dello paralleli certificati, necessari anche scalino e dell’apice delle pareti. La Fig. 3 mostra invece l’interfaccia alla valutazione delle prestazioni sulle utente al termine della scansione di un coordinate (x,y). ugello di scarico. Da tale interfaccia si L’accuratezza sulla singola misura di può vedere (nella parte sinistra) l’imma- quota è inferiore al micron. La precigine live acquisita dal sistema ottico sione della misura di coordinata z è durante le fasi di misura. La parte destra invece legata al tipo d’ingrandimento dell’interfaccia mostra invece il risultato scelto. Per un sistema in configurazione del mosaico costruito durante le fasi di standard destinato ad analisi della misura. Al termine dell’acquisizione del- forma e dimensioni, equipaggiato con la forma del pezzo, il mosaico ottenuto ingrandimento 5x, la precisione ottenupuò essere rototraslato e ingrandito per ta è inferiore a 9 µm. La precisione di apprezzare appieno quanto rivelato misura sulle coordinate (x,y) è determidallo strumento. SPOTSURF: PRESTAZIONI DI MISURA Le prestazioni di misura del sistema SpotSurf sono garantite da una intensa fase di caratterizzazione metrologica e funzionale che parte dai singoli componenti dello schema ottico e dall’hardware di movimentaFigura 4 – Retta di calibrazione della misura di quota (z) zione fiper il sistema SpotSurf no ad arrivare al sistema com- nata dall’hardware di movimentazione pleto. La cali- e dal montaggio del sistema stesso sul brazione del- portale in granito; nel sistema standard la misura del- risulta inferiore ai 5 µm. la coordinata Sistemi di misura con prestazioni elez è ottenuta vate e all’avanguardia necessitano di mediante l’uti- software in grado elaborare in modo lizzo di cam- semplice ed intuitivo l’informazione, Figura 2 – Esempio di scansione effettuata mediante il sistema SpotSurf pioni di riferi- sintetizzandola in un output che perdi un particolare di una chiave mento piano- metta al cliente di fruire rapidamente T_M ƒ 179 del valore aggiunto che ogni strumento di misura offre. La collaborazione con il Laboratorio di Optoelettronica (Optolab) dell’Università di Brescia ha permesso d’integrare nell’interfaccia software del sistema una serie di algoritmi di fitting di superfici 3D standard e complesse; tali algoritmi, sviluppati dal Laboratorio, consentono l’analisi delle scansioni effettuate dal sistema in modo completamente automatizzato. N. 03ƒ ; 2011 ▲ IL TEMA Andrea Bandera è partner di Nirox srl. Svolge attività di consulenza e si occupa dello sviluppo di sistemi di misura per il settore di trasformazione delle materie plastiche per applicazioni industriali e alimentari. Maurizio Donini è partner di Nirox srl. È responsabile delle attività connesse all’utilizzo della spettroscopia NIRS per applicazioni biomedicali. RIFERIMENTI BIBLIOGRAFICI [1] S.K.Nayar, “Shape from focus system”, IEEE proceedings, 1992. [2] S.K.Nayar, Y.Nakagawa, “Shape from focus: an effective approach for rough surfaces”, IEEE proceedings, 1990. T_M ƒ 180 Andrea Pasquali è partner di Nirox srl. Si occupa dello sviluppo di sistemi di misura per il settore di trasformazione del vetro e delle materie plastiche per applicazioni medicali e farmaceutiche. ▲ VISIONE INDUSTRIALE IL TEMA G. Bassi, A. Basso, M. Galimberti, R. Sala Verifica di conformità nell’assemblaggio con sistemi di visione VISION-ASSISTED CONFORMITY VERIFICATION DURING ASSEMBLY PROCESSES The paper describes the general problem of conformity verification in assembling plants through the use of vision systems. It shows an applicative example “in field”. Due to the paper length required, algorithms are not described in detail, emphasis being given on the philosophy used to define the elaboration algorithm. RIASSUNTO L’articolo descrive in generale la problematica della verifica di conformità negli impianti di assemblaggio mediante l’utilizzo di sistemi di visione e quindi presenta un esempio applicativo di successo. Per scelta non vengono descritti gli algoritmi di analisi dell’immagine utilizzati ma si preferisce soffermarsi sulla logica con la quale viene definito l’algoritmo di elaborazione. ASSEMBLAGGIO AUTOMATICO E VERIFICA DI CONFORMITÀ NEL MONDO INDUSTRIALE L’ambito di riferimento è quello dell’assemblaggio di piccole parti, in pratica tutto quello che può essere montato in modo manuale da un operatore. L’assemblaggio manuale delle parti presenta l’enorme vantaggio che per l’operatore è molto semplice riconoscere eventuali non conformità macroscopiche nelle parti che sta assemblando, così come verificare la correttezza dell’assemblaggio finale. L’introduzione delle macchine di assemblaggio, notoriamente molto più produttive, ha introdotto uno scenario completamente nuovo: infatti alla maggiore velocità e ripetibilità operativa del sistema faceva da contraltare la quasi totale scomparsa delle capacità di verifica in linea della produzione. Storicamente il primo approccio al problema fu quello di richiedere che tutti i componenti da assemblare fossero privi di difettosità; ben presto però ci si accorse che tale soluzione migliorava le prestazioni dell’impianto riducendo il numero di fermi, ma non era sufficiente a garantire la conformità degli assemblati prodotti. La soluzione ancora oggi più comunemente diffusa in ambito manifatturiero è quella di automatizzare il processo mantenendo stazioni di verifica di conformità manuali, il cosiddetto controllo visivo. LA VERIFICA DI CONFORMITÀ E LA VISIONE L’introduzione dei sistemi di visione rappresenta, almeno sulla carta, la soluzione ideale al problema del controllo visivo; tuttavia tale approccio incontra tutt’ora difficoltà a essere applicato in modo massiccio, in quanto spesso gli utenti lamentano una bassa affidabilità dei sistemi. Tale modesta affidabilità è quasi sempre riconducibile all’incapacità dei sistemi di visione di funzionare correttamente a fronte della “normale” variabilità delle caratteristiche dei componenti da analizzare e di riconoscere tutte le situazioni di non conformità che possono presentarsi durante la produzione. Agli occhi degli utenti questo significa tempi di messa a punto lunghi e incerti con la conseguente crescita incontrollata dei costi totali dovuti all’introduzione del sistema. Fortunatamente questa situazione non è dovuta a una tecnologia immatura, ma è il risultato di un approccio troppo superficiale alle singole applicazioni che, purtroppo, per i più svariati motivi da ascriversi sia all’utente che all’integratore, non vengono analizzate nella loro completezza. Tale approccio deriva dall’idea che il sistema di visione sia un semplice sensore, come i tanti che si utilizzano negli impianti automatici, che possa essere installato e configurato semplicemente; secondo questo pensiero il sistema di visione è costituito da un sistema d’illuminazione che evidenzia gli oggetti da analizzare, da una telecamera dotata dell’ottica opportuna per riprendere la scena e da un software di analisi delle immagini per eseguire le verifiche di non conformità. Tale modo di pensare è estremamente riduttivo, in quanto dimentica due aspetti fondamentali per realizzare una applicazione di verifica di conformità basata su sistema di visione che sono (i) lo studio della variabilità del processo industriale nel tempo e (ii) la necessità di una collaborazione aperta tra l’integratore (chi realizza il sistema di visione) e l’utilizzatore (chi lo utilizza quotidianamente sul campo). I.S.S. srl – Spin Off del Politecnico di Milano www.issweb.it [email protected] T_M N. 3/1 T_M 1 ƒ ƒ 181 181 N. 03ƒ ;2011 Lo studio della variabilità del processo È un elemento fondamentale nella realizzazione di un sistema di visione, in quanto solo conoscendo a fondo il processo l’integratore potrà definire e sviluppare la sequenza di algoritmi opportuna affinché il sistema sia in grado di gestire tutte le possibili combinazioni che possono presentarsi durante l’utilizzo quotidiano del sistema. Se alcune di queste sono ignorate durante lo studio, ne consegue inevitabilmente che l’algoritmo implementato non sarà in grado di analizzarle correttamente Figura 1 – Esempio di motoventilatore in produzione, generando quelle da controllare situazioni di malfunzionamenti sporadici che portano gli utenti finali a ventilatori elettrici utilizzati per la readichiarare il sistema di visione come lizzazione di cappe aspiranti in ambiscarsamente affidabile. to domestico (Fig. 1). In dettaglio il sistema è chiamato a La collaborazione controllare il corretto montaggio deltra l’integratore e l’utente l’anello seeger che blocca assialLa collaborazione tra l’integratore e mente il perno attorno al quale ruota l’utente risulta altrettanto fondamen- il motore; da questo si capisce l’imtale in quanto permette di mettere in portanza della presenza, e del coratto quei piccoli cambiamenti al pro- retto assemblaggio, di tale anello: cesso produttivo che permettono di da questo dipende la tenuta assiale semplificare, ma soprattutto di ren- del motoventilatore che, in caso condere affidabile il sistema di visione trario, potrebbe, durante il funzionadurante il suo normale funzionamen- mento, smontarsi. Il sistema di blocto in produzione. Questi cambia- co è costituito da tre elementi: una menti possono riguardare le modali- molla, un anello e il seeger stesso tà operative della linea automatica (Fig. 2). di assemblaggio quali velocità e Lo studio della variabilità del processequenza operativa, ma sicuramen- so ha rappresentato la chiave per la te devono riguardare la variabilità realizzazione di un sistema di controldelle caratteristiche dei componenti lo efficace che ha raggiunto la piena tra i diversi lotti produttivi con parti- funzionalità con una fase di messa a colare riferimento al loro aspetto punto praticamente nulla. La variabilisuperficiale (grado di finitura e colore). Quanto sopra affermato è di validità generale quando si intende inserire un sensore di verifica di conformità basato su sistema di visione, sia questo realizzato con una semplice smart camera sia con un sofisticato sistema di visione tridimensionale. ▲ IL TEMA tà del processo è stata analizzata a diversi livelli raggruppando le situazioni anomale in diverse categorie, per impostare l’algoritmo in modo da rilevare tutte le non conformità possibili. Le categorie ipotizzate sono state: (i) assenza di uno a più componenti; (ii) non corretto posizionamento di uno o più componenti; (iii) presenza di variabilità nell’illuminazione; (iv) presenza d’immagini anomale dovute alla presenza di sporco e/o di vibrazioni; (v) assemblaggio non corretto delle parti. Assenza di uno o più componenti L’assenza di componenti è stata ritenuta la condizione base da verificare in primo luogo in modo da scremare dalle immagini i casi in cui il sistema automatico palesemente non monta un componente; nello specifico si è considerata la possibile assenza di uno o più dei tre componenti considerati. Nel seguito si riportano le immagini relative alle quattro condizioni base, corrispondenti alla corretta presenza di tutti i componenti, alla assenza del componente superiore (seeger) che porta alla visione dell’anello, dei due componenti superiori (seeger e anello) che porta alla visione della molla e di tutti e tre i componenti (seeger, anello e molla) che porta alla visione del cuscinetto sottostante (Fig. 3). UN ESEMPIO DI SUCCESSO Il controllo richiesto riguarda la verifica del corretto assemblaggio di moto- Figura 2 – Schema di montaggio del motore da controllare con evidenziati i tre componenti T_M ƒ 183 N. 03ƒ ; 2011 Figura 3 – Da sinistra: assieme con seeger correttamente montato; privo del seeger; privo sia del seeger che dell’anello; e da ultimo privo anche della molla Le immagini sopra riportate sono state utilizzate come base per la definizione di un algoritmo capace d’identificare nell’immagine la tipologia di particolare visibile; in pratica se si riconosce il cuscinetto si conclude che mancano tutte le parti sopra, se si riconosce la molla mancano l’anello e il seeger, se si riconosce il seeger si è in presenza di una situazione di potenziale conformità (nel senso che tutti i componenti sono presenti ma non si è verificato che gli stessi siano correttamente assemblati). Non corretto posizionamento di uno o più componenti L’algoritmo per il riconoscimento dei singoli componenti (Fig. 4.a) è quindi stato adattato alla gestione delle situazioni in cui, a causa dell’errato posizionamento di alcuni componenti, non è possibile vedere interamente nessuno dei componenti sopra citati. Variabilità nell’illuminazione La variabilità della luce ambientale è stata affrontata facendo in modo che quella artificiale fornita dall’illuminatore fosse decisamente più importante; solo in tal modo è infatti possibile garantire che le variazioni della luce ambiente abbiano un impatto moderato e tollerabile sul sistema di visione. Si dà ovviamente per scontato che la posizione della telecamera e il posaggio della parte da analizzare siano stati progettati e realizzati in modo da rendere impossibile una illuminazione diretta da parte della luce ambientale. La variabilità nell’illuminazione è stata raggiunta utilizzando un illuminatore a LED con banda di emissione monocromatica molto stretta accoppiato a un filtro interferenziale centrato sulla banda di emissione del LED e montato sull’ottica della telecamera. Presenza d’immagini anomale Le immagini anomale considerate sono quelle in cui i componenti appaiono significativamente diversi rispetto al modello ideale a causa della presenza di parti estranee, come ad esempio dello sporco (Fig. 4.b). Nella stessa categoria abbiamo fatto rientrare quelle immagini che appaiono molto sfuocate (Fig. 4.c) a causa dell’innescarsi di vibrazione nel supporto durante il trasporto o l’assemblaggio. Tale fenomeno è dovuta al fatto che, durante il tempo di esposizione della telecamera, l’oggetto si sposta e quindi i suoi bordi risultano sfuocati. Il problema è stato risolto riducendo l’ampiezza delle T_M ƒ 184 N. 03ƒ ;2011 Figura 4 – 4.a: Immagine con presenza nel campo inquadrato di un componente non correttamente posizionato; 4.b: immagine in cui la forma del seeger risulta alterata dalla presenza di grasso 4.c: immagine sfuocata a causa delle vibrazioni del supporto dell’oggetto ripreso; 4.d: i tre parametri considerati per decidere il corretto assemblaggio del seeger vibrazioni e illuminando abbondantemente in modo da contenere al massimo i tempi di esposizione e quindi “congelare” l’immagine dell’oggetto anche in presenza di micromovimenti. seeger (segmento azzurro con le due frecce alla estremità). La collaborazione con l’utente finale La collaborazione con l’utente finale ha permesso di ottenere un più stretto controllo su alcune variabili che, pur non avendo alcun effetto dal punto di vista funzionale, erano comunque in grado di mettere potenzialmente in difficoltà il sistema di visione. Nello specifico si è fatto in modo di garantire che il colore e l’aspetto superficiale del seeger e dell’albero presentassero caratteristiche tali da permettere ▲ IL TEMA al software di determinare correttamente e in modo affidabile il diametro dell’albero; tale valore è infatti determinante nel dirimere alcune situazioni di non conformità particolarmente complesse. Solo dopo avere analizzato tutte le condizioni prima descritte si hanno a disposizione tutte le informazioni necessarie per individuare un algoritmo affidabile per il riconoscimento delle non conformità. L’algoritmo, come riportato nella tabella esplicativa, parte ricercando nell’immagine la presenza del cuscinetto completa; se viene individuato il cuscinetto questo significa che nessun componente è stato montato e quindi il motoventilatore è sicuramente non conforme; in caso contrario il sistema potrebbe essere conforme e si prosegue nella analisi. Si passa quindi a cercare la presenza di una molla completa; se la si trova questo significa che non sono stati assemblati né l’anello né il seeger e quindi siamo di fronte ad un assieme non conforme; in caso contrario il motoventilatore potrebbe essere conforme e quindi si prosegue nell’analisi. Si procede col cercare la presenza dell’anello completo; se viene individuato nell’immagine questo significa che il seeger non è stato assemblato e siamo di fronte a una parte non conforme; in caso contrario l’assieme potrebbe essere conforme e quindi si procede nell’analisi. Assemblaggio non corretto delle parti Sicuramente quest’ultima parte ha rappresentato la sfida più importante in quanto, prima di pensare all’algoritmo da implementare, si è dovuto sviluppare un modello del sistema che permettesse, utilizzando il minimo numero di parametri, d’intercettare tutte le diverse tipologie di non conformità. I parametri individuati (Fig. 4.d) sono risultati tre: numero di fori (e loro distanza) presenti sul seeger (i due fori presenti nell’immagine sono evidenziati dai trattini verdi che convergono verso il centro), apertura angolare dei due fori (angolo compreso tra le due rette rosse) e diametro dell’albero sul quale Figura 5 – Schema dell’algoritmo utilizzato per la verifica del corretto montaggio del seeger viene assemblato il T_M ƒ 185 N. 03ƒ ; 2011 Si prosegue col cercare la presenza di un seeger completo; se lo si trova allora il pezzo potrebbe essere conforme e si prosegue nell’analisi dimensionale di dettagli; in caso contrario la parte è sicuramente non conforme. L’analisi viene completata con la parte più complessa che è quella relativa al corretto assemblaggio del seeger; il primo controllo riguarda il suo posizionamento che deve essere attorno all’albero; verificata questa condizione, analizzando la posizione dei fori, il diametro dell’albero e l’apertura angolare del seeger stesso è possibile verificare la correttezza del suo assemblaggio. CONCLUSIONI La visione industriale dispone oggi di enormi potenzialità applicative nel settore del manifatturiero ed in particolare in quello della verifica di conformità, ma la realizzazione di soluzioni efficaci comporta una totale collaborazione tra chi realizza il sistema e chi lo utilizza in modo che tutta la variabilità del processo produttivo possa essere conosciuta ed analizzata a fondo prima che l’applicazione venga completata. Questa situazione deriva dalla complessità degli algoritmi di elaborazione delle immagini che sono in grado di analizzare in modo efficace solo le situazioni note e studiate in fase di realizzazione del sistema. Giovanni Bassi si è laureato nel 2010 in Ingegneria Meccanica presso il Politecnico di Milano. Ha collaborato con il Politecnico di Milano e I.S.S. Srl nell’ambito della visione artificiale applicata al settore industriale e medicale. Attualmente collabora con il Centro Interdipartimentale per la Ricerca Applicata e i Servizi alla Meccanica Avanzata e nella Motoristica INTEMECH-MO.RE. dell’Università degli Studi di Modena e Reggio Emilia. Remo Sala si è laureato in Ingegneria Meccanica presso il Politecnico di Milano. Attualmente afferisce alla sezione di Misure e Tecniche Sperimentali del Dipartimento di Meccanica del Politecnico di Milano dove coordina le attività del Laboratorio di Visione (www.vblab.it) che si occupa di elaborazione di immagini finalizzate all’esecuzione di misure senza contatto in ambito industriale, medicale e forense. Al fine di valorizzare i risultati della ricerca ha cofondato la società I.S.S. srl, Spin Off Accademico del Politecnico di Milano (www.issweb.it). T_M ƒ 186 GLI ALTRI TEMI ▲ TRASFERIMENTO TECNOLOGICO Marco De Paolis Lo sviluppo dell’innovazione tecnologica Come intervengono i fondi di venture capital, gli incubatori e i business angels? THE DEVELOPMENT OF TECHNOLOGICAL INNOVATION This second article of Mr. De Paolis series on Technology Transfer describes the correct approach to Venture Capital investments for start-ups or young entrepreneurs who wish to make the highest profit from their technological ideas. Write to Mr. De Paolis for further support and for suggestions in the preparation of a business plan! RIASSUNTO Questo secondo articolo della serie sul Trasferimento Tecnologico dell’Avv. De Paolis illustra il corretto approccio ai fondi di Venture Capital per il finanziamento di idee imprenditoriali da parte di giovani imprenditori e di società di Start up che vogliano trovare il massimo beneficio dalle loro idee high-tech. Scrivete all’Avv. De Paolis per ulteriore assistenza e per suggerimenti riguardo al business plan e all’accesso ai fondi di Venture Capital! Nuove forme di imprenditorialità nascono e si sviluppano frequentemente attraverso l’attività di ricerca di persone le quali elaborano idee che potrebbero trasformarsi in business ad alto potenziale di crescita. Il percorso diretto alla creazione di queste attività (cd. start up) si presenta particolarmente complesso e rischioso sotto diversi aspetti. Si possono infatti individuare: a) un rischio di prodotto, dipendente dai costi elevati legati allo sviluppo di nuovi ricavati o di tecnologie innovative, b) un rischio di mercato, ossia l’incertezza inerente alla capacità del prodotto/servizio di rispondere alla domanda del mercato di riferimento e conquistare nuovi clienti con un tasso di crescita sostenuto, c) un rischio finanziario dovuto alla necessità di reperire i capitali necessari per l’avvio dell’impresa, situazione complessa a causa della ritrosia degli intermediari tradizionali a finanziare soggetti capaci di offrire basse garanzie reali. I potenziali neo imprenditori devono quindi individuare interlocutori specializzati che a vario titolo possono assisterli nella fase di avvio e sviluppo dell’impresa. I principali tra questi sog- merciale. È chiaro che sono interventi con un elevato grado di rischio, il cui finanziamento rappresenta una sorta di scommessa da parte dell’investitore, il quale, puntando su quel ricavato innovativo, ritiene, nel medio termine, di realizzare un guadagno di capitale (capital gain) attraverso la cessione della partecipazione acquisita nella società. Tale guadagno di capitale rappresenta l’incremento di valore della partecipazione maturato dal momento della sua assunzione a quello della cessione. Quali sono i criteri che determinano la loro scelta di investimento? Il business plan, ovvero il piano nel quale il progetto imprenditoriale viene sviluppato in termini economico-finanziari, costituisce il primo documento con cui il potenziale imprenditore può presentarsi dall’investitore istituzionale. È quindi necessario redigerlo con particolare cura in modo tale che sia in grado di esplicitare, in termini quantitativi, gli obiettivi da raggiungere e la loro compatibilità con le risorse finanziarie, tecnologiche, conoscitive attuali e future dell’impresa, tenendo conto del mercato al quale si rivolge. Se si riscontra la disponibilità dell’investitore cui è stata presentata una prima bozza del business plan, gli si può mettere a disposizione il documento nella sua completezza. In questa fase, in cui l’investitore condurrà un esame più approfondito per pervenire alla decisione di finanziamento, va sottoscritto un accordo di riservatezza in base al quale le parti si impegnano a non divulgare le informazioni aziendali. Una volta che l’investitore si è espresso favorevolmente sull’intervento nel progetto imprenditoriale, si procede alla predisposizione di una lettera di intenti getti sono gli investitori istituzionali nel capitale di rischio (i venture capital): essi intervengono acquisendo una partecipazione di minoranza, mettendo così a disposizione le risorse necessarie all’avvio e allo sviluppo di progetti di prodotti e/o servizi altamente innovativi con un elevato potenziale di crescita. L’approccio del venture capital all’impresa finanziata può essere di tipo hands on se non si limita a fornire risorse finanziarie, ma è coinvolto nella gestione dell’impresa, o di tipo hands off qualora metta a disposizione semplicemente il capitale. Altresì, si possono distinguere interventi di seed financing che consistono nell’investimento nella primissima fase di sperimentazione dell’idea, quando è ancora da verificare la validità tecnica del prodotto e/o servizio, da altri di start-up financing, effettuati in coincidenza dell’avvio dell’attività produttiva, pur non conoscendo ancora la validità economica del ricavato. In entrambi i casi, l’imprenditore apporta la propria idea e un ridotto ammontare di capitali, mentre l’investitore finanzia le sperimentazioni nonché l’organizzazione della struttura Avvocato in Brescia produttiva, organizzativa e com- [email protected] T_M N. 3/11 ƒ 187 ▲ GLI ALTRI TEMI per definire i principali aspetti economici, legali e societari che saranno dettagliati nel contratto d’investimento. È un documento in cui si condiziona inoltre il contratto definitivo a una serie di analisi (due diligence) condotte dall’investitore, necessarie per giungere a una valutazione finale dell’azienda e delle sue potenzialità future. Se le verifiche hanno determinato un esito positivo, si procede alla firma del contratto con il dettaglio dei termini dell’accordo tra la società e l’investitore. Una volta perfezionato il contratto si procede con il trasferimento delle partecipazioni, il pagamento del prezzo, il rilascio delle garanzie, l’eventuale indicazione degli amministratori e la firma di eventuali contratti accessori (es. patti parasociali diretti a regolare i rapporti tra i fondatori dell’impresa e l’investitore in merito alla corporate governance e/o alle regole di disinvestimento e sull’esercizio dei diritti di opzione). Abbiamo indicato che i venture capital agiscono nella fase di avvio dell’attività produttiva (cd. start up), ma esistono altri soggetti, gli incubatori, i quali operano prevalentemente nell’ambito del seed financing, investendo, essenzialmente, nella sperimentazione dell’idea innovativa quando, come sopra esposto, la validità tecnica ed economica dell’idea è ancora tutta da dimostrare. Essi agiscono in contesto ad elevato rischio. Nel ruolo di incubatori d’impresa intervengono spesso le università. I business angels o personal venture capitalist sono un’ulteriore categoria di soggetti che partecipano al sostegno della neo imprese. Si tratta di titolari d’impresa, manager, liberi professionisti, che mettono a disposizione, oltre a risorse economiche, conoscenze tecniche in nuovi progetti imprenditoriali mediante la partecipazione al capitale di rischio. La centralità dell’azione del venture capital nel sostegno alla neo imprenditorialità viene riconosciuta dal Governo che, nella Manovra economica1 appena varata, ha previsto incentivi fiscali per gli operatori che investono in questa tipologia di fondi. Nello specifico l’articolo 31 prevede un’esenzione d’imposta (esenzione o non applicazione della ritenuta d’acconto del 12,5%) dei proventi da partecipazione in fondi di ventu- T_M ƒ 188 re capital che investono almeno il 75% in imprese innovative costituite da non più di 36 mesi e con un fatturato inferiore ai 50 milioni di euro. A sostegno dell’imprenditoria giovanile, che è protagonista nell’ambito delle neo imprese ad elevata innovazione, il medesimo decreto (art. 27) introduce un forfettone del 5% su redditi e addizionali comunali e regionali per i nuovi imprenditori o per le società nate dal 2008 ad oggi. Avviare una nuova attività imprenditoriale è complesso: i neo imprenditori che hanno la business idea mancano frequentemente dei capitali necessari per farla nascere e svilupparla ma anche competenze economiche e manageriali per renderla appetibile e competitiva sul mercato di destinazione nonché di quelle legali per tutelarla mediante brevetti. Si è così ritenuto opportuno, al fine di permettere di implementare le idee in modo efficiente, di creare un team di professionisti per supportare i neo imprenditori mediante un servizio funzionale e completo, a un costo accessibile, nella definizione del mercato di riferimento e delle modalità migliori per accedervi, nel rapporto con gli enti pubblici e con gli istituti di credito, nella partecipazione alle associazioni di categoria, nella tutela della proprietà intellettuale insita nei loro ricavati, così da renderli più competitivi e più incisivi nel garantire alla loro attività una buona riuscita. 1 Decreto legge 6 luglio 2011, n. 98 Marco De Paolis ha conseguito la laurea in Giurisprudenza nel 2004. Ha specifiche competenze che interessano maggiormente l’attività d’impresa (contrattualistica nazionale e internazionale, diritto societario, diritto dei brevetti, dei marchi e dei segreti industriali, diritto tributario). La sua attività comprende assistenza alle pratiche di protezione delle invenzioni e dei progetti di ricerca, e la cura delle operazioni di costituzione e sviluppo di un’impresa (cd. start up), in cui sono richieste l’analisi di questioni finanziarie e giuridiche. GLI ALTRI TEMI ▲ IL MEGLIO DI METROLOGIA & QUALITÀ Giovanna Zappa, Claudia Zoani Nanometrologia per la caratterizzazione di nanoparticelle NANOMETROLOGY FOR NANOPARTICLE CHARACTERIZATION In this work we report a review of Reference Materials and methods for dimensional, chemical, physico-chemical and toxicological characterization of nanoparticles (NPs), particularly referring to main needs arising from application and development of regulations for health and safety. We underline main metrological issues and we report about ENEA activities on chemical and toxicological characterization of NPs. RIASSUNTO Il presente lavoro prende in rassegna i Materiali di Riferimento (RM) e i principali metodi di analisi sviluppati per la caratterizzazione dimensionale, chimica, chimico-fisica e tossicologica di nanoparticelle (NP), con particolare riguardo alle necessità connesse all’applicazione e allo sviluppo della normativa per la sicurezza e la salute. Vengono poi evidenziate le principali problematiche metrologiche in questo settore e brevemente descritte le attività portate avanti da ENEA per la realizzazione di nuovi RM e la caratterizzazione chimica e tossicologica di NP. INTRODUZIONE Nella scala “nano” le proprietà delle sostanze e i fenomeni che si verificano dalla loro interazione con le radiazioni e la materia sono così peculiari che l’applicazione delle conoscenze scientifiche e delle tecnologie hanno richiesto quasi sempre nuovi studi e valutazioni, quasi si trattasse di un’altra realtà, da indagare daccapo. Sono nate così le nanotecnologie e tutte le nanoscienze, tra cui la nanometrologia. Il problema delle misure nella scala nano è particolarmente pressante e può essere inquadrato nella problematica più generale di “standardizzazione” in questo settore, ossia nella necessità di uniformare il linguaggio, le specifiche tecniche, i metodi di analisi, i criteri di scelta e utilizzo dei Materiali di Riferimento, ecc.. Le necessità di misura per questo settore sono estremamente diversificate (dimensioni, forma, volume, densità, massa, area superficiale, porosità, composizione chimica e speciazione, individuazione di gruppi funzionali, studio delle superfici, carica superfi- ciale, stato di agglomerazione/aggregazione, reattività, tossicità) e sono connesse alla produzione di nanomateriali e applicazione di nanotecnologie, alle attività di monitoraggio ambientale e di valutazione dell’esposizione negli ambienti di vita e di lavoro, alla sicurezza alimentare, alla conduzione di studi e ricerche di tossicologia, eziologia ed epidemiologia. re la comunicazione e la comprensione tra le parti uniformando linguaggi, metodologie di analisi, specifiche tecniche, criteri di valutazione dei metodi e dell’affidabilità dei risultati. In Tab. 1 si riportano le Commissioni Tecniche impegnate nella standardizzazione per la scala “nano”. La Commissione Tecnica ISO TC24 è stata istituita nel 1947 e ha attualmente in vigore 53 norme tecniche che, sebbene non siano state specificatamente prodotte per la scala “nano”, affrontano approfonditamente le problematiche di campionamento, misura e rappresentazione dei risultati legate alla determinazione delle di- Tabella 1 – Commissioni tecniche per la standardizzazione nella scala “nano” LA STANDARDIZZAZIONE PER LA SCALA “NANO” Il primo passo per consentire un rapido ed efficace sviluppo della nanometrologia è la standardizzazione. Considerando infatti la multidisciplinarietà e l’ampia diversificazione delle applicazioni è necessario favori- ENEA – Unità Tecnica Sviluppo Sostenibile e Innovazione del Sistema Agroindustriale (UTAGRI) C.R. Casaccia, Roma [email protected] [email protected] T_M N. 3/11 ƒ 189 N. 03ƒ ;2011 TERMINOLOGIA, DEFINIZIONI E CLASSIFICAZIONI La Commissione ISO TC229 “Nanotechnologies” ha prodotto le norme ISO/TS 27687:2008 Terminology and definitions for nano-objects. Nanoparticle, nanofibre and nanoplate, e ISO/TS 80004 Vocabulary, che è composta di 8 parti delle quali solo 2 pubblicate: Part 1 – Core terms; Part 3 – Carbon nano-objects. Per i termini e le definizioni riguardanti nano-oggetti, nanoparticelle, nanofibre e nanolastre si sta procedendo alla revisione della norma ISO/TS 27687:2008, che verrà pubblicata come parte 2. La norma ISO/TS 27687:2008 è stata recepita dal CEN TC352 “Nanotechnolo- gies” come CEN ISO/TS 27687: 2009 e dalla Commissione UNI “Nanotecnologie” come UNI CEN ISO/TS 27687:2010 Terminologia e definizioni relative a nano-oggetti. Nanoparticelle, nanofibre e nanolastre. Questo documento specifica la terminologia e le definizioni d’interesse per il settore e, al fine di porsi come norma unitaria, comprende i termini utilizzati sia nelle nanoscienze che nelle nanotecnologie [1,2], oltre a nuovi termini coniati per consentire lo sviluppo di un sistema gerarchico di definizioni razionale. In Fig. 1 si riporta uno schema della gerarchia dei principali termini utilizzati per definire i nanomateriali [3,4,5]. Tutte le definizioni si basano sul concetto di nanoscala, definita come la “gamma di dimensioni da approssimativamente 1 nm a 100 nm” [3]. ▲ mensioni delle particelle, della distribuzione granulometrica e della porosità. La Commissione Tecnica ISO TC229 è invece di recente istituzione e affronta in maniera trasversale tutte le problematiche di standardizzazione derivanti dalla produzione e utilizzo di nanomateriali, applicazione e sviluppo di nanotecnologie e analisi di rischio per il settore delle nanotecnologie. Ha prodotto – tra il 2008 e il 2010 – 11 norme tecniche, delle quali: 5 riguardano terminologia, definizioni e classificazione, condizioni di lavoro; 2 i test di tossicità per inalazione; 2 la caratterizzazione dei nanotubi di carbonio; 1 le pratiche comportamentali negli ambienti di lavoro; 1 i test in vitro per la rilevazione di endotossine. Per gli aspetti di standardizzazione nelle misure di caratterizzazione del particolato, è necessario prendere in considerazione anche la Commissione Tecnica ISO TC146. A parte alcune norme di carattere generale prodotte dalla SC4 (su termini, unità di misura, incertezza di misura, adeguatezza dei metodi, rappresentazione dei dati), possono essere d’interesse tutte le norme riguardanti la caratterizzazione del particolato in atmosfera (indoor e outdoor) e delle emissioni. GLI ALTRI TEMI Tabella 2 – Principali tecniche per la caratterizzazione di nanoparticelle nella caratterizzazione delle NP è collegata alla difficoltà di definire il misurando. Un tipico esempio di questa problematica è la misura delle dimensioni delle particelle (su cui si basa tutta la normativa per la sicurezza degli ambienti di vita e di lavoro), in quanto le NP hanno il più delle volte forme irregolari che non consentono la determinazione della METODI DI ANALISI loro dimensione attraverso la misura PER LA CARATTERIZZAZIONE del diametro, come comunemente DI NANOPARTICELLE avviene per le particelle di forma Le necessità di misura per questo set- sferica. Le tecniche di analisi d’imtore sono estremamente diversificate e magine possono inoltre essere inpertanto sono stati sviluppati una fluenzate dalla disposizione delle grande varietà di metodi per la deter- particelle nello spazio, e in ogni caminazione di molti parametri. In Tab. 2 so è necessario considerare i fenosi riportano le principali tecniche meni di aggregazione e agglomeraimpiegate per la caratterizzazione di zione. nanoparticelle (NP) e la valutazione L’ISO TC24 ha prodotto, oltre a del rischio ambientale e tossicologico norme riguardanti il campionamento e la preparazione dei campioni [6,7,8]. La prima problematica metrologica (ISO 1448, 14887), numerosi metodi di riferimento (Tab. 3). L’ISO TC229 ha prodotto metodi di riferimento per la prova di rilevazione di endotossine su campioni di nanomateriali per sistemi in vitro Prova Lymulus Amebociyte LysateLAL (ISO 29701), e per la caratterizzazione di singlewall carbon nanotuFigura 1 – Gerarchia dei termini utilizzati per definire bes using near ini nanomateriali [1,2,3] frared photolumine- T_M ƒ 191 N. 03ƒ ;2011 scence spectroscopy (ISO/TS10867). Infine la ISO TC146 ha prodotto diverse norme per la caratterizzazione del particolato, che riguardano il campionamento, la definizione delle frazioni granulometriche in relazione agli effetti sanitari, la quantificazione in massa del particolato totale o di specifiche frazioni, la caratterizzazione chimica, la determinazione di asbesto o di fibre inorganiche in generale e la determinazione di muffe. È disponibile inoltre una norma specifica per la caratterizzazione e la valutazione dell’esposizione per via aerea ad aerosol ultrafine, nanoparticolato e nanostrutturato negli ambienti di lavoro. MATERIALI DI RIFERIMENTO PER LA CARATTERIZZAZIONE DI NANOPARTICELLE La dimensione “nano” comporta notevoli problematiche di metrologia applicata soprattutto per le misure chimiche e biologiche, in quanto gli apparati di misurazione e le metodologie, essendo stati sviluppati e provati su scale di diverso ordine di grandezza, non sono sempre direttamente trasferibili alla scala nano. Da ciò deriva la necessità di disporre di specifici Materiali di Riferimento (RM) da impiegare per le misure di dimensione e forma delle particelle, composizione chimica, tossicità e genotossicità. Specificatamente per la caratterizzazione del particolato atmosferico sono disponibili diversi RM in forma di polveri certificate per composizione chi- mica e/o presenza di sostanze tossiche (per lo più metalli pesanti) in tracce. Accanto a un’ampia disponibilità di fly ash, sono prodotti RM da impiegare per la caratterizzazione del particolato urbano e delle emissioni del traffico veicolare (prevalentemente da motori diesel) o d‘impianti di combustione e RM di fumi di saldatura, polveri non ferrose, metalli tossici e silice cristallina per la valutazione dell’esposizione negli ambienti di lavoro [9]. Sono anche disponibili alcuni RM certificati per composizione chimica e/o contenuto di sostanze tossiche che veicolano contemporaneamente informazioni sulla risposta ai più comuni test di tossicità; in particolare il NIST produce SRM-1975, SRM-2975 e SRM-1650b, che, oltre ai valori certificati di concentrazione di IPA, forniscono anche valori di riferimento o d’informazione riguardo alla dimensione delle particelle, all’area superficiale specifica, alla massa estraibile, alla massa residua e alla mutagenicità. Esaminando la produzione attuale di RM, si evidenzia che il NIST è uno dei principali produttori per questo specifico settore [10], con diversi RM disponibili o d’imminente rilascio o in sviluppo. Di particolare interesse risultano quegli RM certificati per composizione chimica e/o contenuto di sostanze tossiche che veicolano contemporaneamente informazioni sulla risposta ai più comuni test di tossicità da impiegare in ricerche pre-cliniche e biomediche o per lo sviluppo e la valutazione di test in vitro per la valutazione della risposta biologica (citotossicità, emolisi) dei nanomateriali (RM 8011, 8012, 8013 – Gold nanoparticles). Da sottolineare anche lo studio di fattibilità del NRC-CRM per la preparazione di un RM single-wall carbon nanotubes [11]. In Europa i principali produttori di RM per questo settore sono BAM e IRMM. IRMM, in particolare, ha prodotto un nuovo RM di silice in corso di certificazione per le dimensioni (~40 nm) e il primo CRM di NP di origine industriale (ERM-FD100 – Silica Nanoparticles). Il BAM ha recentemente realizzato – in coope- ▲ Tabella 3 – Metodi per la caratterizzazione di nanoparticelle – norme ISO TC24 GLI ALTRI TEMI razione con l’ISO TC229 – un database che raccoglie i principali RM in nanoscala prodotti nel mondo da diversi istituti (NIST, BAM, IRMM, NMIJ, AQSIQ, KRISS), classificati per le diverse caratteristiche e parametri di misura [www.nano-refmat.bam.de/en]. Le principali problematiche nella realizzazione di RM per la caratterizzazione di NP risiedono nella natura termodinamicamente instabile e nell’estrema dipendenza della loro stabilità ai fattori ambientali, che ne pregiudicano grandemente la shelf life. Le maggiori necessità in questo settore riguardano i nanomateriali da impiegare per gli studi tossicologici, che necessitano di RM stabili e omogenei e ben caratterizzati dal punto di vista chimico e chimico-fisico per condurre i test di tossicità e gli studi interlaboratorio sui diversi nanomateriali in circolazione e sulle diverse frazioni del particolato atmosferico [12]. Attività ENEA L’esperienza ENEA in questo settore ha riguardato lo sviluppo di metodologie per la raccolta separata delle diverse frazioni del particolato emesso da motori diesel e per la loro successiva caratterizzazione chimica, chimico-fisica e tossicologica, studiando in particolare la possibilità di effettuare determinazioni, in serie o in parallelo, sullo stesso campione individuale, al fine di rendere maggiormente efficaci le ipotesi di correlazione tra composizione chimica e genotossicità [13]. Per quanto riguarda i RM, ENEA ha inoltre effettuato uno studio di fattibilità per la preparazione di un RM di toner, in cui è stata valutata la possibilità di produrre RM in forma di pasticche monouso e di certificare la polvere di toner per caratteristiche morfologiche e composizione chimica (con particolare riguardo agli elementi e ai composti che possono produrre effetti tossici per la salute umana) e di fornire parallelamente valori di riferimento e d’informazione per la genotossicità e la vitalità cellulare [14,15]. T_M ƒ 193 N. 03ƒ ; 2011 RIFERIMENTI BIBLIOGRAFICI [1] ASTM, E 2456-06. Terminology for Nanotechnology [2] BS PAS 71:2005. Vocabulary – Nanoparticles [3] UNI – Commissione “Nanotecnologie”. UNI CEN ISO/TS 27687: 2010 Terminologia e definizioni relative a nano-oggetti. Nanoparticelle, nanofibre e nanolastre [4] M. Stintz. General aspects of particle sizing. EU Co-Nanomet Workshop “Instruments, standard methods and reference materials for traceable nanoparticle characterization”, Nuremberg, Germany, 28-29 April 2010 [5] G. Lovestam et al. Considerations on a Definition of Nanomaterial for Regulatory Purposes. JRC Reference Reports – EUR 24403 EN, 2010 [6] M. Hassellöv et al. Nanoparticle analysis and characterization methodology in environmental risk assessment of engineered nanoparticles. Ecotoxicology 2008. Vol.17, p. 344361 [7] K. Tiede et al. Detection and characterization of engineered nanoparticles in food and the environment – a review. Food Additives and Contaminants 2008, Vol. 25, p. 1-27 [8] M. Hassellöv, R. Kaegi. Analysis and Characterization of Manufactured Nanoparticles in Aquatic Environments. In: Nanoscience and Nanotechnology: Environmental and human health implications. (Eds. Lead J.R. and Smith E.) Wiley 2009, p. 211-266 [9] G. Zappa et al. Metrologia applicata alla quantificazione e qualificazione del particolato atmosferico. VI Congresso “Metrologia & Qualità”, Torino, 7-9 Aprile 2009 [10] V. Kackley. Experiences in the Development of Nanoparticle Reference Materials at NIST. EU Co-Nanomet Workshop “Instruments, standard methods and reference materials for traceable nanoparticle characterization”, Nuremberg, Germany, 28-29 April 2010 [11] J. McLaren. Certified Reference Materials for environmental measurement – Think globally, act locally. The Future of Reference Materials – Science and Innovation. November 23-25 2010, Geel, Belgium [12] M. Hassellöv. Reference Material needs to support nanometrology and risk assessment of engineered nanoparticles. The Future of Reference Materials – Science and Innovation. November 23-25 2010, Geel, Belgium [13] G. Zappa et al. Progetto di attività di ricerca ISPESL 02/B/DIL/05. Nanoparticelle prodotte nei processi di combustione: caratterizzazione chimica e valutazione della genotossicità. 8/06/2008 [14] L. Mosiello et al. Toxicity of Toner Nanoparticles on RT112 Cell Cultures. 9th Nanotechnology Conference IEEE NANO 2009, Genoa (Italy), July 26-30 2009 [15] G. Zappa et al. Feasibility study for the development of a toner-Reference Material. Measurement 42 (2009), pp. 1491-1496. Giovanna Zappa – Responsabile del Coordinamento “Qualità dei Test Chimici e Biologici” ENEA-UTAGRI. Membro di commissioni tecniche e comitati consultivi nazionali ed internazionali per la metrologia e la standardizzazione, la sicurezza alimentare e la salute dei consumatori. Svolge attività di ricerca e di docenza e formazione universitaria e post-universitaria. Claudia Zoani –Dottore di Ricerca in Chimica Analitica (La Qualità delle Misure Chimiche per la Sicurezza Alimentare e negli Ambienti di Vita e di Lavoro). Assegnista di Ricerca ENEA. Svolge attività di ricerca sullo sviluppo di metodi e materiali di riferimento per le misure chimiche e biologiche. GLI ALTRI TEMI ▲ SENSORI Emilio Sardini, Mauro Serpelloni Un sensore autonomo per misure di forza in protesi del ginocchio za di contatto tibio-femorale possono dare una precisa conoscenza del movimento articolare e delle condizioni di carico a cui le articolazioni umane sono soggette durante le attività quotidiane. In questi anni si nota un crescente interesse riguardante lo studio del comportamento meccanico del ginocchio umano, atto a quantificare le forze trasmesse tra il femore e la tibia [1-3]. All’Università di Brescia, da alcuni anni, si sta sviluppando un sensore autonomo che esegue misure di forza in protesi totali al ginocchio, e trasmette in modo wireless i dati diRIASSUNTO rettamente a un’unità di lettura esterIl monitoraggio in vivo delle forze cui sono soggette le protesi del ginocna senza l’ausilio di batterie. Il sistechio dopo un intervento di artroplastica totale permette di ottenere informa di misura autonomo è inserito ermazioni relative al movimento articolare e alle condizioni di carico utili meticamente nell’inserto in polietiper la terapia postoperatoria. Il sensore autonomo progettato è in grado lene, evitando in questo modo i prodi eseguire la misura di forza all’interno del corpo umano e di trasmetblemi di biocompatibilità e di modite i dati raccolti in modo wireless direttamente dall’interno dell’impianto fiche di forma e dimensione dell’ima un’unità di lettura esterna alla gamba operata. Il sensore è completapianto tradizionale. Nel sensore aumente autonomo ed è inserito ermeticamente nell’inserto in polietilene. tonomo progettato, le batterie sono Le batterie sono completamente eliminate: il sistema “raccoglie” l’enerstate eliminate: utilizzando una bogia da un campo magnetico applicato dall’esterno utilizzando una bobibina all’interno dell’impianto, il senna in miniatura posta all’interno dell’impianto. I dati di misura ottenibili sore autonomo “raccoglie” energia dal sensore progettato possono fornire utili informazioni per nuovi proda un campo magnetico applicato getti, tecniche e implementazioni di protesi articolari all’interno del dall’esterno. La stessa bobina è corpo umano. Infatti, le forze trasmesse attraverso l’articolazione del utilizzata anche per la comunicazioginocchio durante le normali attività umane come camminare, correre o ne dei dati all’unità di lettura, evisalire, possono essere misurate direttamente in-vivo all’interno del corpo tando quindi l’utilizzo di un’altra umano. Inoltre, il dispositivo può essere utilizzato per migliorare la proantenna. In [3] è riportata la descrigettazione, affinare la strumentazione chirurgica e come ausilio per la zione più accurata del sensore autoterapia post-operatoria. nomo e i risultati preliminari che ne dimostrano il funzionamento durante le operazioni di misurazione, salvaSENSORE AUTONOMO misura all’interno del corpo umano taggio dei dati e comunicazione evitando così il rischio d’infezioni o wireless. I sensori autonomi sono dispositivi danni alla pelle, poiché non richieche eseguono autonomamente le dono collegamenti transcutanei. Posfunzioni di misura, elaborazione e sono quindi rappresentare una valitrasmissione delle informazioni; da soluzione in molti campi della sono infatti caratterizzati da un’ali- medicina. mentazione indipendente, che li ren- Nella scienza ortopedica, per esemde autonomi da batterie o collega- pio, durante un’operazione chirurgi- Dip. Ingegneria dell’Informazione, menti cablati. Possono essere effica- ca di artroplastica totale del ginoc- Università di Brescia cemente utilizzati in applicazioni di chio, dispositivi di misura della for- [email protected] AN AUTONOMOUS SENSOR FOR FORCE MEASUREMENTS IN HUMAN KNEE IMPLANTS In-vivo monitoring of human knee implants after total arthroplasty increases information concerning articular motion and load conditions. The autonomous sensor proposed performs force measurements in a protected environment, and wirelessly transmits data from the implant to an external readout unit. The sensor is fully contained in the polyethylene insert. Batteries are eliminated; the system obtains energy from an external magnetic field, using a miniature coil inside the implant. Forces transmitted across the knee joint during normal human activities such as walking, running or climbing can be directly measured. Furthermore, the device can be used to improve design, refine surgical instrumentation, guide post-operative physical therapy and detect human activities that can overload the implant. T_M N. 3/11 ƒ 195 N. 03ƒ ;2011 ▲ GLI ALTRI TEMI DESCRIZIONE DEL SISTEMA per evitare accoppiamenti esterni. Quando è applicata La Fig. 1 mostra sul lato destro una una forza sulla componente protesi di ginocchio umano composta femorale, la forza è trasmesda un inserto in UHMWPE (Ultra High sa all’inserto in polietilene, Molecular Weight Polyethylene), una generando una deformaziocomponente femorale e una compo- ne dell’inserto stesso. Quenente tibiale, entrambe in titanio. Sul sta deformazione determina lato sinistro, la Fig. 1 mostra una una variazione della distanFigura 2 – Schema a blocchi del sensore autonomo impiansezione interna dell’inserto in polieti- za tra il magnetoresistore e tabile all’interno della protesi e dell’unità di lettura esterna lene, in cui il sensore autonomo è il magnete permanente, alloggiato, mentre in basso a sinistra modificando così il campo è visibile la scheda elettronica con i magnetico accoppiato con l’area sen- per la gestione delle operazioni di magnetoresistori. Il sistema autonomo sibile del magnetoresistore. Dunque la ricezione ed elaborazione dei dati. è schematicamente composto da tre forza applicata alla struttura produce L’unità di lettura è collegata a un alitrasduttori di forza magnetoresistiva e una variazione di resistenza in uscita mentatore esterno; un campo elettroda una elettronica a bassa potenza dal sensore. magnetico è generato dall’unità di letper il condizionamento e la comuni- Tre magnetoresistori sono inseriti nel- tura e utilizzato dal sensore autonomo cazione RF. L’elettronica, l’antenna e i l’inserto in polietilene, come mostrato per la trasmissione dei dati e come sensori sono contenuti all’interno del- nella Fig. 1. Il loro posizionamento è fonte di alimentazione. Il vantaggio di l’inserto in polietilene, che può essere stato scelto considerando la particola- trasmettere un campo elettromagnetichiuso ermeticamente con tecniche di re forma geometrica della protesi: co a frequenza relativamente bassa è saldatura laser. due sensori sono posti nelle aree di dato dalla possibilità di trasferire in contatto dei due modo più efficace i dati e l’energia atcondili femorali, traverso il corpo umano. Per una futuattraverso cui si ra fase di misurazioni in vivo, si è comunicano le pensato di utilizzare una bobina esterforze, e un terzo na attorno alla gamba del paziente e è stato collocato fissata con un tutore elastico. nella parte cen- La relazione tra la forza applicata altrale, equidi- l’inserto e la deformazione della strutstante ai due tura misurata dai magnetoresistori è condili. stata valutata sperimentalmente. A tal In Fig. 2 è fine, è stato predisposto un sistema mostrato il dia- per la caratterizzazione dei magnetogramma a bloc- resistori al variare delle forze applicachi del sensore te alla struttura. È stata utilizzata una autonomo e del- macchina (Instron 8501) per l’applil’unità di lettura. cazione del carico sulla protesi; il conIl sensore auto- trollo è ottenuto utilizzando il software Figura 1 – Configurazione schematica di un impianto protesico tipico nomo è schema- LabVIEW e un hardware specifico di ginocchio umano e immagini del sensore autonomo realizzato ticamente com- (Instron 8800). Tramite una struttura posto da tre meccanica costruita ad hoc, le forze Il trasduttore di forza è costituito da un magnetoresistori, R_left, R_central, sono state applicate al componente magnetoresistore e da un magnete R_right (RL, RC, RR), da un microcon- femorale che agisce a sua volta sulpermanente. Il magnetoresistore è trollore a basso consumo e da un tra- l’inserto in polietilene (Fig. 1). Il confabbricato con materiale magnetoresi- smettitore. Il microcontrollore a basso trollo di forza e la misura della variastivo drogato con stagno e depositato consumo è il 9S08QB8, commercia- zione della distanza sono stati ottenutramite tecnologia a film sottile su sub- lizzato da Freescale, che include un ti utilizzando una cella di carico e un strato in allumina (Ashai Kasei Corpo- ADC a 12 bit, e una memoria flash di LVDT integrato nella Instron. Sono stati ration). I magneti permanenti sono in 128 kB. Il trasmettitore (U3280M) è effettuati due diversi studi sperimentaSm2Co17 (samario-cobalto) di dia- prodotto da Atmel, la sua frequenza li: il primo simula il carico sull’impianmetro 4 mm e lunghezza di 3 mm. di lavoro è di 125 kHz. L’unità di let- to causato da una pesante attività fisiDue strisce di materiale con elevata tura è composta da un ricevitore ca come il salto, mentre il secondo permeabilità magnetica relativa (lega (U2270B) prodotto da Atmel. Il rice- simula una normale deambulazione. Ni-Fe-Mo) indirizzano il campo ma- trasmettitore è collegato a un micro- Nel primo caso si presume che le gnetico lungo un percorso predefinito controllore (Freescale 9S08AW60) forze applicate possano variare nel T_M ƒ 197 N. 03ƒ ; 2011 ▲ GLI ALTRI TEMI range 0 – 3000 N. Il secondo caso, invece, è stato predisposto applicando una forza con una componente statica di 800 N e una componente sinusoidale di ampiezza 200 N. La Fig. 3 mostra i dati ottenuti: come mostrato in Fig. 3 (b), il magnetoresistore centrale è meno dipendente dalle forze applicate come previsto, perché la parte centrale dell’inserto non è a diretto contatto con la componente femorale (Fig. 1). Dai dati riportati in Fig. 3 (a) e da quelli ottenuti dalla resistenza R_right della Fig. 3 (b), è stata calcolata una relazione tra le variazioni di forza e la variazione di resistenza. Utilizzando il setup sperimentale, il sistema è stato testato applicando ortogonalmente forze statiche fino a 3 kN, valore che rappresenta circa tre volte il carico massimo di un paziente medio. In Fig. 4 sono riportate le forze generate dalla Instron e misurate tramite la cella di carico, e le forze misurate dal sensore autonomo. Si nota una buona corrispondenza dei valori e una minima variabilità dei risultati. aiuto nella terapia riabilitativa di pazienti con protesi totale del ginocchio. BIBLIOGRAFIA 1. P. Westerhoff, F. Graichen, A. Bender, A. Rohlmann, G. Bergmann, An inFigura 4 – Valori di forza calcolati dal sensore autonomo strumented ime confrontati con i valori di forza misurati tramite cella di carico plant for in-vivo measurement of contact forces vo di come possano essere svilup- and contact moments in the shoulder pati sistemi autonomi all’interno del joint, Medical Engineering & Physics corpo umano. I risultati sperimenta- 31 (2009) 207-213. li hanno infatti dimostrato che il 2. K.M. Varadarajan, A.L. Moynisensore può rappresentare un vali- han, D. D’Lima, C.W. Colwell, G. Li, do sistema di misura di forza in In-vivo contact kinematics and conprotesi articolari al ginocchio. Il di- tact forces of the knee after total spositivo progettato ha la caratteri- knee arthroplasty during dynamic stica di essere completamente auto- weight-bearing activities, Journal of nomo, le batterie sono state elimi- Biomechanics 41 (2008) 2159nate e sostituite da una alimenta- 2168. zione realizzata tramite accoppia- 3. D. Crescini, E. Sardini, M. Sermento induttivo. Il sensore autono- pelloni, Design and test of an automo potrebbe portare a un migliora- nomous sensor for force measuremento per quanto riguarda lo stu- ments in human knee implants, Sendio della funzione motoria del siste- sors and Actuators A, Vol. 166, ma protesico e rappresentare un No. 1, pp. 1-8 (2011). Emilio Sardini si è laureato nel 1983 in Ingegneria Elettronica presso il Politecnico di Milano. Dal 1984 svolge attività di ricerca e didattica presso il Dipartimento di Ingegneria dell’Informazione dell’Università degli Studi di Brescia. Dal 01/11/2006 è professore ordinario di Figura 3 – Prove dinamiche realizzate: (a) andamenti delle forze Misure Elettriche ed Elettroniche. È il e delle variazioni di distanza, coordinatore del Dottorato di ricerca in (b) andamenti delle variazioni Technology for Health e membro del di resistenza dei sensori Collegio di dottorato in Meccatronica presso l’Università di Bergamo. AttualIl sensore autonomo proposto per mente è vice Preside della Facoltà di misure di forza in protesi totali al Ingegneria dell’Università degli Studi di ginocchio è un esempio significati- Brescia. T_M ƒ 198 Mauro Serpelloni ha ricevuto la Laurea con lode in Ingegneria Gestionale presso l’Università di Brescia nel 2003. Nel 2007 ha ottenuto il Dottorato di Ricerca in Strumentazione Elettronica. Attualmente è ricercatore in Misure Elettriche ed Elettroniche presso la Facoltà di Ingegneria dell’Università degli Studi di Brescia. I suoi interessi di ricerca comprendono la progettazione e caratterizzazione di sistemi di misura per applicazioni industriali e mediche. GLI ALTRI TEMI ▲ METROLOGIA FONDAMENTALE C. Clivati1,2, D. Calonico1, F. Levi1, A. Mura1, G.A. Costanzo2, A. Godone1 Confronti remoti di frequenze campione tramite link in fibra ottica OPTICAL FIBER LINK We describe LinkO, an experimental set up at the Italian National Metrological Laboratory (I.N.Ri.M.), Torino, in cooperation with the Politecnico di Torino with the aim to perform the frequency dissemination on optical fibers of ultrastable frequency signals at a European scale. This system allows the frequency comparisons of optical clocks at the relative level of some parts in 1015 with a 1 s integration time, overcoming the capabilities of the satellite based techniques. Up to now the relative stability of the optical link is at the level of 2x10-15 on a prototype system based on 50-km fiber spools inside the lab. RIASSUNTO Di seguito si descrive l’esperimento LinkO dell’Istituto Nazionale di Ricerca Metrologica (I.N.Ri.M.) di Torino, sviluppato in collaborazione col Politecnico di Torino. L’esperimento è volto a realizzare una struttura in fibra ottica per il trasferimento e la disseminazione di segnali ultrastabili di frequenza su scala europea. Il sistema in oggetto consente il confronto remoto di orologi ottici al livello relativo di alcune parti in 1015 su tempi di misura di 1s, migliore di almeno un ordine di grandezza rispetto alle tecniche di confronto satellitare abitualmente utilizzate. A oggi, la stabilità relativa del link a 1 s di tempo di misura è infatti al livello di 2x10-15, ottenuta per mezzo di un primo prototipo sperimentale che utilizza bobine di fibra ottica di 50 km poste all’interno del laboratorio. INTRODUZIONE Svariate applicazioni scientifiche e tecnologiche richiedono accurati riferimenti di tempo e frequenza, in particolare in aree come le telecomunicazioni (velocità/capacità di trasmissione dati) o la navigazione satellitare (GPS, Galileo) e ovviamente la fisica fondamentale. Pertanto ogni miglioramento nella realizzazione e nella disseminazione di frequenze campione ha un impatto a largo spettro sull’innovazione scientifica e tecnologica. Inoltre si tenga presente che la disponibilità remota di sorgenti ottiche campione rende disponibile, seppur indirettamente, campioni di lunghezza con accuratezze inimmaginabili fino a pochi anni fa. Gli orologi ottici di nuova generazione, basati sulle transizioni di atomi neutri, quali Yb o Sr, e di ioni hanno ampiamente dimostrato la capacità di scendere sotto la soglia di accuratezza raggiungibile mediante i migliori campioni primari a fontana di cesio, operanti nella regione delle microonde. Per esempio l’accuratezza dei due campioni primari operanti all’I.N.Ri.M. è dell’ordine di alcune parti in 1016, mentre i migliori campioni ottici in attività dichiarano valori inferiori di almeno un ordine di grandezza [1]. Le caratteristiche dei campioni ottici di nuova generazione hanno posto alla comunità scientifica internazionale un pesante quesito: quali metodi saranno utilizzati in futuro per il confronto di frequenza fra i laboratori metrologici internazionali? In effetti, ad oggi, lo stato dell’arte riguardo alla sincronizzazione remota di segnali di frequenze campione è costituito dai metodi satellitari a due vie (in particolare il Two Way Satellite Time and Frequency Transfer-TWSTFT) con i quali è possibile ottenere confronti a livello di 4x10-16 dopo oltre 20 giorni di misura. La necessità di sviluppo di nuovi metodi di sincronizzazione e confronto remoto che raggiungano adeguati risultati in termini d’incertezza è stato riconosciuto quale obiettivo primario ai più alti livelli metrologici internazionali: il solo metodo finora in grado di raggiungere gli obiettivi prefissati è il link ottico di frequenza su fibra ottica. Progetti pionieri hanno dimostrato eccellenti risultati in Francia, U.S.A., Germania [2,3]. Lo sviluppo di network in fibra per il confronto di frequenza tra Istituti di Metrologia e Laboratori di Spettroscopia atomica sarà una priorità per gli Istituti Metrologici nel prossimo futuro, come già riconosciuto dall’Associazione Europea degli Istituti Metrologici Nazionali (EURAMET) anche a seguito di concrete proposte per la costituzione di network transnazionali basati su fibre commerciali [4]. L’I.N.Ri.M. ha avviato di recente l’esperimento LinkO, finalizzato a realizzare la disseminazione di frequenza basata sull’uso d’infrastrutture in fibra ottica. IL LINK OTTICO Il sistema di link ottico è composto principalmente da tre unità: una stazione laser trasmittente, l’infrastruttura in fibra ottica e, infine, la stazione di ricezione. Nella stazione trasmittente 1 I.N.Ri.M. – Divisione di Ottica, Torino Politecnico di Torino [email protected] 2 T_M N. 3/11 ƒ 199 si genera una radiazione laser ultrastabile, la cui frequenza è confrontata e quindi agganciata a quella di un orologio atomico campione attraverso un pettine ottico di frequenza [5]. Successivamente la frequenza del laser ultrastabile è inviata al laboratorio remoto mediante collegamento in fibra. Per ottenere il trasferimento di frequenze ottiche in fibra a distanza di centinaia di km senza degradare il livello di stabilità iniziale, è necessario compensare il rumore di fase aggiunto dalla fibra stessa sulla portante ottica. A seguito di vibrazioni meccaniche, variazioni di temperatura e pressione lungo il percorso compiuto dalla fibra, la portante ottica subisce un aumento del rumore di fase. Per ridurre gli effetti di tali contributi di rumore si utilizza un sistema di compensazione basato sulla rifles- T_M ƒ 200 N. 03ƒ ; 2011 ▲ GLI ALTRI TEMI sione di parte del segnale ottico che ha raggiunto il laboratorio di destinazione. Nel doppio passaggio in fibra la radiazione accumula un rumore di fase la cui entità è determinata confrontando il segnale rientrato in laboratorio con quello originario e, infine, compensato intervenendo sulla frequenza della radiazione inviata. Questo sistema di controllo permette di compensare il rumore introdotto dalla fibra ottica ottenendo, nella stazione di ricezione, frequenze ottiche che riproducono la stabilità relativa presente nel laboratorio metrologico. Le richieste di stabilità sulla frequenza della sorgente diventano tanto più stringenti quanto maggiore è la distanza a cui si intende trasferire il segnale. Ciò è dovuto al fatto che il tempo di coerenza del laser, inversamente proporzionale alla sua larghezza di riga, deve essere comunque sem- pre superiore al tempo che intercorre fra andata e ritorno del segnale lungo la fibra. Pertanto, un passo fondamentale del progetto LinkO è la realizzazione della sorgente laser con caratteristiche di larghezza di riga molto spinte. LA CAVITÀ ULTRASTABILE La sorgente ottica utilizzata per il link è un laser in fibra a 1542 nm con larghezza di riga di circa 10 kHz. Per ottenere un ulteriore restringimento della riga di emissione è necessario effettuare una stabilizzazione della frequenza del laser sul modo fondamentale di una cavità ottica di tipo Fabry-Pérot (FP), mediante la tecnica di modulazione del segnale incidente sulla cavità (metodo di Pound-DreverHall [6]). Il segnale riflesso, rivelato N. 03ƒ ;2011 Figura 1 – La cavità posizionata sul sistema di supporto, all’interno della struttura d’isolamento cerca di renderla insensibile a esse sospendendola su particolari punti, detti di Airy, che permettono di ridurre al minimo l’influenza delle vibrazioni sismiche sulla lunghezza dell’asse ottico [7]. Per verificare le prestazioni ottenute, sono stati allestiti due sistemi indipendenti e si è misurata la nota di battimento dei due laser stabilizzati sulle rispettive cavità. La larghezza di riga del battimento è di 30 Hz e la stabilità relativa è pari ad alcune parti in 1014 con tempi di misura di 1 s. ▲ da un fotodiodo e opportunamente demodulato, è proporzionale allo scostamento della frequenza della sorgente dal modo risonante. Questo segnale di errore è utilizzato per asservire la frequenza del laser alla cavità FP. Dal momento che una variazione della lunghezza della cavità (10 cm) si ripercuote come variazione di frequenza sul modo della cavità FP, per raggiungere la stabilità relativa richiesta di 10-15 è necessario che le variazioni di lunghezza si mantengano al di sotto di 10-16 m. Per questo la cavità è stata isolata termicamente e meccanicamente dall’ambiente esterno. Inoltre la cavità è stata realizzata in vetro ULE (Ultra Low Expansion) a bassissimo coefficiente relativo di espansione termica (α=3⋅10-8/K) ed è posta all’interno di una camera da vuoto (Fig. 1) dentro uno schermo in rame. Questo duplice accorgimento è necessario per ottenere un elevato grado d’isolamento termico riducendo a pochi mK le fluttuazioni termiche in assenza di controllo attivo di temperatura. Infine un sistema di controllo elettronico riduce le variazioni di temperatura al di sotto di 1 µK per tempi d’integrazione fino ad alcune decine di secondi. Oltre alle variazioni di temperatura è necessario ridurre gli effetti del rumore sismico sulla cavità. Questo tipo d’isolamento è molto più critico da ottenere e il problema è stato risolto solo negli ultimi anni: poiché non è possibile isolare completamente la cavità dalle vibrazioni, si GLI ALTRI TEMI biettivo in futuro di estendere il link su lunghezze maggiori. In Fig. 3 è riportata la nota di battimento tra la frequenza ottica del laser ultrastabile e la stessa frequenza ottica dopo il passaggio in fibra: il mescolamento delle due frequenze è ottenuto sul fotodiodo PD2 utilizzando una bobina di fibra di 25 km: nella figura è riportato quando il sistema di compensazione del rumore è inattivo (in nero) o attivo (in rosso). Quando il controllo è attivo la stabilità relativa del link è pari ad alcune IL SEGNALE OTTICO La radiazione ottica a 1542 nm, stabilizzata in frequenza sulla cavità FP, è destinata alla trasmissione in fibra al laboratorio remoto dove costituisce un riferimento stabile, a condizione che sia compensato il rumore che perturba la stabilità della portante in seguito al passaggio in fibra. Per ottenere la compensazione, nel laboratorio di destinazione parte della radiazione viene riflessa e fatta interferire con la radiazione emessa, seFigura 2 – Schema del link ottico. Il fotodiodo PD1 condo lo schema riportato in rivela un segnale proporzionale al rumore da compensare; Fig. 2. sul fotodiodo PD2 viene confrontata la radiazione Il segnale ottico, che ha comdella sorgente con quella che abbia percorso la fibra ottica piuto un doppio passaggio lungo la fibra che collega i due laboratori, contiene l’informazio- parti in 1016 a 1 s di tempo di misura, ne relativa al rumore di fase introdot- (Fig. 4) con link di 25 km. Ciò mette to da variazioni di temperatura, pres- in evidenza come il contributo di sione e vibrazioni ambientali che alte- rumore del link sia ridotto a valori trarano la lunghezza del cammino otti- scurabili rispetto al contributo della co. Tramite confronto con il segnale sorgente ad alta stabilità. ottico originario è possibile corregge- In futuro sarà possibile dedicarsi all’ere la frequenza inviata in fibra tramite stensione di questa tecnica su fibre commerciali dedicate (dark fibers) e un AOM pilotato da un VCO. Per verificare le prestazioni raggiun- rendere disponibile un riferimento prite, si è confrontata la radiazione mario di frequenza ottica su scala immessa nella bobina di fibra con nazionale. quella trasmessa all’altro capo, simulando in tal modo il laboratorio remoto. Per le misure effettuate fino- CONCLUSIONI ra sono state utilizzate bobine di fibra ottica di 25 km e 50 km poste In questo articolo è stata descritta la all’interno del laboratorio, con l’o- realizzazione di una sorgente laser T_M ƒ 201 N. 03ƒ ; 2011 ▲ GLI ALTRI TEMI BIBLIOGRAFIA Figura 3 – Segnale di battimento ottenuto senza (in nero) e con (in rosso) la compensazione del rumore Figura 4 – Stabilità relativa del link ottico, in termini di deviazione di Allan, ottenuta con bobine di fibra ottica di 25 km e 50 km, ad anello aperto e chiuso, confrontata con la stabilità relativa della sorgente ultrastabile realizzata ultrastabile a lunghezza d’onda telecom e la realizzazione di un sistema in fibra ottica per il trasferimento remoto di segnali ultrastabili di frequenza. La stabilità relativa della sorgente è al livello relativo di 10-14 su tempi di misura di 1 s. Questa sorgente, stabilizzata su cavità ultrastabile di nuova concezione, è stata utilizzata per realizzare un link ottico all’interno del laboratorio su bobine di fibra di alcune decine di km. La stabilità relativa del link è di alcune parti in 1017 e consente quindi il confronto remoto di sorgenti ultrastabili e ultra accurate, come quelle utilizzate nei campioni ottici di nuova generazione. T_M ƒ 202 1. Roseband et al., “Frequency Ratio of Al+ and Hg+ Single-Ion Optical Clocks; Metrology at the 17th Decimal Place”, Science 319, 1808, 2008 2. Kefelian et al., “High-resolution optical frequency dissemination on a telecommunications network with data traffic”, Opt. Lett. 34, 10, 2009. 3. Grosche et al., “Optical frequency transfer via 146 km fiber link with 10-19 relative accuracy”, Opt. Lett. 34, 15, 2009. 4. Lopez et al., “Cascaded multiplexed optical link on a telecommunication network for frequency dissemination”, Optics Express, 18,16, 2010. 5. Cundiff et al., “Colloquium: Femtosecond optical frequency combs”, Rev. Mod.Phys. 75, 325–342 (2003). 6. Black, An Introduction to Pound-Drever-Hall laser frequency stabilization”, Am. J. Phys. 69, 2001. 7. Chen et al.,”Vibration induced elastic deformation of Fabry-Pérot cavities”, Phys. Rev. A 74, 053801. Filippo Levi è responsabile della linea Campioni Atomici di Frequenza della Divisione di Ottica all’I.N.Ri.M. di Torino. Dal 1995 sviluppa orologi atomici di nuova generazione, come le fontane atomiche al Cesio o gli orologi compatti a vapori di Cesio e Rubidio per applicazioni spaziali. Alberto Mura ha ricevuto il titolo di Dottore di Ricerca dal 2009, con una tesi sulla misura della costante di gravitazione universale. Attualmente lavora presso l’I.N.Ri.M. alla realizzazione di un link in fibra che permetta il trasporto coerente di una portante ottica ultrastabile. Cecilia Clivati si è laureata in Fisica delle Tecnologie Avanzate nel 2010. Sta svolgendo il Dottorato di Ricerca in Metrologia al Politecnico di Torino e attività di ricerca presso la Divisione Ottica dell’I.N.Ri.M., lavorando alla realizzazione di un link in fibra ottica a basso rumore di fase che permetta il trasporto coerente di una portante a 1550 nm. Giovanni A. Costanzo è ricercatore presso il Politecnico di Torino. Ha lavorato alla realizzazione di campioni atomici a fontana di Cs all’NMIJ (Giappone), al NIST (USA) e presso il Politecnico di Torino. Dal 2006 collabora con l’I.N.Ri.M. allo sviluppo di standard di frequenza a fontana di Cesio e ottici. Davide Calonico è Aldo Godone è responricercatore presso la sabile del coordinamento Divisione di Ottica deldelle attività scientifiche l’I.N.Ri.M. di Torino. Si all’I.N.Ri.M. di Torino. Ha occupa della realizzadiretto l’attività di ricerca zione dell’unità di tempo della metrologia di tempo e frequenza in Italia e frequenza, con particomediante orologi atomici, di tecniche di raffreddamento laser di specie ato- lare contributo alla realizzazione di oromiche e della misura di frequenze otti- logi atomici primari e compatti, con atomi di Cesio, Magnesio e Rubidio. che. GLI ALTRI TEMI ▲ MISURE PER IL SETTORE FERROVIARIO Andrea Mariscotti, Paolo Pinceti The Power Quality of DC and AC Railways spectral and temporal characterization LA QUALITÀ DELLA POTENZA NELLE FERROVIE IN CC E CA La misura e il monitoraggio della qualità di potenza su reti ferroviarie è un problema complesso con numerosi condizionamenti pratici. È stato progettato e realizzato un sistema di misura digitale che effettua il monitoraggio su diverse locomotive attraverso numerosi Paesi UE. Tra i vantaggi del sistema sono la facilità d’installazione e d’uso, e la robustezza. Vengono presentati risultati sullo spettro di tensione al pantografo, le sue proprietà statistiche e il comportamento nel tempo e nella frequenza e la sua relazione con la corrente assorbita, riferiti alle reti svizzera AC 16,7 Hz e italiana DC 3 KV per illustrare i metodi di post-processing possibili e le caratteristiche sostanziali delle reti esaminate. SUMMARY The measurement and monitoring of power quality on electric railway networks is a complex problem with several practical constraints. A digital measurement system was designed and implemented to perform the required task on-board of different locomotives across several EU countries. Ease of installation and operation and robustness are the main requirements. The pantograph voltage spectrum, its statistical properties, and joint time-frequency behavior and relationship with the absorbed current are shown for the Swiss AC 16.7 Hz and Italian DC 3 kV networks to illustrate the possible post-processing methods and the main characteristics of the examined networks. CHALLENGES RELATED TO THE MONITORING OF POWER QUALITY ON RAILWAYS A railway network is quite an extended electrical supply system that comprises active elements (the Electric Sub-Stations (ESSs) and the Rolling Stock (RS)), by different manufacturers, with various architectures and different operating conditions), interconnected by the traction line (TL), that represents a far from ideal propagation medium, with several connected passive elements, such as autotransformers, booster transformers, impedance bonds, high voltage cables of various lengths [1]. The active elements are the sources of disturbances, located both at the characteristic harmonics of the specific supply system (for DC systems, the reference fundamental frequency is that of the high changes with its position in respect to the power supply elements, as it can be readily conceived when thinking of the standing wave pattern on a simple straight transmission line terminated at both ends [2]. Recently, CENELEC highlighted the problem of power quality (PQ) for railway networks, and started the process of definition of common procedures and rules for train interoperability across Europe. The technical interoperability aims at ensuring the safe and efficient circulation of trains across different railway networks in different countries and considers mechanical and electrical interfaces. PQ defines the characteristics of the pantograph voltage experienced by circulating RS, but is also useful to recognize any impact on signaling circuits, in terms of coupled disturbances; the examination of EN 50163 and EN 50388 standards identifies the following quantities and indices [3,4]: • changes of the amplitude of the fundamental component of the pantograph voltage in normal service conditions, called “useful voltage”; an adequate useful voltage ensures that the RS is able to attain the contractual performances; • voltage distortion due to RS conducted emissions and pantograph impedance, extended in principle to all the trains circulating on a given section; • possible distortion amplification and overvoltages due to line resonances; • overvoltages produced by possible instabilities of modern on-board con- voltage network, namely 50 or 60 Hz) and at other frequencies, originated by several mechanisms: the commutation of on-board traction converters and auxiliary converters, the leakage of the on-board supply frequency for lighting and auxiliaries, the non-characteristic harmonics due to supply non-idealities and the spectra associated with various transients (wheel slip and slide, pantograph bounce, transformers and filters inrush currents). The TL is an articulated propagation and coupling medium, featuring several modes of propagation between the different conductors with variable damping factors and propagation constants, various cross sections (for open air, viaducts and tunnel sections) and shunt parameters related to the passive elements. Even Dip. Ingegneria Navale ed Elettrica, in ideal conditions the perceived TL Università di Genova impedance at RS pantographs [email protected] T_M N. 3/11 ƒ 203 verters and control systems under particular circumstances. Even if adequate modeling of TL, PS and RS can give valid and reliable results, experimental confirmation is always required; moreover, due to the variability of network conditions, the problem arises of the evaluation of the spread of network response and network properties, such as damping at line resonances, distribution of the return current in the return circuit, composition of the emissions from different RS. Whenever a test campaign for supply or signaling interoperability assessment is performed, it is usually limited to a single test line or a few lines, selected by the infrastructure owner for several reasons: favorable traffic conditions, past knowledge of line behavior or simply “practice”. The interest of manufacturers and railway operators on the representativeness of the test line of the real network conditions justified the UE project RAILCOM measurement campaigns in 2007 and 2008. A successful and accepted measuring system must be non-invasive, and supported by an analysis of the consequences of possible faults. In a topdown approach, robustness, reliability and simplicity were considered as primary requirements for acceptability to the involved parties, then, metrological requirements (dynamic range, frequency range, sensitivity, uncertainty) were identified and optimized. THE MEASUREMENT SYSTEM The measurements of the whole test campaign were carried on using two different measurement systems, one (described in [5]) used for Czech Republic, Germany, Switzerland, France and Poland, the other from Trenitalia used for Italy. The first is a “classical” Data Acquisition System (DAS), with current and voltage sensors connected to a multi-channel digital acquisition board, able to operate unattended, switching on (after an initial software reset) and off, following the locomotive on-board supply and storing to a local hard disk automati- T_M ƒ 204 N. 03ƒ ; 2011 ▲ GLI ALTRI TEMI cally and periodically, every 5’, so that data are safe in any circumstances up to the last five minutes and data records are kept at a handy size (200 MB). The DAS was also backed up by an UPS unit. A major requirement was that data download had to be easy and fast, and that no specialists were needed to disassemble and re-assemble the system while moving from the old to the new locomotive: the different operations were simulated several times by different operators before delivering on a sample locomotive at the test ring of 13.3 km length in Velim, VUZ Test Center, Czech Republic; the metrological aspects and the quality of the results were also tested for two days on trial runs. This measurement system has then travelled across Europe from Czech Republic to Germany, Poland, Switzerland and France, operating on normal lines; the tested railway systems are both AC and DC, at 25 kV 50 Hz, 15 kV 16.7 Hz and 1.5/3 kV DC. The pantograph voltage Vp and current Ip are accessible in principle with different methods, depending on the supply frequency, on the on-board apparatus, on specific requirements from the operator or infrastructure manager. All voltage and current sensors must be of the clamp-on type for increased reliability, consequences in case of fault, time required for installation, and impact on the vehicle (since they do not require the disconnection of the conductor or bar under measurement). Faults to ground and loss of electrical insulation are avoided if a contactless capacitive voltage sensor is adopted [5], capacitively coupled to a naked section of the incoming voltage line, inside the loco (on a terminal of the transformer primary winding) or on loco roof (at the pantograph base). The sensor is highly linear and is calibrated at each installation by applying a known voltage and by annotating the resulting gain factor (43,222 V/V and 19,710 V/V for Czech and Swiss vehicles); repeated calibrations may compensate for small geometrical variations. The current sensors are two Rogowski coils, with gain factors of 100 A/V and 93.57 A/V. Rogowski coils have an inherent inaccuracy related to the eccentricity with respect to the central conductor and to its size [5], accounting for 1-1.5% uncertainty; however they are very attractive for their linearity and absence of saturation, and for their light weight and ease of installation. Power consumption was a critical factor: Rog1 was operated successfully with small AA batteries, while Rog2 was supplied by its own DC power supply (connected to the on-board loco supply through the UPS). The used sensors ensured more than five decades of dynamic range, to accommodate for widely variable operating conditions; the accuracy mainly influenced by sensor positioning and geometry is better than 1.5%. Since most of the power quality indices are relative quantities, systematic errors contribution may be ruled out. A resolution of 16 Bit was needed to cope with the sensor dynamic range. The sampling rate of 50 kS/s was a trade-off between different factors: storage requirements, analog bandwidth of probes, observed frequency interval of 10 kHz and no need for oversampling. At the end of the measurement campaign, lasted for almost one year, alternating busy and idle days, while moving the measurement system between the involved countries, the data amounted to more than 250 GB. POWER QUALITY ANALYSIS Vp and Ip are the RS input voltage and current (the latter used to identify the overall RS operating conditions, such as acceleration, braking, coasting); the pantograph impedance Zp=Vp/Ip (which really corresponds neither to the impedance of the PS, nor to the input impedance of the test train) is relevant to evaluate line stiffness. The post-processing results of the 3 kV DC Italian and 15 kV 16.7 Hz Swiss networks are shown: a Short Time Fourier Transform and Hanning window N. 03ƒ ;2011 Figure 1 – Bern-Brig test run: THD, fundamental component and absorbed fundamental current The “useful voltage” Uav,u is defined in the EN 50388 0 as the average value of the rms fundamental component of Vp over a well defined geographical area (which is part of the network, such as a whole line) and for one or several trains; for the presented case it amounts to 14.384 kV. At the time instants marked A and B the absorbed current is equally around 400 Arms, but with two different Vp values, since they are separated by a neutral section, and stay on different supply sections with different short circuit power and distance from the ESS. The THD is always varying between 3 and 4% and it is not an issue as a whole, but instabilities and overvoltages due to resonances may increase specific harmonic components. The cumulated frequency spectra computed over about 2,200 seconds of recording in the Bern-Brig section are shown in Fig. 2; the voltage levels features a probability of exceedance p>95% (light grey), 80%<p≤95% (medium grey), 60%<p≤80% (dark grey), 40%<p≤60% (black), 20%<p≤40% (dark grey), 5%<p≤20% (medium grey), p≤5% (light grey); the asymmetrical disposition of regions near the boundaries is due to the log scale visualization of the small amplitude values of the harmonic components; to avoid graph cluttering with large light grey regions at smaller values, the first interval has been reduced to 2%<p≤5% (light grey), by discarding the least significant 2% of amplitude values. The fundamental at 15 kV has a negligible dispersion, as expected for correct PS and TL sizing. The first odd characteristic harmonics of the power supply (50, 83.3, 116.7 Hz, etc.) has low dispersion, whereas higher order ones produced also by on-board converters have a wider variation. A first resonance around 200 Hz is visible, typical of 16.7 Hz networks and confirmed by the average value of 180 Hz reported in EN 50388, Table D.1 0. The various components and the sources are identified in [5] with focus on the harmonic groups of onboard converters at 917, 1,400, ▲ are used with a 50% overlap of time windows of duration T, thus ensuring a negligible correlation between subsequent spectra. For 16.7 Hz T = 180 ms, that corresponds to a frequency resolution of 1/3 of the fundamental, that is 5.55 Hz; for the DC network with 50 Hz high voltage supply T = 100 ms, with a compromise for time-frequency location of transients spectral components. The results of the post-processing consist of: 1. determination of the fundamental component and of frequency spectra for the evaluation of the useful voltage and Total Harmonic Distortion (the sum of all the frequency components above the fundamental); 2. statistical representation of Vp and Ip spectra, as well as impedance Zp, where the histogram of each spectrum bin is color coded for frequency of occurrence; the switching components and PWM patterns of the on-board traction converters may be identified, with possible variations of their amplitude due to underlying TL resonances; 3. time-frequency maps of pantograph voltage and current, to track RS time varying harmonics; 4. Vp-Ip maps, that help in identifying RS emissions originated from the same test vehicle or other nearby vehicles. GLI ALTRI TEMI Figure 2 – Bern-Brig test run: Vp spectrum over (a) [16.7, 10000] Hz and (b) histograms with stacked bars for the low frequency interval 1,600, 2,000, 2,800, 4,000 and 8,000 Hz, together with underlying network resonances and the effect of different PS characteristics (in particular installed power and additional capacitance of high voltage cables). The identification of network stiffness and resonances is supported by the pantograph impedance, shown in Fig. 3. Figure 3 – Zp for the Bern-Brig test run T_M ƒ 205 The distribution of the most relevant harmonics appearing in the spectra computed for 16.7 Hz and DC systems are shown in Fig. 4 [5,6]. Figure 4 – PDFs of the most relevant harmonics of (a) 16.7 Hz and (b) dc networks The shape of the probability density functions (PDFs) for the harmonics above the 9th is that of a skewed Gaussian or similar distribution; for the 3rd, 5th, 7th and 9th the shape is that of a Gaussian distribution with small dispersion (the dispersion over mean ratio is around 15%). The accurate identification of the various PDFs and the quantification of the goodness of fit are beyond the scope of this work. The time-frequency map obtained STFT applied to the recorded Vp of the 3 kV DC Italian network is shown in Fig. 5. A transient at about 52 s produces a low-frequency leakage that extends up to about 70 Hz; the power supply appears with the sharp line of the 1st characteristic harmonic at 300 Hz (from the ESS 6-pulse rectifier groups), but a significant broader line is present at about 100 Hz: any negative T_M ƒ 206 N. 03ƒ ; 2011 ■ GLI ALTRI TEMI 3. CENELEC EN 50388 Std., Railway applications – Power supply and rolling stock – Technical criteria for the coordination between power supply (substation) and rolling stock to achieve interoperability, Aug. 2005. 4. CENELEC EN 50163 Std., Railway applications – Supply voltages of traction systems, Figure 5 – Time-frequency map of Vp spectrum Nov. 2004. on 3 kV dc network 5. A. Mariscotti, “Measuring the power quality of railway sequence component on the AC side networks”, IEEE I2MTC 2010 Conferof 6-pulse rectifiers produces a 100 Hz ence, Austin, TX, USA, May 3-6, non-characteristic harmonic amplified 2010, pp. 686-690. by the resonance of the ESS output LC 6. A. Mariscotti, “Statistical evaluafilter. Train acceleration is clearly visi- tion of measured voltage spectra in ble with an almost linear increase of DC railways”, Proc. IMEKO2010, the frequency of the emissions of the Kosice, Slovakia, Sept. 8-10, 2010. on-board traction converter. An additional visualization tool is the plot of Vp vs Ip at a given frequency over Paolo Pinceti was born time, as it is done also to analyze the in Genova, Italy, in behavior of power networks for pro1957. He received the tection. Ph.D. degree in electrical Finally, it is noted that the fundamental engineering from the Unisupply frequency at 16.7 Hz is not as versity of Genova in constant as in case of 50 Hz traction 1987. Currently, he systems (firmly related to the frequen- teaches “Industrial Measurements” for cy of the whole European generation Electrical Engineers and “Technologies and transmission network), as it is con- for Industrial Automation” for Electronic firmed also by the different require- Engineers at the University of Genova. ments on frequency stability set forth His research interests include power sysby EN 50163 0. If a 0.1 Hz frequen- tem measurement, protection, and cy deviation at the fundamental bin is automation, with a special skill in fieldassumed, at 5 kHz it corresponds to a bus communication. shift of 30 Hz, about two frequency bins of harmonic components, increasing the complexity of the analysis of measured spectra. Andrea Mariscotti REFERENCES 1. A. Mariscotti, “Distribution of the traction return current in AC and DC electric railway systems”, IEEE Trans. on Power Delivery, vol. 18 n. 4, Oct. 2003, pp. 1422-1432. 2. J. Holtz, H. J. Klein “The propagation of harmonic currents generated by inverter fed locomotives in the distributed overhead supply systems”, IEEE Trans. on Power Electronics, Vol. 4, No. 2, pp. 168-174, April 1989. was born in Genova, Italy, in 1968. He received the Ph.D. degree in electrical engineering from the University of Genova in 1996. Currently, he teaches “Electronic Circuits” and “Instrumentation and Signal Processing” for Electrical Engineers at the University of Genova. His research interests include design and construction of measurement instrumentation, electromagnetic compatibility and electromagnetic interference modeling applied to industrial and transportation systems. CAMPI E COMPATIBILITÀ ELETTROMAGNETICA ▲ LA COMPATIBILITÀ ELETTROMAGNETICA Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3 Il comportamento a radiofrequenza dei componenti circuitali passivi L’induttore - Parte seconda THE RADIOFREQUENCY BEHAVIOR OF PASSIVE CIRCUIT COMPONENTS: THE INDUCTOR PART 2 The RF behaviour of the inductor is complex. This is essentially due to two reasons. First, the inductor is rarely realized through an empty coil. Indeed practical realizations usually employ ferromagnetic materials, such as ferrites, whose electrical properties are: a) frequency dependent, b) may exhibit a non-linear behaviour and c) have non-negligible (frequency dependent) losses. Second, the impedance of the inductor increases when frequency increases, thus it tends to unintentionally couple to the surrounding metallic structures; the maximum coupling being at resonance where the inductor impedance is maximum. The basic (intentional) behaviour of the inductor is here first introduced. Then the non-ideal (unintentional) behaviour at RF is described (namely spurious electric field coupling, losses, relaxation, temperature dependence and saturation). Examples of practical inductor realizations are offered. RIASSUNTO Il comportamento a radiofrequenza degli induttori è complesso. Questo è essenzialmente dovuto a due ragioni. In primo luogo, l’induttore è raramente realizzato su una bobina vuota. Infatti le realizzazioni pratiche di solito impiegano materiali ferromagnetici, come le ferriti, le cui proprietà elettriche sono: a) dipendenti dalla frequenza, b) possono esibire un comportamento non lineare ed c) avere perdite (dipendenti dalla frequenza) non trascurabili. In secondo luogo, l’impedenza degli induttori cresce al crescere della frequenza, facilitando l’accoppiamento non intenzionalmente con le strutture metalliche circostanti; il massimo accoppiamento si verifica alla risonanza dove l’impedenza è massima. Il comportamento ideale (intenzionale) dell’induttore è qui introdotto. Successivamente il comportamento non ideale (non intenzionale) a radio frequenza è descritto (vale a dire l’accoppiamento spurio del campo elettrico, le perdite, il rilassamento, la dipendenza della temperatura e la saturazione). Esempi di realizzazioni pratiche dell’induttori sono offerti. allineamento dei domini magnetici nella direzione del campo esterno. In questo caso il campo magnetico netto interno al materiale tende ad aumentare proprio per il contributo costruttivo fornito dai singoli domini. Questo fenomeno è chiamato magnetizzazione. In generale, maggiore è il numero di domini allineati con il campo esterno, maggiore sarà il campo magnetico interno al materiale. Va osservato che quando tutti i domini sono allineati un ulteriore incremento del campo magnetico esterno non produce alcun incremento del campo magnetico interno: questo fenomeno è chiamato saturazione. Il ferromagnetismo è la proprietà di alcuni materiali di magnetizzarsi molto intensamente sotto l’azione di un campo magnetico esterno e di restare a lungo magnetizzati quando il campo magnetico esterno si annulla. Sono materiali ferromagnetici la magnetite e il ferro (da cui il termine ferromagnetismo), cobalto, nichel, numerosi metalli di transizione e le loro rispettive leghe. Quando viene applicato un campo magnetico esterno variabile nel tempo, l’orientamento di tutti i domini di Weiss tende a seguire le variazioni del campo magnetico. Tutto questo è possibile fin quando la frequenza del campo magnetico esterno non risulta troppo elevata: oltre una data frequenza i domini non riescono più a seguire le variazioni del campo magnetico esterno determinando di fatto il rilassamento del materiale ferromagnetico. Matematicamente le caratteristiche di IL FERROMAGNETISMO un polo Sud. Per ciascun dominio il E I MATERIALI FERROMAGNETICI magnete permanente può assumere un orientamento (momento magnetiCome precedentemente ricordato un co) più o meno differente rispetto a induttore si ottiene avvolgendo un certo quanto avviene per il dominio continumero di spire attorno a un nucleo di guo (Fig. 7). materiale ferromagnetico. Ma cos’è un In assenza di un campo magnetico materiale ferromagnetico? In generale esterno i domini sono orientati in mapossiamo dire che tutti i materiali niera casuale non privilegiando quin- 1 magnetici, a livello microscopico, sono di nessuna direzione: il campo ma- 2 Università di Firenze Ricerca e Sviluppo, Esaote S.p.A., formati da domini magnetici (domini di gnetico netto interno al materiale risulWeiss) che si comportano in maniera ta cioè pari a zero. Al contrario, un 3Firenze Elettroingegneria, Pistoia molto simile a piccole calamite (ma- campo magnetico esterno penetra nel gneti permanenti) con un polo Nord ed materiale causando la rotazione e un [email protected] T_M N. 3/11 ƒ 207 N. 03ƒ ; 2011 ▲ CAMPI E COMPATIBILITÀ ELETTROMAGNETICA L = L 0 µ ‘s (6) Sostituendo la (6) nella (5) si ottiene: Z L = R + jωL 0 µ ‘s = R = jωL 0 + µ ‘s = jωL 0 = jωL 0 µ ‘s − jµ ”s = jωL 0 µ s ( ▼ NEWS NUOVA VISIONE 3D CON L’ULTIMA VERSIONE DI VISIONPRO Cognex annuncia l’implementazione della visione 3D nella nuova versione di VisionPro®, il software che definisce lo standard di prestazioni nel settore della visione industriale. VisionPro 3D garantisce informazioni di posizionamento nello spazio accurate e in tempo reale e rappresenta lo strumento ideale per l’automazione di complesse applicazioni robotizzate, logistiche e di verifica dell’assemblaggio. Essendo in grado di controllare molteplici telecamere fisse o robotizzate, il software offre massima flessibilità. Markku Jaaskelainen, Vice Presidente e Business Unit Manager di VisionPro, ha affermato: “Abbiamo inserito i nostri avanzatissimi strumenti 3D in VisionPro, il principale ambiente programmatico per gli integratori di sistemi e i produttori OEM. I nostri partner utilizzano regolarmente gli strumenti VisionPro 2D per una vasta gamma di applicazioni di visione robotizzate e VisionPro 3D apre le porte a nuove possibilità in termini di soluzioni per complesse applicazioni di allineamento. Inoltre, grazie alla completa integrazione nella libreria esistente, garantisce libero accesso a un ampio ventaglio di strumenti d’ispezione e T_M ƒ 208 ) dove: Figura 7 – Domini magnetici (domini di Weiss) un materiale ferromagnetico sono descritte in termini di un parametro complesso chiamato permeabilità magnetica, µs. Per introdurre questo concetto trascuriamo per un momento l’effetto della capacità parassita che compare nel circuito di Fig. 4. In questo caso l’impedenza vista ai ter- (7) µ ‘s = minali dell’induttore vale: Z L = R + jωL L L0 µ ”s = R ωL 0 tan δ = µ” R = s‘ (8) ωL µ s (5) Per quanto sopra dimostrato, la presenza della resistenza R nella formula Indicando con L0 l’induttanza dell’in- della parte immaginaria della perduttore in assenza di materiale ferro- meabilità magnetica, permette di conmagnetico risulta: cludere che quest’ultima rende conto identificazione, incrementando sensibilmente il valore aggiunto di ogni progetto”. VisionPro 3D utilizza molteplici set di funzionalità bidimensionali già integrate nei rinomati strumenti di allineamento di Cognex, tra cui PatMax, PatFlex™ e altri strumenti di rilevamento di modelli geometrici. Tali strumenti gestiscono alla perfezione condizioni di illuminazione poco uniformi garantendo la massima affidabilità anche in caso di modelli parzialmente nascosti e assicurando un’accurata localizzazione dei componenti persino nelle applicazioni più complesse. Gli strumenti di calibrazione ad alta precisione di Cognex migliorano sensibilmente le prestazioni delle applicazioni grazie alla loro capacità di adattarsi alla distorsione ottica e alla posizione della telecamera, nonché di sincronizzare le telecamere con i robot, vero nodo cruciale nella determinazione dell’efficacia di qualsiasi applicazione 3D. David Michael, direttore di Core Vision Technology, ha affermato: “VisionPro 3D è ideato per condizioni di utilizzo reali e garantisce prestazioni eccezionali anche qualora alcuni parametri del componente non siano visibili. Riesce persino a compensare l’eventuale disallineamento di una telecamera, garantendo continuità alla produzione”. VisionPro 3D è progettato per un’infinità di applicazioni fisse e robotizzate, quali ad esempio carico o scarico di merce da scaffalature o pallet, verifica dell’assemblaggio e dell’equipaggiamento nel settore automobilistico o in altri ambiti che richiedono ele- vata precisione. VisionPro 3D offre uno starter kit immediato e di semplice apprendimento che include il software e un’applicazione completa per la formazione dell’operatore. Quest’ultima include il codice sorgente nonché tutto l’hardware necessario per iniziare da subito: telecamere, treppiede e piastre di calibrazione di precisione. Per ulteriori informazioni, visitare www.cognex.com/visionpro3d ferta ai terminali da un induttore in funzione della temperatura fissata la frequenza di Figura 8 – Andamento tipico in frequenza della permeabilità misura. Tendenzialmente al magnetica complessa per due differenti materiali ferromagnetici crescere della temperatura l’impedenza elettrica si ridudella dissipazione di energia nell’ince. Questo comportamento va tenuto duttore; analogamente, la parte reale in conto durante la fase di progettarende conto delle proprietà magnetizione che prevede l’utilizzo d’induttoche dello stesso. ri ad alte temperature. Un tipico andamento in frequenza Nella Fig. 10 è mostrata infine la variadella permeabilità magnetica è rapzione percentuale tipica dell’impedenpresentato nella Fig. 8 dove risulta za offerta ai terminali da un induttore evidente la regione nella quale il main funzione del campo magnetico proteriale ferromagnetico inizia a rilassadotto dalla corrente continua fissata la re (diminuzione di µs‘ ). Dal confronto dei grafici di Fig. 8 si osserva inoltre che, in generale, i materiali magnetici che presentano una permeabilità più elevata tendono a rilassare a frequenze minori (si faccia attenzione alla differente estensione dell’asse della frequenza nei due grafici riportati in Fig. 8). Va inoltre osservato che la permeabilità magnetica, e quindi in ultima analisi l’impedenza elettrica offerta dagli induttori, è influenzata oltre che dalla frequenza anche da altri parametri ambientali. I più significativi sono rapFigura 10 – Variazione percentuale presentati dalla temperatura e dalla dell’impedenza elettrica in funzione eventuale corrente continua che scorre del campo magnetico in continua applicato nell’induttore assieme a quella a RF1 per differenti frequenze che, producendo un campo magnetico statico supplementare, può contribuire a saturare il nucleo degradando le profrequenza di misura. Nel grafico il prietà magnetiche dello stesso. campo magnetico è espresso in OerNella Fig. 9 è mostrata la variazione sted, unità di misura nel sistema CGS2. percentuale tipica dell’impedenza ofCome si osserva al crescere del campo magnetico l’impedenza elettrica si riduce. Questo aspetto va tenuto in conto per esempio nei circuiti di filtraggio degli alimentatori switching oppure nel progetto dei convertitori DC-DC dove una componente di corrente continua (e quindi di campo magnetico continuo) è sempre presente assieme a una componente di corrente tempo variante. Figura 9 – Variazione percentuale dell’impedenza elettrica in funzione della temperatura per differenti frequenze ■ CAMPI E COMPATIBILITÀ ELETTROMAGNETICA mation”, Vishay, October 2008. 3. The Feynman Lectures on Physics by R.P. Feynman, R.B. Leighton and M. Sands, Addison-Wesley Publishing Company (1970). 4. Clayton Paul, “Introduction to electromagnetic compatibility”, Wiley-Interscience, 1992, ISBN 9780471549277. 1 Un classico esempio di questa situazione si verifica nei convertitori DC/DC. 2 Nel Sistema Internazionale, 1 oersted=1000/(4π) A/m, circa 79,577 A/m. Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel 1994 presso l'Università di Firenze. Dal 2000 è Dottore di Ricerca in “Telematica”. Dal 2001 è ricercatore presso il Dipartimento di Elettronica e Telecomunicazioni dell'Università di Firenze dove è docente di Misure Elettroniche e di Compatibilità Elettromagnetica. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. È presidente del SC 210/77B (Compatibilità Elettromagnetica, Fenomeni in alta frequenza) del CEI. Marco Cati si è laureato con lode ed encomio solenne in Ingegneria Elettronica all’Università di Firenze nel 2001. Dal 2005 è Dottore di Ricerca in Ingegneria dell’Affidabilità, Manutenzione e Logistica. Dal 2005 fa parte del reparto R&S di Esaote dove è responsabile delle verifiche di Compatibilità Elettromagnetica su dispositivi ecografici. Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze. È DotRIFERIMENTI BIBLIOGRAFICI tore di Ricerca in “Controlli non distruttivi”. Dal 1. “How to choose ferrite components 1988 è insegnante di for EMI suppression”, Technical Infor- Laboratorio di Elettrotecnica e di Elettromation Report, Fair-rite Corp. nica nel triennio degli Istituti Tecnici e 2. “Inductors: General technical infor- Professionali. T_M ƒ 209 VISIONE ARTIFICIALE ▲ A cura di Giovanna Sansoni ([email protected]) Visione e taratura Il back stage della visione industriale VISION AND CALIBRATION THE BACKSTAGE OF INDUSTRIAL VISION The section on Artificial Vision is intended to be a “forum” for Tutto_Misure readers who wish to explore the world of components, systems, solutions for industrial vision and their applications (automation, robotics, food&beverage, quality control, biomedical). Write to Giovanna Sansoni and stimulate discussion on your favorite topics. RIASSUNTO La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori della rivista Tutto_Misure interessata a componenti, sistemi, soluzioni per la visione artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare, controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e sottoponetele argomenti e stimoli. In una rivista incentrata sul tema delle misure, sulla taratura e la calibrazione degli strumenti e sulla valutazione delle relative incertezze di misura, non potevo esimermi dal dare il mio contributo in materia di taratura e calibrazione di sistemi di visione. Con il termine camera calibration si identifica tutto l’insieme di operazioni che fanno di un sensore, quale è la telecamera, un sistema di misura. Che si tratti di una singola telecamera, di un set di telecamere, che si abbia a che fare con un sistema 2D o con un sistema 3D, il nocciolo della questione è stabilire una relazione che consenta di trasformare i valori contenuti in una matrice (immagine) in misure espresse nel mondo reale, corredate del proprio dato d’incertezza. Anche con le telecamere dunque, bisogna tarare e calibrare. La taratura implica che si osservi il dato di precisione, mentre la calibrazione serve per migliorare le prestazioni di accuratezza. Si deve comunque adottare un approccio per confronto e far cooperare le due fasi fino all’ottenimento delle prestazioni desiderate. Per fare questo, bisogna approcciare il problema in modo tipicamente matematico: si cerca cioè di ricondurre il funzionamento del dispositivo ad alcune equazioni che tengono conto di tutti i processi che intervengono nell’acquisizione di un’immagine; conoscendo la struttura di questo modello matematico, eseguire la calibrazione di un particolare dispositivo reale significa stimare i valori dei coefficienti che ne descrivono il funzionamento nel modo più accurato possibile. Scrivere il modello di funzionamento di una telecamera significa stabilire il legame che esiste fra il mondo reale (e tridimensionale) in cui è espressa la scena e la matrice di livelli di grigio che la rappresenta. Non è un passaggio banale questo, poiché implica (i) che si definisca un sistema di riferimento solidale con la scena, (ii) che lo si metta in relazione con il sistema di riferimento solidale con la telecamera, (iii) che si scelga il livello di sofisticazione con il quale modellizzare il sistema ottico in ingresso alla telecamera, (iv) che si descriva la matrice sensore al suo interno, e, infine, (v) che si ponga in relazione la matrice immagine con la matrice sensore. Vengono quindi presi in considerazione quattro sistemi di riferimento, due tridi- mensionali, esterni al dispositivo, e due bidimensionali, interni ad esso; inoltre bisogna decidere come modellizzare il sistema di lenti: limitarsi a ‘scommettere’ che l’influenza di distorsioni ottiche sia trascurabile semplifica enormemente il problema, perché ne consente la formulazione in termini lineari; viceversa, la compensazione di errori legati a effetti di distorsione ottica richiede la scrittura di modelli che coinvolgono un maggior numero di parametri, inevitabilmente in relazione non lineare con gli altri. Uno dei modelli più utilizzati per effettuare la ‘Camera Calibration’ è il così detto modello Pin-hole [1]. Esso utilizza 3 parametri di rotazione e 3 di traslazione, che servono per istruire la telecamera sulla sua posizione e orientamento rispetto alla scena reale (parametri estrinseci). Questo modello utilizza un solo parametro per descrivere il sistema di lenti in ingresso alla telecamera, ed è la lunghezza focale; esso definisce il piano sensore mediante due opportuni fattori di scala, che lo mettono in relazione all’immagine. Questa, infine, è descritta dalla sua risoluzione, e dalle coordinate dell’elemento centrale. Dunque in tutto sono 11 parametri, organizzati in un sistema lineare, che ha come termini noti le coordinate di ciascun elemento dell’immagine. Quando invece si voglia tenere in considerazione l’elemento distorsione le cose si complicano. Infatti la distorsione può essere semplicemente geometrica, oppure ottica, e anche qui c’è una bella casistica. Distorsione tangenziale? Distorsione radiale? Ambedue? Fino a che punto sofisticare il problema e renderne complessa la soluzione? Fra i modelli sviluppati particolare importanza hanno quelli che compensano il contributo di distorsione radiale. La letteratura è ricchissima di proposte, metodi e soluzioni [2]. La versione base, che è stata proposta alla fine degli anni T_M N. 3/11 ƒ 211 ‘80, aggiunge ai parametri già esposti in precedenza un solo parametro di distorsione e formula il legame in modo non lineare, il che significa che, se non bene condizionato, il sistema può non convergere alla soluzione ottima. Che il modello sia lineare o meno, esso è espresso da un sistema di equazioni sottodimensionato rispetto al numero dei parametri da stimare. Di ciascuna equazione è necessario fornire il termine noto e i coefficienti relativi a ciascun parametro incognito. Questa operazione viene effettuata mediante l’utilizzo di master di calibrazione, le cui caratteristiche dimensionali sono note con adeguata incertezza di misura. Essi riportano elementi di tessitura (marker) di posizione nota sul master, pensati per una semplice identificazione da parte della telecamera. L’idea è quella di far apprendere alla telecamera informazioni sul mondo reale note a priori. In tal modo si possono mettere in relazione le coordinate dei marker presenti sui master, così come visti dal sensore, con le loro effettive posizioni nel modo reale: le prime fungono da termini noti nelle equazioni, le seconde vanno a comporre i coefficienti dei parametri da stimare. L’approccio più sensato alla stima è quello di utilizzare un criterio di massima verosimiglianza, che, di nuovo, assume una forma lineare in assenza di distorsioni, mentre richiede passi iterativi, ben condizionati in quelli non lineari. Va da sé che la possibilità di risolvere un sistema sovradimensionato rispetto al numero dei parametri è condizione necessaria all’ottenimento di una stima di buona qualità dei parametri stessi: l’aspetto caratterizzante è il rapporto fra il numero dei marker del master e il numero di equazioni che sono necessarie a ottenere una buona stima. La procedura che passa attraverso l’utilizzo di master può richiedere tempi alti, ad esempio se il master deve essere posto su una slitta micrometrica, in modo da controllarne la posizione nel sistema di riferimento reale. Inoltre, la qualità del master assume particolare rilevanza, specialmente in relazione alla sua planarità, e alla precisione con la quale vengono ‘incisi’ su di esso gli elementi di tessitura (Feature) che devo- T_M ƒ 212 N. 03ƒ ; 2011 ■ VISIONE ARTIFICIALE no essere riconosciuti dalla telecamera. La delicatezza di questi aspetti ha avuto come effetto lo studio e lo sviluppo di metodi che differiscono fra loro a seconda dell’aspetto che vogliono ottimizzare. Ad esempio, vi sono procedure che richiedono l’utilizzo di master low-cost, fatti di pochi marker che vengono semplicemente stampati su carta e fissati su un supporto di cartone; in altri casi, si ricorre all’utilizzo di piastre metalliche con planarità controllata, sulle quali è richiesto di apporre appositi target di calibrazione; in alternativa, lo spazio tridimensionale reale viene acquisito dalla telecamera muovendo manualmente il master in posizioni arbitrarie; in altri invece, il master deve essere posizionato su una guida micrometrica, in modo da fornire con ripetibilità nota la posizione di ogni marker nello spazio reale. Dal punto di vista pratico questo aspetto è importantissimo: non a caso i sistemi software per la visione presentano un notevole numero di funzioni dedicate alla procedura di acquisizione del master, che consentono l’utilizzo di master low-cost, e la ripresa di un numero d’immagini da acquisire inferiore a 10. A valle di questa fase, non resta che lasciar lavorare lo specifico algoritmo di stima e ottenere i parametri del modello telecamera. A questo punto, il sistema di relazioni utilizzate per stimare i parametri del modello viene sfruttato per effettuare la misura: le informazioni provenienti dall’immagine acquisita dalla scena formano i termini noti, e le incognite diventano le coordinate nello spazio cartesiano definite nel mondo reale. La misura è bidimensionale? Una coordinata sarà non necessaria alla sua espressione. La misura è tridimensionale? Serviranno almeno due telecamere e l’intersezione fra i loro assi ottici. Con quale ripetibilità viene identificata la distanza fra due feature in una scena incognita? Con quale risoluzione il sistema di visione è in grado di apprezzare il diametro di un foro, o il profilo di un certo oggetto? A queste domande non può che rispondere la taratura del sistema: dati i parametri stimati per la/le telecamera/e, si devono confrontare le misure ottenute dal sistema di visione in corrispondenza a una scena nota a priori con quelle dichiarate per tale scena. L’ottenimento del dato d’incertezza finale dirà se la calibrazione effettuata è sufficiente o se la stima debba essere ulteriormente raffinata. Procedura complessa? Si, ma indispensabile, se l’obiettivo del sistema di visione è la misura. BIBLIOGRAFIA [1] E. Trucco and A. Verri, Prentice-Hall, 1998, ISBN 0-13-261108-2. [2] C. Steger, M. Ulrich, C. Wiedemann, Machine Vision Algorithms and Applications, Wiley-VCH, Weinheim, 2009. [3] R.Y. Tsai, IEEE Journal of Robotics and Automation, RA-3, 323 (1987). Abbonarsi ORA per 2 anni a TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ” CONVIENE!!! 66 euro (anziché 72) e 30 euro di sconto sulla quota d’iscrizione alla 8a edizione del Congresso Nazionale “METROLOGIA & QUALITÀ” L’abbonamento biennale Vi offre 8 numeri cartacei + 8 telematici (Tutto_Misure News) Per richiedere le modalità di abbonamento, telefonare al n° 011/0266700 o inviare una e-mail a: [email protected] I SERIALI MISURE E FIDATEZZA ▲ MISURE E FIDATEZZA M. Catelani1, L. Cristaldi2, M. Lazzaroni3 L’affidabilità come requisito di progetto di componenti e sistemi Le strutture Serie e Parallelo RELIABILITY AS A REQUIREMENT FOR COMPONENTS AND SYSTEMS In general, we consider a system as a set of elements, subsystems or components, connected among themselves in order to guarantee one or more functional performances. Reliability, and therefore availability of such a system, depends on the reliability and availability of the elements which define the system. The study of the relationships of the connections between the subsystems is called Combinatory Analysis and can be visualized in a diagram denoted as Reliability Block Diagram (RBD). RIASSUNTO Con il Diagramma a Blocchi di Affidabilità (RBD, Reliability Block Diagram) è possibile rappresentare e analizzare sistemi con strutture anche complesse, in condizioni sia di funzionamento che di guasto. In questo articolo vengono presentate e discusse le configurazioni funzionali serie e parallelo, chiamate Configurazioni Canoniche. Tali configurazioni consentono di determinare sia un modello matematico dell’affidabilità di sistema che i principali parametri operativi. INTRODUZIONE Normalmente un sistema è costituito da un insieme di elementi (sottosistemi, componenti, ecc.) opportunamente interconnessi con la finalità di garantire una o più prestazioni funzionali. L’affidabilità di tale sistema, come pure la sua disponibilità [1], dipende pertanto dalle caratteristiche di affidabilità e di disponibilità delle parti che lo costituiscono e di come tali parti sono tra loro interconnesse. Lo studio delle relazioni di legame tra i differenti sottosistemi prende il nome di “analisi dell’affidabilità combinatoria”, spesso condotta mediante metodi grafici che fanno uso di un diagramma a blocchi denominato, appunto, “diagramma a blocchi di affidabilità” (Reliability Block Diagram – RBD). Per brevità, saranno trattate in questo contesto alcune delle configurazioni funzionali più comuni, note come configurazioni canoniche, la cui combinazione origina strutture più complesse definite come configurazio- ni miste. Per ogni configurazione funzionale, sarà possibile determinare i modelli matematici dell’affidabilità per l’intero sistema e, di conseguenza, il valore del Tempo medio tra guasti (MTBF, Mean Time Between Failures). Vedremo che il valore di MTBF dipenderà da una combinazione, più o meno complessa, dei valori di tasso di guasto degli elementi costituenti il sistema sotto osservazione. In questo articolo saranno presentate due configurazioni fondamentali, serie e parallelo, rimandando ad un lavoro successivo la trattazione di ulteriori strutture. solo se tutti gli elementi Ei sono correttamente funzionanti. Figura 1 – Diagramma a blocchi di affidabilità per la configurazione funzionale serie Nell’ipotesi semplificativa di eventi indipendenti per cui si assume che il comportamento di ogni elemento Ei, in termini di corretto funzionamento o di guasto, non dipenda dal comportamento assunto dagli altri elementi, l’affidabilità del sistema è determinata dal prodotto dell’affidabilità dei singoli blocchi: RS(t) = R1( t ) ⋅ R 2( t ) ⋅ ⋅ ⋅ Rn ( t ) = n ∏ Ri(t) (1) i =1 dove con il simbolo Π si intende la produttoria. Assumendo la condizione di guasto casuale [1] e indicato con λi il tasso di guasto costante associato al generico elemento Ei (per cui si ha la ben nota relazione Ri(t)=e-λt), l’equazione (1) diventa: R(t) = n ∏ Ri(t) = e i =1 n − ∑ λi t i =1 = e − λS t (2) AFFIDABILITÀ DI STRUTTURE SERIE La configurazione serie, il cui RBD è riportato in Fig. 1, rappresenta il modello di affidabilità più semplice e più comune in certi contesti, come quello elettronico. Considerato il sistema S costituito da n elementi Ei, per i = 1,… n, diremo che il sistema è operativo se e 1 Dip. di Elettronica e Telecomunicazioni, Università di Firenze [email protected] 2 Dip. di Elettronica, Politecnico di Milano 3 Dip. di Tecnologie dell’Informazione, Università di Milano T_M N. 3/11 ƒ 213 N. 03ƒ ;2011 ▲ I SERIALI MISURE E FIDATEZZA dante (o a ridondanza attiva), assume Nelle ipotesi assunte, la (2) mette in un ruolo determinante ogniqualvolta evidenza un’importante proprietà occorre incrementare l’affidabilità di della configurazione funzionale serie, Figura 2 – Affidabilità di sistema un sistema. L’RBD per tale configurasemplificativa dal punto di vista funcon tre elementi in configurazione serie zione è riportato in Fig. 3: è immezionale, secondo cui il tasso di guasto diato verificare come la continuità λS del sistema può essere determinato operativa del sistema, tra ingresso e attraverso la sommatoria dei tassi di guasto λi degli elementi costituenti, dabilità per tre elementi con tasso di uscita, sia assicurata dal corretto funzionamento anche di uno solo dei ovvero: guasto costante λ1 < λ2 < λ3. componenti in parallelo. n Viceversa, il sistema è in avaria quanλS = ∑ λi (3) La curva in basso, relativa al sistema do tutti gli elementi sono guasti. Da i =1 serie, mostra chiaramente come l’ele- questa considerazione e dalle ipotesi Espresso, come normale, in h-1. Con- vato tasso di guasto del terzo elemen- di eventi indipendenti e di tasso di seguentemente, il tempo medio tra to influisca negativamente sull’affida- guasto costante, si ha che l’inaffidabibilità totale che, assumendo valore 1 guasti vale: a tempo zero, decresce esponenzialmente in funzione di λS=λ1+λ2+λ3. n 1 Considerazioni analoghe possono MTBF = = 1/ ∑ λi (4) λS i =1 essere fatte osservando i valori in Tabella 1. Assumendo valori di affiÈ quindi sufficiente conoscere il tasso dabilità anche elevati per il singolo di guasto di ciascun elemento per elemento, appare evidente che l’affideterminare il valore dell’MTBF del dabilità di sistema, fissato il tempo, sistema. Per apparati elettronici il cal- decresce all’aumentare del numero di colo dei singoli tassi di guasto può elementi che lo costituiscono. Se conessere fatto con tecniche di predizio- sideriamo, ad esempio, un RBD con ne di affidabilità ricorrendo a oppor- 20 elementi disposti in configurazione tune banche dati. serie, che per semplicità considerereDall’analisi della (2) emerge che: mo identici, la probabilità di funzioi) fissato il tempo, essendo l’affidabili- namento del sistema, allo stesso istantà un numero compreso tra 0 e 1, l’af- te t, supera il 65% solo se l’affidabiliFigura 3 – RDB per la configurazione fidabilità del sistema S è inferiore al tà del singolo è maggiore di 0,98, funzionale parallelo più piccolo valore di affidabilità degli confermando la proprietà di cui al elementi che lo costituiscono; punto ii). ii) la probabilità di funzionamento del lità di sistema è data dal prodotto sistema diminuisce all’aumentare del delle inaffidabilità degli elementi: numero di elementi che lo costituisco- AFFIDABILITÀ DI STRUTTURE n FS (t ) = F1( t ) ⋅ F2 ( t ) ⋅ ⋅ ⋅ Fn ( t ) = ∏ Fi (t ) no. (5) PARALLELO i =1 Per verificare la i) si consideri il sistema costituito da tre elementi con La configurazione funzionale paralle- da cui è immediato ricavare l’affidaE1=0,4; E2=0,7; E3=0,9. lo, detta anche configurazione ridon- bilità di sistema come: Se i valori di affidabilità di ciascun elemento, al tempo t, sono quelli indiTabella 1 – Influenza dei valori di affidabilità di elemento sulle prestazioni di sistema cati, la probabilità di funzionamento del sistema, allo stesso tempo, diventa 0,85 0,9 0,95 0,98 0,99 0,252. Ne consegue che la presenza Affidabilità elemento 0,8 di un elemento debole all’interno della Numero di elementi configurazione serie (chiamata anche di sistema ▼ Affidabilità di sistema ▼ configurazione a catena) penalizza l’affidabilità dell’intera struttura; per- 1 0,8 0,85 0,9 0,95 0,98 0,99 tanto, anche migliorando le prestazio- 5 0,32768 0,44370 0,59049 0,77378 0,90392 0,95099 ni degli altri due elementi, la probabili10 0,10737 0,19687 0,34868 0,59874 0,81707 0,90438 tà di funzionamento del sistema risulte0,01153 0,03876 0,12158 0,35849 0,66761 0,81791 rà essere comunque inferiore all’affida- 20 bilità dell’elemento più debole. 50 1,47•10-5 2,96•10-4 5,15•10-3 0,07694 0,36417 0,60501 In Fig. 2 sono riportate le curve di affi- T_M ƒ 215 RS (t ) = 1 − FS (t ) = n n i =1 i =1 ( = 1 − ∏ Fi (t ) = 1 − ∏ 1 − e − λit ▲ I SERIALI MISURE E FIDATEZZA (6) ) Considerando, a titolo di esempio, un sistema costituito da due elementi indipendenti connessi in parallelo e aventi tasso di guasto costante λ1 e λ2, dalla (6) si ottiene l’espressione dell’affidabilità: RS (t ) = e − λ1t + e − λ2t − e − ( λ1+ λ2 )t (7) e il tempo medio tra guasti: MTBF = 1 1 1 + − λ1 λ 2 λ1 + λ 2 (8) Nell’ipotesi semplificativa di due elementi identici in ridondanza si ha: 3 2λ MTBF = (9) da cui si evince chiaramente un incremento del 50% dell’MTBF rispetto al caso di elemento singolo avente lo stesso tasso di guasto. Tale concetto è alla base dell’allocazione di ridondanza come tecnica d’incremento dell’affidabilità di sistema. Anche per questa configurazione è possibile trarre le seguenti considerazioni: i) fissato il tempo, l’affidabilità del sistema è superiore al più elevato valore di affidabilità degli elementi costituenti, per cui possiamo scrivere che: { } RS (t ) ≥ max Ri (t ) i ; i = 1, ⋅ ⋅ ⋅ n (10) ii) La probabilità di funzionamento del sistema aumenta all’aumentare del numero di elementi in parallelo. Si dimostra la prima proprietà considerando un sistema con tre elementi E1=0,4; E2=0,7; E3=0,9. La probabilità di funzionamento del sistema allo stesso istante di tempo per cui valgono le informazioni indicate in figura, per la (6), è pari a 0,982. A titolo di esempio si riporta in Tabella 2 il risultato di affidabilità di sistema ottenuto collegando in parallelo T_M ƒ 216 un massimo di 6 elementi che, per semplicità, assumeremo essere identici con valore di affidabilità, fissato il Figura 4 – Confronto tra configurazioni tempo, pari a 0,8. canoniche con elementi aventi Si osserva che con due lo stesso tasso di guasto elementi in parallelo si ottiene un notevole incremento di affidabilità, pari al 20% rispetto all’elemento singolo. L’in- CONCLUSIONI cremento è, ovviamente, sempre positivo all’aumentare del numero di bloc- In questo articolo è stato discusso il chi in ridondanza ma, come era logi- metodo noto in letteratura come anaco attendersi, di entità sempre minore lisi combinatoria dell’affidabilità. e comunque tale da non giustificare il Tale metodo si avvale anche di metocosto dell’intervento di miglioramento. di grafici basati sull’uso di diagramPreme ricordare che la ridondanza atti- mi a blocchi: lo strumento usato per va trattata in questo paragrafo non calcolare figure di merito affidabilideve essere confusa con la ridondanza stiche per l’intero sistema in termini in attesa (o ridondanza stand-by). Que- della figura di merito dei singoli sta configurazione prevede infatti l’in- blocchi, è il calcolo delle probabilitervento di un sistema di switch che tà. Sono state, inoltre, presentate e commuta sulla parte in parallelo qualo- discusse due importanti configurara venga rilevato uno stato di avaria del zioni funzionali, oltre che per il loro sistema primario. È evidente che in que- modello matematico di affidabilità, sto caso l’affidabilità dell’intero sistema per le ricadute che esse hanno sui dipende anche dall’affidabilità dei bloc- valori assunti dai principali paramechi di diagnostica e di switch secondo tri operativi. un legame di probabilità condizionata. Un confronto tra le configurazioni canoniche con due elementi uguali e indipendenti funzionalmente in serie e in paral- BIBLIOGRAFIA lelo, e l’andamento dell’affidabilità con singolo elemento avente lo stesso tasso [1] M. Catelani, L. Cristaldi, M. di guasto costante, è riportato in Fig. 4. Lazzaroni, L. Peretto, P. Rinaldi, Le configurazioni serie e parallelo Le parole della fidatezza, Tutto misupossono essere opportunamente com- re. – ISSN 2038-6974. – Anno 13, binate per formare le configurazioni N° 1, Marzo 2011, pagg. 49-53. miste. Per queste, mantenendo le ipo- [2] M. Catelani, L. Cristaldi, M. Laztesi fatte e richiamando le (1) e (6), è zaroni, Le funzioni di affidabilità, immediato determinare sia l’anda- Tutto misure. – ISSN 2038-6974. – mento temporale dell’affidabilità sia il Anno 13, N° 2, Giugno 2011, pagg. valore di MTBF. 131-134. Tabella 2 – Incremento di affidabilità per una configurazione in ridondanza attiva N° di elementi Affidabilità di sistema Incremento di affidabilità (a) Incremento di affidabilità (a) 1 0,800000 —- —- 2 0,960000 0,160000 20,00 % 3 0,992000 0,032000 24,00 % 4 0,998400 0,006400 24,80 % 5 0,999680 0,001280 24,96 % 6 0,999936 0,000256 24,99 % (a) rispetto alla configurazione del passo precedente (b) rispetto alla configurazione iniziale con elemento singolo ▲ I SISTEMI RFID I SERIALI I SISTEMI RFID Luca Cremona Come si realizza un progetto RFId Le fasi di uno studio di fattibilità Questo articolo è il terzo di una miniserie, a cura dei ricercatori del Lab#ID, che mira a proporre un’introduzione ai sistemi RFId e alle loro applicazioni, ma anche a testimoniare il modo con cui il laboratorio attua processi di trasferimento tecnologico, mettendo in evidenza i fattori critici per conseguire gli obiettivi di progetto e portando l’esperienza di alcuni casi concreti. Lab#ID (Luca Mari) HOW TO MAKE AN RFID PROJECT The feasibility study and the pilot project are the fundamental preliminary steps for a successful implementation of an RFId system. The paper outlines the phases of a feasibility study, according to the methodology developed by the Lab#ID and applied in the projects it has accomplished. RIASSUNTO Lo studio di fattibilità e il progetto pilota sono passi fondamentali preliminari per la buona implementazione di un sistema RFId. L’articolo presenta in particolare le fasi in cui si articola uno studio di fattibilità, nella metodologia sviluppata dal Lab#ID e messa alla prova nei progetti da questo realizzati. introdurre un sistema RFId con un processo per passi successivi, per chiarire progressivamente obiettivi e condiI sistemi basati sulla tecnologia RFId zioni di adozione, secondo le quattro (Radio Frequency Identification) costi- macro-fasi di Fig. 1. tuiscono una modalità di risposta efficace a numerose esigenze di aziende e di organizzazioni in genere (v. T_M 1/2011 e 2/2011), e hanno progressivamente assunto una valenza sempre più strategica, tanto da essere utilizzati, per esempio, come una vera e propria leva di marketing nei punti vendita, per tracciare i clienti, acquisire dati sulle loro preferenze di acquiFigura 1 – Macro-fasi nel processo sto, fare azioni di cross selling, incredi adozione di un sistema RFId mentare la fidelizzazione, semplificare il pagamento degli acquisti. Sulla base di queste ultime consideraIntrodurre con successo questi sistemi in zioni opera da quattro anni il Lab#ID. una qualsiasi realtà aziendale presup- Per poter operare concretamente per pone d’individuare preliminarmente le l’applicazione di questi sistemi nelle condizioni di adozione operativamente aziende, il laboratorio ha sviluppato attuabili e i miglioramenti effettivamente una propria metodologia per la reaconseguibili, e quantificare i benefici lizzazione del momento cruciale dello ottenibili anche alla luce degli investi- studio di fattibilità. menti richiesti. Infatti se da un lato i si- Da subito è emersa chiara la necessistemi RFId hanno grandi potenzialità ap- tà di trasferire conoscenza alle azienplicative, dall’altro non sono quasi mai de, e di offrire loro un supporto condisponibili “a scaffale”. Inoltre si tratta di creto per adattare le tecnologie più una tecnologia sistemica, che moltiplica innovative ai bisogni aziendali e non i suoi benefici quante più sono le entità viceversa, secondo una logica deche possono giungere a fruirne, e ciò mand pull invece che, come spesso produce l’ulteriore vantaggio di consen- accade, technology push. Quindi, tire di suddividerne i costi. nella metodologia impiegata dal Di conseguenza è spesso appropriato Lab#ID, l’implementazione si realizza VERSO L’ADOZIONE DI UN SISTEMA RFID solo a seguito di una puntuale attività di analisi della situazione di partenza (As-Is) e di definizione della situazione a tendere (To-Be), anche per stimare gli effettivi benefici conseguibili e i costi da sostenere. Deve essere inoltre dimostrata la fattibilità realizzativa della soluzione prospettata, attraverso opportuni test tecnologici condotti in loco, acquisendo le informazioni sugli specifici dispositivi e sulla loro configurazione, da cui ripartire nell’eventuale successivo progetto pilota. Figura 2 – Le fasi dello studio di fattibilità Lab#ID, Università di Castellanza [email protected] T_M N. 3/11 ƒ 217 LE FASI DEL PROCESSO ▼ Fase 1: formazione del gruppo di lavoro e definizione degli obiettivi di progetto La prima fase dello studio di fattibilità intende definire il gruppo di lavoro che collaborerà nella realizzazione del progetto, costituito da un team misto di risorse interne e, nel nostro caso, di personale del laboratorio. Le persone dell’organizzazione dovrebbero comprendere referenti/responsabili dei processi interessati (direttore di stabilimento, gestore di magazzino..., e nel caso di progetti interorganizzativi, direttore acquisti…), con competenze specifiche nelle aree che appaiono coinvolte dal progetto, per gli aspetti organizzativi/logistici e di gestione dei sistemi informativi. Nella nostra esperienza, il coinvolgimento del middle management è essenziale NEWS LA PIÙ COMPLETA MANIFESTAZIONE ITALIANA DEDICATA ALLE SOLUZIONI TECNOLOGICHE, ALL’INNOVAZIONE E ALL’AFFIDABILITÀ CRESCE ANCORA! Sesta Edizione AFFIDABILITÀ & TECNOLOGIE rappresenta un innovativo modello di evento, un’opportunità concreta per migliaia di Visitatori d’individuare soluzioni applicative innovative e attuabili, per abbattere i costi e incrementare produttività e affidabilità. La manifestazione è diventata nel tempo un T_M ƒ 218 N. 03ƒ ; 2011 ▲ I SERIALI I SISTEMI RFID da subito, anche perché garantisce l’allineamento strategico del progetto verso il top management. Il compito di questo team misto di progetto è quello di favorire il trasferimento tecnologico e lo scambio informativo all’interno dell’azienda. Laddove il progetto è considerato particolarmente strategico, si procede anche alla creazione di uno steering committee, che supervisioni periodicamente la validità scientifica dei risultati ottenuti. Si procede quindi alla definizione degli obiettivi da conseguire, che per un sistema RFId si manifestano a più livelli: (i) innovazione tecnologica nell’organizzazione, (ii) miglioramento della qualità e dell’efficienza dei processi e (iii) ottenimento di dati di processo più affidabili e maggiormente dettagliati. La distinzione tra obiettivi irrinunciabili e obiettivi solo auspicabili, ordinati dunque in base alla priorità, consente di operare su diversi livelli di profondità. Ciò consente tra l’altro di mantenere la focalizzazione sul miglioramento dei processi aziendali, in termini di efficienza ed efficacia, conseguibile talvolta anche senza la tecnologia RFId. Anche a questo proposito, è una logica demand pull che orienta la scelta delle soluzioni migliori caso per caso, siano esse basate su sistemi RFId, barcode, o sistemi misti. appuntamento fisso nel quale si svolgono incontri che favoriscono reali opportunità di business tra i vari “attori” delle filiere produttive: aziende manifatturiere, OEM, centri di ricerca e fornitori di strumenti, servizi e tecnologie innovative. ACQUISIZIONE DATI. ACUSTICA STRESS - VIBRAZIONI. CERTIFICAZIONI, SICUREZZA e OMOLOGAZIONI. MISURE DI GRANDEZZE MECCANICHE e DIMENSIONALI. MISURE DI GRANDEZZE ELETTRICHE ed ELETTRONICHE. MISURE OTTICHE NANOMISURE. SENSORI. SERVIZI DI TARATURA STRUMENTI. TESTING MECCANICO E DIMENSIONALE. TESTING ELETTRICO ed ELETTRONICO. VIRTUAL TESTING. Contenuti espositivi e testimonianze – 3 aree dedicate PROGETTAZIONE: SERVIZI - SOLUZIONI - TECNOLOGIE (dedicata ai responsabili della progettazione, ingegnerizzazione della produzione, affidabilità, ufficio tecnico, ricerca e sviluppo) AUTOMAZIONE DEI PROCESSI: PLM, FMEA, WORKFLOW, BUSINESS INTELLIGENCE. CAD-CAM-CAE. CRASH ed ELEMENTI FINITI. ELETTROMAGNETISMO. FABBRICAZIONE ADDITIVA - REVERSE ENGINEERING. FLUIDODINAMICA e MULTIFISICA. FORMATURA - TAGLIO METALLI - SALDATURA. FUSIONE. MATERIALI COMPOSITI. NANOTECNOLOGIE - PLASMA. VIBROACUSTICA. TESTING E MISURE: APPARECCHIATURE - MACCHINE SENSORI - SERVIZI - SOLUZIONI STRUMENTI - TECNOLOGIE (dedicata ai responsabili delle misure, affidabilità, manutenzione, controllo, prove, laboratorio, ufficio tecnico) Fase 2: analisi As-Is e To-Be dei processi aziendali L’introduzione di nuovi sistemi a supporto delle attività operative comporta per le aziende un cambiamento nei processi in atto e nelle relative procedure: i sistemi di auto-identificazione, data la loro connotazione pervasiva, necessitano di una profonda comprensione delle modifiche e delle inte- PRODUZIONE: SERVIZI SOLUZIONI - TECNOLOGIE (dedicata ai responsabili della produzione, stabilimento, ingegnerizzazione della produzione, ufficio tecnico, controllo qualità) APPARECCHIATURE - SENSORI - SISTEMI. ASSEMBLAGGIO e PRODUZIONE. LASER. MACCHINE UTENSILI PER MATERIALI DIFFICILI. MACCHINE UTENSILI MULTIFUNZIONE. MARCATURA E TRACCIABILITÁ. ROBOTICA. SIMULAZIONE DELLA PRODUZIONE. VISIONE ARTIFICIALE. Anticipazioni e novità sul sito www.affidabilita.eu. Per ulteriori informazioni: Segreteria Organizzativa A&T Via Palmieri 63 - 10138 Torino Tel: 011/0266700 E-mail: [email protected] N. 03ƒ ;2011 grazioni necessarie alla loro introduzione in azienda. Questa fase dello studio di fattibilità prevede innanzitutto l’analisi dei processi allo stato attuale (As-Is) per individuare le criticità e i punti di miglioramento dei processi e delle attività oggetto d’indagine. La fase proposta dello scenario futuro (To-Be), ha invece lo scopo di disegnare lo scenario a tendere dei processi aziendali a seguito dell’introduzione dei sistemi di auto-identificazione. Per realizzare questo tipo di analisi vengono concordati, di volta in volta, i linguaggi di formalizzazione più adatti per ciascuna azienda, per esempio UML (Unified Modeling Language), BPMN (Business Process Modeling Notation), VSM (Value Stream Mapping). Nella mappa dei processi e dell’architettura a tendere (processi, organizzazione, tecnologia, gestione dati) sono evidenziate le attività sulle quali impatteranno l’introduzione della tecnologia d‘identificazione automatica e il modo in cui tali attività dovranno essere modificate. A questo punto dello studio è inoltre necessario individuare con chiarezza le tipologie di oggetti sui quali focalizzare l’indagine, identificabili in prospettiva in modo automatico. Generalmente si sceglie il componente più rappresentativo in termini di ripetitività e di lavorazioni all’interno del processo, o quello più ricorrente. Fase 3: identificazione sperimentale delle macro soluzioni tecnologiche e test sul campo La fase di sperimentazione consente di validare l’applicabilità delle soluzioni tecnologiche da adottare sul campo all’interno dell’organizzazione. In questa fase assumono un peso determinante le competenze specifiche sulle soluzioni tecnologiche disponibili sul mercato, sistemi di lettura e transponder nel caso dell’RFId, e, in altri casi, codici a barre e relativi sistemi di lettura. Infatti, in questo momento vengono definiti diversi possibili scenari d’introduzione della tecnologia RFId, pura o in abbinamento ad altre tecnologie d’identificazione, come appunto i codici a barre. Quest’ultima soluzione risulta talvolta la più adatta, per esempio nei contesti in cui il numero di elementi da tracciare e la necessità di utilizzare le etichette internamente all’azienda e senza la possibilità di un loro riutilizzo efficiente comportino costi elevati di acquisto dei transponder stessi. Una soluzione Figura 3 – Esempio di mappa di processi To-Be descritti in formato UML ▲ I SERIALI I SISTEMI RFID ibrida può rivelarsi in questi casi la soluzione più appropriata, in grado di generare i vantaggi di entrambi i sistemi, mantenendo i costi a livelli accettabili. Nel corso dell’indagine tecnologica vengono considerate anche la quantità dei dati da memorizzare sui transponder e la capacità di memoria necessaria e disponibile per ciascuna soluzione individuata. È evidente come siano qui particolarmente determinanti il supporto e il coinvolgimento dei referenti dei sistemi informativi, per garantire la corretta integrazione dei flussi informativi/informatici ed evitare situazioni di ridondanza o disallineamento dei dati. Dopo aver identificato le soluzioni implementabili, si procede con i test sul campo per verificare l’assenza d’interferenze e trovare le configurazioni ottimali dei sistemi e le migliori combinazioni dei diversi componenti. Per un’appropriata realizzazione di questa fase, si è dimostrata particolarmente efficace la scelta del Lab#ID di far riferimento sul supporto di numerosi partner industriali, che sono parte nel network del laboratorio e che si rendono disponibili a fornire i loro sistemi per i test. In questo modo i test stessi possono essere compiuti su una vasta gamma di sistemi e consentono di valutare, in un contesto super partes, attrezzature hardware e software di aziende diverse e quindi di selezionare le famiglie di soluzioni che rispondono meglio in ogni specifico ambiente. Ciò fornisce all’azienda la possibilità di una visione oggettiva e completa del mercato dell’offerta nazionale e internazionale. Grazie ai risultati delle prove, valutati con appositi cruscotti di benchmarking, l’azienda è messa in grado d’individuare le soluzioni che realizzano gli obiettivi di progetto identificati. Fase 4: Valutazione di scenari di costo e di benefici qualitativi Dopo la fase di sperimentazione si delineano gli scenari di costo per ciascuna delle soluzioni possibili. In tal modo l’azienda può avere un’idea sufficientemente chiara delle soluzioni migliori anche dal punto di T_M ƒ 219 N. 03ƒ ; 2011 ■ I SERIALI I SISTEMI RFID vista del rapporto tra benefici e costi. I costi sono quelli dei dispositivi di cui l’azienda deve dotarsi per ottimizzare i propri processi, e quelli eventuali relativi alla gestione del processo di cambiamento (definizione di nuove procedure, formazione del personale, ...), da confrontare con i miglioramenti prospettati nelle diverse aree coinvolte nel progetto (magazzino, produzione, spedizione, ecc.). È da notare che una stima affidabile dei benefici è spesso di notevole complessità in questa fase, a causa della trasversalità e pervasività dei processi direttamente o indirettamente coinvolti: cambiamenti operativi possono avere implicazioni perfino di natura strategica, per esempio nella ridefinizione delle relazioni con clienti e fornitori, nelle logiche di gestione dei magazzini, ecc.. Le analisi economiche condotte in questa fase dedicano dunque particolare attenzione ai benefici, per lo più qualitativi, derivanti dall’introduzione dei sistemi d’identificazione automatica. Oltre ai benefici immediati per la singola azienda sono individuati anche quelli a tendere, e quelli che possono essere condivisi tra aree aziendali o con altre aziende. Nei progetti interorganizzativi è opportuno integrare lo studio di fattibilità con un’ulteriore attività finalizzata a stimare quantitativamente benefici e costi complessivi, per acquisire e rendere disponibili i dati coi quali si possano decidere le logiche di suddivisione dei costi tra i partner. esso, procede alla definizione delle specifiche software e dei protocolli di comunicazione fra il gestionale aziendale e il sistema di auto-identificazione. Questa attività congiunta, che evita perdite o ridondanza di dati, coinvolge sia i responsabili e il personale operativo afferenti ai sistemi informativi, sia i responsabili delle aree coinvolte nel progetto al per definire le specifiche relative alle modalità di funzionamento e d’integrazione del nuovo sistema. A conclusione della fase precedente, si procede all’avvio del pilota per fornire un supporto costante all’azienda simulando la normale attività lavorativa, quando il sistema sarà a regime. In parallelo viene fornito supporto formativo al personale per facilitare il processo di adozione della tecnologia. L’esecuzione di un progetto pilota prevede infatti la possibilità di progressivi adattamenti del sistema, anche per evidenziare eventuali criticità da risolvere e funzionalità da sviluppare ulteriormente. A tal fine si definisce l’ambito e la serie delle campagne di test. L’azienda può così entrare gradualmente in contatto con il nuovo sistema, individuando una serie d’indicatori di prestazione utili a realizzare una più precisa valutazione dei miglioramenti dei processi e del ritorno dell’investimento. La conclusione positiva del progetto pilota dà il via all’implementazione del sistema di auto-identificazione all’intera azienda. ALCUNE CONSIDERAZIONI FINALI DOPO LO STUDIO DI FATTIBILITÀ Ottenute indicazioni positive circa la fattibilità organizzativa e tecnologia del progetto, si passa al progetto pilota, che riproduce l’implementazione completa in un ambito delimitato, ma in condizioni reali. Anche qui un supporto qualificato e super partes può svolgere un ruolo utile nel validare le soluzioni introdotte e collaborare al loro fine tuning. Sin dall’inizio, infatti, la selezione dei fornitori, e la corretta gestione del rapporto con questi ultimi nel prosieguo hanno un peso fondamentale. Individuato il partner tecnologico migliore, il team di lavoro, insieme ad T_M ƒ 220 Introdurre in azienda i sistemi di autoidentificazione, come i sistemi RFId, non è semplice. Farlo senza un preventivo studio di fattibilità espone a numerosi rischi, primo fra tutti quello di non ottenere risultati in linea con gli obiettivi prefissati e, a seguire, quello di dover affrontare e risolvere, in corso d’opera, problemi imprevisti. Lo studio di fattibilità serve proprio per evitare o almeno a ridurre la probabilità di queste situazioni, e, perché ciò accada, sembra opportuno seguire passo per passo le fasi descritte: – individuare le aree di processo potenzialmente interessate dai nuovi sistemi e, su di esse, realizzare una serie di analisi di processo dello scenario a tendere per ottenere il quadro complessivo dell’impatto dei nuovi sistemi all’interno dell’organizzazione; – creare un team di lavoro misto, con tutte le competenze necessarie a condurre le analisi secondo punti di vista molteplici e per coinvolgere già nella progettazione del sistema tutti i soggetti che dovranno poi utilizzarlo; – realizzare i test tecnologici direttamente sul campo, per individuare la migliore soluzione da adottare nel contesto specifico e garantirsi così un appropriato punto di partenza per le successive attività da condurre nel progetto pilota. QUALCHE RIFERIMENTO, PER APPROFONDIRE Lab#ID: http://labid.liuc.it A proposito di BPMN: http://en.wikipedia.org/wiki/ Business_Process_Modeling_ Notation http://en.wikipedia.org/wiki/ Comparison_of_Business_ Process_Modeling_Notation_ tools http://www.omg.org/spec/ BPMN/2.0 A proposito di UML: http://en.wikipedia.org/wiki/ Unified_Modeling_Language http://www.uml.org A proposito di VSM: http://en.wikipedia.org/wiki Value_stream_mapping Luca Cremona ha conseguito la Laurea Specialistica in Ingegneria Gestionale presso l’Università Carlo Cattaneo – LIUC di Castellanza, dove attualmente frequenta il corso di Dottorato di ricerca in Gestione Integrata d’Azienda. I suoi interessi di ricerca riguardano i temi della Collective Intelligence e del Social Computing. Come collaboratore di Lab#ID ha coordinato e condotto numerosi studi di fattibilità e implementazioni di sistemi d’identificazione automatica. METROLOGIA LEGALE ▲ A cura dell’Avv. Veronica Scotti ([email protected]) Le verifiche periodiche degli strumenti Un “work in progress” LEGAL AND FORENSIC METROLOGY This section intends to discuss the great changes on Legal Metrology after the application of the Dlgs 22/2007, the so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in abmito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati! Il legislatore comunitario, per quanto attento all’importanza del mantenimento delle caratteristiche metrologiche degli strumenti di misura disciplinati dalla direttiva MID, ha omesso di menzionare, nel provvedimento normativo, le modalità (e la necessità) di svolgimento di controlli periodici sugli strumenti. Infatti in nessuna della disposizioni previste dalla MID si rinviene alcun riferimento specifico alle verifiche successive alla prima – che, come noto, deve avvenire antecedentemente alla immissione in commercio o messa in servizio dello strumento – che consentano di garantire l’attendibilità o, comunque, di determinare il livello di confidenza da riconoscere ai valori misurati dallo strumento. Parzialmente il tema viene (implicitamente) considerato dalla norma nell’allegato I, punto 5, ove si fa riferimento alla c.d. durabilità dello strumento. Tuttavia tale concetto, come espressamente definito dalla direttiva1, si presta a due differenti interpretazioni, in egual misura ammissibili. Infatti il legislatore comunitario, prescrivendo il costante mantenimento delle caratteristi- che metrologiche dello strumento in un dato intervallo temporale, consente di dare ingresso alle verifiche periodiche, che dovrebbero essere, astrattamente, effettuate dopo il termine indicato dal fabbricante quale “scadenza” dell’attendibilità delle misure effettuate dallo strumento stesso. Diversamente, secondo un’ottica interpretativa più ristretta e aderente al tenore letterale della norma, la disciplina prevista dal legislatore comunitario potrebbe apparire volta a imporre meramente un certo rigore nella fase di progettazione dello strumento, senza prescrivere obbligatoriamente alcuna verifica successiva alla prima, svolta per l’accertamento iniziale della rispondenza dello strumento ai requisiti definiti. La doppia interpretazione a cui si presta la normativa comunitaria risulta però trascurabile alla luce del testo del decreto nazionale di recepimento della direttiva, che all’art. 19 stabilisce, in maniera espressa, la necessità di sottoporre a verifiche periodiche gli strumenti di misura ricompresi in quelli disciplinati dalla norma in esame, nonostante demandi poi il compito specifico, ovvero la previsione di norme attuative in materia, a successivi decreti ministeriali. Il legislatore nazionale, forse sulla scorta della consapevolezza (tecnica) che gli strumenti di misura necessitano di un controllo ciclico delle “prestazioni”, oppure in base all’applicazione, in via analogica, della tradizionale prassi prevista nel campo della metrologia legale strictu sensu intesa e teleologicamente orientata alla tutela della trasparenza nelle transazioni commerciali (la normativa disposta dalla MID non è altro che un ampliamento della consolidata metrologia legale), ha opportunamente stabilito (sebbene omettendo qualsiasi termine perentorio di emanazione dei decreti attuativi) che ogni strumento, di cui all’elenco contenuto nell’art. 1 (e quindi nei vari allegati), fosse sottoposto a controlli successivi rispetto a quelli iniziali previsti per l’apposizione della marcatura metrologica supplementare. In osservanza di tale disposizione normativa, il legislatore sta progressivamente predisponendo i diversi decreti che si rendono necessari per l’attuazione del provvedimento. In specie si intende qui focalizzare l’attenzione sul settore degli strumenti di misura dei liquidi diversi dall’acqua che trovano ora una specifica disciplina, per quanto concerne i controlli periodici, nel decreto ministeriale di recente emanazione che verrà illustrato dalla Dott. ssa Maria Cristina Sestini nel contributo che segue. NOTE 1 Lo strumento di misura deve essere progettato in modo da mantenere un’adeguata stabilità delle proprie caratteristiche metrologiche in un periodo di tempo stabilito dal fabbricante, a patto che la sua installazione, manutenzione e impiego siano effettuati in modo corretto conformemente alle istruzioni del fabbricante, nelle condizioni ambientali cui lo strumento stesso è destinato. T_M N. 3/11 ƒ 221 METROLOGIA LEGALE ▲ Maria Cristina Sestini I controlli successivi sui sistemi di misurazione di liquidi diversi dall’acqua In conformità alla direttiva Europea THE SUBSEQUENT CONTROLS ON MEASUREMENT SYSTEM FOR LIQUIDS DIFFERENT FROM WATER This article deals with the harmonization of the national regulation of Italy with the UE 2004/22/CE Directive in terms of the controls (following the first one) of measurement systems for the measurement of liquids different from water (with particular emphasis on fuel pumps). Controls can be of two types: periodic and random (the latter being particularly beneficial for customers). The main activities on a national and local level are in the two directions: (i) programming the control strategies, and (ii) adopting a strategy for the promotion of these strategy in a framework of transparency and efficiency promotion. RIASSUNTO L’articolo tratta l’armonizzazione, su scala nazionale, alla direttiva 2004/ 22/CE riguardante i controlli (successivi al primo) sui sistemi di misura dei liquidi diversi dall’acqua (con particolare enfasi sui distributori di carburanti). I controlli possono essere di due tipi: periodici e casuali (quest’ultima tipologia particolarmente gradita agli utenti per evitare frodi). Le principali attività a livello locale e nazionale sono nelle due direzioni di (i) programmare le attività di controllo e (ii) promuovere queste attività e pubblicizzarle nell’ottica della promozione della trasparenza e dell’efficienza del servizio. La prospettiva di un’Europa completamente unificata ha indotto la Commissione Europea ad adottare la direttiva 2004/22/CE, il cui scopo è la disciplina dei requisiti di alcune tra le più diffuse categorie di strumenti di misura e la definizione di univoche procedure per la valutazione della conformità degli strumenti a detti requisiti. A seguito del recepimento di questa direttiva, mediante il decreto legislativo 2 febbraio 2007, n. 22, restava tuttavia da mettere a punto un’organica regolamentazione, in applicazione dell’articolo 19 del decreto. Si palesa dunque l’esigenza di sintetizzare compiutamente ed efficacemente i principi e le norme di matrice europea con un impianto giuridico tradizionale. Infatti, dopo che una serie importante di dieci tipologie di strumenti ha trovato nuova regolamentazione nella suddetta direttiva, il nostro Paese si avvia adesso a disciplinare nuovi criteri e procedure per quanto attiene l’assicurazione del mantenimento nel tempo dei requisiti metrologici. T_M N. investe direttamente e pesantemente la sfera degli interessi di una grande quantità di consumatori. Una lettura attenta del testo del decreto n. 32 conduce a mettere in rilievo l’importanza e la delicatezza della funzione cui assolve, con la necessità di non confliggere con gli interessi e i principi dell’Unione. Inoltre, vanno messe in rilievo le specifiche scelte adottate proprio allo scopo di rendere i controlli più agili e più efficienti, senza affliggere l’ambito pubblico di ulteriori oneri e alla luce dei nuovi principi informanti le scelte della Pubblica Amministrazione. Proprio qui si ravvisano le più importanti innovazioni, in un settore in cui tra l’altro è molto alta l’attenzione dei consumatori e delle imprese. La novità che caratterizza questo regolamento consiste in primis nella distinzione dei controlli successivi in (i) controlli che hanno la natura cadenzata della verificazione periodica e (ii) controlli casuali, tanto inaspettati quanto auspicabili da parte dei consumatori. Tale distinzione è prioritaria alla qualificazione e riqualificazione sia dei soggetti privati che effettuano la verificazione periodica, sia dei soggetti pubblici, preordinati alla garanzia della certezza della misura e della correttezza della transazione. Non usando a caso il termine qualificazione, è evidente come la distinzione di diverse competenze, ruoli e finalità sia finalizzata a dare nuova dignità al settore privato. Questo assume un compito importante con le connesse responsabilità, acquisisce adeguate competenze e professionalità, certifica la propria capacità attraverso l’applicazione di procedure della qualità e la dimostrazione di specifichi requisiti. Altra finalità e ricostituire in capo al sistema pubblico un insieme di competenze, poteri e stru- Gli strumenti di misura vanno incontro a un lento deterioramento e necessitano di manutenzioni e riparazioni fino a perdere le loro qualità e a divenire inadatti a compiere correttamente la loro funzione. Per evitare i deteriori effetti di una misurazione errata, il Ministro dello Sviluppo economico ha recentemente adottato un regolamento (decreto n. 32 del 18/01/2011) per disciplinare la verificazione periodica e i controlli casuali sulle diverse tipologie di sistemi di misurazione di liquidi diversi dall’acqua, disciplinati nell’allegato MI-005 della direttiva 2004/22/CE. Risulta inoltre già in fase di avanzata predisposizione un ulteriore testo normativo recante le procedure tecniche per l’effettuazione dei suddetti controlli. In questo contesto appare doveroso informare il lettore che, insieme al decreto n. 32, veniva pubblicato anche il decreto n. 31: esso reca la disciplina relativa ai controlli successivi sugli strumenti per pesare a funzionamento automatico, altra categoria di strumenti che Camera di Commercio di Prato 3/11 ƒ 222 N. 03ƒ ;2011 In relazione all’errore massimo ammesso in una prova, sia i campioni di riferimento sia i campioni da lavoro non potranno superare, per quanto riguarda l’errore, un terzo dell’errore ammesso sullo strumento in prova e, per quanto attiene l’incertezza, un terzo dell’errore ammesso sul campione stesso. Oltre all’introduzione di novità nella costellazione dei soggetti coinvolti nell’attività di garanzia della misura, è da notarsi anche la specifica definizione di strategie attuative che denotano una particolare attenzione alla tutela del consumatore. Infatti, nel settore dei complessi di misura di liquidi diversi dall’acqua, soprattutto utilizzati per la distribuzione di carburanti stradali, l’Unione Europea confermava nella già citata direttiva l’errore massimo tollerato previsto nella precedente direttiva del vecchio approccio n. 71/319/CEE (il 5 per mille sia in più che in meno). La stessa Unione ha ritenuto tale determinazione sufficiente a orientare correttamente il mercato. Successivamente, la Commissione ha provveduto a vietare lo sfruttamento sistematico delle suddette tolleranze con altra direttiva (direttiva 2009/37/CE recepita dal nostro Paese con D.M. 12/05/2010). La finalità è impedire un approfittamento indiscriminato da parte dei contraenti più forti nelle transazioni, imponendo quindi appropriate regole a tal fine orientate e mostrando sensibilità verso il problema della tutela della fede pubblica. In tal senso, con la regolamentazione introdotta ai fini dei controlli successivi, si è inteso riproporre nei controlli periodici gli stessi limiti previsti dall’Unione ai fini della prima messa in servizio dello strumento, esigendo il completo mantenimento nel tempo degli standard prestazionali. Ai soli fini dei controlli casuali esperiti dalle Camere di Commercio, come d’altro canto previsto nella normale logica dei controlli successivi (adottata anche da altri Paesi membri), è stato diversamente individuato un limite di tolleranza superiore del 50% a quello prescritto. Esso viene adottato sia in sede di accertamento della conformità, sia in occasione della verifica periodica, fermo restando l’obbligo di aggiustare e sottoporre nuovamente a verifica periodica ▲ menti per offrire all’intero Paese efficienza, autorevolezza e autorità insieme. Il sistema insomma, diversamente da quanto è accaduto fino a oggi, muove i primi passi su due diversi binari. L’uno è dedito a controlli programmati e interni al sistema privato, quasi un’autotutela di natura privatistica sulla qualità del servizio prestato. L’altro è pubblicistico, proprio di ogni stato moderno, e ha lo scopo di promuovere trasparenza e lealtà nei commerci, di prevenire le deviazioni, e colpire le eventuali violazioni a regole statuite a livello cogente. Queste funzioni in passato afferivano alla competenza di uffici periferici del Ministero dell’Industria e sino a ora sono rientrate in quelle delle Camere di Commercio. La loro separazione è la premessa logica per procedere ad affidare le attività di verificazione periodica ai laboratori, stabilendo così un’indubbia performance di governance e integrazione delle competenze tra l’intero sistema camerale e il ruolo di guida del Ministero. Il legislatore introduce dunque una separazione a seguito della distinta definizione di controlli periodici attribuiti ai laboratori e di controlli casuali esplicati dalle Camere di Commercio. Tuttavia un unico criterio obbliga gli uni e le altre a un’analoga disciplina della riferibilità metrologica. Volendo autenticamente garantire i diritti delle parti nella transazione commerciale, sono stati stabiliti esplicitamente requisiti inderogabili per i campioni di misura utilizzati dai laboratori e dalle Camere di Commercio nei controlli successivi. Il regolamento rende necessaria l’applicazione di procedure in conformità alla UNI CEI EN ISO/IEC 17025:2005. Esso introduce di fatto una maggiore attenzione alla qualità della misura tramite l’applicazione concreta dei principi della riferibilità in definite procedure per la gestione e il confronto dei campioni: tali procedure comportano anche la puntuale registrazione delle operazioni a queste connesse. Il citato regolamento impone anche criteri cogenti per l’accettazione dei campioni e la necessità di un piano di controlli che assicuri con continuità la riferibilità tra campioni di riferimento certificati e campioni da lavoro. METROLOGIA LEGALE quegli strumenti il cui errore risulti superiore al 5 per mille. Si delinea quindi una modalità operativa che, rispettando i principi dell’Unione, assicura un livello di protezione molto elevato dei consumatori. Esso inoltre conduce il sistema della verificazione periodica sotto un unitario ambito, conformato e omogeneo. Riportare a livello centrale l’accertamento dei requisiti dei laboratori, lungi dall’essere anacronistico, è stato ampiamente motivato dalle esigenze di uniformità sul territorio. La modalità di abilitazione già prevista per i laboratori dal decreto ministeriale 182/2000 aveva compiutamente messo in rilievo tali esigenze in quanto, attraverso le diverse interpretazioni del decreto e le conseguenti discriminazioni territoriali degli operatori economici, si era determinata un’offerta di opportunità disomogenea. Tra i requisiti che i laboratori dovranno dimostrare di possedere, vi è il rispetto di quanto previsto dalla citata 17025. La finalità è voler assicurare (i) il profilo della responsabilità all’interno del laboratorio, (ii) la qualificazione professionale del personale e (iii) i sistemi di riferibilità della misura con criteri d’indiscussa validità e anche tramite l’introduzione dell’obbligo della certificazione dei campioni di prova da parte di un organismo nazionale di accreditamento (ai sensi del regolamento comunitario 765/2008). Non ultima vi è la preoccupazione di assicurare la qualità in ogni attività del laboratorio autorizzato ai sensi del decreto. Questo nuovo assetto ambizioso, viste le richieste di serietà, professionalità e indipendenza. Esse si assommano a quella che oserei definire una sfida al sistema della virtuosità privata per il rilancio della qualità generalizzata, là dove il pubblico, nello specifico il sistema camerale, resta sostanzialmente in attesa d’intervenire per correggere le disfunzioni che questo eventualmente manifesterà. Controlli casuali sugli strumenti e vigilanza sui laboratori costituiscono la chiave di volta del sistema. I primi competono alle Camere nella loro autonomia, i secondi rientrano nella competenza di Unioncamere. Questa si avvale sul territorio delle stesse Camere, le quali T_M ƒ 223 da sempre mostrano di ottemperare con efficienza ai compiti delegati. Il sistema camerale, potenziato dalla recente riforma di cui al decreto legislativo 15 febbraio 2010, n. 23, resta in tal modo depositario dell’esercizio delle competenze in materia di metrologia. Inoltre costituisce anche perno importante ai fini dell’accesso alle attività di verificazione periodica, secondo quanto previsto dalla procedura di cui all’articolo 19 della Legge 241/90, e protagonista della successiva vigilanza (Unioncamere). L’importanza del ruolo camerale si amplifica sotto la guida di Unioncamere, grazie al continuo e coerente processo di formazione del personale, in grado di preparare gli attenti operatori di un qualificato sistema metrologia, sempre più orientato a controllare e monitorare i laboratori e sempre meno a verificare direttamente strumenti di misura. Senza sostanziali modifiche rimane la disciplina degli utenti metrici (D.M. T_M ƒ 224 N. 03ƒ ; 2011 ■ METROLOGIA LEGALE 182/2000). Essa prevede obblighi di comunicazione dell’utilizzo dei complessi di misura, di mantenimento del corretto funzionamento e di conservazione dei documenti a corredo degli stessi. L’elenco degli utenti metrici costituisce un importante ausilio per le funzioni di sorveglianza e vigilanza, e si mostra irrinunciabile ai fini della corretta attuazione delle norme del decreto. Risulterà in ciò preziosa l’implementazione dell’applicativo Eureka, che Infocamere provvederà a integrare delle nuove funzioni e modalità. Altre novità procedurali e strumentali di rilievo sono (i) un adeguato sistema di pubblicità dei laboratori autorizzati, concretamente disponibile e fruibile dal pubblico e consultabile anche per via telematica, (ii) l’obbligo a carico dei laboratori di comunicare alle Camere e all’Unioncamere gli estremi delle verificazioni periodiche eseguite, e infine (iii) il libretto metrologico la “storia metrolo- gica” dello strumento. Resta doveroso annunciare un periodo transitorio, in attesa che i laboratori siano operativi. Durante esso le Camere di Commercio continueranno a effettuare la verificazione periodica, per assicurare la funzione di tutela della garanzia delle quantità nelle transazioni e la trasparenza del mercato, per ancora due anni. Maria Cristina Sestini laureata in Scienze Politiche, è responsabile nella Camera di Commercio di Prato dei “Servizi di Metrologia”, del “Laboratorio di taratura” per volumi accreditato da Accredia e dell’Organismo Notificato alla Commissione Europea per la valutazione della conformità delle misure di capacità di cui all’allegato MI-008 della Direttiva MID. Dal 2010 collabora con il Ministero dello Sviluppo Economico. SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI ▲ Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo Dalle Associazioni Universitarie di Misuristi THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT This section groups all the relevant information from the main University associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurement), GMMT (Mechanical and Thermal Measurements), AUTEC (Cartography and Topography), and Nuclear Measurements. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure Nucleari. GMEE – ASSOCIAZIONE GRUPPO MISURE ELETTRICHE ED ELETTRONICHE Progetti PRIN con coordinatori e/o partner GMEE approvati dal MIUR per il finanziamento È stata pubblicata dal MIUR la graduatoria dei progetti PRIN (Progetti di Rilevante Importanza Nazionale). I PRIN son progetti multisede contraddistinti da un elevato interesse scientifico e applicativo, della durata di due anni, cofinanziati dal MIUR e dalle sedi con anche il contributo d’imprese. I ricercatori del GMEE hanno ottenuto un significativo successo, con quattro progetti approvati con coordinatore dell’Associazione. Data la valenza applicativa dei progetti, si invitano partner aziendali eventualmente interessati ad approfondire le tematiche dei progetti con il loro coordinatore a contattare gli interessati agli indirizzi di posta elettronica qui sotto riportati! 1. Soluzioni innovative in microsistemi per il recupero di energia da vibrazioni ad ampio spettro ed in bassa fre- quenza – Resp. Nazionale Salvatore BAGLIO, Università di Catania, [email protected]. 2. Realizzazione e caratterizzazione di sistemi di misura con riferibilità metrologica a livello primario per energia e potenza elettrica in regime non sinusoidale – Resp. Nazionale Carmine LANDI, Seconda Università di Napoli, [email protected] 3. Reti ibride di nuova generazione per applicazioni di misura ed automazione industriale – Caratterizzazione e misure di prestazioni wired/wireless – Resp. Nazionale Claudio NARDUZZI, Università di Padova, [email protected] 4. Sensori innovativi in fibra ottica polimerica Resp. Nazionale Alberto VALLAN, Politecnico di Torino, [email protected] cui si aggiunge il progetto: Un sistema innovativo basato sulla tomografia ad impedenza elettrica (EIT) per l’imaging “in vitro” dell’emostasi – Partner di Progetto: Antonio AFFANNI, Università di Udine, Giovanni CHIORBOLI, Università di Parma, [email protected] GMMT – GRUPPO MISURE MECCANICHE E TERMICHE Si è recentemente chiuso il progetto SIGMA – Soluzioni InteGrate per il Manifatturiero Avanzato – , finanziato dalla Regione Lombardia, che ha sviluppato ritrovati sensoriali innovativi, utilizzabili come componenti configurabili, che introducono aspetti d’avanguardia nell’ambito della sensoristica di controllo e di processo delle macchine automatiche. SIGMA ha realizzato tre dimostratori Sistema robotizzato per presa da cassetta, Sistema robotizzato per verifica di conformità, Sistema per la misurazione di mappe termiche: gli aspetti di misura hanno riguardato una parte significativa del progetto, che ha visto la guida scientifica del Gruppo di Misure Meccaniche del Politecnico di Milano, alla guida di una quindicina d’imprese. Lo scorso 27 aprile il Dott Claudio Capozza, responsabile dell’ufficio metrico della Camera di Commercio di Milano ha tenuto presso il Politecnico di [email protected] T_M N. 3/11 ƒ 225 ▼ Milano una interessante conferenza sulla metrologia legale, il suo impatto sulla vita di tutti i giorni e i suoi rapporti con la metrologia scientifica. Davanti a un’aula gremita, per oltre due ore il Dott. Capozza con grande competenza e capacità comunicativa ha condotto gli studenti in un percorso affascinante e NEWS NOVITÀ RENISHAW PER IL CONTROLLO DI PROCESSO Alla recente edizione della fiera EMO di Hannover, Renishaw ha presentato una gamma di soluzioni per il controllo di processo che aiutano a sostenere la costante tendenza delle aziende verso la produzione snella: dalle nuove tecnologie per la calibrazione pre-processo delle macchine alla misura on-line e off-line. Completano il quadro una nuova gamma di tecnologie per la produzione con tecniche additive e i più recenti encoder incrementali e assoluti. Di seguito, alcune brevi presentazioni. Calibro flessibile Equator™: una nuova, radicale alternativa ai calibri rigidi tradizionali che riempie un vuoto di applicazione finora non colmato. Il design brevettato, esclusivo per costruzione e modo di operare, rende questo prodotto capace di effettuare operazioni di calibratura ad alta velocità per ispezione di componenti prodotti in volumi consistenti. Equator è stato concepito e sviluppato lavorando a contatto con utilizzatori di calibri che operano nell’automotive, nell’aerospaziale e nel medicale. T_M ƒ 226 N. 03ƒ ; 2011 ■ SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI ricco di esempi. Si auspica che simili ovvero che implementino una gestiointerventi possano essere replicati ne di parametri d’influenza del proanche in altre sedi. cesso di misura finalizzata alla minimizzazione dell’incertezza e/o alla Il 1-7-2010 è partito il progetto europeo sua ottimizzazione, in relazione alGRACE – “Integration of process and l’uso che poi il sistema di controllo quality control using multi-agent techno- qualità farà del risultato della misura. logy” (www.grace-project.org), di Tali sistemi di misura sono trattati durata triennale, finanziato dalla Com- come “Quality Control Agents”. Partmissione UE e coordinato dalla Uni- ner del progetto sono Sintef (N), Istituversità Politecnica delle Marche, con to Politecnico de Braganca (P), AEA responsabile scientifico il Prof. Nicola (I), Whirlpool Europe (I), Siemens (D). Paone. Obiettivo del progetto è l’integrazione dei processi produttivi con i Ci congratuliamo con i colleghi Gaprocessi di controllo di qualità tramite sparetto e Revel che risultano coordile tecnologie multi-agente. Un impor- natori nazionali di due progetti PRIN tante spazio è occupato dallo svilup- 2009 recentemente finanziati. Nei po di sistemi di misura che manifesti- prossimi numeri forniremo dettagli in no capacità di auto-ottimizzazione, merito ai contenuti dei due progetti. Ballbar senza fili QC20-W: il primo dispositivo di calibrazione a fornire dati diagnostici su tre piani coordinati attraverso un unico punto di riferimento. Un unico, semplice, piazzamento per effettuare un test più rapido e ottenere una misura volumetrica rappresentativa dell’accuratezza di posizionamento della macchina. Encoder ottici assoluti ed encoder con risoluzione di 1 nanometro: RESOLUTE™, il primo encoder assoluto al mondo capace di risoluzione di 27 bit a 36000 RPM; la gamma di encoder ottici incrementali TONiC™, che offre accuratezza pari a quella di encoder a passo finissimo con la robustezza tipica del passo medio Inoltre: Dispositivo per prove rapide e automatiche di macchine utensili multiasse; SLM250, macchina per la fusione laser selettiva; Retrofit e software per macchine di misura; e molte altre nuove proposte. Tastatore a cinque assi per macchine di misura PH20: sistema di tastatura a contatto punto-punto che aumenta la produttività delle macchine fino a tre volte, sfruttando i due assi di posizionamento rotativo continuo e l’esclusivo metodo di “tocco di testa” per l’acquisizione di punti ad alta velocità con il minimo movimento degli assi macchina. Nuovo software per la tastatura multiasse in macchina utensile: include più funzioni simili a quelle su macchina di misura con un’ampia gamma di tolleranze dimensionali e geometriche, oltre all’abilità di lavorare con allineamenti multipli in un singolo programma. Il software include la capacità di simulazioni, un’intuitiva interfaccia grafica e un chiaro formato di presentazione dei risultati che rende il suo utilizzo accessibile agli operatori di officina. Per maggiori dettagli visitate www.renishaw.it METROLOGIA PER CAPILLARITÀ ▲ A cura di Giorgio Miglio ([email protected]) Sul concetto di Precisione Il significato di un termine di cui spesso si abusa METROLOGY FOR EVERYONE This section is open to questions and curiosity by all the measurement operators, both in industry and in calibration analysis and test laboratories, who do not have the time to search for answers in the Standards. The section gives answers and tips in a simple language, yet complete and worth adequate reference to rigorous metrological criteria. Cari Lettori! Questo che leggete è l’ultimo contributo di Giorgio Miglio alla Rubrica “Metrologia per Capillarità”. Mentre il numero era in composizione Giorgio è prematuramente scomparso, dopo brevissima e implacabile malattia. Lascia la moglie e due figli in tenera età, cui vanno le condoglianze di tutto lo staff editoriale. Lascia un grande vuoto in tutti noi e la consapevolezza di aver perso un insostituibile collaboratore di lunghi anni di vita della rivista: acuto, sagace e pronto ad aiutare gli operatori della metrologia industriale a districarsi nelle pieghe delle norme con consigli semplici, intuitivi, preziosi. RIASSUNTO Questa rubrica è aperta alle domande e ai dubbi formulati da chi si occupa di processi di misurazione o di affidabilità e qualità delle misure sia in azienda sia nei laboratori di taratura, di prova o di analisi e che non ha il tempo o l’opportunità di cercare spiegazioni nella normativa. La rubrica offre risposte e delucidazioni con un linguaggio che può peccare di eccessiva semplicità, ma non di disallineamento dai criteri metrologici ortodossi. DOMANDA Nella mia azienda manifatturiera sento citare nei reparti e nel laboratorio prove il termine “precisione” a proposito sia di misurazioni sia di strumentazione; anche nei documenti di lavoro (istruzioni, procedure, ecc.) vedo che spesso compare questo termine. Purtroppo non sono “ferrato” in campo metrologico e dagli operatori da me interpellati circa il significato di questo termine ho ottenuto risposte vaghe e, in alcuni casi, contradditorie. Insospettito, e anche per cautelarmi da brutte figure nei contatti con clienti e fornitori (che pure citano spesso questo termine), ho dato incarico al mio uomo della qualità di scegliere a catalogo e di acquistare una norma adatta a far chiarezza su questo concetto: la sua scelta è ricaduta su quella dal titolo “Misure e misurazioni – Termini e definizioni fondamentali” (UNI 4546 ). Con grande stupore ho visto che il termine precisione non solo non compare nel suo sommario, ma neppure nel suo indice analitico! Prima di sollevare di peso i miei dipendenti per il fatto di riempirsi la bocca di un termine non citato nelle norme e, per di più, d’inserirlo nei documenti aziendali senza conoscerne il vero significato, le chiedo se è normale ciò che capita nella mia azienda e che cosa significa questo termine. RISPOSTA Mi congratulo per la sua determinazione nel fare chiarezza intorno a questo termine e nel voler dissipare il pressapochismo dei suoi collaboratori nel maneggiarlo in modo così disinvolto senza conoscerne i contenuti. In effetti è vero, nella sua azienda così come in tante altre, del termine “precisione” si fa abuso, probabilmente perché produce l’impressione di misure poco affette da errori. La sua definizione non compare nel documento da lei fatto acquistare (UNI 4546), che è del 1984: il termine “precisione” comincia a essere definito nella normativa di base a partire dagli anni ’90 (ISO 35341:1993; ISO 10012-2:1997; ecc.): suggerisco di fare riferimento oggi alla 3a edizione del V.I.M., tradotta in lingua italiana nel 2010 e disponibile come CEI UNI 70099. Il termine, in pratica, si riferisce alla variabilità che si riscontra nei risultati che si ottengono ripetendo più volte la misurazione di una stessa grandezza (oggetto, parametro, caratteristica), naturalmente in condizioni operative specificate: è importante osservare da subito che il termine precisione sta in un contesto di ripetibilità e/o riproducibilità, quindi ci si trova di fronte a una media delle misure e a degli scostamenti di ogni singolo risultato da questa media. Essendo una misura di variabilità, la precisione si esprime in termini di scarto tipo (di ripetibilità o di riproducibilità), di varianza (scarto tipo elevato al quadrato), di coeffi- T_M N. 3/11 ƒ 227 misura e riportata anche in norme oggi superate. I due concetti, precisione e accuratezza, vanno a ricucirsi nella definizione di “giustezza di misura”, che è il grado di concordanza tra la media del numero di valori misurati e un valore di riferimento. Attenzione: nella giustezza compare la media (quindi misurazioni sullo stesso misurando, da cui la precisione) e la distanza della media dal riferimento. Ricordo che una corretta valutazione del valore di precisione richiede il rispetto di svariate condizioni di misurazione. Qui ne cito due a titolo esemplificativo: • l’indipendenza dei risultati, cioè ciascun risultato non dev’essere influenzato dal precedente ottenuto sullo stesso misurando o suo similare; ▼ ciente di variazione (CV assoluto o percentuale), eccetera. In altre parole, esso esprime il grado di dispersione dei dati rilevati individualmente rispetto al valore medio della serie cui essi appartengono: tutto ciò indipendentemente dal fatto che questa media sia “sbagliata”, cioè affetta da un errore sistematico più o meno significativo. A questo proposito va sottolineato che il concetto di precisione è completamente diverso da quello di accuratezza, che esprime invece di quanto un valore misurato si scosta da un valore “cosiddetto vero” o di riferimento. Malauguratamente i due concetti vengono spesso usati in modo indistinto o come alternativi: una delle cause di questa confusione si può far risalire all’espressione “classe di precisione” utilizzata dai costruttori di strumenti di NEWS N. 03ƒ ; 2011 ■ METROLOGIA PER CAPILLARITÀ MISURE DI VELOCITÀ E LUNGHEZZA SENZA CONTATTO Il sensore di velocità senza contatto ASCOspeed 5500 offre nuove possibilità nell’automazione delle line di processo dell’industria siderurgica in particolare, e manifatturiera in generale. Si tratta di un sistema compatto con una robusta custodia che garantisce un funzionamento affidabile “trouble-free” in vaste applicazioni con velocità massima dei materiali fino a 3000 m/min. Il sensore opera in piena autonomia, ha un consumo di corrente molto basso e richiede unicamente un’alimentazione di 24 Vdc. Una risposta dinamica elevata e un’elevata precisione sono le caratteristiche principali di questa nuova generazione di sensori di misura della velocità e lunghezza. Questa tecnica si basa su una esperienza di oltre 15 anni. L’uso di strutture di elaborazione del segnale all’avanguardia garantiscono che ogni variazione di velocità del materiale venga acquisita con precisione. Un hardware potente e ultra-veloce effettua i controlli di plausibilità e comprime i tempi di misura nel campo dei microse- T_M ƒ 228 condi. Solo in questo modo si può ottenere la migliore precisione durante le fasi di accelerazione. Il sensore fornisce un valore mediato ogni 500 µs ed è quindi perfettamente adatto alle applicazioni in controllo ad anello chiuso degli impianti più sofisticati. I sistemi convenzionali con encoder meccanici possono essere sostituiti senza problemi con ASCOspeed 5500. Il sensore possiede uscite scalabili a impulsi e può dunque essere usato in alternativa agli encoder ad albero con un massimo di 3 uscite scalabili a impulsi. Durante la misura di velocità differenziali, come per controlli “mass flow” o “skin pass“, un funziona- • l’applicazione di un test sulla presenza di valori anomali, cioè non facenti parte del campione estratto. RIFERIMENTI A NORME E GUIDE Ritengo che i migliori riferimenti per quanto riguarda il termine e il concetto di “precisione” siano la norma CEI UNI 70099 dal titolo “Vocabolario internazionale di Metrologia – Concetti fondamentali e generali e termini correlati”, disponibile dall’aprile 2010 come traduzione della terza edizione del V.I.M., e la norma UNI ISO 5725 - 1/6 edita nell’anno 2004 con il titolo “Accuratezza (esattezza e precisione) dei risultati e dei metodi di misurazione”. mento sincrono offre significativi vantaggi. Usando un impulso dall’unità di controllo del processo, 2 o più sensori ASCOspeed 5500 possono funzionare in maniera perfettamente sincrona sotto controllo hardware, e perciò fornire risultati precisi nelle fasi di accelerazione. La struttura della superficie, il colore o la variazione di colore, la presenza di rivestimenti, la variazione delle proprietà riflettive del materiale non influenzano la misura. In contrasto alle convenzionali lampade alogene, l’uso di un illuminatore a LED garantisce un funzionamento continuo con manutenzione ridotta. Applicazioni: laminatoi a freddo, laminatoi “skin pass”, linee di allungamento e raddrizzatura, impianti di rivestimento, linee d’ispezione, linee di taglio, linee avvolgimento coil, linee di saldatura e piegatura, linee di trafilatura e profilatura. Per ulteriori informazioni: www.luchsinger.it ▲ LO SPAZIO DEGLI IMP Francesco Cardellini Il sistema di taratura dell’INMRI-ENEA per le misure di Radon INMRI-ENEA CALIBRATION FACILITIES FOR RADON MEASUREMENTS The experimental facilities developed at INMRI-ENEA to calibrate the Radon monitoring instruments and dosimeters are described. The facilities include Radon chambers for exposure of field dosimeters in standard Radon atmosphere and closed-loop air circulation system for calibration of Radon monitors. The Radon calibration system is based on a primary standard, also described in the paper, that has been validated through an international comparison. RIASSUNTO Si descrivono gli apparati sperimentali messi a punto all’INMRI-ENEA (Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti) per la taratura degli strumenti di misura del Radon. Il sistema comprende camere ermetiche per l’esposizione al Radon dei dosimetri ambientali e circuiti per la taratura dei monitori. Alla base dei sistemi di taratura vi è un campione primario, descritto nell’articolo, che è stato confrontato a livello internazionale. INTRODUZIONE Il Radon (222Rn, T1/2 di 3,82 giorni) è un gas nobile radioattivo prodotto dal decadimento del 226Ra (T1/2 di 1600 anni), che a sua volta fa parte della catena di decadimento del 238U. Il gas Radon è naturalmente prodotto da tutte le rocce che contengono questi radionuclidi, ampiamente presenti anche in Italia. Essendo un gas inerte il Radon può sfuggire dal sottosuolo e raggiungere l’atmosfera. All’aperto esso si disperde nell’aria, dove ha generalmente concentrazioni dell’ordine di 5-10 Bq m-3 ritenute non pericolose. Nei luoghi chiusi come gallerie, miniere, locali interrati e abitazioni il Radon può invece accumularsi e diventare pericoloso. La catena di decadimento del 222Rn comprende, oltre al Radon, quattro radionuclidi a vita breve di cui due emettitori beta, il 214Pb ed il 214Bi, e due emettitori alfa, il 218Po ed il 214Po (Fig. 1). Le emissioni di particelle alfa sono le più pericolose per la salute, in caso d’inalazione del Radon o della sua progenie. Il gas Radon è, infatti, la seconda causa di tumore polmonare dopo il fumo, essen- Figura 1 – Catena di decadimento del 222 Rn SISTEMI DI MONITORAGGIO DEL RADON IN ARIA Schematicamente i sistemi di misura del Radon in aria si possono dividere in due grandi categorie. La prima categoria è costituita da dispositivi elettronici complessi che misurano e registrano la concentrazione di Radon in funzione del tempo, per un periodo di tempo anche superiore a due settimane. Nel seguito questi dispositivi saranno indicati come monitori. La grande maggioranza dei monitori si basa su celle di misura con un volume compreso tra 0,25 l e 0,5 l, dotate di un filtro in ingresso che permette l’entrata dell’aria da campionare, ma non del particolato atmosferico. Queste celle possono essere di tre diverse tipologie: 1) le celle di Lucas, o a scintillazione, sono internamente rivestite di solfuro di zinco attivato con argento che emette luce quando è colpito dalle radiazioni alfa del Radon e della sua progenie. 2) le camere a ionizzazione in cui la radiazione alfa ionizza l’aria atmosferica presente nella cella di misura e produce un impulso elettrico che è amplificato e registrato. 3) le camere a raccolta elettrostatica in cui un forte campo elettrico, dell’ordine di 7-10 kV m-1, convoglia i prodotti di decadimento del 222Rn su un sensore a stato solido. Le radiazio- do attribuibili ad esso circa il 10% dei casi osservati [1]. Per limitare i rischi di esposizione al Radon le indicazioni dell’OMS, riprese dalle normative europee, prevedono il monitoraggio della concentrazione di attività di Radon negli ambienti di lavoro e nelle abitazioni e l’attuazione d’interventi di bonifica ove si riscontrino concentrazioni eccessive. In Italia il decreto legge n° 241 del 2000, che riprende la direttiva 9639 EURATOM, stabilisce il limite di 500 Bq m-3 per i luoghi di lavoro. Per quanto riguarda le abitazioni, la raccomandazione 90/143/EURATOM stabilisce un limite di 200 Bq m-3 per le case di nuova costruzione e di 400 Bq m-3 per le abitazioni già esistenti. In Italia il servizio di monitoraggio del Radon è effettuato dalle sedi provinciali delle ARPA regionali, dall’ISPRA, dall’ISPESL e da alcuni laboratori universitari o privati. Al fine di assicurare la riferibilità metrologica delle misurazioni di Radon, l’INMRI-ENEA ha sviluppato campioni di riferimento e sistemi per la taratura della strumentazione maggiormente uti- ENEA, Roma [email protected] lizzata in questo campo. T_M N. T_M ƒ 229 229 3/1 1 ƒ ▼ ni α emesse dal 218Po e dal 214Po sono rilevate da questo sensore. La seconda categoria di strumenti di misura del Radon comprende vari tipi di dispositivi passivi a integrazione, comunemente detti dosimetri, che misurano il valore medio della concentrazione di Radon in un ambiente per un lungo periodo di tempo, generalmente compreso fra tre e sei mesi. L’integrale della concentrazione di attività di Radon nel tempo è detto “esposizione al Radon” e si misura in kBq h m-3. Nella maggioranza dei casi questi dispositivi sono costituiti da un rivelatore a tracce nucleari protetto da un contenitore esterno del volume di qualche decina di centimetri cubi. L’elemento sensibile è un polimero trasparente (area 1÷2 cm2) in cui le radiazioni a prodotte dal Radon e dalla sua progenie lasciano delle microscopiche tracce. Dopo l’esposizione al Radon il dosime- NEWS NUOVI ACCELEROMETRI PER L’ANALISI STRUTTURALE E NVH Kistler, fornitore leader mondiale di sensori di precisione, sistemi e strumenti per la misura dinamica di pressione, forza, coppia e accelerazione, presenta la serie di accelerometri capacitivi MEMS a singolo asse 8315A, caratterizzati da elevata sensibilità e basso rumore. I nuovi accelerometri, che incorporano il know-how di Kistler per quanto riguarda la tecnologia K-Beam, sono progettati per misure d’accelerazione e vibrazioni a bassa e media frequenza, ideali per le applicazioni in ambito automotive, aerospace, OEM, R&S, e prove di laboratorio. La serie 8315A comprende sei differenti modelli, con range di misura da ±2 a ±200 g e una risposta in frequenza di 0 – 1000 Hz (5%). Il design compatto fornisce un ingombro di 1” (25,4 mm) e integra un elemento sensibile a capacità variabile MEMS, che consiste di una piccola massa inerziale tra due piatti paralleli. Quando la massa deflette per l’accelerazione, la distanza fra l’elemento e i piatti varia, modificando la capacità. Il condizionatore interno converte la variazione di capacità in una variazione di tensione in T_M ƒ 230 N. 03ƒ ; 2011 ▲ LO SPAZIO DEGLI IMP è la realizzazione di un’atmosfera campione di Radon in aria con cui tarare i monitori primari per la misura di concentrazione di attività di Radon in aria. Il Radon necessario viene prelevato da gorgogliatori contenenti una soluzione stabilizzata di 226Ra la cui attività è riferibile a campioni NIST [2]. Il circuito primario, schematicamente rappresentato in Fig. 2, è costituito da un gruppo sorgenti (gorgogliatori), da un cilindro di alluminio della capacità di circa 112 l dove si realizza l’atmosfera di riferimento e dal monitore primario. Questi elementi sono collegati tra loro da un circuito chiuso, in cui l’aria contenente Radon è fatta circolare da una pompa con portata di IL CAMPIONE PRIMARIO circa 0,2 l/min. DELL’INMRI-ENEA La procedura di taratura del monitore PER LE MISURE DI RADON primario è concettualmente molto semLo scopo principale di questo sistema plice: tro è sottoposto a un attacco chimico (sviluppo) che evidenzia le tracce nucleari e ne permette la lettura mediante un microscopio a bassi ingrandimenti. La densità di tracce osservata è proporzionale all’esposizione subita. I monitori sono adeguati a individuare con misure di breve durata le aree e i locali maggiormente esposti al rischio Radon, mentre i dosimetri a tracce nucleari sono indicati per le campagne di misura di lungo periodo su un gran numero di locali. Sia i dosimetri sia i monitori devono in ogni caso essere sottoposti a operazioni di taratura affinché le loro misure siano affidabili. uscita. La serie 8315 offre un’eccellente stabilità termica e prestazioni affidabili in un range di temperature elevato da –55 a 125 °C. Lo strumento può essere alimentato da tensioni comprese tra 6 e 50 V e può sopravvivere a shock fino a 6000 g pk. I modelli della serie 8315A sono offerti con tre diversi case e altrettante opzioni di uscita in tensione (AC, TA, TB). L’opzione AC è caratterizzata da un peso ridotto, custodia in alluminio duro anodizzato con saldatura laser, ground isolated, cavo integrale in PVC, con una temperatura operativa massima di 85 °C. I formati dei segnali d’uscita disponibili per l’opzione AC sono bipolari a 0 ±4 V, a singola uscita a 2,5 V ±2 V o differenziali 0 ±8 V. Le opzioni TA e TB hanno peso ridotto, contenitore in titanio saldato con, a scelta, connettori standard a 4-pin, connettore 1/4-28 o cavo integrale rivestito in Teflon®, per un design completamente ermetico con isolamento a terra integrale. La temperatura operativa massima su queste unità è di 125 °C. I formati disponibili dei segnali d’uscita sono bipolari a 0 ±4 V, a singola uscita 2,5 V ±2 V (è opzionale l’uscita in temperatura) e differenziali 0 ±8 V. Per le opzioni TA e TB è prevista una temperature d’uscita qualora sia desiderata la compensazione esterna del segnale d’uscita. Fra gli accessori opzionali raccomandati con la serie 8315° vi sono: basi magnetiche, adesive, isolanti o viti di montaggio; anche un cubo di montaggio triassiale. I nuovi accelerometri sono utilizzabili in una varietà di applicazioni di R&S e OEM, in particolare quando è assolutamente richiesto l’impiego di strumenti con elevata precisione a basse frequenze e affidabilità nel tempo. Fra le applicazioni tipiche: prove di vibrazione a terra a bassa frequenza (aerospace); laboratori di prova automotive, handling, test su strada e valutazioni di guida veicolo; prove strutturali su ponti e altre strutture civili; applicazioni di R&S, biomedicali, piattaforme inerziali; ecc. Per ulteriori informazioni: www.kistler.com N. 03ƒ ;2011 IL SISTEMA DI TARATURA DEI MONITORI ▲ LO SPAZIO DEGLI IMP don già citati nell’introduzione. Rileviamo che la taratura investe tutto il complesso del sistema di misura e cioè: il dosimetro (costituito dal rivelatore e dal contenitore), il sistema di sviluppo e il sistema di lettura. La taratura è quindi necessaria quando si avvia un nuovo laboratorio, quando si acquista una nuova partita di rivelatori, quando si modificano le condizioni di sviluppo o si modifica il sistema di lettura. Sono inoltre consigliabili controlli a scadenza biennale come è già prassi di alcune ARPA. Considerando che i dosimetri vengono generalmente lasciati in misura per tre o sei mesi e che i livelli di attenzione si collocano a 500 Bq m-3, possiamo dire che le esposizioni di maggiore interesse si collocano intorno ai valori di 1 e 2 MBq h m-3, ma spesso ci sono richieste esposizioni a valori più alti, fino a 20 MBq h m-3. Presso l’INMRI le esposizioni possono essere effettuate in due diverse camere Radon, una del volume di 1027 l e l’altra del volume di 220 l. La più grande è una camera climatica dotata di un sistema di regolazione e controllo della temperatura e dell’umidità relativa. I dosimetri sono collocati nelle camere Radon con uno o due monitori di riferimento per la registrazione della concentrazione di attività di Radon. L’incertezza sul valore di esposizione è attualmente stimata non superiore al 5%. I dosimetri esposti sono restituiti al committente che esegue lo sviluppo e la lettura delle trac- Una volta tarato il monitore primario (monitore di riferimento) si può procedere alla taratura dei monitori da usare nelle camere Radon o nelle misure in campo. Il sistema di trasferimento è illustrato in Fig. 3. Il monitore primario viene collegato ad una camera Radon del volume di 137 l in cui è collocaFigura 2 – Schema del circuito primario per la to il monitore da tarare. realizzazione di atmosfera campione di 222Rn in aria Nella camera è immesso Radon usando un circuito 1) Si usano sorgenti tarate di 226Ra predisposto, il valore di riferimento chiuse da oltre un mese cosicché al della concentrazione di attività di loro interno si è prodotta una pari atti- Radon è dato dal monitore primario. vità di 222Rn. Le concentrazioni di attività di Radon 2) Mediante gorgogliamento si trasfe- a cui si eseguono le tarature dipendorisce il 222Rn dalla sorgente al circui- no dall’uso a cui sono destinati i monito, ottenendo la concentrazione di tori da tarare. I monitori per le misure attività di riferimento dopo circa un’o- in campo vengono generalmente tarara. Quindi il gruppo sorgenti viene ti a concentrazioni comprese tra 1 e 4 isolato dal circuito mediante un kBq m-3, mentre per quelli da usare bypass. nelle camere Radon per le esposizioni 3) In 4 ore il Radon si distribuisce uni- dei dosimetri si sale fino a 100 kBq m-3. formemente nel circuito e nella cella L’incertezza relativa sul fattore di taradi misura del monitore e si realizza tura dipende, tra l’altro, dalle carattel’equilibrio secolare tra il Radon e la ristiche dei monitori da tarare, e in sua progenie. La misura prosegue per linea generale è compresa tra il 2% ulteriori 20 ore circa per avere una ed il 3%. Per le misure a bassa conbuona statistica di conteggio. centrazione di attività è importante 4) Le misure registrate sono corrette anche la determinazione del bianco per decadimento al momento in cui è strumentale che è effettuata in appositerminato il trasferimento del Radon te camere allestite nei laboratori deldalla sorgente al circuito, quindi se ne l’INMRI-ENEA. calcola la media. 5) Dal rapporto tra la concentrazione di riferimento e i conteggi del monito- IL SISTEMA re si calcola il coefficiente di taratura DI ESPOSIZIONE del monitore primario. CONTROLLATA Per la taratura del monitore primario DEI DOSIMETRI si è effettuata una serie di sei prove con tre diversi gorgogliatori, tutti con L’esposizione controlun’attività di circa 1500 Bq. Lo scarto lata di dosimetri per tipo della serie di misure è risultato Radon rappresenta la pari all’ 1,2%. Il principale limite alla maggior parte dell’attiriproducibilità delle misure è costituito vità di servizio deldalla precisione con cui è nota l’atti- l’INMRI-ENEA per mività di ogni singolo gorgogliatore e sure di Radon (Fig. 4). dalla difficoltà di estrarre completa- I committenti sono gli mente il Radon dai gorgogliatori stes- organismi che svolgoFigura 3 – Schema del sistema di taratura si. L’incertezza relativa sul coefficiente no servizi di sorvedei monitori secondari di taratura è di 1,5 % (k=1). glianza sul rischio Ra- T_M ƒ 231 Con espressoDAQ, HBM lancia sul mercato una nuova serie di amplificatori di misura basati su tecnologia USB. Nonostante le dimensioni ridotte e i prezzi convenienti, i moduli di HBM, specialista in tecnica di misura, offrono come sempre qualità elevata e capacità di prestazioni: nel caso specifico vanno segnalate, ad esempio, la tecnologia di frequenza portante e il convertitore A/D con risoluzione a 24 bit. I singoli moduli possono essere alimentati direttamente tramite l’interfaccia USB, eliminando la necessità di un cavo di rete separato. È possibile attivare più amplificatori di misura tramite un hub USB e ciò rende possibile impiegare sistemi di misura completamente sincronizzati. Gli amplificatori di misura funzionano in base al principio “plug & measure”, consentendo all’utente di ottenere velocemente il risultato della misurazione. A ciò contribuiscono anche i connettori RJ45 configurabili direttamente in loco per il collegamento dei trasduttori. Inoltre, gli amplificatori di misura espressoDAQ supportano i TEDS (Transducer Electronic Data Sheet), che consentono una facile e rapida configurazione dei più diversi tipi di trasduttore. I moduli vengono forniti insieme a un software di facile utilizzo, progettato appositamente per espressoDAQ, per la configurazione, raccolta dei dati e visualizzazione. L’utente ottiene il risultato della misurazione in pochi passaggi. È anche possibile esportare i dati misurati nei formati più comuni. Con i diversi moduli della serie espressoDAQ è possibile acquisire, in modo sicuro, praticamente tutte le grandezze di misura più rilevanti. Oltre a ingressi di corrente o tensione configurabili individualmente, è anche possibile eseguire misurazioni con estensimetri (DMS) (con configurazione sia a ponte intero sia a semiponte) e collegamento di termocoppie del tipo preferito. Gli ingressi dei moduli (quattro oppure otto, in base al tipo) sono tutti singoli e separati galvanicamente l’uno dall’altro. Poiché tutti i canali possiedono ciascuno un proprio convertitore AD, è possibile eseguire misurazioni assolutamente sincrone. Tipiche applicazioni per i moduli compatti di espressoDAQ possono riguardare, ad esempio, l’ambito dell’assistenza, dove con un laptop e un piccolo modulo è possibile eseguire facilmente e velocemente una misurazione. I nuovi moduli costituiscono la soluzione ideale proprio per le applicazioni in cui un sistema di misura di grandi dimensioni sarebbe troppo dispendioso. Per ulteriori informazioni: www.hbm.com NUOVO CALIBRATORE PORTATILE: GENERA, SIMULA E MISURA! Il calibratore portatile 7012SS di ASITA, pratico e compatto, raccoglie le funzioni di generazione, simulazione e misura tipicamente utilizzate per il controllo dei processi industriali. Lo strumento permette di generare segnali di corrente fino a ± 25mA, segnali di tensione fino a ± 25V, genera una resistenza di 100 Ohm e simula segnali termoelettrici equivalenti alle corrispondenti temperature di ben 8 diverse termocoppie (K, E, J, T, R, S, B e N). La sezione di misura permette accurati rilievi di corrente (± 28mA) e tensione (± 28V). Lo strumento è dotato di uscite separate e isolate dai terminali di ingresso per poter simultaneamente generare e misurare, visualizzando contemporaneamente i due valori sul grande display LCD. T_M ƒ 232 N. 03ƒ ; 2011 NUOVI AMPLIFICATORI DI MISURA BASATI SU TECNICA DI MISURA USB ▲ NEWS TARATURA DI COPPIA DI MASSIMA PRECISIONE CON TRASDUTTORI DI RIFRIMENTO La misurazione precisa di coppie è sempre più importante, ad esempio nelle applicazioni che utilizzano banchi prova. Di conseguenza anche la taratura dei trasduttori di coppia utilizzati in questi banchi prova sta assumendo sempre maggiore rilevanza. L’affermata famiglia di trasduttori di riferimento di coppia TB2 oggi può contare su un complemento che permette di eseguire misurazioni precise e riproducibili con notevole risparmio di tempo: infatti le misurazioni possono essere eseguite direttamente, non come nella comune taratura tramite leva a braccio, applicando o rilevando i pesi manualmente. I trasduttori di riferimento di coppia del tipo TB2, offerti da HBM, permettono la riconducibilità a normative nazionali e, pertanto, una taratura assolutamente sicura delle grandezze di coppia, oggi disponibile anche nei campi di misura di 100 Nm e 200 Nm. Il trasduttore di riferimento è idoneo per impiego non rotante in laboratorio o in campo industriale. È disponibile come opzione anche una versione IP67, che permette l’impiego anche in ambiente industriale critico. I trasduttori TB2 raggiungono normalmente, già per i valori iniziali del campo di misura dal 2%, la miglior classe 0,5 secondo DIN 51309 o EA-10/14, mentre di solito per questa classe è richiesto solo un range dal 20 al 100%. Gli estensimetri installati nel TB2 consentono l’utilizzo di tutti gli amplificatori di misura che supportano gli ER a ponte pieno. Tra questi, ad esempio, l’inserto/modulo amplificatore di misura di precisione ML38B per il sistema MGCplus di HBM. Ulteriori informazioni sono reperibili all’indirizzo web www.hbm.com. HBM Test and Measurement Fin dalla sua fondazione, in Germania nel 1950, Hottinger Baldwin Messtechnik (HBM Test and Measurement) si è costruita una solida reputazione come leader mondiale di tecnologia e del mercato nell’industria delle misurazioni e prove. HBM offre prodotti per la catena di misurazione completa, dalle prove virtuali a quelle fisiche. Le sedi di produzione sono situate in Germania, USA e Cina; HBM è presente in più di 80 paesi nel mondo. Dotato di memoria interna per la registrazione di 20 valori di uscita, attribuendo a ciascuno di essi la durata nel tempo, con successiva attivazione in sequenza automatica o con comando manuale per simulare le caratteristiche di funzionamento proprie dell’apparecchio in prova. Predisposto al controllo tramite il computer utilizzando l’interfaccia seriale USB in dotazione. Per ulteriori informazioni: www.asita.com N. 03ƒ ;2011 ■ zioni certificate di dosimetri, cui vanno aggiunte numerose esposizioni di prova. L’impegno di maggior rilievo nel settore è stata la prima campagna di interconfronto nazionale sulla misura della concentrazione di attività di Radon con rivelatori di tipo passivo organizzata nel 2006 dall’APAT e dall’INMRIENEA [4]. La campagna ha coinvolto 26 Figura 4 – Esposizione di dosimetri laboratori i quali hannella camera Radon da 220 litri no fornito un totale di circa 1400 dosimetri. L’INMRI ha effettuato le esposizioni ce nucleari. Dal rapporto tra la densicontrollate al Radon e fornito i valori tà di tracce lette e il valore della esposizione subita dai dosimetri il commit- di riferimento per l’interconfronto. tente determina la sensibilità della partita di dosimetri. I risultati di una taratura sono illustrati RICADUTE TECNICO-SCIENTIFICHE in Fig. 5 dove è riportato il grafico della densità di tracce in funzione del- L’intensa attività di taratura svolta l’esposizione per otto diverse esposi- negli ultimi dieci anni ha avuto una zioni, alcune fatte nella camera da serie di ricadute tecnico scientifiche 220 l e altre in quella da 1027 l. Si sia per i committenti che per l’INMRIpuò notare in Fig. 5 la linearità della ENEA. Alcune di queste sono qui risposta fino a oltre 4600 kBq h m-3. riportate. Lo scarto massimo osservato tra la 1) Miglioramento dei risultati ottenuti densità di tracce lette e la retta dei negli interconfronti: i laboratori italiaminimi quadrati è di 1,5 %. I dati si ni che hanno partecipato a interconriferiscono alla caratterizzazione di fronti esteri con riferibilità ai sistemi di un nuovo sistema di lettura sviluppato misura dell’INMRI-ENEA hanno ottenuto risultati molto buoni. dalla Croce Rossa Italiana [3]. In media presso il nostro istituto si ese- 2) Controllo di qualità nei laboratori: la guono annualmente circa 25 esposi- possibilità di effettuare tarature in condizioni diverse e su un ampio intervallo di valori di concentrazione o di esposizione ha portato, in diversi casi, a evidenziare alcuni limiti della strumentazione utilizzata. A seguito di ulteriori analisi è stato possibile apportare le opportune correzioni ottenendo un netto miglioramenFigura 5 – Densità di tracce in funzione della esposizione to delle prestazioni per due diversi lotti di dosimetri del laboratorio. LO SPAZIO DEGLI IMP 3) Collaborazioni in attività di studio e ricerca: misure riferibili e tarature certificate sono state il presupposto per l’effettuazione di studi e ricerche volti allo sviluppo e standardizzazione dei metodi di misura. BIBLIOGRAFIA [1] R. Trevisi, (2009) Aspetti teorici ed operativi per la protezione dal Radon nei luoghi di lavoro, Rapporto ISPESL 2009. [2] P. De Felice, Xh. Myteberi, (1996), The 222Rn Reference Measurement System Developed at ENEA, Nucl. Instr. and Meth. in Phys. Res. A 369, 445-451. [3] C. Fontana, F. Cardellini, A. Marchetti, P. Bennati, A. Zoffranieri, U. Angeloni, (2008), Riscontri dosimetrici e test di sensibilità su lotti di CR-39 analizzati con il nuovo sistema di misura semiautomatico per rivelatori a tracce nucleari nel servizio misure radioattività ambientale Lab. Centrale CRI, Atti del convegno Nazionale di Radioprotezione, Cinquantenario AIRP, Pisa, 2008 [4] G. Torri, R. G. Boschetto, A. M. Sotgiu, P. Leone , M. Cavaioli, F. Cardellini, G. Cotellessa, R. F. Laitano, M. Pagliari, G. Sciocchetti, P. De Felice, (2007), Risultati del primo interconfronto nazionale sulla misura della concentrazione di attività di Radon con metodi passivi, Atti del Convegno Nazionale di Radioprotezione, AIRP, Vasto Marina, 2007. Francesco Cardellini, laureato in fisica, ricercatore presso l’ENEA, ha lavorato nel campo della scienza dei materiali specializzandosi sulle reazioni a stato solido e sulle tecniche di analisi mediante diffrazione di raggi X e calorimetria. Dal 2003 lavora presso l’INMRI, nel settore della metrologia del Radon. In questo ambito è responsabile dello sviluppo e mantenimento del campione primario e del servizio di taratura della strumentazione utilizzata per il monitoraggio del Radon. T_M ƒ 233 Il 7 maggio scorso la SIAD ha aperto il proprio stabilimento di Osio Sopra (BG) a oltre 260 persone, tra studenti, familiari dei dipendenti, giornalisti e autorità, consentendo loro un’immersione nell’affascinante mondo dei gas: l’imbombolamento dei gas tecnici, la massa porosa, il laboratorio di ricerca, il laboratorio Nuvera Fuel Cells e il reparto di Frazionamento Aria. Come ha dichiarato Roberto Sestini, presidente SIAD, in apertura della giornata: “Abbiamo aderito all’iniziativa di Federchimica perché in linea con la scelta di trasparenza, apertura e confronto che SIAD sta portando avanti da anni per consolidare il rapporto di fiducia con i suoi stakeholders. La chimica è uno dei settori più importanti per la vita dell’uomo. Pervade ogni aspetto della nostra esistenza e aumenta il nostro tenore di vita. È dallo sviluppo della chimica che nascono i farmaci, e quindi l’aspetta- tiva di una vita più lunga. Venti anni fa però la chimica era considerata la “bestia nera” della produzione industriale, per i suoi supposti effetti deleteri sulla salute umana. E da 20 anni Federchimica svolge azione di promozione per correggere questa percezione. Lo testimonia il suo programma “Responsible Care”, un decalogo di comportamenti in tema di sicurezza, salute dei dipendenti e protezione ambientale, adottato dalle aziende associate, che ha contribuito a fare della chimica il settore con i più elevati standard di sicurezza, tra i meno inquinanti, nonchée l’interprete più fedele del Protocollo di Kioto. La giornata di oggi, voluta da Federchimica, intende dunque sfatare un pregiudizio, facendo entrare la gente in diretto contatto con il mondo della chimica, perché solo conoscendolo da vicino lo si può giudicare senza preconcetti. Ma anche affermare un primato, che fa dell’Italia il terzo produttore chimico in Europa e della chimica uno dei settori che più investe in ricerca e sviluppo”. Il tour ha privilegiato gli aspetti più rappresentativi dell’attività aziendale, coerentemente con gli assunti stessi dell’iniziativa: i gas e le loro modalità produttive, la ricerca e sviluppo di nuovi prodotti come driver dell’attività, e l’importanza dell’applicazione del sistema gestione sicurezza e ambiente in tutti gli aspetti operativi. Per ulteriori informazioni: www.siad.it IL CATALOGO GENERALE RUPAC ORA ANCHE SU CD ROM Il catalogo generale 2011 della RUPAC è disponibile on-line e in versione CDRom: nell’ampia gamma dei prodotti presentati spiccano i nuovi strumenti per il controllo tridimensionale integrato (ottico, con fibra ottica, con laser, a contatto e a raggi X - tomografia) che combinano una misura completa e accurata con una straordinaria velocità di esecuzione, rendendo possibile la soluzione di qualsiasi problematica di misura dimensionale. Una copia omaggio del catalogo può essere richiesta sul sito web www.rupac.com nel quale è possibile, con un semplice click, aggiornarsi in tempo reale su tutte le novità presentate, consultare le offerte promozionali aggiornate per poter meglio fruire delle migliori condizioni di acquisto, conoscere tutte le date delle manifestazioni fieristiche a cui la società partecipa nel corso dell’anno e, per finire, reperire gli indirizzi commerciali utili nelle varie regioni italiane. T_M ƒ 234 N. 03ƒ ; 2011 FABBRICHE APERTE NEL MONDO DEI GAS ▲ NEWS KIT ACCELEROMETRICI “ALTA TEMPERATURA” PER LA MISURAZIONE DI VIBRAZIONI NELLE TURBINE A GAS IMI sensor, una divisione di PCB Piezotronics Inc., annuncia la commercializzazione mondiale di kit accelerometrici “alta temperatura” modelli 600B13 e 600B14 per la misurazione di vibrazioni nelle turbine a gas. Questi kit comprendono (i) accelerometro ad alta temperatura con uscita laterale, (ii) cavo integrale ermetico di lunghezza 3 metri, (iii) amplificatore integrale ICP®. Sono ideali per molteplici applicazioni relative alla generazione di energia quali monitoraggio, posizionamento su turbine, sistemi di scarico, tubazioni in ambienti estremi dove la temperatura può andare fino a 482 °C. La modalità costruttiva del nuovo elemento interno all’accelerometro presente nei kit 600B13/B14 costituisce un miglioramento significativo nel gestire i risultati di misura, dove i cambiamenti di temperatura e gli “spike” transitori sono una condizione comune nel mondo delle turbine a gas. Inoltre, l’integrazione del sensore con cavo e amplificatore di carica ICP®, rende unico questo kit accelerometrico ad alta temperatura. Esso rappresenta per gli operatori del settore una soluzione molto pratica. La catena completa di misura elimina la contaminazione dovuta all’ambiente di misura nonché i comuni problemi di scarsa immunità al rumore. L’amplificatore integrale ICP® è una soluzione che consente inoltre l’utilizzo con attrezzature standard di acquisizione dati. I kit IMI 600B13 e 600B14 sono progettati come sostituzioni drop-in per gli attuali accelerometri con basi a tre punti di fissaggio del tipo ARINC®; inoltre essi hanno una temperatura di esercizio più alta rispetto a molti sensori concorrenti. Il modello 600B13 dispone di una sensibilità di 100 mV/g (10,2 mV/(m/s2)), e il modello 600B14 dispone di una sensibilità di 10 mV/g (1,02 mV/ (m/s2)). La vasta gamma di frequenze per 600B13/B14 (± 5%) 282-240 cpm (da 4,7 a 4000 Hz) li rende ideali come accelerometri ad alta temperatura per la misurazione delle vibrazioni all’interno di turbine a gas. Per ulteriori informazioni: www.pcbpiezotronics.it La Rupac, Rappresentanze Utensili Precisione Apparecchi Controllo, fondata nel 1949 dall’Ing. Bruno Friso, offre da sempre, per far fronte ad un settore in continua evoluzione, un’ampia gamma di strumentazione ed apparecchiature di controllo a livelli qualitativi molto elevati e con un costante impegno verso il progresso tecnologico. Lo staff tecnico di Rupac è costantemente disponibile per individuare la soluzione ottimale per le esigenze dei clienti, offrendo una consulenza globale, sia presso le nuove show rooms, sia presso la sede del cliente. Il servizio non si limita alla consulenza pre-vendita, ma continua con l’installazione e certificazione in loco, i corsi d’istruzione e assistenza post-vendita e la possibilità di stipulare contratti di manutenzione programmata. Le riparazioni e il controllo pre-vendita degli strumenti vengono effettuati nel laboratorio interno. Grazie a tutto questo il marchio Rupac si pone tra i leader, a livello nazionale ed europeo, nel settore della strumentazione di misura e controllo. MANIFESTAZIONI EVENTI E FORMAZIONE ■ 2011-2012 eventi in breve 2011 26 - 28 SETTEMBRE Capri, Italy 4th EOS Topical Meeting on Optical Microsystems (OMS2011) www.myeos.org/events/capri2011 26 - 29 SETTEMBRE Online IEEE Online Conference on Green Communications (IEEE GreenCom’11) www.ieee-greencom.org/submit.html 27 - 29 SETTEMBRE Paris, France Thermal investigations of ICs and Systems http://cmp.imag.fr/conferences/therminic/ therminic2011 28 - 30 SETTEMBRE Aachen, Germany IEEE AMPS 2011 (Applied Measurements for Power Systems) http://amps2011.ieee-ims.org 30 SETT - 1 OTT Bangkok, Thailand _AMMO2011_ - International Conference on Advanced Materials in Microwaves and Optics (EI Compendex) www.ited.org.cn/ammo 3 - 7 OTTOBRE Villa Olmo, Como, Italy 13th ICATPP Conference on Astroparticle, Particle, Space Physics and Detectors for Physics Applications http://villaolmo.mib.infn.it/Conference_Posters/ Preliminary_Programme_2011v0.4.pdf 9 - 13 OTTOBRE Arlington, VA, USA IEEE Photonics 2011 Conference (IPC11) www.photonicsconferences.org/PHOTONICS2011/ index.php 12 - 14 OTTOBRE Olhao, Portugal VIPIMAGE: III Eccomas Thematic Conference on Computational Vision and Medical Image Processing http://paginas.fe.up.pt/~vipimage/index.html 17 - 19 OTTOBRE Lisbona, Portugal IEEE EPQU - Electrical Power Quality and Utilization Conference www.epqu2011.org 17 - 20 OTTOBRE Brussels, Belgium 2nd www.ieee-smartgridcomm.org 20 - 21 OTTOBRE Nice, France JOURNEES DE LA TELEMETRIE LASER 2011 [email protected] 24 - 26 OTTOBRE Paris, France 3rd www.ijcci.org 28 - 30 OTTOBRE Shangai, China 2011 International Conference on Computer Science and Engineering CSE 2011 www.engii.org/cet2011/CSE2011.aspx 28 - 30 OTTOBRE Shanghai, China 2011 Int’l Conf. on Signal and Information Processing (CSIP 2011) www.engii.org/cet2011/csip2011.aspx 28 - 31 OTTOBRE Limerick, Ireland IEEE SENSORS 2011 http://ieee-sensors2011.org 30 - 31 OTTOBRE Guangzhou, China 2011 International Conference on Photonics, 3D-imaging, and Visualization www.cas-association.org/icp3v2011/index.htm IEEE International Conference on Smart Grid Communications (SmartGridComm) Int’l Joint Conf. on Computational Intelligence 7th Annual Conference of the IEEE Industrial Electronics Society 7 - 10 NOVEMBRE Melbourne, Australia ECON 2011 - 14 - 16 NOVEMBRE Bologna, Italy Smart Measurements for Future Grids SMFG 2011 24 - 25 NOVEMBRE Roma, Italy - Ing., La Sapienza 4th Mediterranean Conference on Nano-Photonics, MediNano-4 www.myeos.org/events/MediNano-4 28 NOV - 2 DIC Xcaret, Mexico Nanomaterials conference www.zingconferences.com/z.cfm?c=62 29 NOV - 2 DIC Orlando, USA Conference on Education, Informatics and Cybernetics: icEIC 2011 www.2011conferences.org/iceic Wuhan China 4th www.ciseng.org/cite2011 9 - 11 DICEMBRE www.iecon2011.org http://smfg2011.ieee-ims.org Int’l Conf. on Information Technology in Education(CITE 2011) 2012 12 - 14 FEBBRAIO Kauai, Hawaii Pan-Pacific Microelectronics Symposium www.smta.org/panpac/call_for_papers.cfm 4 - 8 MARZO Los Angeses, USA OFCNFOEC 2012 www.ofcnfoec.org/home.aspx 27 - 30 MARZO Kuala Lumpur, Malaysia 31th Progress in Electromagnetics Research Symposium (PIERS) http://piers.org/piers/submit/survey.php 28 - 30 MARZO Santiago de Compostela, Spain International Conference on Renewable Energies and Power Quality (ICREPQ’12) www.icrepq.com 18 - 19 APRILE Torino, Italy Affidabilità & Tecnologie - Sesta edizione - Strumenti, soluzioni e tecnologie per l’Innovazione Competitiva www.affidabilita.eu 23 - 27 APRILE Marrakech CAFMET 2012 - African Committee of Metrology www.npl.co.uk/events/23-27-apr-2012-cafmet-2012 11 - 13 LUGLIO Brussels, Belgium 16th www.sysid2012.org/ 9- 14 SETTEMBRE Bexco, Republic of Korea XX IMEKO World Congress http://imeko2012.kriss.re.kr 22 - 24 NOVEMBRE Belgrade, Serbia 2012 Telecommunications Forum TELFOR2012 www.telfor.rs/?lang=en IFAC Symposium on System Identification, SYSID 2012 T_M N. 3/11 ƒ 235 N. 03ƒ ; 2011 ▲ NEWS LE SOLUZIONI DI ACQUISIZIONE DATI HBM VINCONO LE PROVE COMPARATIVE IN CINA Le prove comparative sulle apparecchiature di acquisizione dati da usare nei treni ad alta velocità, effettuate dall’Università Beijing Jiaotong in Cina, hanno dimostrato l’efficacia della strumentazione SoMat eDAQ della HBM operante in condizioni estreme. Le prove sono state effettuate per determi- condizioni ambientali comprendevano temperature da -20°C a 60°C, con elevati livelli di vibrazione, umidità, polvere e interferenze elettriche e magnetiche. L’apparecchiatura HBM è stata l’unica in grado di funzionare efficacemente durante la prova finale di due giorni. nare la miglior apparecchiatura di acquisizione dati per monitorare e analizzare la fatica, e quindi per determinare il danneggiamento potenziale di parti meccaniche critiche, quali il telaio dello sterzo e gli assi di connessione del treno ad alta velocità da 350 km/h CHRIII. L’obiettivo è quello di dotare il nuovo treno ad alta velocità di un sistema eDAQ durante l’assemblaggio iniziale, in modo che siano raccolti i dati lungo la vita operativa del treno con il continuo monitoraggio delle condizioni. La specifica apparecchiatura deve essere in grado di funzionare adeguatamente in tutte le condizioni climatiche e operative. Le specifiche richiedono che il treno in prova sia equipaggiato con due o tre eDAQs con 32 canali per unità, utilizzati per una grande varietà d’ingressi, sebbene l’impiego principale sia il monitoraggio di deformazioni, spostamenti e pressioni. Sistema integrato Condizioni di prova Le prove sono state condotte usando le apparecchiature di sei fornitori diversi: tra questi HBM, che inizialmente non era in buona posizione in quanto alcuni concorrenti erano già fornitori di strumenti per acquisizione dati. Le condizioni di prova sono state molto severe: ad esempio, i trasduttori di spostamento posizionati sotto il treno dovevano poter operare per molti giorni senza alcuna possibilità di essere verificati. Le T_M ƒ 236 L’apparecchiatura HBM scelta comprende il SoMat eDAQ combinato con un SoMat eDAQ Vehicle Network Communications Layer (ECOM) e un SoMat eDAQ Bridge Layer (EBRG), per ottenere un sistema integrato completo e robusto. Il SoMat eDAQ della HBM, progettato specificamente come robusto sistema mobile di acquisizione dati, è dotato di condizionamento segnali all’avanguardia, ed è capace di effettuare un’ampia gamma di elaborazione dati a bordo, funzioni di trigger, salvataggio intelligente dei dati e calcoli complessi. Si può usare sia come sistema cablato sia senza fili, dato che utilizza la comunicazione Ethernet e ospita il proprio server Web. Non abbisogna di software PC per lanciare/arrestare le prove o per caricare i dati. Il SoMat eDAQ Vehicle Network Communications Layer (ECOM) completa l’eDAQ munendolo di tre dispositivi interfaccia CAN, di un’interfaccia Vehicle Bus Module (VBM) e della porta di comunicazione GPS. Ciò rende l’ECOM estremamente versatile, provvedendo alla correlazione fra i canali del bus del veicolo ai dati fisici e al GPS. Si possono registrare fino a 254 canali per ogni ingresso del bus del veicolo, rendendo virtualmente illimitato il numero totale di canali del sistema. I canali del bus veicolo non consumano alcuno degli ingressi analogici, essendo l’ingresso di tutti i 254 canali effettuato direttamente mediante un singolo connettore. Infine, il SoMat eDAQ Bridge Layer (EBRG) dispone di 16 ingressi analogici a basso livello, differenziali, campionati simultaneamente mediante connettori indipendenti. Lo EBRG opera con trasduttori amplificati e non, compresi estensimetri, accelerometri trasduttori di pressione, celle di carico e altri segnali analogici generici. L’EBRG dispone anche di un eccellente condizionamento di estensimetri con il supporto di configurazioni a 1/4, 1/2 e ponte intero. Qian Xu, Ingegnere Venditore della HBM, afferma: “Fra le ragioni principali per cui abbiamo ottenuto quest’ordine, sono particolarmente rilevanti la robustezza dell’eDAQ e la sua capacità di registrare in modo affidabile tutti i dati, anche nelle più dure condizioni di prova”. Sebbene queste prove siano state condotte dalla Università Beijing Jiaotong, i treni vengono gestiti dalla China CNR Corporation Limited (CNR). Le mansioni della CNR comprendono la progettazione, costruzione, ristrutturazione, revisione e manutenzione di locomotive elettriche e Diesel, carrozze passeggeri e vagoni merci, unità multiple elettriche e Diesel, motori di trazione e materiale rotabile. La CNR provvede a oltre la metà delle 500000 locomotive e materiale rotabile lungo i 70000 chilometri delle ferrovie cinesi. STORIA E CURIOSITÀ ▲ Emilio Borchi1, Renzo Macii2, Riccardo Nicoletti3, Alberto Nobili4 La collezione degli antichi strumenti di Ottica dell’Osservatorio Valerio di Pesaro Parte III – Gli strumenti per lo studio del magnetismo terrestre THE COLLECTION OF ANCIENT MEASUREMENT INSTRUMENTS OF THE “VALERIO” OBSERVATORY - PART 3 In the third article of this series the authors continue the description of the rich collection of ancient instruments conserved in the Valerio Observatory of Pesaro, including instruments for meteorology, astronomy, geodesy and geomagnetism. RIASSUNTO Continua con questo terzo numero la descrizione della ricca collezione di strumenti di misura conservata presso l’Osservatorio meteorologico e sismologico Valerio del Comune di Pesaro, che annovera strumenti di meteorologia, di astronomia, di geodesia, di geomagnetismo e di sismologia. GLI STRUMENTI OTTICI PER LO STUDIO DEL MAGNETISMO TERRESTRE Tra gli strumenti di ottica utilizzati per lo studio del geomagnetismo ricordiamo i cannocchiali di osservazione dell’apparecchio bifilare, del declinometro magnetico e dell’inclinometro magnetico. Durante la direzione di Luigi Guidi per l’osservazione del declinometro e del bifilare venivano utilizzati rispettivamente il teodolite di Ertel e un circolo ripetitore di Lerebours et Secretan. Erano presenti inoltre due piccoli cannocchiali di Ertel su base di marmo per la lettura a distanza secondo il metodo di Gauss, di cui uno illustrato in Fig. 10. I due cannocchiali erano poco funzionali. Quando Calvori si decise a mettere in vendita tanto il teodolite di Ertel quanto il circolo ripetitore di Lerebours et Secretan per risanare la situazione economica dell’osservatorio, egli per eseguire le osservazioni ai magnetometri pensò di utilizzare nuovamente i primitivi strumenti di osservazione, di cui uno solo, quelli dell’inclinometro, era in funzione. Allo scopo progettò piccoli cannocchiali di osservazione che fece costruire nel 1884, completi di scala per la lettura a riflessione, dalla ditta Salmoiraghi di Milano. per lo studio delle proprietà del campo magnetico terrestre era quello di Lamont. Si componeva di una sbarra magnetizzata, sospesa senza torsione a un filo di soia che passava lungo un tubo di vetro. Anche la sbarra magnetizzata era protetta da un contenitore di vetro. La cassetta di vetro era adagiata al centro di un disco orizzontale, che a sua volta si muoveva in maniera indipendente su un altro disco al quale era fissato il cannocchiale di osservazione. La forma dello strumento restò praticamente inalterata per diversi anni. In seguito venne sostituita da quella proposta dai costruttori parigini Brunner e il teodolite magnetico di Lamont fu conosciuto anche come teodolite magnetico di Brunner. Figura 10 – Cannocchiali su base di marmo In realtà né il teodolite di Ertel né il circolo ripetitore di Lerebours et Secretan furono venduti, e continuarono ad essere parzialmente utilizzati per le Figura 11 – Teodolite magnetico osservazioni magnetiche. Attualmente i tre cannocchiali Salmoiraghi sono associati ai magnetometri. Tra gli strumenti ottici di geomagnetismo dell’Osservatorio Valerio un 1 Università di Firenze e posto di rilievo si deve attribuire al Osservatorio Ximeniano di Firenze teodolite magnetico di Brunner (Fig. 11) 2 Osservatorio Ximeniano di Firenze con treppiede di legno. Il teodolite 3 CSO Srl, Badia a Settimo, Firenze magnetico che di solito nell’Ottocento [email protected] veniva utilizzato durante le spedizioni 4 Osservatorio Valerio, Comune di Pesaro T_M N. 3/11 ƒ 237 Il teodolite magnetico dell’Osservatorio fu acquistato da Luigi Guidi verso il 1880 dalla ditta Tecnomasio Italiano di Milano. Si tratta di uno strumento molto simile nella forma ai teodoliti magnetici costruiti a Parigi in quegli anni dai fratelli Brunner e per questo motivo nella corrispondenza tra Calvori e Tacchini degli anni 1883 – 84 è indicato come “teodolite Brunner”. Il Calvori avrebbe voluto utilizzarlo per misure assolute di magnetismo. Nonostante non avesse potuto acquistare le aste destinate a sostenere il magnete durante gli esperimenti di deviazione e la cassetta per la misura del periodo di oscillazione del magnete, secondo il metodo di Gauss, il Calvori sembra aver utilizzato con una certa continuità lo strumento. GLI STRUMENTI DI OTTICA METEOROLOGICA Il polariscopio di Arago (1786-1853) per la misura della purezza dell’aria dei costruttori francesi Lerebours et Secretan (Fig. 12) venne acquistato Fig. 12 – Polariscopio di Arago da Luigi Guidi verso il 1860. “La lunette polariscope” è fondata sulla polarizzazione cromatica, fenomeno scoperto da Arago nel 1811. Tale apparecchio serve per riconoscere la presenza della luce polarizzata anche in quantità estremamente piccola. Esso consiste di un analizzatore birifrangente costituito di spato d’Islanda, davanti al quale è posta una lamina di cristallo di rocca, di quarzo o di mica. Lo spato e il cristallo di rocca sono situati alle estremità di un tubo metallico chiuso da un diaframma portante un piccolo foro circolare. Se la luce che cade sulla lamina è T_M ƒ 238 N. 03ƒ ; 2011 ▲ STORIA E CURIOSITÀ naturale, l’occhio vede attraverso lo spato due immagini incolori del foro del diaframma; se invece la luce è polarizzata, le immagini appaiono colorate con colori complementari, che cambiano girando l’apparecchio attorno al proprio asse. La lamina di quarzo, spessa 8,5 mm e indicata con la lettera Q, è situata immediatamente dietro all’obbiettivo. Essa ha la proprietà di ruotare il piano di polarizzazione della luce trasmessa di un angolo che è funzione della lunghezza d’onda. Dall’altra parte rispetto all’oculare si trova il prisma di Wollaston di spato d’Islanda. Il tubo del polariscopio è lungo 180 mm e ha il diametro di 29 mm. La lunghezza del tubo è di 210 mm, l’analizzatore è formato da due cristalli di calcite incollati con balsamo del Canada, la lamina è di quarzo. Terminiamo questa sezione accennando agli strumenti utilizzati nell’Osservatorio per la misura della velocità delle nubi e della forza del vento superiore. L’apparecchio per la misura della velocità delle nubi ha valore tipicamente didattico. La velocità si ricavava in modo molto approssimato osservando per riflessione il moto delle nubi sopra uno specchio suddiviso in piccoli settori rettangolari (Fig. 13). Il costruttore era ancora la ditta di Lerebours et Secretan da cui il Guidi l’acquistò verso il 1870. Fig. 13 – Apparecchio per la misura della forza del vento La direzione e la velocità apparente del vento superiore, cioè del vento che soffia nelle regioni elevate dell’atmosfera, si ricava approssimativamente dal movimento delle nuvole tutte le volte che lo stato del cielo lo permette, cioè quando questo non è interamente sereno ne è coperto da uno strato uniforme di nuvole. Lo strumento che serviva a questo scopo era, nella seconda metà dell’Ottocento, il nefoscopio (Fig. 14). Esistono due versioni principali del nefoscopio, la prima dovuta al P. Filippo Cecchi dell’Osservatorio Ximeniano di Firenze e costruita dalle Officine Galileo, la seconda dovuta P. Braun dell’Osservatorio del Collegio Romano e costruita dal Tecnomasio Italiano di Milano. Entrambe le versioni furono utilizzate negli osservatori meteorologici italiani. L’Osservatorio Valerio, benché possedesse entrambi gli strumenti, utilizzò prevalentemente il nefoscopio di Braun, acquistato dal Guidi nel 1880. Fig. 14 – Nefoscopio Braun N. 03ƒ ;2011 APPARECCHI DI SISMOLOGIA Tra gli strumenti di sismologia presenti all’Oservatorio Valerio, solo il tromome- Fig. 15 – Microscopio di Nachet tro è dotato di un microscopio di osservazione (Fig. 16). L’Osservatorio Valerio fu uno dei primi in Italia ad intraprendere una stretta collaborazione scientifica con Timoteo Bertelli, il famoso scienziato barnabita ideatore delle osservazioni rivolte allo studio dei lenti movimenti della crosta terrestre, che si pensava fossero in relazione diretta con l’inizio dei terremoti. Il tromometro normale nacque verso il 1873 dalla collaborazione tra Bertelli e De Rossi, direttore dell’Osservatorio di Rocca di Papa, allo scopo di progettare uno strumento standard e di basso costo per gli Osservatori italiani. Si tratta semplicemente di un lungo tubo di latta leggermente conico all’interno del quale è sospeso un filo di rame che sostiene una massa dal peso di 100 g. Al di sotto è fissato un ago la cui punta viene osservata con un microscopio girevole con oculare munito di scala micrometrica. ■ Fig. 16 – Tromometro Bertelli di: tramite colla, cera, vite e nastro adesivo. Inoltre sono disponibili tecnologie “clip” e “stud”, in quanto il sensore ha un foro filettato 10-32UNF per ogni lato. NUOVA GENERAZIONE Con la sua eccezionale ampiezza di DI ACCELEROMETRI banda, accuratezza di fase e resistenza allo shock, il modello 8688A(x) è ideale TRIASSIALI PIEZO-BEAM® per un utilizzo nelle analisi modali SIMO o MIMO, nelle analisi modali operative e Il Gruppo Kistler ha recentemente annun- nelle applicazioni di monitoraggio sismico. ciato il lancio sul mercato del modello Fra gli specifici accessori: il cavo a eleva8688A(x), accelerometro triassiale Piezo- ta schermatura rivestito di silicone tipo Beam®, progettato per misure accurate a 1734 e numerosi accessori di montaggio, frequenze da 0,5 a 5000 Hz. Disponibile a clip (800M155), magnetici (800M159), in tre diverse gamme per 5, 10 e 50 g, lo prigionieri adesivi isolati (800M157) e strumento incorpora un elemento sensore prigionieri di montaggio (8400K03). piezoceramico bimorfo, con convertitore di carica interno Piezotron® compatibile Per ulteriori informazioni: con tutti i front end disponibili sul merca- www.kistler.com to. Sono impiegati metodi brevettati per compensare termicamente l’elemento di rilevamento. Il tipo 8688A(x) offre inoltre TEDS IEEE1451.4 quale opzione per semplificare e rendere più preciso e accurato il lavoro di misura. I livelli di rumore e di interferenza ridotti consentono risoluzioni molto elevate, fino a 140 µg. Questo accelerometro a tre assi con cassa cubica in titanio è ermeticamente sigillato e può essere installato in diversi mo- NEWS ■ Per la misura della qualità dell’aria e dei pollini il Guidi, oltre ai consueti forni, setacci, provette e reagenti chimici dell’epoca, utilizzava un eccellente microscopio composto grande modello di Nachet, acquistato a Parigi nel 1875 (Fig. 15). Il microscopio, contenuto in una bella cassetta di mogano, è corredato di alcuni accessori tra cui sei obbiettivi di differente ingrandimento disposti in una scatolina rivestita esternamente di pelle nera ed all’interno di velluto rosso. Un oculare con prisma a 45° per raddrizzare l’immagine veniva utilizzato originariamente per studi anatomici. Per ottenere le dimensioni reali di un oggetto il microscopio di Nachet faceva ricorso a due micrometri, non più presenti tra gli accessori; il primo, diviso in centesimi di millimetro, veniva posato nel portaoggetti, il secondo, a divisioni arbitrarie era introdotto tra le due lenti dell’oculare di Campani e serviva per fissare la posizione quando i due micrometri erano disposti parallelamente. Infine un altro accessorio andato perduto è la camera chiara che serviva per riprodurre fedelmente con una matita le immagini osservate al microscopio. STORIA E CURIOSITÀ T_M ƒ 239 T U T T O _ M I S U R E Anno XIII - n. 3 - Settembre 2011 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttore: Alfredo Cigada Comitato di Redazione: Salvatore Baglio, Antonio Boscolo, Marcantonio Catelani, Marco Cati, Pasquale Daponte, Gianbartolo Picotto, Luciano Malgaroli, Gianfranco Molinar, Massimo Mortarino ABBIAMO LETTO PER VOI ■ INTELLIGENT INSTRUMENTATION PRINCIPLES AND APPLICATIONS Redazioni per: Storia: Emilio Borchi, Sigfrido Leschiutta, Riccardo Nicoletti, Mario F. Tschinke Le pagine delle Associazioni Universitarie di Misuristi: Stefano Agosteo, Paolo Carbone, Carlo Carobbi, Alfredo Cigala, Domenico Grimaldi, Claudio Narduzzi, Marco Parvis, Anna Spalla Lo spazio delle altre Associazioni: Franco Docchio, Giuseppe Nardoni Le pagine degli IMP: Domenico Andreone, Gianfranco Molinar, Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini Comitato Scientifico: ACISM-ANIMA (Roberto Cattaneo); AICQ (Giorgio Miglio); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Anna Spalla), CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); GRUPPO MISURISTI NUCLEARI (Stefano Agosteo) INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Elio Bava, Flavio Galliana, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli); SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa); SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli) Videoimpaginazione: la fotocomposizione - Torino Stampa: La Grafica Nuova - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/5/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: [email protected] Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale. NEL PROSSIMO NUMERO • Il meglio di Metrologia & Qualità 2011 • Sicurezza sui luoghi di lavoro E molto altro ancora T_M N. La Redazione di Tutto_Misure ([email protected]) di Manabendra Bhuyan CRC Press 547 pagine ISBN 1420089536: $ 99,45 (amazon.com), 2010 L’IT ha trasformato i sensori, da dispositivi in grado di semplice condizionamento di segnali, in dispositivi con funzioni più specializzate, quali la validazione, la compensazione e la classificazione. Il testo si pone l’obiettivo di diventare una sorgente completa e autorevole della strumentazione intelligente. Con linguaggio semplice, il testo offre numerosi esempi pratici, e fornisce applicazioni su 14 casi di studio per una comprensiva comprensione della materia Partendo da una breve introduzione sui concetti base, il Prof. Bhuyan illustra le caratteristiche statiche e dinamiche dei dispositivi di misura, con riferimento ai vari tipi di sensori, quali i sensori smart, i sensori soft, i sensori autovalidanti, e i sensori neurali. Vengono descritte, per i sensori intelligenti, la taratura, la linearizzazione e la compensazione. Particolare attenzione è fornita alle tecniche neurali e ai protocolli d’interfacciamento nelle piattaforme wireless. L’autore è professore al Dept. of Electronics and Communication Engineering presso la Tezpur University (India). LE AZIENDE INSERZIONISTE DI QUESTO NUMERO AEP Transducers p. 162 Affidabilità & Tecnologie 4a di cop, p. 218 Asita p. 232 Bocchi p. 164 CCIAA di Prato p. 224 Cibe p. 168 Cognex p. 182-208 Delta Ohm p. 178 DGTS p. 200 F.lli Galli p. 188 Festo p. 170 Fluke-CalPower p. 190 HBM Italia p. 186-232-236 Hexagon Metrology p. 214 3/11 ƒ 240 Kistler Italia p. 180-230-239 Kuka p. 172 IC&M p. 176 Labcert p. 192 LMS Italiana p. 161 LTTS p. 210 Luchsinger p. 184 Mitutoyo Italiana p. 174 PCB Piezotronics p. 234 Physik Instrumente p. 194 Renishaw p. 166-226 Rupac 2a di cop, p. 234 Scandura 3a di cop Siad p. 234 Soc. Bilanciai Porro p. 196
© Copyright 2024 Paperzz