R7545

Spécification et choix de l’équipement
d’un système automatisé
par
Claude GAILLEDREAU
Ingénieur de l’École Nationale Supérieure de Chimie et de Physique de Bordeaux
Animateur de la Commission Technique Régulation Avancée de l’EXERA
1.
Définitions..................................................................................................
R 7 545 - 2
2.
Règles de conception d’un système automatisé de production
—
3
3.
Supervision ................................................................................................
—
5
4.
Automates programmables...................................................................
—
6
5.
Régulation ..................................................................................................
—
7
6.
Systèmes numériques de contrôle-commande (SNCC).................
—
9
7.
Réseaux de terrain ...................................................................................
—
9
8.
Capteurs et actionneurs.........................................................................
—
9
9.
Contraintes d’environnement...............................................................
—
10
10. Matériel électrique en atmosphère explosible ................................
—
10
11. Guides de choix et évaluations............................................................
—
12
12. Conclusion .................................................................................................
—
12
Pour en savoir plus...........................................................................................
Doc. R 7 545
hoisir les équipements de mesure et d’automatisation d’une installation
industrielle est un problème dont les données ont, depuis une ou deux
décennies, considérablement évolué, se modifiant constamment. L’informatique,
en particulier, s’est rapidement infiltrée dans tous les instruments et automatismes, les rendant plus performants mais aussi plus complexes, de sorte que
le concepteur-ensemblier devient plus dépendant des grands constructeurs qu’il
ne l’était par le passé.
Les utilisateurs se sont efforcés de pallier cette difficulté en se regroupant ;
est ainsi née l’EXERA (Association des Exploitants d’Équipements de Mesure,
de Régulation et d’Automatismes). Le présent article est, dans une large mesure,
inspiré des Guides de Choix élaborés par cette association, dont on s’efforcera
de faire une synthèse conforme à l’esprit de cette Collection. Les lecteurs
intéressés par plus de détails sur tel ou tel point particulier pourront s’adresser
à l’EXERA.
R 7 545
10 - 1995
C
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
R 7 545 − 1
SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
_______________________________________________________________________
1. Définitions
1.1 Les fonctions d’une usine
automatisée
On entend par Système Automatisé de Production (SAP)
l’ensemble des moyens (matériels et logiciels) constituant la partie
automatisme, communication et conduite de l’installation. Le SAP
assure l’acquisition de l’information fournie par les capteurs, en fait
le traitement et élabore la commande des actionneurs. Capteurs,
actionneurs, et machines-outils dans les processus manufacturiers,
constituent la partie opérative du processus. Le SAP assure
également la communication, ou échange d’informations, avec son
environnement qui, outre la partie opérative, comprend l’interface
opérateurs permettant la conduite ainsi que la gestion technique et
la gestion d’entreprise (comptabilités générale et analytique, gestion
financière), domaine où se situent les aides à la maintenance et à
l’optimisation de la production.
Nota : convenons d’appeler procédé la description abstraite de la méthode d’élaboration
du produit fini, et processus la suite des étapes physiques qui matérialisent cette
élaboration. Il semble en effet que le sens exact de chacun de ces mots, équivalents l’un
et l’autre à l’anglais process, n’apparaisse pas toujours très clairement à l’usage courant.
1.2 L’architecture d’un système
de productique
L’usine automatisée est souvent très complexe, comprenant un
grand nombre de machines mécaniques, informatiques ou autres,
et des logiciels et programmes qui en assurent le fonctionnement :
c’est un ensemble dont on doit cependant rester maître à tous les
stades du développement et de l’exploitation. On en est donc venu
tout naturellement à hiérarchiser les matériels par classes de niveau
croissant d’abstraction [1]. L’intérêt de cette démarche est qu’elle
permet de regrouper dans chacune des classes tout ce qui relève
d’un même métier, de spécialistes parlant le même langage ; il
devient en quelque sorte possible, à chacun des niveaux, de
raisonner en faisant abstraction du niveau inférieur, c’est-à-dire en
fait des éléments constitutifs du niveau auquel on se place. Une telle
démarche permet en outre de situer dans un ensemble préstructuré
les divers matériels et sous-systèmes offerts par les constructeurs,
et d’en percevoir immédiatement les limites de fourniture.
Historiquement (1987) le premier schéma de ce type fut le modèle
NBS (National Bureau of Standards, USA), qui faisait apparaître
quatre niveaux successifs : machines < cellule < atelier < usine ; il
était inspiré des processus manufacturiers, le niveau « machine »
ayant peu d’intérêt dans un processus continu. Ce modèle a évolué
vers la pyramide CIM (Computeur Integrated Manufacturing, en
français Productique ), avec l’intégration d’un niveau zéro
complémentaire (capteurs et actionneurs).
Il est intéressant, à titre d’exemple, d’examiner l’offre d’un
constructeur dans le cadre de cette présentation ; voici l’offre globale
IBM, comprenant les fabrications propres à la société et celles qui leur
sont associées en vertu d’accords de partenariat [2] :
— niveau 0 – Capteurs/actionneurs : aucune offre,
niveaux 0 à 1 : bus Efiway, Bitbus, FIP ;
— niveau 1 – Équipements : automates programmables,
commandes d’axes, entrées-sorties déportées (divers fabricants),
niveaux 1 à 2 : bus Token Ring ;
— niveau 2 – Cellule : aucune offre (la cellule comprend essentiellement la conduite),
niveaux 2 à 3 : bus Token Ring ;
— niveau 3 – Atelier : logiciels de supervision et de contrôle
qualité,
niveau 3 à 4 : bus Ethernet, MAP, Token Ring ;
— niveau 4 – Usine : logiciels de suivi de production, base de
données.
R 7 545 − 2
L’architecture CIM ne suffit pas, cependant, à représenter
correctement les échanges d’information ; le modèle actuellement
le plus avancé est le modèle 3 axes dû à J.P. Thomesse [1] (figure 1).
L’axe horizontal, dans le plan de la figure, schématise le processus
physique et son interfaçage avec le système de commande ; il
regroupe, en procurant plus de souplesse (processus manufacturier
ou continu), les niveaux 0 et 1 de la pyramide CIM. L’axe vertical
représente les niveaux hiérarchiques introduits à l’origine par le
modèle NBS. Le troisième axe enfin, perpendiculaire à la figure,
représente les fonctions CIM que l’on trouve effectivement dans une
application donnée, sans qu’il soit nécessaire d’encombrer le
graphique avec des fonctions inadaptées ; ces fonctions ne sont pas
hiérarchisées, mais indépendantes en termes de service. L’apport
essentiel de ce modèle réside dans le fait qu’il permet de représenter
les échanges d’information à la fois dans les plans verticaux et à
différents niveaux horizontaux. Les échanges verticaux portent sur
des services, alors que les échanges horizontaux concernent des
variables d’état.
1.3 Modélisation des échanges
d’information
Les premiers réseaux de communication ayant été conçus par les
constructeurs de matériels informatiques, chacun a tout
naturellement créé ses propres matériels et ses propres protocoles,
ensembles de règles définissant le cadre et les séquences de
communication entre deux systèmes. Une telle situation impose,
dans la pratique, de confier l’ensemble d’une application à un
fournisseur unique, aucun des éléments de tels systèmes n’étant
interchangeable avec des éléments analogues d’un concurrent. On
parle alors de système propriétaire, mot image (et non traduction)
de l’anglais proprietary – d’aucuns suggèrent aussi le terme
privatif [6]. L’ISO (International Organization for Standardization)
s’est efforcée de susciter, avec le modèle normalisé OSI (Open
Systems Interconnection), la création de systèmes ouverts,
c’est-à-dire capables d’être associés à tout autre quelle qu’en soit
la provenance ; un système propriétaire est au contraire considéré
comme fermé (ce qui, dans les faits, n’est jamais tout à fait le cas).
Le modèle de référence OSI est un ensemble de normes et de
concepts permettant l’interconnexion de systèmes informatiques
ouverts hétérogènes. Il est structuré en sept couches [3] [16].
1.4 Objet et limites du présent article
Cet article porte sur le choix des équipements d’automatisme mis
en œuvre aux niveaux bas de la pyramide productique : organes
d’acquisition, de traitement et de commande, partie opérative du
processus, bus de liaison (figure 2). Le sujet est vaste, même si on
le limite ainsi : nous essayerons donc d’en dégager les points forts,
en citant la documentation que le lecteur pourra consulter pour en
savoir plus.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
_______________________________________________________________________ SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
Une remarque s’impose : sauf cas très particulier et dans des
limites bien définies, il faut raisonner en termes de besoin, et non
de solution. Il faut savoir ce que l’on va faire, avant de se demander
comment et avec quoi on le fera.
2.2 Intégrer les systèmes
dès leur conception
Figure 1 – Modèle trois axes, dû à J.P. Thomesse (source : EXERA)
Figure 2 – Objet et limites de l’article
2. Règles de conception
d’un système automatisé
de production
2.1 Besoins et solutions : les écueils
de la routine
Une méthode usuelle de conception d’un nouvel atelier ou d’une
nouvelle unité consiste à rechercher si l’on n’a pas déjà réalisé
quelque chose d’équivalent et, si tel est le cas, à reprendre les
solutions que l’on avait précédemment retenues. Les avantages de
cette démarche sont évidents : le volume des nouvelles études est
minimisé sans grand risque d’erreur de conception, et le coût de la
réalisation est en principe bien cerné à l’avance. S’agissant des
matériels, on s’épargnera les aléas de fournisseurs inconnus, et peutêtre des stages de formation opérateur : attitude compréhensible
chez un exploitant dont on modernise ou étend l’usine. Cette
méthode peut bien sûr s’avérer excellente, mais il faut avoir
conscience de ses limites.
Citons encore, pour mémoire, le cas où le choix de matériel serait
« verrouillé », l’entreprise ayant décidé de s’approvisionner chez un
fabricant choisi à l’avance sur des bases politiques, stratégiques, ou
simplement commerciales.
Il résulte d’enquêtes menées par la Commission Technique SAP
de l’EXERA que la conception des systèmes automatisés n’est trop
souvent que :
— le résultat d’une juxtaposition d’îlots d’automatisation et
d’informatisation, au fil des projets ;
— ou la duplication plus ou moins systématique d’une architecture standard « maison » ;
quelquefois, néanmoins, il est fait usage d’un canevas méthodique
et l’on essaye d’identifier et de prendre en compte les spécificités
de l’application envisagée.
Il faut cependant avoir à l’esprit que :
— ces systèmes ont besoin d’être de plus en plus intégrés,
c’est-à-dire qu’ils doivent réunir dans un ensemble informatisé parfaitement intercommunicant toutes les fonctions liées à l’entreprise
(gestion, études, méthodes, ordonnancement, production, achats,
etc.) ;
— les systèmes automatisés doivent être flexibles, c’est-à-dire
être en mesure de s’adapter facilement à des changements de production et de mode de conduite ;
— on peut avoir à englober dans la réalisation des sous-systèmes
existants ;
— les interfaces homme-machine doivent d’abord répondre aux
besoins réels des opérateurs de conduite.
Il convient de souligner que l’on aura besoin, dès le stade de la
conception d’un projet automatisé, de réunir à une même table des
spécialistes de cultures beaucoup plus diverses qu’on ne
l’imaginerait au premier abord : automaticiens et informaticiens, par
exemple, n’ont pas le même vocabulaire technique, et pourtant les
deux métiers s’interpénètrent.
Il faut dans un premier stade raisonner en termes de fonctions,
et non de matériels.
2.3 Le Guide d’Analyse des Besoins
Pour bien concevoir l’architecture d’un SAP, il faut avoir, dans une
phase préliminaire, collecté de façon exhaustive toutes les données
qui s’y rapportent. L’EXERA a préparé à cet effet une liste-guide
couvrant à la fois les domaines manufacturier et continu [4], de sorte
que ce document est en général surabondant par rapport aux besoins
liés à un projet particulier, mais devrait aider à ne rien laisser dans
l’ombre. Il est à noter que le plan du Guide d’analyse des besoins,
tel qu’il est présenté ci-dessous, est parfois recomposé par ses
utilisateurs qui s’efforcent de l’adapter précisément à leur cas (cf.
aussi [14]).
■ L’analyse des besoins s’organise en quatre chapitres :
— le contexte du projet ;
— l’environnement technique du SAP ;
— les fonctionnalités attachées au SAP ;
— les matériels.
● En matière de contexte, on situera le SAP dans l’ensemble du
projet dont il fait partie, en s’attachant notamment aux objectifs
généraux dudit projet, à ses aspects financiers et aux étapes
principales de son planning de réalisation. Il convient aussi de
considérer, à ce stade, les grandes lignes de l’organisation ultérieure
du travail d’exploitation, telles qu’on peut les prévoir : production,
maintenance, etc.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
R 7 545 − 3
SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
_______________________________________________________________________
● L’analyse des caractéristiques de l’environnement technique
précisera les objectifs propres au SAP et les raisons principales de sa
mise en place (rentabilité, qualité, sûreté, flexibilité, etc.), ainsi que
l’organisation des travaux de réalisation ; elle précisera notamment
les contraintes à prendre en compte pour la conception de l’architecture telles que les relations avec les fournisseurs, les règlements
de sécurité ou les standards internes. On s’informera également des
équipes qui rédigeront les spécifications et l’on étudiera le planning
détaillé de la réalisation du SAP. C’est dans cette étape de l’analyse
que l’on examinera aussi le produit, la production, le procédé et le
processus, dont on s’efforcera de faire la description détaillée :
fonctionnement, sécurité, disponibilité ; le cas échéant, on procédera
à une étude complète des risques liés à la défaillance des
équipements, ou analyse des modes de défaillances, de leurs effets
et de leur criticité (AMDEC). Pourra se poser, aussi, le problème de
l’utilisation des matériels électriques en atmosphère explosible
(industrie du pétrole et pétrochimie). On complètera par la
description de la partie opérative : machines-outils, vannes, etc., et
de ses interfaces (entrées-sorties).
● Le troisième chapitre concerne les fonctionnalités attachées au
SAP. Il comprendra la partie commande : acquisition et traitement
des entrées-sorties TOR (tout ou rien) et analogiques, optimisation
du fonctionnement, contrôle qualité, etc. et aussi la rubrique
conduite et supervision (synoptiques, gestion des alarmes et des
défauts, historique, journaux et rapports, entre autres). La partie
commande pourra être reliée à la gestion technique (bilan de
p r o d u c t i o n , p l a n i fi c a t i o n - o r d o n n a n c e m e n t , m é t h o d e s ,
maintenance) et aux services généraux (exploitation des données,
etc.).
● Le dernier chapitre de ce guide, enfin, a trait aux matériels et aux
logiciels ; il concerne tout d’abord les utilités (électricité et fluides),
les contraintes d’environnement (climat local et ambiance propre à
l’usine), ainsi que les infrastructures (locaux, trajet de câbles, etc.) ;
une dernière catégorie de contraintes réside dans les matériels
existants à intégrer, qui pourront poser des problèmes d’interface. Il
faudra considérer encore tout ce qui a trait à la conduite et à la supervision (pupitres, consoles, téléphones, organes de signalisation),
ainsi que les moyens destinés à la maintenance et à l’évolution des
matériels et des logiciels constructeur, les langages de programmation notamment.
Encadré 1 – Méthode SADT (Suite)
La démarche d’analyse de SADT est descendante et
modulaire, elle conduit à créer deux diagrammes :
— le diagramme d’activité, ou actigramme ;
— le diagramme de données, ou datagramme.
Les graphiques SADT sont hiérarchisés ; chaque niveau de
graphique se limite à un nombre de « boîtes » (rectangles de
la figure 3) compris entre 3 et 6, chacune des « boîtes » étant
ensuite, le cas échéant, décomposée en un diagramme de niveau
inférieur, comprenant lui aussi de 3 à 6 « boîtes ». Ce petit
nombre d’éléments rend plus aisée la compréhension globale
du modèle.
Il existe d’autres méthodes du même type [18] : SA/RT (System
Analysis Real Time), MERISE (Analyse et conception des systèmes
d’information), GRAFCET (acronyme de « Graphe de Commande à
Étapes et Transitions ») [17], GEMMA (Guide d’étude des modes de
marches et d’arrêts) [15]. Le résultat de ces méthodes varie d’un
analyste à l’autre, d’un projet à l’autre, mais en règle générale elles
ne permettent pas de tout expliciter et nombre d’objectifs, besoins
et contraintes, quantitatifs ou qualitatifs, restent encore exprimés en
langage informel, c’est-à-dire par du texte ou même verbalement.
■ L’analyse des besoins aboutit à la rédaction d’un Cahier des
Charges Fonctionnel, à travers deux étapes parallèles :
— l’analyse des contraintes opérationnelles ;
— la structuration fonctionnelle.
Le cahier des charges fonctionnel est le document de consultation
des fournisseurs, il est donc entièrement ouvert en matière de
solutions.
Il existe sur le marché un certain nombre de méthodes d’analyse
et de modélisation – structuration – fonctionnelle, qui relèvent de
la CAO (conception assistée par ordinateur). La plus ancienne est
probablement SADT (Structured Analysis and Design Technique, ou
Technique structurée d’analyse et de conception de systèmes) [5],
utilisable en phase de spécification fonctionnelle d’un produit ou
d’un système intégrant ou non du logiciel (encadré 1).
Encadré 1 – Méthode SADT
SADT est une méthode générale qui cherche à favoriser la
communication entre les différents intervenants d’un projet. Elle
est conçue de façon à discipliner la démarche d’analyse, et
aboutit à formaliser graphiquement un modèle du système qui
fournisse un enchaînement sans ambiguïté d’actions et de
données. Le modèle obtenu peut différer d’un analyste à l’autre :
l’opérateur de conduite, par exemple, n’a pas la même
perception du système que le technicien de maintenance. La
mise en œuvre de SADT est un travail d’équipe, avec non
seulement les analystes et les experts mais aussi les lecteurs,
qui commentent et critiquent le travail des précédents.
R 7 545 − 4
Figure 3 – Symbolisme graphique de la méthode SADT
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
_______________________________________________________________________ SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
D’autres méthodes voient le jour, couplées à des traitements de
texte, à des bases de données d’instrumentation, etc. Une méthode
d’analyse fonctionnelle est en règle générale descendante ; un
découpage type pour un champ de production de brut pétrolier, par
exemple, sera le suivant :
Champ
installations
systèmes
sous-systèmes
équipements
composants.
Il est important que la méthode d’analyse structurelle utilisée et
sa symbolique soient familières aux futurs opérateurs.
Les réponses des constructeurs au cahier des charges fonctionnel
permettront d’élaborer des architectures opérationnelles : on en
arrive ici aux solutions, et à rédiger un cahier des charges de
réalisation qui sera cette fois un document contractuel. Ce document
peut être décomposé en plusieurs sous-documents et spécifications,
en fonction des pratiques de l’entreprise et de la complexité du
projet : informatique, automatismes, instruments, etc. Dans certains
marchés publics, on parle de cahier des clauses techniques
particulières, ou encore de cahier des spécifications et clauses
techniques.
Les paragraphes suivants vont expliciter les éléments de choix des
divers composants d’un système automatisé de production :
superviseurs, API, régulateurs, SNCC, capteurs et actionneurs.
3. Supervision
3.1 La fonction et ses matériels
de mise en œuvre
L’opérateur chargé de conduire une installation automatisée doit
impérativement disposer en temps réel d’une visualisation de l’état
et de l’évolution des paramètres du processus, qui lui permette de
prendre rapidement les décisions appropriées à ses objectifs :
cadences de production, qualité des produits, sécurité des biens et
personnes. Cette fonction d’assistance à l’opérateur humain est
appelée supervision [7].
La fonction supervision est apparue très tôt sur les systèmes
numériques de contrôle-commande (SNCC), machines
informatiques d’usage assez général – au moins aux niveaux
intermédiaires de la pyramide productique – destinées plus
spécialement à la conduite des processus continus, et qui assurent
donc, outre la supervision, des fonctions d’acquisition, de régulation
et autres. On s’est vite aperçu, cependant, que cette fonction était
également indispensable dans le cas des automates programmables
industriels (API), machines appelées à l’origine à se substituer aux
armoires à relais et affectées, un peu par tradition, aux processus
manufacturiers. Il est à noter que si cette distinction
continu /manufacturier était claire sur les premiers matériels, elle
tend aujourd’hui à s’estomper, sauf peut-être en matière de sûreté
de fonctionnement.
Il est apparu souhaitable, dans le cas des API, de dissocier dans
le principe la fonction supervision de la fonction commande : on
recherche en effet, sur un API, une très grande fiabilité qui n’est pas
absolument nécessaire pour une tâche de simple collecte centralisée
d’informations que l’on ne traitera qu’à l’usage d’opérateurs
humains (visualisation, gestion), plus tolérants à l’erreur qu’une
machine. Les superviseurs d’API sont donc simplement des logiciels
« tournant » sur des machines diverses, banalisées : il en existe
actuellement une large gamme, que l’on peut implanter sur
micro-ordinateurs compatibles PC ou, pour les plus performants, sur
des miniordinateurs Hewlett-Packard, Vax ou Sun pour n’en citer que
quelques-uns, le système d’exploitation utilisé donnant une
première idée de leurs possibilités. Ce système peut être mono ou
multitâche, mono ou multiutilisateur : un système monotâche
exécute les tâches prescrites en séquence, sans garantie de temps
d’exécution, alors qu’un système multitâche travaille en temps
partagé avec une périodicité prédéterminée ; un système
multiutilisateur devra gérer des problèmes de priorité d’accès.
Il faudra considérer également les problèmes de taille mémoire,
de cartes de communication et de terminaux utilisables, ainsi que
le nombre de postes pouvant être raccordés.
3.2 Matériel supervisable
Il faudra, dans le cas général, connaître les types et marques d’API
connectables, c’est-à-dire susceptibles d’échanger avec le
superviseur le contenu de leur mémoire ; il faudra aussi s’informer
des régulateurs, des ordinateurs de conduite et des commandes
numériques de machines-outils connectables, ainsi que d’autres
dispositifs tels que les entrées-sorties, cette liste n’étant pas exhaustive. Un logiciel de supervision qui ne peut traiter qu’une seule
marque de matériel est parfois dit dédié ; ce mot appartient surtout
au vocabulaire informatique.
3.3 Base de données
La base de données du superviseur contient les informations
concernant les divers automatismes : c’en est donc l’élément central,
et il faut connaître le nombre et le type de variables qu’elle peut
mémoriser. Ces variables peuvent être :
— tout ou rien (TOR), représentées par un bit unique de valeur
0 ou 1 ;
— analogiques, représentées par un nombre de bits prédéfini ;
— des chaînes de caractères, également codées suivant un
formatage (nombre de bits) prédéterminé.
Plusieurs modes de rafraîchissement sont envisageables :
— cyclique, c’est-à-dire périodique à une fréquence définie par
l’utilisateur ;
— cyclique paramétrable, mode dans lequel la base de données
est partagée en plusieurs blocs, rafraîchis avec différentes
périodicités ;
— sur exception, pour les seules variables qui ont changé de
valeur, etc.
La base de données pourra le cas échéant être organisée par
l’utilisateur lui-même, s’il y trouve avantage et s’il dispose de
compétences en informatique ; on pourra aussi rencontrer des
problèmes de temps d’accès, notamment si la base de données est
répartie dans un système multiprocesseur.
3.4 Communications
Un superviseur est d’autant plus ouvert à divers types
d’automatismes qu’il supporte (met en œuvre) un plus grand nombre
de types de protocoles, la normalisation n’étant pas la règle, on l’a
dit. Le problème se pose aussi de la cohérence temporelle des
informations transmises à la base de données, qui pourraient dater
de créneaux de temps, d’intervalles d’échantillonnage différents, en
particulier lorsqu’elles ne proviennent pas du même automatisme ;
la datation systématique des données résout ce problème mais en
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
R 7 545 − 5
SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
_______________________________________________________________________
pose un autre, celui de la synchronisation des diverses horloges,
chaque automatisme possédant la sienne. La difficulté s’accroît
lorsque les informations doivent cheminer dans un réseau de
communication.
3.5 Traitements
Divers traitements standards sont disponibles sur les
superviseurs ; l’exploitant peut aussi développer ses propres
programmes à partir de langages particuliers à la machine qu’il
utilise (souvent un BASIC) ou des langages externes (PASCAL, C...).
Les traitements les plus courants sont :
■ la représentation graphique des données sous forme de courbes
de conduite ou d’historiques présentés à l’écran, avec des facilités
diverses (loupes, fenêtres) ;
■ le traitement des alarmes et défauts, l’alarme étant généralement
élaborée par comparaison d’une variable et d’un seuil, alors que le
défaut est un événement qui a entraîné une réaction du système de
commande. Le système attendra de l’opérateur qu’il acquitte
l’alarme, c’est-à-dire qu’il indique qu’il en a pris connaissance. On
pourra se poser le problème de la priorité des alarmes, dans le souci
d’éviter des cas de figure où l’opérateur serait contraint d’en acquitter
simultanément un trop grand nombre. Une hiérarchie des alarmes
peut parfois se définir a priori par rapport au processus : dans des
zones à risque, par exemple, tel sous-ensemble peut être plus
sensible – prioritaire – que tel autre ; mais la priorité des alarmes peut
aussi évoluer selon l’état du processus. Le superviseur doit pouvoir
présenter à l’écran des vues spéciales, dites vues d’alarme, et en
déclencher également l’impression ;
■ l’archivage, ou possibilité de conserver l’historique des variables
du processus, dont la capacité doit être exprimée en nombre de
variables plutôt qu’en mégaoctets ;
■ l’édition, ou impression sur papier de diverses informations, telles
que la consignation d’état, relevé à un instant donné de l’ensemble
des valeurs des variables, ou le journal de bord, dont le contenu est
habituellement fixé par l’exploitant.
3.8 La sûreté de fonctionnement
Les automates programmables ont atteint une sûreté de
fonctionnement très supérieure à celle des machines informatiques
d’usage général : si l’on souhaite intégrer en tout ou partie les
fonctions conduite et supervision des API, il faut que la sûreté de
fonctionnement des superviseurs, c’est-à-dire des logiciels de supervision, soit comparable à celle des API. Les mesures à prendre sont
les suivantes :
— on définira des clefs d’accès – réservées aux seuls opérateurs
autorisés – à l’introduction de nouvelles recettes, et l’on bornera les
modifications possibles de la fabrication en cours ;
— il faudra être en mesure de détecter les erreurs de transmission,
le cas échéant à travers les protocoles de communication
eux-mêmes ;
— on s’efforcera de tester les logiciels mis en œuvre : adéquation
des algorithmes aux spécifications, débogage, qualification ou test
du logiciel dans un maximum de cas possibles et au moins dans
toutes les combinaisons d’état des entrées-sorties ;
— il y aura lieu, enfin, d’étudier la sûreté de fonctionnement du
matériel hôte : fiabilité, tenue aux grandeurs d’influence, etc.
4. Automates programmables
3.6 Conduite
La conduite est souvent imbriquée avec la supervision. On dispose
alors sur le(s) poste(s) de supervision de la possibilité de
télécommander le processus, en forçant (fixant) la valeur de
certaines variables, et de lui envoyer des recettes, c’est-à-dire de
modifier les caractéristiques du produit fabriqué, de changer de
matière première, etc. Il faudra, dans le cas d’une supervision
multiposte, fixer les priorités d’accès.
3.7 Imagerie
La supervision se situe, dans la hiérarchie des fonctions de la
productique, au point le plus élevé où l’opérateur humain ne peut
plus être remplacé par une machine ; il est donc essentiel de lui
présenter sous la forme qui lui convienne le mieux l’information que
l’on aura fait remonter jusqu’à lui. Cette présentation passe par une
imagerie synthétique, ensemble de vues qui permettront à
l’opérateur d’assurer la conduite du processus.
Dans ces vues, le processus est souvent – héritage des anciens
tableaux de contrôle – symbolisé par un synoptique comprenant un
fond de plan fixe, image de sa structure et des objets animés par
l’état des éléments TOR (vannes, contacts, etc.) ou la valeur des
variables analogiques (niveaux, débits, etc.). Outre le synoptique, on
R 7 545 − 6
trouve aussi des vues d’alarme et des vues de régulation, avec incrustation de fenêtres pour superposer l’affichage de certaines variables.
La représentation la plus fine est obtenue avec un écran graphique
permettant d’accéder au pixel (picture element ou point), plutôt
qu’avec un éditeur semi-graphique qui par contre sera d’un emploi
plus simple. On disposera avantageusement d’objets prédéfinis
(formes géométriques, symboles, avec les fonctions permettant de
les manipuler : déplacement, association). Un objet se définit aussi
par ses attributs : taille, couleur. Les vues et les objets seront animés
par la valeur des variables de la base de données : affichage alphanumérique, bargraphe, histogramme. La télécommande du processus – par exemple le forçage d’une variable – pourra se faire par
manipulation de l’objet associé à cette variable (on amène, par
exemple, le curseur de l’écran sur l’objet considéré).
4.1 L’API et son évolution récente
L’automate programmable industriel (API) a d’abord remplacé
l’armoire de relayage électromécanique ; puis l’évolution très rapide
des technologies de l’électronique, de la micro-informatique et du
génie logiciel a provoqué une véritable explosion de ses
fonctionnalités. À l’API de base limité aux seules variables TOR sont
venus s’ajouter l’acquisition et le traitement des données
analogiques ainsi que de la régulation simple et des fonctions
spéciales : commandes numériques, commandes d’axes, etc. [8].
L’API peut aussi assurer des fonctions de sécurité : tests GUIDAP ou
Groupement pour l’utilisation industrielle des automates
programmables (réunissant le CETIM, l’EXERA, l’INRS, le bureau
Veritas).
4.2 Fonctions de logique combinatoire
et séquentielle
■ On appelle cycle de fonctionnement de l’API la description de la
séquence d’exécution des tâches, liée aussi à sa programmation.
L’acquisition des entrées peut se faire en début de cycle et la
commande des sorties en fin de cycle : ce procédé est le plus sûr mais
on peut aussi, si l’on privilégie la rapidité des actions, procéder à ces
opérations en cours de cycle (entrées-sorties au vol).
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
_______________________________________________________________________ SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
■ Le rafraîchissement des entrées est, sur un API, l’opération qui
consiste à lire séquentiellement l’information présente à chacune des
entrées et à l’écrire dans une mémoire spécifique, dite « mémoire
image » ; le rafraîchissement des sorties est l’opération inverse. Le
temps passé à ces opérations de rafraîchissement peut être figé ou
non, avec dans le second cas raccourcissement du temps de cycle.
■ Les API sont le plus souvent monotâche, notion abordée au § 3.1
et exécutent un seul programme utilisateur : les tâches sont alors
traitées en séquence ; il existe aussi des solutions telles que
l’exécution en temps partagé, dans laquelle les tâches sont scindées
en plusieurs éléments qui ne sont pas tous traités au cours d’un
même cycle.
■ L’interruption est assez peu répandue dans les API, car elle est a
priori incompatible avec le déroulement cyclique d’un programme ;
les matériels récents dont les unités de traitement sont performantes
offrent cette possibilité.
■ Les performances de l’unité de traitement ne dépendent pas
seulement de sa vitesse de fonctionnement ; elles sont aussi liées à
la puissance du jeu d’instructions et, le cas échéant, à l’efficacité de
l’interpréteur de langage source.
■ Il importe également de savoir comment est organisée la
mémoire, notamment dans le cas où plusieurs API échangent des
informations à travers un réseau ; il est concevable que les données,
en effet, soient transférées par blocs physiques, et la connaissance
de l’affectation des adresses physiques aux variables logiques
permettra d’optimiser les échanges.
4.3 Fonctions analogiques
C’est sans doute la demande des utilisateurs – essentiellement on
l’a dit, du domaine manufacturier – qui a incité les constructeurs
d’API à intégrer à leurs machines des fonctions analogiques,
fonctions dont l’emploi resterait, dans ce domaine, trop marginal
pour justifier le recours à des systèmes mieux adaptés tels que les
SNCC. L’API en général peut, dans l’état actuel de son évolution,
recevoir les quatre types standards d’entrée :
— l’entrée tension dite haut niveau (1-5 V, 0-10 V...) ;
— l’entrée courant (4-20 mA, 0-20 mA...) ;
— l’entrée tension faible niveau : thermocouples ;
— l’entrée sonde à résistance : sonde platine 100 Ω à 0 oC.
Sur les matériels récents, les entrées sont adaptées aux capteurs
par configuration plutôt que par cavalier ; elles sont multiplexées par
souci d’économie, sauf si la cadence de leur traitement est très
élevée. Ce traitement peut aussi être fait à la source par une carte
d’entrée-sortie équipée d’un microprocesseur indépendant de l’unité
de traitement centrale de l’automate.
La fonction régulation peut être assurée par un programme lié au
cycle de l’API, dont il utilise les entrées-sorties ; on peut aussi le
confier à une carte spécialisée qui utilise alors un groupe
d’entrées-sorties auquel l’unité de traitement de l’automate n’a plus
accès. La seconde solution est généralement plus performante, bien
que ces cartes n’intègrent encore que les fonctions de base de la
régulation numérique, et n’offrent pas toujours le niveau de service
de certains régulateurs de tableau.
4.4 Fonctions de commande d’axe
La commande d’axe est une fonction propre aux automates
programmables ; elle est assurée par des cartes spécialisées que l’on
connecte au châssis comme une carte d’entrée-sortie. Il s’agit le plus
souvent d’un asservissement de position.
4.5 Fonctions de communication externe
L’automate étant ici considéré comme une entité fonctionnelle, on
supposera que le constructeur a résolu le problème des
communications internes au châssis et avec d’éventuelles
entrées-sorties déportées ; reste à traiter le problème des
communications externes, ou échanges entre un API et (énumération
non limitative) :
— un autre API de même type ;
— un API de constructeur différent ;
— un autre matériel, tel qu’un SNCC, du même constructeur ;
— un superviseur ;
— des capteurs et actionneurs, via un bus de terrain.
Hormis les réseaux privatifs propres à un constructeur (§ 1.3), il
existe un réseau conforme au modèle ISO en 7 couches ainsi qu’à
divers standards, le réseau MAP (Manufacturing Automation
Protocol), ouvert en principe et convenant bien à de tels échanges.
MAP n’a pas répondu à tous les besoins, et seule la couche 7 dite
MMS (Manufacturing Message Specification) semble être appelée
à se diffuser [6]. Des versions simplifiées, dites « effondrées », de
MAP peuvent aussi avoir leur intérêt : MiniMAP, MAP/EPA (Enhanced
Performance Architecture) ; on ne garde dans ces réseaux que les
couches 1, 2 et 7 du modèle OSI. Ces réseaux sont du type à jeton :
un abonné, lorsque le réseau est libre (jeton inoccupé), communique
avec un correspondant unique, de son choix [16].
L’utilisateur qui met en œuvre un réseau de communications de
ce type ne devrait plus avoir – idéalement – qu’à procéder à une
opération de paramétrage ; les logiciels fournis par le(s)
constructeur(s) des différents abonnés du réseau doivent en effet
être interopérables, c’est-à-dire compatibles entre eux.
5. Régulation
5.1 L’évolution technologique
Les premiers régulateurs de processus furent du type
pneumatique ; ils furent suivis de près par les régulateurs
électroniques. Ces matériels étaient analogiques. Les régulateurs
électroniques, cependant, ont suivi la même évolution que les autres
équipements industriels d’automatisme : ils sont devenus
numériques. Il ne s’agit pas d’un simple effet d’entraînement : les
microprocesseurs, intégrés à leur structure, décuplent leurs possibilités de traitement et facilitent configuration et paramétrage, de
sorte que les régulateurs électroniques analogiques ne sont plus
guère utilisés, aujourd’hui, dans la commande des processus
industriels.
Le matériel a, lui aussi, évolué avec la technologie ; la fonction
régulation n’est plus nécessairement implantée sur un module
autonome volumineux, mais peut être assurée par une simple carte,
sous-ensemble d’un API ou d’un SNCC dont elle dépend pour
l’alimentation et les entrées-sorties.
5.2 Problème de l’échantillonnage
L’inconvénient de la technologie numérique en matière d’entrée
est que l’on ne connaît plus, comme en analogique, la fonction
continue représentative d’une variable, mais une suite discrète de
valeurs ponctuelles. On démontre théoriquement, à partir de la transformation de Fourier, que la reconstitution d’un signal continu à
partir de ses échantillons n’est possible que si la fréquence
d’échantillonnage est au moins égale à deux fois la fréquence maximale contenue dans la fonction à reconstituer. Ce résultat est connu
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
R 7 545 − 7
SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
_______________________________________________________________________
sous le nom de théorème de Shannon. On devra donc s’assurer, lors
du choix d’un matériel, carte de régulation ou régulateur de tableau,
que la fréquence d’échantillonnage est suffisante, et aussi constante.
Dans certains cas, même si l’on connaît la limite supérieure F M
de l’étendue spectrale du signal et que l’on échantillonne à F e = 2 F M ,
il peut y avoir, dans la ligne de transmission, des perturbations, des
parasites dont les étendues spectrales soient supérieures à F M ; ces
perturbations vont subir le repliement de spectre et perturber le
signal qui, sans cela, ne serait pas détérioré. Il est donc préférable,
pour ne pas dire indispensable, de disposer en amont de l’échantillonneur un filtre passe-bas, appelé filtre de pré-échantillonnage ou
filtre antirepliement.
5.3 Analyse du processus
La valeur d’une variable que l’on régule dépend de la commande
que l’on applique au processus, et du comportement (sortie) de ce
dernier que l’on s’efforce de prévoir en le modélisant. On distingue
le modèle de connaissance, ou description physique rigoureuse, par
un jeu d’équations, du comportement du processus, et le modèle
de représentation, dans lequel on se limite plus modestement à une
formule du type polynôme de degré n approximant ce
comportement [9] (en transformée de Laplace).
Un modèle de connaissance, mathématique, est complété par
affectation d’une valeur à ses paramètres : c’est l’opération
complémentaire dite d’identification qui cependant, dans la pratique,
est faite la première dans le cas d’un modèle de représentation, car
le degré du polynôme est alors fixé a priori : si un polynôme de degré
n donne du processus une description insuffisante, on reprend le
modèle avec un polynôme de degré n + 1.
La modélisation mathématique reste une opération intellectuelle
originale, particulière à chaque processus ; il existe par contre divers
logiciels d’aide à l’identification des processus et à la génération de
modèles de représentation, implantés sur station de travail ou microordinateur.
5.4 Correcteur PID
L’algorithme de correction le plus utilisé est encore actuellement
le PID (correcteur proportionnel, intégral et dérivé), qui se transpose
aisément en technologie numérique. Les coefficients de l’algorithme
sont le plus souvent calculés par le régulateur lui-même, qui devient
de ce fait intelligent. Il existe, sur les matériels actuels, une possibilité
d’autoréglage soit à la mise en service (régulateurs préréglants), soit
en fonctionnement (régulateurs adaptatifs déclenchés).
D’autres matériels dits autoadaptatifs, ou adaptatifs automatiques, ont pour ambition de recalculer les coefficients du
correcteur PID en boucle fermée, sans intervention extérieure : le
problème est complexe et seuls les grands constructeurs proposent
– timidement – des solutions. On trouve entre autres, dans cette catégorie, les régulateurs adaptatifs préprogrammés (en anglais gain
scheduling adaptive ), qui modifient leurs coefficients d’après une
table ou une fonction interne, suivant une référence qui peut être
la grandeur réglée, une autre sortie du processus, etc. Le document
normatif [9] fournit une nomenclature précise de ces divers
matériels, dans le souci de limiter le risque de malentendu entre
vendeur et acheteur, lors de la présentation des régulateurs.
On ne perdra pas de vue que le correcteur PID relève de la
technique de base de l’automatisation ; il convient à la plupart des
problèmes simples et ses insuffisances sont trop souvent l’effet d’un
mauvais réglage de ses paramètres.
R 7 545 − 8
5.5 Autres régulateurs à paramètres figés
Le document [9] décrit en outre des structures de régulateurs
avancés autres que celles que nous venons de citer, et dont le
correcteur n’utilise pas des paramètres de type PID :
— prédicteur de Smith pour les processus à retard, généralisé par
le régulateur à modèle interne ;
— régulateur à placement de pôles, structure améliorée par celle
à trois éléments dite RST ;
— régulateur à minimisation de critère, linéaire quadratique (LQ)
et linéaire quadratique gaussien (LQG), etc.
Les correcteurs de ce type permettent, le cas échéant, de résoudre
des problèmes complexes, mais il va de soi qu’ils n’ont pas la
simplicité du PID, et qu’ils ne peuvent être mis en œuvre que par
des spécialistes de haut niveau.
Une qualité précieuse est la robustesse, ou propriété d’un
régulateur de maintenir un fonctionnement satisfaisant du processus
en présence d’éventuelles variations des paramètres de la fonction
de transfert du processus qu’il commande.
5.6 Contrôleur flou
L’attention se porte, depuis quelques années, sur un mode de
régulation dit par logique floue [19], qui procède d’un mode de
raisonnement différent de celui de la régulation traditionnelle. Pour
présenter la chose sur le mode humoristique, chacun connaît ce
dilemme du verre dont on ne sait s’il est à moitié plein ou à moitié
vide ; dilemme qui se résoud aisément en logique floue en créant
deux sous-ensembles d’intersection non nulle, celui des verres
pleins (de x, arbitraire, à 100 %) et celui des verres vides (de
y à 100 %), sous-ensembles auxquels le niveau en question
appartient à raison de 50 % pour l’un et l’autre. Ce type de démarche,
que l’on qualifierait de floue, s’applique par exemple à la température d’un four pour la conduite duquel l’opérateur humain
détermine son action selon qu’il le considère comme « encore tiède »
ou « presque chaud », parfois sans consulter le thermomètre ; on
conçoit qu’une telle démarche permette de construire une structure
de régulateur à partir d’éléments exprimés en langage courant, sans
qu’il soit au préalable nécessaire de les traduire en un modèle mathématique abstrait ; mais il va de soi qu’une fois cette structure établie,
l’acquisition et l’arithmétique de traitement des données n’auront
plus rien de flou ni d’imprécis, mais se feront au contraire avec la
même rigueur que dans tout autre régulateur numérique.
La spécificité de cette analyse tient au fait qu’elle permet en
principe d’intégrer à un automatisme l’expérience de l’opérateur
humain de terrain, peu familier de l’abstraction ; elle complète le cas
échéant – sans révolution aucune – la panoplie de l’ingénieur
automaticien, en particulier pour des processus non linéaires ou se
prêtant mal à la modélisation mathématique conventionnelle.
Les matériels offerts sont encore assez peu nombreux ; certains
constructeurs proposent, intégré au régulateur, un correcteur PID
que l’on peut connecter en parallèle avec le correcteur flou, les
signaux de commande issus des deux éléments étant pondérés en
proportion ajustable : attitude prudente, peut-être. Les éléments
à prendre en considération sont notamment :
— le nombre de règles programmables, la possibilité de les
pondérer, de les désactiver, le nombre de prémisses et de
conclusions par règle ;
— le nombre de variables linguistiques et de termes par variable ;
— les opérateurs de conjonction possibles (ET, OU, SI...) ;
— la forme des fonctions d’appartenance : triangle, trapèze,
gaussienne.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
_______________________________________________________________________ SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
6. Systèmes numériques
de contrôle-commande
(SNCC)
On a vu (§ 3.1) que les systèmes à microprocesseurs dits SNCC
sont apparus très tôt dans les applications de contrôle-commande
des industries à processus continus. Il n’y a plus aujourd’hui de
différence de nature entre les fonctions assumées par les API et les
SNCC ; les constructeurs déterminent leurs architectures de base en
fonction de leur clientèle cible, à processus continu ou manufacturier,
l’API ayant néanmoins, le cas échéant, vocation à une plus haute
fiabilité. Le SNCC assure de ce fait la supervision, l’acquisition et
le traitement des variables TOR et analogiques, la régulation et les
transmissions, dans les conditions décrites aux paragraphes
précédents ; il n’est donc pas nécessaire ici de développer davantage
ses fonctions.
7. Réseaux de terrain
7.1 Les options de base
Les besoins en communication d’un système automatisé sont
considérables, alors même que les solutions existantes sont très
souvent fermées. Cette réserve est particulièrement gênante au
niveau de la partie opérative du processus, où figurent des types
très divers de capteurs, d’actionneurs et d’entrées-sorties dont on
aimerait pouvoir choisir librement les constructeurs. Le problème
était donc de concevoir une solution ouverte, normalisée,
susceptible de remplacer à terme la liaison bifilaire (en particulier
le standard 4-20 mA), coûteuse en câblage et en connexion, à terme
dépassée par l’apparition progressive de l’instrumentation
intelligente – en fait l’essaimage du microprocesseur vers le bas de
la pyramide productique – beaucoup plus exigeante en moyens de
communication.
Une première option consiste à relier les divers abonnés sur une
boucle et à reprendre la technique du jeton (§ 4.5) : un abonné en
appelle un autre, lui et lui seul, lorsque la ligne est libre ; les
protocoles sont connus de longue date et bien au point. C’est
notamment la solution PROFIBUS (Process Field Bus)/ISP (Interoperable Systems Project). Dans le cas d’un bus de terrain, cependant,
l’information « mesure à l’instant t » d’un capteur peut par exemple
être exploitée à la fois par un transmetteur intelligent et par un
automate ; deux appels successifs – et non simultanés – sont
nécessaires en réseau à jeton, et les deux utilisateurs ne recevront
pas nécessairement la même valeur de la mesure, qui aura pu
changer entre les deux appels. Il est donc préférable de donner
l’initiative de l’échange à l’organe qui génère l’information, plutôt
qu’à ceux qui l’utilisent, et de laisser ceux-ci en écoute permanente
non sélective : c’est le principe de la solution FIP (Factory Instrumentation Protocol ou Flux d’Informations Processus) [1].
Ces deux types de bus ne sont pas actuellement les seuls, même
s’ils ont parfois donné l’impression de dominer le marché ; il existe
au moins cinq principes différents et un certain nombre de
« produits », entre lesquels il n’est pas évident de choisir [13]. On
peut espérer que la situation se clarifie à terme, à l’instar de ce qui
s’est passé, jadis, pour le 4-20 mA.
7.2 Réseaux FIP
Le réseau FIP [16] est le fruit d’une réflexion entièrement originale
lancée en 1982. WORLDFIP, une association internationale de droit
américain, regroupe de très nombreux constructeurs, en Europe, en
Amérique et en Asie.
Le réseau FIP est fondé sur le principe de la diffusion des
informations : un arbitre de bus émet l’identifieur d’une variable,
l’abonné producteur de la valeur de cette variable répond en la
diffusant sur le bus, atteignant simultanément tous les abonnés
consommateurs de la variable. L’arbitre de bus est une fonction mise
en œuvre par un circuit intégré implantable sur n’importe quelle
station abonnée, avec le degré de redondance souhaité.
Le cycle de base du fonctionnement de l’arbitre de bus, ou macrocycle, permet la diffusion périodique de l’ensemble des variables du
système. Ce macro-cycle comporte également une réserve de temps
pour un éventuel trafic apériodique de variables et de messages. Il
n’y a pas d’accusé de réception, sauf dans le cas particulier d’un
message d’abonné à abonné (un capteur signale au régulateur qu’il
est en panne). Les informations échangées sont enchâssées dans
des trames comportant un octet de contrôle. Il existe en outre deux
services optionnels, l’un dit de rafraîchissement par lequel le
producteur indique que la valeur de la variable a été émise à temps
et l’autre de promptitude, par lequel l’utilisateur détermine s’il a reçu
à temps cette valeur. Chaque producteur conserve par ailleurs en
mémoire, dans certaines limites, l’historique de ses variables, de
sorte que le système est volontiers considéré comme une base de
données répartie, gérée en temps critique.
Il était indispensable, pour la normalisation, que FIP fût conforme
au modèle standard OSI (§ 1.3). FIP a une architecture OSI réduite ;
il ne conserve du modèle standard OSI que trois couches (1, 2 et 7).
Le taux de panne de FIP a été estimé à un défaut non détecté tous
les 20 ans, pour une vitesse de transmission de 1 mégabit · s–1.
8. Capteurs et actionneurs
8.1 Technologie : électrique
ou pneumatique ?
Cette question peut paraître anachronique, tant le pneumatique
est aujourd’hui dépassé par l’électronique dans l’essentiel de ce qui
fut son fief. Quelques applications particulières demeurent,
cependant :
— lorsque la solution la plus simple est aussi la meilleure, comme
pour les régulateurs de pression des bouteilles de gaz comprimé,
ou bien la seule envisageable, comme sur les puits de pétrole isolés
où l’on utilise l’énergie de pression du gaz du gisement, sommairement dépoussiéré ;
— lorsque l’on a besoin de puissance et d’un temps de réponse
court ; c’est le cas de très nombreuses machines automatiques qui
utilisent des actionneurs pneumatiques [11] ;
— en atmosphère explosible, où le matériel pneumatique
présente un risque d’échauffement et de génération d’étincelles bien
moindre que le matériel électrique ;
— lorsque la « culture technologique » des techniciens de
maintenance est faible ; cet argument prévaut en principe dans les
pays en voie de développement, il est sans doute un peu dépassé
déjà.
8.2 Utilisation
Un capteur-transmetteur peut être mis en œuvre :
— soit pour la conduite, automatisée ou non, du processus de
production : on aura fréquemment besoin d’une mesure ;
— soit pour la sécurité des biens ou des personnes ; on pourra
souvent, dans ce cas, se contenter d’une alarme, à un ou plusieurs
seuils.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
R 7 545 − 9
SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
_______________________________________________________________________
L’indication fournie peut être affichée localement ou transmise
à distance ; il y a lieu, dans ce dernier cas, de définir le signal
permettant la transmission : 1-5 V, 4-20 mA, bus de terrain...
8.3 Caractéristiques métrologiques
requises
Il existe diverses définitions de la précision (exactitude) d’un
appareil de mesure, et aussi diverses façons de la vérifier. On
distingue les méthodes basées sur l’écart maximal crête à crête, les
plus utilisées dans l’industrie, et celles qui reposent sur l’écart-type
d’une série d’indications. La précision est, dans le principe, l’erreur
par rapport à une valeur supposée vraie, connue par étalonnage.
On peut parfois se contenter d’un équipement de bonne répétabilité,
donnant une indication peu dispersée mais pas nécessairement
exacte : cela permet de minimiser les contraintes – souvent très
lourdes – de l’étalonnage.
La précision, pour garder ce mot très général, est éventuellement
liée à l’étendue de mesure : la courbe de réponse n’est pas linéaire,
c’est le cas du débitmètre à orifice qui donne un signal proportionnel
à la racine carrée du débit. Les capteurs-transmetteurs intelligents
résolvent peu à peu ce problème (§ 8.6).
Le temps de réponse du capteur est aussi l’une de ses caractéristiques de base ; il est souvent une fonction exponentielle amortie
de sa constante de temps.
Les caractéristiques métrologiques requises, combinées au mode
d’utilisation, permettront souvent de choisir le principe du capteurtransmetteur : la sonde platine, par exemple, apparaît comme le
meilleur choix pour la mesure d’une température proche de
l’ambiante, alors qu’un couple thermoélectrique sera préféré dans
le cas d’un four de cuisson.
8.4 Fluide procédé, utilités
Le fluide dont on mesure l’une des propriétés peut être un gaz,
un liquide ou un solide divisé. Il peut être corrosif ; cette propriété
impose un matériau de construction, un mode d’installation ou un
principe de mesure particuliers : montage d’un séparateur, choix
d’un capteur de type non intrusif, etc.
Le terme général d’utilités désigne l’ensemble des fluides
auxiliaires (air et gaz comprimés, eau) et comprend chez les instrumentistes l’électricité, que les automaticiens classent dans les
contraintes d’environnement, faisant ainsi l’économie d’un chapitre
qui, chez eux, n’aurait pas d’autre objet. On ne dispose pas toujours
de toutes les utilités nécessaires : cas des puits de pétrole isolés où
le choix des appareils de mesure – d’ailleurs peu nombreux – est
de ce fait limité.
8.5 Contraintes d’installation
Le choix d’un type de capteur est parfois influencé par les
problèmes d’installation : un exemple est celui des longueurs droites
de tuyauterie nécessaires à l’amont de certains débitmètres.
Au niveau du capteur-transmetteur, on peut mettre en mémoire
la courbe de réponse de l’élément sensible ; l’erreur de mesure des
débitmètres à orifice devient alors approximativement proportionnelle à la valeur lue, et non plus à l’indication maximale ; les
dépassements d’échelle se résolvent aisément. Le transmetteur peut
aussi signaler sa dérive ; il peut même avertir qu’il est en panne.
Mais tout ceci, à l’heure actuelle, n’est pas bien encore arrêté.
On se heurte à une difficulté évidente : une telle évolution est irréalisable avec le standard de boucle à courant continu 4-20 mA. L’une
des solutions serait la transmission par protocole et bus privatif
(propriétaire), avec l’inconvénient que nous avons signalé, qui est
pour l’utilisateur de se lier au constructeur choisi. L’autre solution,
infiniment plus rationnelle et séduisante, est celle du bus de terrain
standard et normalisé tel que FIP, environné – et non prisonnier –
de transmetteurs fipés, interchangeables d’un constructeur à l’autre.
De tels matériels commencent à être offerts sur le marché.
9. Contraintes
d’environnement
Remarque : les normes françaises d’indice NF C 20-0xx traitent des règles de
construction des matériels électriques selon les conditions d’environnement ; les normes
d’indice NF C 20-5xx à NF C 20-7xx concernent les essais.
Le terme « environnement » regroupe divers éléments extérieurs
au système :
— l’alimentation électrique peut être monotension ou multitension ; elle doit rester dans les limites de tension et de fréquence
spécifiées par l’utilisateur ;
— les facteurs climatiques : limites de température et de pression
atmosphériques, humidité maximale de l’air. Le matériel est à cet
égard plus tolérant en stockage qu’en fonctionnement, en règle
générale ; rarement limitatifs en France, les paramètres climatiques
peuvent l’être à l’exportation (très basses températures sur les
champs d’hydrocarbures de Sibérie, chaleur humide en milieu
tropical) ; un stockage prolongé et sans précautions suffisantes peut
être, sous ces latitudes, source de pannes ultérieures en
fonctionnement ;
— le degré de protection, ou propriété d’un boîtier à s’opposer
à la pénétration de l’eau ou de corps solides et à résister aux chocs
mécaniques : NF EN 60 529 (octobre 1992) : degrés de protection
procurés par les enveloppes (code IP) ;
— la tenue du matériel aux vibrations et chocs ;
— la tenue aux parasites électriques conduits et électromagnétiques rayonnés ; la Commission Électrotechnique Internationale prépare un texte sur ce dernier point.
10. Matériel électrique
en atmosphère explosible
10.1 Définitions
On désigne par atmosphère explosible un mélange d’air ambiant
et d’un gaz ou d’une poussière combustibles, dans des proportions
permettant, en présence d’une source d’inflammation, une explosion
ou un incendie.
8.6 Capteurs-transmetteurs intelligents
Le terme de zone dangereuse classe la probabilité de présence
de l’atmosphère explosible. On distingue (cf. publication CEI 79-10) :
Le mot intelligent est utilisé pour qualifier un certain nombre de
composants d’automatismes équipés de microprocesseurs qui
exécutent au niveau local des traitements qui, auparavant, étaient
confiés à un calculateur central.
■ la zone 0, dans laquelle il y a présence permanente d’une telle
atmosphère ;
R 7 545 − 10
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
_______________________________________________________________________ SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
■ la zone 1, dans laquelle l’atmosphère peut être explosible dans les
conditions normales d’exploitation ;
■ la zone 2, dans laquelle il ne peut y avoir danger d’explosion qu’en
cas de situation d’exploitation anormale.
L’étendue physique de ces zones ne peut être qu’appréciée par
les responsables locaux, qui tiendront compte des éléments
particuliers à l’installation, au site, etc. : il n’y a donc pas de norme
en la matière, le seul texte faisant exception étant, peut-être, le Code
API RP 500 (USA). À titre d’illustration, la zone 0 est habituellement
d’étendue très restreinte : l’intérieur d’un réservoir d’hydrocarbures,
par exemple ; la zone 1 est, souvent aussi, d’extension réduite :
quelques mètres autour d’une soupape de sécurité, par exemple ;
la zone 2 est plus vaste, englobant tout espace où des fuites peuvent
se produire, sans habituellement excéder une vingtaine de mètres.
La réglementation nationale définit parfois des distances
minimales [12].
Le groupe d’explosion concerne la nature de l’atmosphère dans
laquelle sera utilisé le matériel protégé. En France, on distingue le
groupe I (grisou) et le groupe II (industries de surface), lui-même
subdivisé en IIA (propane), IIB (éthylène) et IIC (hydrogène).
L’explosion d’un mélange stœchiométrique hydrogène-air, par
exemple, génère une surpression plus élevée que celle du même
mélange à base d’éthylène. Les groupes de gaz sont détaillés dans
la norme NF C 23-514 ou EN 50014 (avril 1993) : Matériel électrique
pour atmosphères explosives. Règles générales.
La température d’inflammation est une notion essentielle : on croit
en effet, communément, qu’une flamme est nécessaire au
déclenchement d’un incendie ou d’une explosion, alors qu’en toute
rigueur c’est l’accroissement ponctuel de la température – dû à la
flamme – qui amorce le phénomène. Le gaz le plus dangereux est
le sulfure de carbone ; il prend feu à 85 oC, soit au contact d’un simple
récipient d’eau bouillante. Il est donc essentiel de connaître la
température de surface que pourrait atteindre tout boîtier métallique,
même parfaitement clos, contenant un matériel électrique, en cas
d’incident sur ce matériel.
Le mode de protection est l’ensemble des dispositions prises à
la construction du matériel électrique pour qu’il puisse être utilisé
sans risque en atmosphère explosible. Les règles d’installation dudit
matériel ne sont jamais normalisées ; elles relèvent des
réglementations locales. En norme française, européenne ou affiliée
CEI, deux modes de protection peuvent être utilisés pour la
construction des instruments et autres composants
d’automatismes :
■ le mode « d », dit par enveloppe antidéflagrante, dans laquelle
une explosion éventuelle reste contenue ; on dit aussi flameproof
(Royaume-Uni) et explosion-proof (USA) ;
■ le mode « i », dit de sécurité intrinsèque (intrinsic safety ), dans
lequel on limite – à des niveaux qui varient un peu selon les pays –
l’énergie transmise en zone dangereuse, de sorte que l’explosion ne
puisse être amorcée ; le mode « i » est souvent celui qui convient le
mieux aux instruments, qui ont rarement besoin de beaucoup
d’énergie, mais son installation est relativement complexe [20].
■ Le mode « p », dit par surpression interne (NF C 23-516), est
éventuellement utilisable, mais au prix de complications d’installation (source d’air non pollué, notamment) qui devront être justifiées.
Le mode « e », dit de sécurité augmentée (NF C 23-519), peut être
utilisé pour les borniers d’instruments, mais sans résoudre entièrement le problème. Les autres modes de protection (immersion dans
l’huile « o », encapsulage « m » et remplissage pulvérulent « q ») ne
conviennent pas aux instruments.
10.2 Règles de choix
La démarche à suivre pour résoudre les problèmes du choix du
matériel et de son installation peut être résumée comme suit.
■ Définir la zone dangereuse au point précis où l’on implantera le
matériel : zone 0, 1 ou 2 (il est bien clair que ce matériel se réduira
au minimum et que l’on aura nul besoin d’installer un API sur un
réservoir, par exemple) ; savoir qu’en France la zone 0 ne peut être
équipée qu’en matériel de sécurité intrinsèque « ia ».
■ Définir le groupe d’explosion et la température d’auto-inflammation.
■ Consulter les offreurs d’un matériel déjà agréé pour l’utilisation
qui vient d’être définie (laboratoires français : LCIE ou INERIS*) ; se
procurer les certificats d’agrément qui donneront diverses
précisions. Les laboratoires sont, par ailleurs, en mesure de donner
des conseils d’installation et même d’agréer l’installation elle-même,
lorsqu’elle est achevée. Absolument rien ne doit être modifié de ce
qui est décrit sur les documents de certification ; toute modification
qui serait jugée indispensable devrait être, à nouveau, soumise au
laboratoire d’essais.
* LCIE : Laboratoire Central des Industries Électriques.
INERIS : Institut National de l’Environnement Industriel et des Risques.
Il faut avoir présent à l’esprit qu’un tel sujet demande une étude
attentive dans le détail, sauf à prendre le risque de catastrophes dont
les exemples passés, hélas, ne manquent pas.
Exemple : installation sur un champ de production de gaz naturel,
en Russie d’Asie (à l’époque, URSS), de détecteurs d’hydrogène
sulfuré.
L’hydrogène sulfuré est un gaz très toxique, souvent présent dans le
gaz naturel constitué de méthane et de divers hydrocarbures saturés.
Le détecteur devait être installé en tête de puits, donc en zone 1
puisqu’il pouvait s’y produire des fuites sans que l’installation fût
défectueuse. Le méthane et les autres constituants sont classés dans
les groupes d’explosion IIA et IIB ; on a retenu IIB. Ils ne s’enflamment
qu’à température élevée : 450 oC pour le méthane ; ce point néanmoins
n’était pas critique, s’agissant d’un appareil électronique de très faible
puissance (10 W), et le plus simple était de demander qu’il fût certifié
sur la base la plus sévère, soit T6 (85 oC au maximum sur les surfaces
au contact de l’air).
L’alternative en matière de mode de protection était un boîtier
antidéflagrant « d » ou un matériel de sécurité intrinsèque « i » ; le client
soviétique trancha en faveur du mode « d ». L’élément sensible du
détecteur, un semiconducteur fabriqué au Japon, chauffé par un
filament de platine, avait été agréé au États-Unis par le Laboratoire
Factory Mutual, selon des critères qui furent jugés compatibles avec la
norme soviétique. Le boîtier contenant l’électronique, cependant, n’eut
pas ce bonheur ; il eût fallu logiquement le faire agréer en URSS, mais
le client reconnut que l’opération posait quelques problèmes, car
l’électronique était elle aussi assemblée aux USA et il n’y avait pas de
concurrent mieux placé : les Soviétiques acceptèrent donc un agrément
au LCIE, selon la réglementation française. L’installation fut faite selon
la réglementation soviétique : types de câbles, étanchéité aux presseétoupes, entre autres détails.
Cet exemple qui, par certains aspects, pourrait sembler cocasse met
en lumière les difficultés que peut rencontrer un ensemblier exportateur
à concilier les matériels disponibles avec les normes et réglementations
de tous types qu’il devra respecter.
Nota : NF C 23-516 (mai 1982) Matériel électrique pour atmosphères explosibles.
Surpression interne « p ».
NF C 23-519 (janv. 1993) Matériel électrique pour atmosphères explosibles. Sécurité
augmentée « e ».
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
R 7 545 − 11
SPÉCIFICATION ET CHOIX DE L’ÉQUIPEMENT D’UN SYSTÈME AUTOMATISÉ
_______________________________________________________________________
11. Guides de choix
et évaluations
11.1 Méthode des graphes en étoile
Les critères de choix d’un matériel étant très nombreux, il est
intéressant de présenter l’information sous une forme synthétique,
plus aisément exploitable par le décideur ; les Guides de Choix
EXERA [3] [7] [8] [10] la classent à cet effet en graphes, eux-mêmes
subdivisés en axes, chacun des axes traitant une information de
même nature. Lors de l’examen d’une offre, le point représentant
le matériel considéré est reporté sur l’axe (par exemple, nombre
d’entrées-sorties), le point figuratif étant d’autant plus éloigné du
centre que le matériel est plus performant, sous cet aspect particulier.
On relie ensuite les points par des droites, ce qui donne une sorte
d’étoile irrégulière, qui permet de comparer les offres entre elles et
de les confronter au besoin réel. Il s’agit bien sûr d’aider le décideur,
et non pas de confier la décision à un quelconque logiciel ; les bases
de comparaison sont très largement techniques et l’élément
financier, entre autres, n’est pas traité.
11.2 Évaluations de matériels
L’EXERA, associé à des organismes homologues anglais et
hollandais, procède sous l’égide de l’EOTC (European Organization
for Testing and Certification) à des évaluations d’instruments et
autres composants d’automatismes ; ces évaluations sont faites sur
la base de procédures établies par les utilisateurs mais approuvées
par le constructeur, avant les essais ; elles sont également fondées
sur la normalisation, lorsqu’elle existe. Il existe depuis 1991 une
procédure un peu différente, dite d’appréciation (norme CEI 1069).
CEI 1069-1 (1991) Mesure et commande dans les processus industriels. Appréciation des propriétés d’un système
en vue de son évaluation. 1re partie : Considérations générales et méthodologie.
CEI 1069-2 (1993) 2e partie : Méthodologie à appliquer pour l’évaluation.
Une statistique tirée de ces résultats d’évaluations, qui restent
confidentiels sauf cas particulier, est présentée dans le tableau 1. Le
tableau 2 commente les résultats de ces évaluations. Précisons bien
que par « instrument non conforme » on entend un matériel qui, sur
un point particulier, présente une divergence, pas nécessairement
très importante, avec la spécification. Cela ne signifie pas qu’il soit
inutilisable ; l’utilisateur, cependant, sera prévenu et pourra prendre
en temps utile toutes dispositions.
(0)
Ces statistiques mettent en évidence l’intérêt qu’il peut y avoir à
faire évaluer un matériel avant de l’acquérir. Notons encore qu’il ne
faut pas s’attacher au détail de ces pourcentages : les types de
matériels évalués varient d’une année à l’autre, et avec eux la qualité
moyenne des réalisations, ainsi que la sévérité des essais.
Tableau 1 – Nombre de matériels évalués (en %)
(162 échantillons, tous types confondus)
période 1989-93 (source EXERA)
Type de matériel
Pourcentage
du total
Équipements d’analyse et de protection de l’environnement ................................................................
API, SNCC, régulateurs............................................
Capteurs-transmetteurs de : pression ....................
température..............
débit ..........................
niveau .......................
Vannes et accessoires..............................................
Divers ........................................................................
38
14
12
8
16
5
4
3
Tableau 2 – Évolution du taux de matériels
non conformes (en %) tous types confondus
(source EXERA)
Catégorie de non-conformité
Défectueux à la réception ....................................
Hors spécifications, conditions de référence .....
Hors spécification, grandeurs d’influence..........
Documentation inappropriée ou insuffisante ....
Instruments modifiés après évaluation..............
Instruments conformes aux spécifications
constructeur..........................................................
Pourcentage
du total
des matériels
évalués
15
37
74
78
23
50
12. Conclusion
En ce milieu de la décennie 1990-2000, l’état de l’instrumentation
et des composants d’automatismes se caractérise par :
— une relative stabilité des technologies ; les principes de mesure
sont bien établis, et leur amélioration n’est plus, pour le moment
au moins, que ponctuelle ;
— un développement très rapide des logiciels de traitement des
signaux de mesure et d’aide à la configuration ainsi qu’à la maintenance sous toutes ses formes ; la croissance exponentielle de la
capacité des machines informatiques permet des programmations
dites floues, ne reposant plus exclusivement sur l’algèbre
conventionnelle ; on parle aussi de systèmes experts, que l’on ne
saurait cependant confondre avec les experts humains ; le problème
de la communication homme-machine n’est pas encore bien résolu ;
— une bataille de la communication au niveau du « terrain »,
rendue inévitable du fait des besoins créés par la décentralisation
des organes micro-informatiques, avec des enjeux commerciaux et
financiers considérables.
Les constructeurs, enfin, cherchent à s’associer pour créer des
ensembles répondant à la totalité des besoins d’une unité automatisée, ensembles dont ils garantissent l’adéquation fonctionnelle,
se réservant ainsi, en contrepartie et au détriment de l’utilisateur,
un marché captif : cette évolution n’est d’ailleurs pas nouvelle.
L’utilisateur ne peut espérer reconquérir son indépendance passée
qu’en faisant pression dans le sens d’une normalisation internationale des interfaces et des protocoles de communication entre
les composants d’automatismes.
R 7 545 − 12
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Informatique industrielle
Spécification et choix de l’équipement
d’un système automatisé
P
O
U
R
E
N
par
Claude GAILLEDREAU
Ingénieur de l’École Nationale Supérieure de Chimie et de Physique de Bordeaux
Animateur de la Commission Technique Régulation avancée de l’EXERA
Références bibliographiques
[1]
[2]
[3]
[4]
[5]
[6]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
Guide de choix des automates programmables industriels. Document EXERA
S 3563 X 90, nov. 1990.
Considérations générales concernant la
commande auto-adaptative appliquée aux
régulateurs numériques. Fascicule de documentation UTE C 46-420, nov. 1992.
Questionnaire d’évaluation des régulateurs.
Document EXERA S 3522 F 89 (1989).
Les composants pneumatiques sont toujours
sous pression. Mesures, no 634, p. 33-5, avril
1991.
Dépôts d’hydrocarbures et usines de traitement de pétrole. Règles techniques de sécurité. Arrêtés du 16 juin et 1er juil. 1966, Journal
officiel 66.86.
FORGUE (B.). – Réseaux de capteurs et
d’actionneurs : mais où va-t-on ?. Mesures
no 666, p. 51-6, juin 1994.
Recommandations à l’usage des contractants.
GIMELEC (Groupement des industries de
matériels d’équipement électrique et de l’électronique industrielle associée) (1995).
GEMMA, Guide d’Étude des Modes de
Marches et d’Arrêts. ADEPA (Agence Natio-
nale pour le Développement de la Productique
Appliquée).
Dans les Techniques de l’ingénieur
[16]
[17]
[18]
[19]
[20]
THOMESSE (J.P.). – Réseaux locaux industriels. Typologie et caractéristiques. R 7 574,
traité Informatique industrielle (1994).
COLOMBARI (G.). – Outil de description des
automatismes séquentiels : le GRAFCET
R 7 250, traité Informatique industrielle
(1995).
SILVESTRE (P.) et VERLHAC (D.). – Stratégie
de conception des systèmes d’information.
H 5 170 (6-1994), traité Informatique (1994).
BARRAT (J.P.), BARRAT (M.) et LÉCLUSE (Y.).
– Exemple d’application de la logique floue :
commande de la température d’un four
pilote. R 7 428, traité Informatique industrielle (1993).
MINARD (A.) et MOREL (J.F.). – Matériels
électriques pour atmosphères explosibles.
Sécurité intrinsèque. R 533, traité Mesures et
Contrôle (1991).
Doc. R 7 545
10 - 1995
[7]
MAMMERI (Z.) et THOMESSE (J.P.). – Les
réseaux locaux industriels et le monde OSI.
Introduction à FIP et à MAP. EXERA, oct. 1993.
MAMMERI (Z.) et THOMESSE (J.P.). – FIP et
MAP dans les systèmes automatisés. Eyrolles
(1994).
VERNAY (J.P.). – IBM : PFS-DAE, en signe de
ralliement. Mesures, no 654, p. 70-2, avril
1993.
Les Dossiers de l’informatique industrielle,
IBM.
Systèmes de contrôle de processus – Guide
de Choix. Document EXERA S 3616 F 92, juil.
1992.
Systèmes automatisés de production – Guide
d’analyse des besoins. Document EXERA
no S 3561 X 90, oct. 1990.
IGL Technology. – SADT, un langage pour
communiquer. Éditions Eyrolles, (1989), 2e éd.
(1993).
PEYRUCAT (J.F.). – Que doit-il rester de MAP ?
La couche application MMS... Mesures,
no 662, p. 24-8, fév. 1994.
Guide de choix des superviseurs pour automates programmables. Document EXERA
S 3510 X 89, janv. 1989.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. − © Techniques de l’Ingénieur, traité Informatique industrielle
Doc. R 7 545 − 1
S
A
V
O
I
R
P
L
U
S