close

Enter

Log in using OpenID

Comptabilité Analytique - Méthodes et Pilotage

embedDownload
Comptabilité Analytique – Méthodes et
Pilotage
1ère partie : les méthodes de la comptabilité
analytique
1. Evolution de l’emploi des méthodes analytiques
La comptabilité analytique connaît une révolution complète à partir des années 1970 et
1980 :
-
Les besoins quittent le domaine purement industriel, on prend conscience qu'il faut
contrôler les coûts et les recettes par activités, y compris dans les activités de
service.
-
Le résultat d'une énorme entreprise n'est pas en lui même utilisable : il faut le
fractionner en entités plus restreintes et plus significatives. Le cadre de gestion
cesse d'être l'entreprise légale mais la division, le département ou le service.
-
Dans beaucoup de pays, l'État est devenu le gestionnaire de nombreuses activités
et comprend qu'il doit imposer des systèmes analytiques pour en contrôler le
rendement, un changement d'attitude fondamental dans un monde où le "service
public" n'avait pas à tenir compte de préoccupations comptables.
En France, beaucoup d’entreprises d'État se sont mises à la comptabilité analytique à
partir de la fin des années 80. La Banque de France met en place la première
comptabilité analytique permettant de connaître avec une fiabilité suffisante le prix de
revient des billets à la fin des années 80. La Sealink, filiale de la SNCF, met en place un
système de contrôle analytique informatisé des résultats de chaque bateau de sa flotte au
milieu des années 80. Les résultats sortent immédiatement à la fin de chaque traversée
et de chaque « marée » pour les bateaux équipés. Jusque là les résultats d'ensemble
1
n'étaient connus qu'en fin d'année et noyés dans ceux de la SNCF. L'amélioration des
résultats a été spectaculaire.
Aujourd'hui les techniques de comptabilité analytique informatisée concernent aussi bien
les universités que les hôpitaux, les ministères que les collectivités locales.
L'informatique elle aussi connaît une révolution importante avec l'apparition de terminaux
de saisie qui permettent de décentraliser au plus près des événements le constat des
mouvements tout en réduisant fortement les coûts de traitement de l'information.
L'informatisation de processus techniques comme l'ordonnancement du lancement des
séries de production permet facilement de produire les éléments d'une comptabilité
analytique. La gestion de stocks passe en inventaire permanent. L'apparition de
progiciels adaptés à des modes standards de fonctionnement réduit encore le coût
d'implantation de solutions analytiques. Les valeurs de stocks et d'en-cours sortent
automatiquement. Le recoupement avec la comptabilité générale devient plus facile.
Chaque gestionnaire reçoit désormais avec des périodicités accélérées les informations
de coûts et de résultats nécessaires à l'orientation de ses décisions.
Désormais la comptabilité analytique fait partie de la plupart des Systèmes d’Information
(SI) des entreprises importantes. Son application dans les PME et dans les institutions
publiques reste malheureusement encore très limitée.
2. Des coûts aux méthodes de calcul des coûts
Il n’est possible de calculer un coût que si l’objet du calcul est d’abord précisé. En effet, il
y a plusieurs façons de calculer un coût et donc plusieurs coûts pour un même fait. C’est
dans cette formulation que réside une des principales difficultés de l’analyse et de l’étude
de coût. Il faut choisir des méthodes d’analyse qui puissent s’adapter aux différents
objectifs poursuivis. Or, certains de ceux-ci sont malheureusement contradictoires
comme, par exemple, la recherche du coût variable d’une prestation hospitalière à des
fins de programmation budgétaire d’un service et celle d’un coût complet comme guide de
politique tarifaire. Une fois les méthodes de calcul et de contrôle mises en place, les
résultats s’avèrent souvent insuffisant puisque le coût de la technologie médicale étudiée
peut concerner des centres de responsabilité de nature clinique et médico-technique. Des
2
études spécifiques transcendant les clivages budgétaires traditionnels doivent alors être
mises en place avant de prendre une décision.
Le mot « coût » n’a pas la même signification et n’est pas destiné au même usage dans
les trois situations. Dans la première, il sert à vérifier le fonctionnement d’une unité
économique. Dans la seconde, il s’agit de déterminer une allocation. Dans la dernière, il
s’agit de choisir. La classification ainsi introduite présente l’avantage de mettre en lumière
les qualités requises pour la mesure d’un coût qui ne soient pas nécessairement les
mêmes dans les trois cas.
On peut donc partir u postulat de base que « le coût d’un bien n’existe pas », ou encore
qu’ « un coût ne peut être défini que si l’on opère des choix sur l’étendue de l’espace
physique concerné, la nature des dépenses que l’on choisira de recenser, la période de
temps sur laquelle l’attention sera portée » (C. Riveline, 1973). Il y a donc autant de types
de coûts que d’utilisations possibles. Chaque type de coût est défini par trois
caractéristiques : son objet, son contenu et le moment auquel est fait le calcul.
L’objet : la relation entre le coût total et les quantités produites exige de préciser par
rapport à quel paramètre on qualifie la charge (charge : traduction monétaire d’une
consommation de ressources). En reprenant l’exemple d’un hôpital, ce peut être une
fonction (blanchissage, hôtellerie), un produit (entrées, journées d’hospitalisation), une
pathologie (GHM), un centre de responsabilités.
Le contenu : chaque coût peut prendre en considération toutes les charges supportées au
titre de l’activité étudiée (coût complet) ou simplement des charges ayant des
caractéristiques particulières (coût partiel), selon leur variabilité (coût fixe, coût variable)
ou leur relation avec l’objet (coût direct, coût indirect).
Le moment : les coûts peuvent être déterminés antérieurement aux faits qui les
engendrent (coûts préétablis, calculés sur la base des résultats obtenus dans les années
précédentes ; coûts standards, résultant d’une analyse économique). Ces coûts peuvent
également être calculés a posteriori (coûts constatés).
3
Faire un calcul de coût ne consiste donc pas à identifier indistinctement tous les coûts,
mais à identifier et à mesurer l’ensemble particulier de coûts qui se rapporte à la question
posée et au point de vue retenu.
Ainsi, le coût constaté correspond au prix auquel "on paie les choses" ex post alors que le
coût préétabli correspond à un coût calculé ex ante » (Viens-Bitker, 1989). Ces coûts sont
calculés a priori en vue de faire apparaître distinctement les écarts entre les charges
réelles et les charges prévues. Les coûts standards et les coûts rationnels sont des coûts
préétablis.
Les coûts standards utilisent des normes de volume d’activité, des normes de
consommation propres à des tâches précises et exprimant, par conséquent, des
rendements "normaux" ou des productivités normales.
Les coûts rationnels sont calculés sur la base d’un niveau ou d’un volume d’activité de
l’entreprise considéré comme normale. Issus de la technique de l’imputation rationnelle
des coûts fixes, ils permettent de calculer un coût de revient standard qui correspond à ce
que serait le prix si tout se déroulait conformément aux prévisions. L’écart observé entre
prévisions et réalisation permet d’adopter les mesures correctrices nécessaires. C’est le
domaine du contrôle budgétaire.
3. Les méthodes de calculs des coûts
3.1. La méthode des sections homogènes et des coûts complets
La méthode
méthode des coûts complets,
complets déjà utilisée au XVIe siècle, consiste à calculer les coûts
de production des produits (biens ou services) en répartissant les charges directes et
indirectes de l'entreprise. Ajouter les coûts hors production (par exemple les coûts de
distribution) aux coûts de production permet de trouver les coûts de revient.
La répartition des coûts directs ne présente pas de difficultés, car ils peuvent être imputés
directement aux produits. Les coûts indirects se répartissent sur différents centres de
coûts selon des clés de répartition. Ces clés ou ratios, qui sont en général des rapports
au produit, sont fixées plus ou moins arbitrairement. En effet, il n'existe pas de clés
4
pouvant être utilisées dans tous les cas. Par exemple, une clé fréquemment utilisée pour
répartir les coûts indirects des ateliers de production est l'heure de main-d'œuvre directe.
La somme des coûts répartis divisée par le nombre d’heures produites permet de trouver
le coût de production unitaire qui sert à calculer le prix de revient. Ce prix de revient est
repris à son tour pour déterminer le coût d'entrée utilisé dans les différentes méthodes de
valorisation des stocks, tells que moyenne pondérée, FIFO (First In First Out) ou LIFO
(Last In Last Out).
Une limite de la méthode des coûts complets est l'emploi massif de répartitions des
charges indirectes, qui débouche sur des effets de subventionnements masquant des
différences de profitabilité entre produits. Principaux reproches faits à la méthode :
-
Elle suppose que les charges indirectes sont réparties de manière linéaire selon
les produits, ce qui est rarement le cas, d’autant plus lorsque les produits sont
hétérogènes. Cette imprécision conduit à imputer plus de charges indirectes sur
certains produits et donc à alourdir leurs coûts au profit d'autres produits.
L'utilisation de cette méthode gagne en pertinence lorsque le processus de
production est stable, le personnel peu polyvalent, les produits standards (d’où son
nom de méthode des sections homogènes).
-
Elle suppose qu’il existe des critères permettant un choix totalement objectif des
clés de répartition. Or le plus souvent une clé de répartition est au mieux
discutable, au pire arbitraire. L’utilisation d’une clé ou d’une autre peut donner des
résultats très différents et mener à des décisions erronées. Le risque d’erreur est
d'autant plus important que la proportion des charges indirectes est grande.
Ces variations arbitraires du coût complet d’un produit en fonction de circonstances qui
ne sont pas de la responsabilité des producteurs ne permet pas un dialogue constructif
pour l’amélioration de la gestion. Ce qui suscite la délicate question des frais généraux et
du niveau d’activité.
Imaginons une entreprise produisant les produits A et B. Ils absorbent chacun la moitié
des frais généraux. Pour une raison quelconque le produit B n’est plus fabriqué. La
méthode des coûts complets provoque le reversement des frais généraux absorbés par B
5
sur A, dont le coût unitaire est augmenté d’autant et la rentabilité éventuellement
compromise.
De même la fixité relative des frais généraux, en terme économique l’absence d’élasticité
en fonction de l’activité, entraîne un chargement des prix unitaires en cas de
ralentissement général des affaires. Par le truchement des valorisations de stocks, cela
limite la perte de résultat dans l’exercice concerné mais l’étale dans le temps. Sans
compter que ces variations, qui ne sont pas reliées à l’activité de production proprement
duite, peuvent troubler la fixation raisonnable des prix de vente.
3.2. La méthode de l’imputation rationnelle
La méthode de l'imputation rationnelle est une méthode de comptabilité analytique qui
inclut les coûts fixes dans le coût de production selon la proportion production effective
sur production normale. Ainsi, pour la détermination du coût d'acquisition ou de
production des stocks, on impute la totalité des coûts fixes quand il y a utilisation
complète de la capacité de production. Quand l’utilisation de cette capacité n'est que
partielle, la charge de la partie inemployée est imputée à l'exercice, sous forme d'écart
sur activité.
L’idée en elle-même est simple. On sépare les frais généraux qui ne sont pas directement
imputables et on définit sur les centres de production un niveau normal de production. On
détermine alors un coefficient d’imputation rationnelle, ratio entre l’activité normale et
l’activité constatée. Les coûts unitaires calculés ne dépendent plus de l’activité, que ce
soit pour un produit donné ou pour l’ensemble des produits. Les boni et mali
d’incorporation de frais généraux sont laissés en frais de période (donc dans le résultat
global) sans influencer les centres d’analyse de la production. Les variations de coûts que
l’on constatera sur ces centres refléteront donc uniquement des comportements de
production.
Cette méthode confirme un des grands principes de comptabilité générale quant à la
valorisation des stocks: « Les coûts d’acquisition et de production du stock ne
comprennent que les seuls éléments qui interviennent normalement dans leur formation.
6
Les pertes et les gaspillages en sont exclus. L’imputation des charges fixes est basée sur
la capacité normale de production. »
Ce qui démontre la liaison beaucoup plus forte qu’on ne le pense parfois entre les
concepts généraux et analytiques.
La difficulté de la méthode est évidemment de définir des niveaux « normaux » qui
peuvent être définis par rapport au passé, par rapport à une prévision ou par rapport à
une capacité nominale.
3.3. La méthode du direct costing
Le direct costing est une méthode d'évaluation des coûts qui consiste à affecter tous les
coûts spécifiques aux différents produits pour obtenir leurs coûts directs et à regrouper
les coûts fixes en une masse indifférenciée.
Au lieu de mesurer un coût de revient réel, unitaire, complet, on met à part les charges
fixes, considérées comme des charges de structure présentant une forte inertie. Ensuite,
on mesure la contribution de chaque activité à la couverture de ces coûts fixes. Dans une
variante plus perfectionnée du direct costing, on fait une distinction parmi les charges
fixes : les charges fixes directes peuvent être imputées sur les produits et seules les
charges fixes indirectes sont considérées globalement.
Cette méthode vise à privilégier l’effet dynamique des ventes dans la gestion en se
proposant de déterminer leur contribution à l’absorption des coûts fixes et au résultat
global. La comparaison des contributions dans le temps donne une vision pertinente de
l’activité des lignes de produits. Elle évite de fermer une ligne de produits qui contribue et
qui serait déficitaire en coût complet, le report des frais généraux sur les produits restant
les entraînant à leur tour dans le déficit.
La méthode du direct costing présente néanmoins de nombreux inconvénients :
-
La méthode ne rend pas compte des coûts variables indirects.
7
-
Elle ne permet pas de valoriser correctement les stocks. Il faut donc soit tenir deux
comptabilités analytiques, soit trouver des méthodes pour fusionner tous les
besoins en un seul système dont le direct costing sera l’une des sorties.
-
Si une partie du processus de fabrication est externalisée, les coûts transférés
sont des prix de vente qui intègrent des frais de structure et le bénéfice du sous
traitant. La comparaison d’une année sur l’autre devient impossible.
-
La tendance générale à l’augmentation des frais de structures dans le prix de
revient d’un produit pénalise la méthode : les frais directs ne représentent plus
qu’une fraction des coûts et jouent dès lors un trop grand rôle par rapport à ce
qu’ils représentent réellement.
-
Enfin la focalisation sur des contributions positives (parfois très faibles) peut
conduire à des politiques de prix dangereuses pour la survie de l’entreprise.
Du fait de l'importance des charges fixes, cette méthode n'est utilisable que sur le court
terme et pour des tâches opérationnelles de routine, ou en complément à une autre
méthode d’analyse.
3.4. La méthode des coûts standards
Les coûts standards sont une variété de coûts prévisionnels établis au moyen d'une
analyse technique. L’analyse de l’écart éventuel entre le coût prévu et le coût effectif
permet après le terme de démêler ce qui provient d'une variation de prix (d'origine
externe à l'entreprise) de ce qui provient d'une variation de rendement (d'origine interne à
l'entreprise).
Le procédé est généralement calqué sur l’organisation. La formalisation des prévisions
fixe les standards qui deviennent des objectifs à atteindre. La mesure et l'analyse des
écarts montrent la manière dont les objectifs ont été atteints. On dispose ainsi d'un critère
de jugement et d'une mesure de la responsabilité objectifs.
Si on n’a pas lancé la quantité optimale, si on a été obligé de relancer la production à la
suite d’incidents, entraînant des temps d’utilisation machine plus long et des pertes de
8
matières ou de sous produits, s’il y a eu une panne de machine, bref si on n’a pas suivi la
norme, des écarts de production (boni ou mali) vont apparaître.
Dans la cascade des déversements de coûts de centre de coûts en centre de coûts
(souvent appelés sections en production), les boni et les mali ne sont pas transférés.
Chaque entité sera donc jugée sur ses écarts propres et non pas sur les conséquences
des erreurs des autres. Les stocks sont tenus en coûts standards. Les boni et mali
restent dans les résultats de la période.
Cette méthode présente de nombreux avantages :
-
Les marges sur coût standard permettent de suivre les contributions de produits,
lignes de produits et entités commerciales mieux qu’en direct costing (le coût est
plus réaliste et ne dépend pas de l’intensité capitalistique du système de
production)
-
Les variations d’activités parasites et les effets de bords des autres produits dans
l’absorption des coûts fixes sont évités.
-
Les stocks sont évalués de façon conforme aux règles comptables.
-
Les boni et mali sont immédiatement pris en charge (sur la période)
-
La méthode crée une tension dynamique vers l’optimum de production. Le contrôle
peut se faire quasiment en temps réel et il n’est pas nécessaire d’attendre des
mois pour constater les dérives.
-
La méthode est insensible aux politiques de sous-traitance (dans la mesure où les
coûts standards sont relativement conformes au marché).
-
Elle permet d’associer une gestion budgétaire fine à la gestion analytique.
Le seul inconvénient est la possibilité effective de définir les coûts standard, ce qui n’est
pas toujours possible, ainsi que l’énorme travail de saisie et de traitement en continu des
données opérationnelles, qui rend la méthode impraticable sans le secours de
l’informatique.
9
3.5. La méthode ABC
L’activity
activity based costing,
costing ou méthode ABC vise à fournir des analyses de coût, et par
conséquence de rentabilité, selon des axes d'analyse divers (produit, client,
fournisseur,…) reposant sur la consommation réelle de ressources de chaque activité.
Partant du principe que la production et la vente d'un produit consomment des activités,
que chacune de ces activités, prise isolément, consomme des ressources que l'on peut
quantifier, il est alors possible de calculer les ressources réellement consommées par tout
produit vendu.
Tout comme la méthode UVA, la méthode ABC est tout à fait compatible avec une
démarche processus dans la mesure où elle s'appuie sur la décomposition de processus
en activités et en tâches dans l'optique de qualifier et de quantifier les ressources
consommées à chaque niveau.
Dans "Activity Based Costing", la notion d'activité peut être définie comme une
succession de tâches exécutées de manière répétitive : préparer la commande, expédier
la livraison,... A la décomposition traditionnelle processus > activité > fonction (ou tâche),
s'ajoutent les notions :
-
de ressources (humaines et techniques) consommées par chaque fonction,
-
d'inducteur de ressources (indicateur mesurable permettant de quantifier la
consommation de ressource par activité : effectif, m2,…) encore appelé resource
driver ou parfois Cost Driver ,
-
d'inducteur d'activité (événement déclenchant l'activité : validation d'une
commande, …), encore appelé activity driver,
-
d'objet de coût traduisant les éléments dont il faut déterminer les coûts (produit,
client,…), encore appelé Cost Object.
Les principales étapes de la démarche ABC consistent à :
-
Modéliser les processus de l'entreprise pour en appréhender les circuits. Ces
activités peuvent être, par exemple : le traitement d'une commande, la gestion des
références ou encore la réception des marchandises.
10
-
Pour chaque ressource, retenir et suivre un inducteur (Resource Driver), par
exemple l’heure de production d’une machine.
-
Pour chaque activité, retenir et suivre un inducteur (Activity Driver), par exemple le
nombre de commandes. Cet inducteur sera l'unité qui permettra de répartir le coût
total de l'activité. Certains inducteurs ne seront pas utilisés pour éviter des
modèles trop lourds. On préférera un inducteur typique de l'activité. Pour chaque
activité étudiée, le modèle précisera alors les inducteurs consommés.
-
Quantifier les ressources utilisées par chaque tâche.
-
Calculer les coûts de revient, en partant des ressources puis en remontant vers les
tâches et les activités.
Dans la plupart des cas, la comptabilité (générale et analytique) fournira des informations
globales sur les coûts des ressources. Ces coûts devront être éclatés en coûts directs
(directement imputables à un produit ou un service), coûts indirects imputables à une
activité et coûts indirects non imputables à une activité. Les coûts de direction générale
ou de publicité institutionnelle rentreront par exemple dans ce dernier groupe. Les
inducteurs ont pour objectif principal de répartir les charges indirectes tandis que les
charges directes sont réparties généralement de manière ordinaire.
La méthode ABC présente les avantages suivants :
-
En se focalisant sur les ressources consommées à un niveau fin, elle fournit sans
conteste un coût plus proche de la réalité économique. Elle affecte de manière
plus précise les coûts aux produits sans procéder à une répartition des coûts
indirects à l'aide d'une unité de mesure souvent arbitraire (par exemple, les heures
machines).
-
Elle permet ensuite de réaliser des consolidations par produit, clients ou canal de
vente et d'obtenir des analyses multidimensionnelles.
-
Elle exige une meilleure connaissance des processus, ce qui permet de dégager
les forces et faiblesses de l’organisation lors de sa mise en place.
En contrepartie, elle nécessite un travail d'analyse préalable important afin de pouvoir
alimenter le modèle en données pertinentes. Elle présente aussi l’inconvénient d’exiger
11
l’intervention longue de spécialistes extérieurs pour être mise en œuvre et l’emploi de
solutions informatiques coûteuses.
L'utilisation de cette méthode gagne en pertinence lorsque les processus de production
sont "en ligne" avec un personnel qualifié et polyvalent, que les processus sont flexibles,
et que la technique utilisée est celle de la production en série avec utilisation de la
méthode du Just-In-Time.
3.6. La méthode GP
Inventée par George Perrin, cette méthode visait principalement à simplifier le calcul des
coûts de revient dans les entreprises de mécaniques fabriquant de nombreux produits sur
un même ensemble de machines.
L’idée principale est que la majorité des produits sont dans un rapport de coûts fixe entre
eux. Les méthodes de fabrication ne changeant que lentement, la stabilité de ce rapport
peut être considérée comme acquise. Plutôt que de suivre produit par produit les temps
et les consommations, ce qui peut être exagérément coûteux et ralentir la production, on
se contente de constater les quantités produites. Les rapports de coût étant stables, il est
facile de les transformer en une quantité de production unique qui est rapprochée des
coûts de production globaux de la période.
On en déduit un coût unitaire de l’unité de production, opportunément appelée le GP, et
on s’applique à la valorisation des stocks. On se contente dans cette méthode d’un
nombre de centres d’analyse réduit et de l’inventaire des produits fabriqués. Elle peut
donc s’avérer très économique. Cette méthode fort astucieuse est désormais remplacée
par la méthode UVA.
3.7. La méthode UVA, une extension de la méthode GP
Cette méthode perfectionne la méthode des coûts complets et sert d'alternative à la
méthode ABC. Elle se fonde aussi sur une analyse minutieuse des activités (sous forme
de gammes opératoires) et surtout des postes (opération élémentaire de travail
constituée d'un ensemble de moyens matériels et humains qui fonctionnent de façon
12
homogène). Elle est née des travaux de Georges Perrin réalisés au début des années
1950 sur le concept de l'unification de la mesure de la production, qui aboutit au modèle
de la méthode GP rebaptisée UVA en 1995.
Le premier objectif de la méthode UVA est de calculer le résultat de chaque vente. La
réalisation d'une vente est définie comme le processus transversal élémentaire dans
l'entreprise regroupant tout le travail fait par toutes les fonctions depuis l'enregistrement
de la commande, en passant par la production des produits, jusqu'à leur livraison et
l'encaissement de la facture.
La méthode UVA vise dans un premier temps à mesurer toutes les activités de
l'entreprise avec une seule unité de référence. Cette unité, appelée UVA ou Unité
de Valeur Ajoutée, correspond aux consommations de ressources nécessaires à la
réalisation d’un produit ou d’un service représentatif de l’activité de l’entreprise. Le
montant de ces consommations est le taux de l'UVA. Il s’agit donc clairement d’une
unité de mesure propre à chaque entreprise, un mètre-étalon spécifique auquel
seront comparées toutes les consommations de ressources de tous les postes
UVA dans le but de valoriser chaque activité.
La construction de la méthode UVA consiste à valoriser en UVA :
-
Les postes UVA : un poste UVA est un ensemble homogène de moyens
matériels et humains. Le rapport entre les ressources consommées par un
poste UVA et celles consommées par l’unité de référence (le taux de l'UVA)
nous donne l’indice UVA (par Unité d’Œuvre) de ce poste UVA. L'entreprise
est constituée d'une somme de postes UVA.
-
Les gammes opératoires : une gamme opératoire est une suite
d’opérations, réalisées sur des postes dans un temps donné. Chaque
opération génère des UVA en fonction de l’indice du poste et des unités
d’œuvre consommées (généralement du temps). La somme de toutes les
UVA de toutes les opérations correspond à l’équivalent UVA de la gamme
opératoire. L'entreprise fonctionne comme un réseau de gammes
opératoires.
13
-
Les produits : un produit est une somme de gammes opératoires pour le
concevoir, l’industrialiser, le fabriquer, le contrôler, … Un produit vaut a
UVA.
-
Les services apportés aux clients : un service client est une somme de
gammes opératoires pour le commercial, le traitement de la commande, la
livraison, … C’est un service fourni par l’entreprise au client au sens le plus
large. Un service client vaut b UVA.
La méthode UVA permet de mesurer toutes les UVA générées par l'activité de
l'entreprise pendant une période ou encore les UVA produites. C'est la somme des
valeurs en UVA des produits fabriqués plus la somme des valeurs UVA des
services apportés aux clients :
UVA produites = ∑ a uva + ∑ b uva = P
Après avoir valorisé toute l’activité de l’entreprise en UVA, on peut enfin calculer le
coût de l’UVA, en divisant les charges de la comptabilité générale pour une
période donnée (déduction faite des achats externes) par le total des UVA
produites pour cette même période.
Le calcul du coût se fait généralement pour une période de 12 mois glissant, dans
le but de lisser les variations de ce dernier qui pourraient survenir d'un mois à
14
l'autre. Cette période devra toutefois correspondre à un (ou plusieurs) cycle(s)
complet(s) de l'activité de l'entreprise.
An appliquant le coût de l’UVA ainsi obtenu aux quantités d’UVA caractérisant
chaque produit et chaque service client, on obtient le coût monétaire de ces
produits et services.
Le coût d’une vente est composé des coûts des produits constituant la vente et
des services-client qu’elle a consommés.
Le résultat d'une vente est la différence entre le montant facturé et les coûts
engendrés par cette vente, c'est-à-dire les coûts liés aux produits et aux services
apportés au client.
La méthode présente les avantages fondamentaux suivants :
-
Elle considère que des activités dites "de support" (indirectes par rapport
aux produits) sont directement consommées par chaque vente. Cette
hypothèse permet de réduire considérablement les imputations arbitraires
de charges indirectes.
-
Elle est indépendante des variations monétaires
-
Elle permet de gérer de façon simple des entreprises complexes (ayant
beaucoup de produits et beaucoup de clients), de faire comme si l'entreprise
était mono-produit.
15
Le prix de cette précision est le besoin d'une certaine stabilité dans le temps du
rapport entre les ressources consommées par les postes de l'entreprise. Par
conséquent en cas de changement profond technologique, il faut réactualiser
l'analyse des postes touchés par ce changement, mais pas les autres. En
conditions normales, une réactualisation tous les 5 ans est recommandée.
16
2ème partie : le pilotage de la performance
1. Introduction
Le manager a besoin de savoir là où il veut aller, ce qu’on appellera sa « vision ». Sur
base de cette vision, il doit déterminer sa « stratégie long terme », soit définir sur le long
terme comment il compte atteindre les objectifs qu’il s’est fixé. Il déclinera ensuite sa
stratégie long terme en un plan d’actions moyen terme, encore appelé « Business Plan ».
Enfin, il traduira son Business Plan en termes financiers, obtenant ainsi son « Budget ».
Pour piloter son entité, il dispose de nombreuses informations rendant compte de ce que
son entité a déjà réalisé. Ces informations ont trait à la comptabilité générale, à la
comptabilité analytique, …
VISION
PLAN STRATEGIQUE
Horizon long terme – 5 à 10 ans
Objectifs – Ambitions – Vocation
PLAN OPERATIONNEL
Horizon moyen terme – 2 à 5 ans
Plan
Plan
Comptes de résultats
d’investissements
de financement
prévisionnels
BUDGETS
Horizon court terme – 1 an
Budget
Budget
Budget
d’investissement
de trésorerie
d’exploitation
TABLEAU DE BORD ET REPORTING
Résultats réels – j + 15 à …
17
2. Le budget
Le budget est un compromis entre d’une part les prévisions d’actions à court terme
souhaitées et d’autre part les moyens dont l’entité dispose pour mettre en oeuvre ces
prévisions d’actions.
Cette gestion prévisionnelle ne peut se concevoir sans un contrôle de gestion en cours
d’action et à posteriori.
Pour les prévisions et le contrôle, la gestion prévisionnelle dispose de différents outils,
dont la comptabilité analytique et la gestion budgétaire, présentation chiffrées des
données résultant des prévisions.
Trois phases interviennent dans le processus budgétaire :
a) Plan opérationnel :
La plan opérationnel consiste à mettre en place des programmes d’activités pour
réaliser les orientations choisies. Pour chaque programme d’activités, le manager fera
un examen et choix des actions, une évaluation des moyens et un chiffrage des
résultats prévisionnels.
b) Budgétisation :
Lors de la budgétisation, le manager détermine ses objectifs à court terme, définit les
ressources requises pour atteindre ces objectifs et attribue les responsabilités au sein
de son équipe.
c) Contrôle budgétaire :
Le contrôle budgétaire consiste en la comparaison des résultats et des prévisions, du
réalisé et du budget. Le manager procède alors à une analyse des écarts et détermine
les éventuelles mesures correctives. Lors du contrôle budgétaire suivant, il contrôle
ses hypothèses.
18
Les clés du succès d’un bon processus budgétaire sont les suivantes :
-
Articulation du système budgétaire avec la planification stratégique
-
Application de la démarche budgétaire à l’ensemble des composantes de
l’organisation (la totalité des fonctions et des activités)
-
Cohérence de la démarche budgétaire avec le découpage de l’entreprise en
centres de responsabilité
-
Cohérence des orientations de la politique du personnel avec la démarche
budgétaire (incitation à atteindre des objectifs ambitieux)
-
Flexibilité en cas de modifications significatives de l’environnement
3. L’analyse des écarts
L’analyse des écarts est un outil de gestion utilisé pour le contrôle budgétaire et
mesurant de façon périodique la comparaison entre les résultats réels et les
prévisions chiffrés budgétées afin de
-
rechercher la ou les causes des écarts
-
informer les responsables
-
prendre les mesures correctives éventuelles
-
apprécier l’activité des responsables
Dans la pratique, l’analyse des écarts pourra comparer le réalisé à une date donnée et le
budget à cette même date ou le réalisé à une date donnée et le réalisé (à la même date)
l’année précédente.
Quelques exemples d’analyse des écarts :
Variation de la marge : la marge est égale au prix de vente diminué du prix de revient. Si
la marge diminue, il peut y avoir deux raisons : soit le prix de vente a diminué, soit le prix
de revient a augmenté.
Ecart sur les coûts : un écart observé entre le coût réel et le coût standard budgétisé est
causé par une variation du coût réel (le coût standard étant fixé lors du calcul du budget).
Le coût réel résulte généralement du produit d’un coût unitaire par une quantité. Une
19
variation sur le coût réel peut avoir deux causes : soit une variation sur le coût unitaire,
soit une variation sur la quantité (les deux causes se présentant souvent simultanément,
une variation sur la quantité ayant généralement une incidence sur le coût unitaire).
Ecart sur la main-d’œuvre : la main d’œuvre est déterminée par le produit d’un temps
presté par un taux horaire. L’écart peut dès lors porter sur le temps ou sur le taux. Dans
le premier cas, il vaut la différence entre le temps réel presté et le temps calculé lors de la
budgétisation, le tout multiplié par le taux horaire standard (on parle alors de l’efficience).
Dans le second cas, il vaut la différence entre le taux horaire réel et le taux horaire
standard calculé lors de la budgétisation, le tout multiplié par le temps réellement presté.
Ecart sur la charge : c’est l’écart global entre les charges réelles constatées et les
charges imputées à la production. L’origine de cet écart pourra être un niveau d’activité
différent du niveau d’activité prévu, le non respect de la prévision de rendement ou
encore une variation des prix unitaires.
Il est intéressant de comparer les bilans et comptes de résultats par natures et par
destinations prévisionnels aux bilans et comptes de résultats réels en effectuant une table
des mutations qui fera ressortir les écarts. L’établissement d’un état des ressources et
utilisations des liquidités (cash-flow) complètera l’analyse. On obtient ainsi … un tableau
de bord !
4. Les tableaux de bord
Définitions
Le tableau de bord est un outil destiné à un responsable pour lui permettre grâce à des
indicateurs présenté de façon synthétique de contrôler le fonctionnement de son système
en analysant des écarts significatifs afin de prévoir, décider, agir. C’est donc un outil de
pilotage qui souligne l’état d’avancement dans lequel se trouve le processus afin de
permettre au responsable de mettre en place des actions correctives. Compte tenu de sa
valeur stratégique, le tableau de bord doit nécessairement être simple tout en étant
explicite et rigoureux. Pour cette raison, il est souvent présenté sous la forme d’une
représentation graphique synthétique d'un ensemble d'indicateurs donnant au
20
responsable tous les éléments lui permettant de prendre visuellement et rapidement des
décisions.
Tout manager peut être amené à tenir un tableau de bord personnel, soit parce que cette
pratique est généralisée dans l’organisation, soit parce qu’il désire contrôler la bonne
marche de son secteur d’activité et qu’il veut être en mesure de répondre rapidement à
des demandes de la hiérarchie, de ses collègues ou de l’extérieur.
Les quatre avantages essentiels du tableau de bord
Le manager tire de son tableau de bord quatre avantages essentiels :
-
un outil de contrôle de l'activité : la mise en place de tableaux de bord permet aux
managers de « contrôler » l'activité. Raison pour laquelle cette tâche est souvent
réalisée par le « contrôleur de gestion ». Grâce à son tableau de bord, le manager
contrôle et mesure l’activité passée de son entité en visualisant les indicateurs qu’il
a mis en place.
-
un outil d'aide à la décision : en tant que décideur, le rôle du manager est de
prendre les bonnes décisions une fois qu’il a analysé et évalué l’activité de son
entité. Le but est d'améliorer la position de l’entité par rapport à l'objectif que le
manager s’est fixé (ou s’est vu fixer). Lors de cette deuxième étape, le manager
doit donc prendre des décisions et mettre en place les actions correctives
nécessaires. Si son tableau de bord est bien construit, qu’il a défini les bons
indicateurs de performance, alors son reporting sera vraiment un outil précieux
d'aide à la gestion de son entité.
-
un outil de prévision : le tableau de bord permet d'établir une vision passée de
l'entité mais peut aussi intégrer des données de simulation et de projections dans
le futur. Dans ce cas, on parle de tableau de bord « prospectif ». Le plus connu est
le balanced scorecard établit par Kaplan et Norton
-
un outil de communication : le tableau de bord peut également servir d'outil de
communication. D'une part communication interne à destination de la direction, à
destination des employés, à destination des responsables opérationnels, aux
actionnaires, … et d'autre part communication externe à destination notamment
des banques, investisseurs et autres tiers financiers ou institutionnels.
21
Les tableaux de bord ne devraient donc pas être une option facultative mais plutôt une
obligation afin d'obtenir les clés de la réussite en lien avec les objectifs et la stratégie.
Un tableau de bord n’a d’intérêt que s’il permet de piloter une stratégie.
stratégie Il est dès lors
impératif de respecter le processus suivant :
-
connaître les objectifs stratégiques
-
décliner chaque objectif stratégique en un ou plusieurs objectifs opérationnels
-
déduire de ces objectifs opérationnels des indicateurs et les implémenter
-
réajuster le processus à chaque étape
-
analyser les écarts et prendre les décisions correctives
Les indicateurs
Les indicateurs doivent être clairs et simples, significatifs et durables, cohérents entre
eux, personnalisés.
Il en existe de différentes catégories : indicateurs physiques, indicateurs financiers,
indicateurs relatifs à l’environnement, indicateurs relatifs à l’activité, …
Certaines de leurs qualités sont objectivement contrôlables et mesurables, telles que la
sensibilité, la reproductibilité de la mesure ou la reproductibilité inter-opérateur. D’autres
sont plus ou moins subjectives, telles que la simplicité, l’accessibilité, la pertinence, la
contrôlabilité et la cohérence avec les objectifs.
Un bon tableau de bord réunira dès lors les qualités suivantes :
22
-
Qualité des données
-
Limitation à l’essentiel
-
Présentation lisible et interprétable
-
Mise à jour périodique adaptée aux besoins
-
Evolutif (il prévoit des modalités d’actualisation)
-
Raisonnement prévisionnel (orientation futur)
-
Restitution à faible coût et dans des délais corrects
-
Adhésion des personnes à l’outil (climat de confiance)
Familles de tableaux de bord
A noter enfin qu’il existe deux grandes familles de tableaux de bord : les tableaux de bord
destinés au reporting et les tableaux de bord destinés au pilotage. Les premiers doivent
rendre des comptes sur les résultats obtenus, permettre le dialogue entre niveaux
hiérarchiques et présentent donc une vision verticale des résultats. Les seconds doivent
permettre de suivre l’avancement des plans d’actions et de leurs résultats, sont
uniquement pour diffusion interne et présentent généralement une vision
multidimensionnelle : les Balanced Scorecards.
Scorecards
Les deux grandes démarches pour construire les tableaux de bord dans une organisation
La construction des tableaux de bord peut se faire selon différentes méthodes, plus ou
moins centralisées ou décentralisées :
1. Démarche de bas en haut, soit construction de tableaux de bord opérationnels,
service par service, projet par projet :
-
Que produit le service tant en quantité qu’en qualité ? Définition des mesures de
volume d’activité, de qualité de service rendu et d’efficience au niveau des
différentes activités du service ?
-
Combien coûte-t-il et combien coûtent ses différentes activités et ses différentes
ressources ? Définition des mesures de coût permettant de s’assurer d’une bonne
gestion des ressources ?
-
Quels sont les objectifs poursuivis ? Définition des mesures d’efficacité permettant
d’assurer un pilotage des impacts, des résultats de l’action menée ?
2. Démarche de haut en bas, soit partir d’objectifs stratégiques définis au niveau central
pour déployer ces objectifs dans les différents services :
-
Expliciter les objectifs stratégiques du service.
-
Associer des indicateurs de résultat à ces objectifs.
-
Identifier les principaux processus et projets en oeuvre dans le fonctionnement du
service et présentant des enjeux significatifs.
23
-
Déployer les objectifs stratégiques sur chaque processus et projet et donc définir
des objectifs par processus et projet.
-
Construire avec les acteurs concernés des plans d’action par processus et projet.
-
Associer à ces plans d’action des indicateurs de résultat et de suivi de leur
avancement.
-
Construire à partir de ces éléments le tableau de bord du service et celui de
chacun de ses processus et projets.
-
Compléter la démarche en construisant les tableaux de bord des unités du service,
en reprenant ceux des indicateurs précédents concernant l’unité et en y ajoutant
les indicateurs utiles au pilotage de l’unité.
Les deux méthodes présentent les avantages suivants :
-
Donne une vision multidimensionnelle de la performance
-
Donne une dimension prévisionnelle
-
Dote l’organisation d’un « système d’information »
-
Permet d’apprécier la délégation du pouvoir
-
Permet à chaque responsable d’une unité de gestion de disposer d’indicateurs
synthétiques et de prendre des mesures correctives
-
Prend tout son sens dans le cadre d’une démarche d’animation de gestion qui le
fait vivre, le rend opérationnel en en faisant le cadre d’un dialogue de gestion riche
et régulier entre niveaux hiérarchiques et autres entités concernées.
Elles nécessitent également toutes les deux quelques précautions :
-
Attention à ne pas se perdre dans trop de détails ;
-
La manipulation des indicateurs
-
Utilisé en tant que simple outil, l’intérêt du tableau de bord demeure limité ; il n’est
qu’un moyen mais un moyen indispensable d’une démarche de pilotage
-
Il convient de veiller à ne pas mener la démarche tableaux de bord de façon trop
cloisonnée, trop interne à chaque service.
24
Enfin, chacune de ces méthodes présente des avantages et des précautions qui luis sont
propres :
Démarchés de bas en haut
Démarche de haut en bas
Avantages
- Démarche concrète qui permet d’aboutir à
- A le mérite de mettre l’accent sur le
des résultats assez rapidement, ce qui
pilotage des impacts, des résultats de
renforce sa crédibilité
l’action menée, donc sur l’efficacité de
- Implication forte, dès le départ, des
l’action publique
responsables de terrain
- Démarche souple qui peut se déployer
progressivement sur une base peu
contraignante
- Réduction des dysfonctionnements
identifiés lors de la collecte des
informations et reconnus comme tels par
les responsables locaux
- Ne nécessite pas vraiment d’expression
préalable d’objectifs généraux ou de
priorité à donner à tel secteur aux dépens
de tel autre.
Précautions
- Ne permet pas de piloter des politiques
- Nécessite une expression initiale des
d’ensemble nécessitant l’action conjointe
priorités
de plusieurs services, puisqu’elle raisonne
- Peut être perçue comme technocratique
service par service
et avoir des difficultés si l’on ne prend pas
- Peut même encourager le cloisonnement
les précautions nécessaires, à trouver son
- Privilégie la maîtrise de l’efficience de
ancrage dans la réalité des opérations
l’action, parce que c’est le plus facilement
- Bouscule les modes de fonctionnement
mesurable. Si celle-ci demeure une
hiérarchiques car travaille de façon
préoccupation importante, il sera dans
transverse par processus et par projet.
certains cas plus prioritaire de réorienter
les finalités de l’action.
25
Conception d’un tableau de bord
1. Principes de conception
Les principes de conception sont cohérence avec l'organigramme, contenu
synoptique et agrégé, rapidité d'élaboration et de transmission.
2. Définition des objectifs du contrôle
La démarche souvent employée pour élaborer un tableau de bord consiste à
définir directement des indicateurs. Cette approche est risquée, dans la mesure où
les indicateurs identifiés sont rarement cohérents avec le contexte et les objectifs
de la structure. Il s’agit donc de mener au préalable une réflexion sur la stratégie,
les missions et les objectifs de la structure afin d’identifier les aspects qu’il faut
contrôler. La conception du tableau de bord commence dès lors par une étape
approfondie relative au fonctionnement de l’unité, cette approche garantissant une
meilleure adéquation de l’outil aux besoins de gestion du responsable.
26
La démarche vise à réaliser une approche en entonnoir et ce en partant d’une
analyse des missions de l’unité, pour définir ensuite la nature et le degré de priorité
des domaines à contrôler. Les principales étapes en sont :
• Etape 1 : Identifier les missions de l’unité :
L’objectif de cette étape est de clarifier et formaliser les raisons d’être de l’unité.
Ces raisons d’être traduisent les orientations stratégiques données au secteur.
• Etape 2 : Identifier les évolutions du contexte de l’unité :
Le contexte est porteur d’évolutions qui peuvent avoir des impacts forts sur le
fonctionnement de l’unité. Si l’on ne prend pas en compte ces évolutions, le
tableau de bord risque d’être inadapté aux impératifs de gestion, en n’incluant pas
d’indicateurs centrés sur des facteurs émergents.
• Etape 3 : Identifier les priorités de contrôle :
En matière de tableau de bord, le principal danger réside dans l’inflation
d’informations. Cela est d’autant plus vrai que les ressources technologiques
fournissent en temps réel plusieurs dizaines de données. Conséquence
paradoxale, le responsable risque d’être paralysé par les informations censées
l’aider dans son action.
Comment trier parmi toutes les informations possibles pour concentrer le modèle
sur les informations prioritaires ?
• Etape 4 : Définir les objectifs du contrôle.
L’un des aspects du pilotage consiste à connaître sa destination. Le tableau de
bord est précisément destiné à faciliter l’orientation du responsable vers les buts
qu’il s’est fixés. Sans objectifs, la route est plus difficile. En termes de tableaux de
bord, le choix des indicateurs est d’autant plus facile que la destination et son
contexte sont déterminés avec précision.
27
3. Définition des indicateurs
Cette phase constitue pour beaucoup le noyau de la démarche d’élaboration du
tableau de bord. Bien qu’importante, elle n’est qu’une tape d’un processus global.
Proposer des indicateurs pour n’en retenir que les plus pertinents n’est pas un
travail aisé. Différents obstacles peuvent se mettre en travers de la route du
responsable.
Au cours de cette phase, le responsable complète son dispositif de contrôle à
partir de témoins : les indicateurs. Cette phase de travail, extrêmement riche à la
fois en termes techniques (la maîtrise du fonctionnement du système s’en trouve
renforcée) et relationnels (l’approche participative est un pré-requis pour mener
cette phase), fait apparaître un risque majeur : l’abstraction.
À partir d’un travail créatif sur l’identification des indicateurs, le responsable cible
progressivement les éléments qui vont lui permettre de mieux maîtriser son unité.
Les étapes qui structurent cette phase sont les suivantes :
• Etape 1 : Identifier les indicateurs possibles :
La recherche des indicateurs constitue l’étape clé de la réussite du dispositif du
contrôle, à condition de ne pas se limiter trop rapidement aux indicateurs naturels
(ceux qui viennent immédiatement à l’esprit). L’adéquation du futur tableau de bord
aux besoins de son responsable sera d’autant plus optimale que l’éventail de choix
des indicateurs sera large. Avant de se lancer dans un travail de production
d’indicateurs, il est bon de s’enquérir des informations déjà existantes sur le sujet.
Une approche de type Benchmark constitue une première voie intéressante,
Quels indicateurs sont généralement utilisés par d’autres structures sur la même
thématique ?
Le brainstorming est un outil idéal pour procéder à cette étape. En l’appliquant à la
démarche tableau de bord, la recherche se déroule de la manière suivante :
-
Phase de production : il s’agit de proposer un maximum d’indicateurs, de
manière spontanée et sans se censurer ;
28
-
Phase d’approfondissement : il s’agit de trouver d’autres indicateurs à
travers ceux déjà trouvés ;
-
Phase de synthèse : Ce travail permet d’avoir une vision globale des
différents indicateurs par domaine.
• Etape 2 : Choisir les indicateurs :
Le tableau de bord reflète, dans une certaine mesure, la vision que porte le
responsable sur l’unité qu’il gère. Choisir un indicateur est un acte de décision
majeur. Ce choix inclut une dimension de partialité : le choix d’un indicateur n’est
donc pas neutre et implique des conséquences. C’est en effet à partir de cet
indicateur que des actions seront déclenchées.
La difficulté quant au choix d’un indicateur, c’est de veiller à ne pas sur ou sousévaluer l’importance d’un indicateur, sous peine de fausser le caractère
opérationnel du système. Une meilleure connaissance des ressorts personnels en
matière de prise de décision est un facteur de qualité dans le travail de sélection.
• Etape 3 : Définir précisément les indicateurs retenus :
Les tableaux de bord peuvent être source de tensions : chacun interprète une
information selon ses intérêts. La difficulté ne réside dons pas dans l’identification
d’indicateurs, mais plus dans son utilisation ultérieure. Se pose alors le problème
de définition de l’indicateur.
Un indicateur est un instrument de langage particulier. Il constitue un signifiant
pour des acteurs particuliers d’un système, le signifié les amenant à prendre des
décisions d’action.
• Etape 4 : Valider la cohérence du système de contrôle :
La recherche des indicateurs procède d’une démarche de créativité. Malgré les
jalons proposés par la définition des objectifs du contrôle, les pistes de recherche
ont pu privilégier certains domaines de contrôle au détriment d’autres. Il peut
exister donc un risque quant à la complétude et la cohérence du système de
29
contrôle. Il s’agit ici de s’assurer de l’adéquation des indicateurs aux domaines et
priorités.
4. Définition des indices de contrôle
La recherche des indicateurs est maintenant achevée. Le responsable est donc en
mesure d’obtenir des informations. Pour qu’elles deviennent opérationnelles, il est
indispensable de pouvoir les situer par rapport à une échelle de référence.
L’information brute restituée par un indicateur n’a aucune valeur intrinsèque. Elle
devient utile lorsqu’elle permet de situer certaines caractéristiques du système par
rapport à des valeurs attendues. Cette phase a pour objet de valider le cadre de
référence à l’intérieur duquel les indicateurs trouveront une signification du point de
vue de l’action. Voici les étapes qui structurent cette phase :
• Etape 1 : Identifier l’historique de contrôle :
Le responsable n’a pas intérêt à intervenir à tout moment. Il doit faire preuve de
réactivité, sans adopter de comportements réactionnels. Sans action réfléchie, la
stérilité et l’épuisement sont au rendez-vous. L’information doit donc être transmise
dans un laps de temps adapté. L’historique de contrôle détermine l’intervalle de
temps à partir duquel la valeur de l’indicateur peut être appréciée en tendance, de
manière fiable et opérationnelle.
• Etape 2 : Définir les modes d’obtention des données :
Des difficultés surgissent assez souvent lors de l’interprétation des résultats. Elles
procèdent généralement de contestations formulées soit sur la manière de calculer
la valeur de l’indicateur, soit sur l’interprétation qui est faite de cette valeur. Le
mode de calcul de l’indicateur ne doit donc laisser aucune ambiguïté quant à ses
principes.
• Etape 3 : Définir la fourchette de tolérance :
Quels éléments vont inciter un responsable à agir ? Sûrement pas l’indicateur : sa
fonction se borne à restituer une valeur à un instant donné. Mais cette valeur n’est
30
pas suffisante pour déterminer une réaction. C’est l’écart enregistré par rapport à
une valeur attendue et son interprétation qui fonde l’action.
• Etape 4 : Formaliser le dictionnaire des indicateurs :
Elaborer un tableau de bord est un processus qui s’inscrit dans le temps. La
mémoire des acteurs est hélas volatile. Il n’est donc pas sûr que, quelques mois
après la mise en place du tableau de bord, le responsable se souvienne de la
signification de certains paramètres. Il peut s’ensuivre d’éventuelles difficultés
quant à l’interprétation des résultats et, partant, des décisions qui sont prises.
5. Mettre en forme le tableau de bord
Outre la facilité de lecture, la manière dont est présentée l’information a une
influence sur le comportement des destinataires du tableau de bord. Que penser
de la succession de tableaux de chiffres, où le responsable passe plus de temps à
chercher et décoder l’information qu’à agir ? Il est donc nécessaire de structurer de
manière opérationnelle le support d’information qu’est le tableau de bord. La
démarche consiste maintenant à élaborer techniquement le dispositif, à vérifier son
caractère opérationnel, puis à en faire un dispositif d’exploitation courante. Voici
les étapes qui structurent cette phase :
• Etape 1 : Défini une maquette :
Certains tableaux de bord d’ancienne génération se bornent à livrer de
l’information brute sans se soucier de son impact sur le destinataire. Véritables
monographies, les tableaux de bord de ce type contraignent le lecteur à rechercher
l’information dont il a besoin à travers des feuilles et de données. L’objectif du
tableau de bord n’est pas de perdre son temps à rechercher et extraire de
l’information de documents, mais bien à l’exploiter pour agir. Il y a donc un lien
direct entre lisibilité et efficacité.
• Etape 2 : Elaborer un prototype :
Malgré le travail réalisé dans les étapes précédentes, certains responsables
peuvent avoir des difficultés à se rendre compte, d’une part, de la faisabilité et,
31
d’autre part, de la réalité du dispositif. L’une des voies de clarification possibles
consiste à réaliser un prototype. Le caractère concret du dispositif facilite son
évaluation et son adaptation.
• Etape 3 : Tester le prototype :
Les impacts du tableau de bord sur l’unité sont importants. Mettre un dispositif en
production sans l’avoir testé fait peser des risques multiples, principalement
économiques (le coût d’adaptation peut être doublé ou triplé) et sociaux (possibilité
de rejet par les utilisateurs). Il s’agit donc de définir les modalités qui vont assurer
l’adéquation u dispositif aux besoins du responsable.
• Etape 4 : Valider le résultat :
Selon certains, le tableau de bord peut être mis en exploitation après quelques
tests partiels, plus ou moins bien menés. Cette démarche pèche par excès de
précipitation. Les résultats des tests doivent au contraire être validés de manière
officielle, pour ne pas laisser les acteurs dans une quelconque ambiguïté.
32
5. Le Balanced Scorecard
Une étude (Renaissance Solutions en association avec R.KAPLAN de Harvard) a
permis de déterminer que 90% des entreprises croient que bâtir des actions en
fonction de la stratégie est un facteur de succès. Cependant, moins de 10% des
entreprises disent avoir une compréhension claire de leur propre stratégie. De
plus, 60% des décideurs dans l’entreprise comprennent clairement la stratégie de
la compagnie, mais moins de 30% de ces derniers (soit moins de 18% du total)
affirment que la stratégie a été correctement appliquée.
Les résultats de cette étude révèlent les faits suivants.
-
Une vision claire n’est pas suffisante.
-
Une stratégie n’a presque jamais de liens directs avec les objectifs des
individus ou départements d’une entreprise.
-
Les décisions de tous les jours ne prennent pas en compte la planification
stratégique de l’entreprise.
-
Les entreprises n’arrivent pas à collecter les bonnes infos afin de mesurer
leur progrès vers leurs objectifs.
-
Les entreprises n’identifient pas leurs erreurs et n’en tirent donc pas de
leçon.
Ces observations ont amenés les auteurs a proposer un nouvel outil, le Balanced
Scorecard,
Scorecard conçu comme un puissant outil de gestion, de pilotage à utiliser pour
clarifier et traduire la vision et la stratégie, communiquer et lier entre eux des
objectifs et des indicateurs, mettre en place des cibles et aligner des actions à la
stratégie et enfin améliorer le feed-back stratégique ainsi que le processus
d’apprentissage.
Le Balanced Scorecard permet ainsi de communiquer la stratégie à toute
l’entreprise et de lier les objectifs de l’entreprise à ceux des individus. Il aide à
définir les objectifs qui ont un impact direct dans les actions de tous les jours et
assure une collecte des informations pertinentes.
33
L’approche présente deux particularités importantes :
1. Elle se veut mesurer la performance interne et externe d’une entreprise en
confrontant les résultats obtenus aux objectifs stratégiques définis par les
gestionnaires, à partir d’un système de référence bâti non seulement sur les
indicateurs traditionnels (financier), mais également sur des indicateurs
nouveaux d’ordre qualitatif. Elle complète ainsi la perspective financière par
3 autres perspectives : les clients, les processus internes et
l’apprentissage/développement des compétences.
2. Elle est multidimensionnelle, permettant des analyses sur plusieurs
dimensions. Pour un département commercial, on aura par exemple quatre
dimensions : les produits (subdivisés en sous-dimensions comme les
34
activités, la ligne de produit, la gamme et les produits eux-mêmes), le
réseau (subdivisé en sous-dimensions comme la zone, le pays, la région, le
département, la ville et l’agence), le client (subdivisé en sous-dimensions
comme le secteur, le groupe, le client et l’adresse) et le temps (subdivisé en
sous-dimensions comme l’année, le trimestre, le mois, la semaine, le jour et
le budget).
6. Tableau de bord en Excel : quelques recommandations
Le tableur Excel et suffisamment performant pour concevoir des tableaux de bord
personnels de pilotage dans le cadre de petits projets ou de petites structure. Vu
sa diffusion sur la grande majorité des postes informatiques, nous avons voulu
regrouper ici quelques règles de bonne pratique pour son utilisation dans le cadre
des tableaux de bord.
Premier principe et principe de base : « ce grâce à quoi je peux travailler » est très
différent de « ce que je veux imprimer ». On considère trop souvent Excel comme
un outil de mise en page avant impression. Or Excel est avant tout un tableau,
c’est-à-dire une représentation ordonnée de champs (les lignes) contenant
plusieurs informations (les colonnes).
Second principe : Ne jamais fusionner code et libellé. En effet, ce sont deux
champs de nature différente. Les regrouper va à l’encontre de la philosophie d’un
tableur et peut rendre certains outils d’Excel en partie ou totalement inutilisables.
Troisième principe : Prêter attention aux codes numériques. Et éviter ainsi des
zéros initiaux et autre conversion implicite ou explicite entre chaînes numériques et
chaînes alpha-numériques.
Quatrième principe : Ne jamais fusionner des cellules. C’est une pratique non
seulement dangereuse (impossibilité de ré-exploiter les tableaux, lourde tâche à
réitérer à chaque changement de données) mais également tout à fait inutile :
l’utilisation des tableaux croisés dynamiques et/ou de la mise en forme
conditionnelle est tout aussi efficace.
35
Cinquième principe : Ne jamais insérer des lignes ou colonnes « blanches » dans
un tableau. Pour le tableur, ces lignes ou colonnes blanches signifient le passage
à un autre tableau. Dans le cas d’une ligne blanche, les outils de tri ou de filtre
« oublieront » les lignes séparées de la position du curseur par cette ligne blanche.
Dans le cas d’une colonne, l’outil de tri réordonnera toutes les colonnes figurant
entre le curseur et la colonne blanche, sans trier les colonnes au-delà de la
colonne blanche. Le tableau sera ainsi totalement et irrémédiablement
désorganisé…
Sixième principe : Un titre pour chaque colonne. C’est préférable pour les tris mais
surtout exigé pour les tableaux croisés dynamiques…
Septième principe : Mettre le code “principal” en première colonne, notamment
dans les tables secondaires. Ceci est nécessaire pour les fonctions de recherche
(lookup) permettant de rechercher une information dans une table secondaire sur
base d’un code présent dans la table principale et au début de la table secondaire.
36
Rérérences
-
Bouquin H. : Comptabilité de Gestion, Economica, 2000
-
Cibert A. Comptabilité analytique. Dunod, Paris, 1976
-
Riveline C. Evaluation des coûts : élément d’une théorie de gestion.
ENSMP, 1980.
-
Viens-Bitker C., Leclerq B. Collecte et élaboration de l’information
économique nécessaire au calcul des
-
coûts de la décision thérapeutique. Arch. Mal. Coeur, 1989
-
Fievez J. , Kieffer J.-P., Zaya R. : La méthode UVA : du contrôle de gestion
à la maîtrise du profit, Dunod, 1999.
-
Perrin G. : Prix de revient et contrôle de gestion par la méthode GP, Dunod,
1963
-
Comptabilité analytique et contrôle de gestion, Vuibert, 2005
-
Linard Nadig, les fondements de la comptabilité de gestion, 1999
-
Robert Kaplan, David Norton : Putting the Balanced Scorecard to Work
37
Author
Document
Category
Uncategorized
Views
0
File Size
522 KB
Tags
1/--pages
Report inappropriate content