Comptabilité Analytique – Méthodes et Pilotage 1ère partie : les méthodes de la comptabilité analytique 1. Evolution de l’emploi des méthodes analytiques La comptabilité analytique connaît une révolution complète à partir des années 1970 et 1980 : - Les besoins quittent le domaine purement industriel, on prend conscience qu'il faut contrôler les coûts et les recettes par activités, y compris dans les activités de service. - Le résultat d'une énorme entreprise n'est pas en lui même utilisable : il faut le fractionner en entités plus restreintes et plus significatives. Le cadre de gestion cesse d'être l'entreprise légale mais la division, le département ou le service. - Dans beaucoup de pays, l'État est devenu le gestionnaire de nombreuses activités et comprend qu'il doit imposer des systèmes analytiques pour en contrôler le rendement, un changement d'attitude fondamental dans un monde où le "service public" n'avait pas à tenir compte de préoccupations comptables. En France, beaucoup d’entreprises d'État se sont mises à la comptabilité analytique à partir de la fin des années 80. La Banque de France met en place la première comptabilité analytique permettant de connaître avec une fiabilité suffisante le prix de revient des billets à la fin des années 80. La Sealink, filiale de la SNCF, met en place un système de contrôle analytique informatisé des résultats de chaque bateau de sa flotte au milieu des années 80. Les résultats sortent immédiatement à la fin de chaque traversée et de chaque « marée » pour les bateaux équipés. Jusque là les résultats d'ensemble 1 n'étaient connus qu'en fin d'année et noyés dans ceux de la SNCF. L'amélioration des résultats a été spectaculaire. Aujourd'hui les techniques de comptabilité analytique informatisée concernent aussi bien les universités que les hôpitaux, les ministères que les collectivités locales. L'informatique elle aussi connaît une révolution importante avec l'apparition de terminaux de saisie qui permettent de décentraliser au plus près des événements le constat des mouvements tout en réduisant fortement les coûts de traitement de l'information. L'informatisation de processus techniques comme l'ordonnancement du lancement des séries de production permet facilement de produire les éléments d'une comptabilité analytique. La gestion de stocks passe en inventaire permanent. L'apparition de progiciels adaptés à des modes standards de fonctionnement réduit encore le coût d'implantation de solutions analytiques. Les valeurs de stocks et d'en-cours sortent automatiquement. Le recoupement avec la comptabilité générale devient plus facile. Chaque gestionnaire reçoit désormais avec des périodicités accélérées les informations de coûts et de résultats nécessaires à l'orientation de ses décisions. Désormais la comptabilité analytique fait partie de la plupart des Systèmes d’Information (SI) des entreprises importantes. Son application dans les PME et dans les institutions publiques reste malheureusement encore très limitée. 2. Des coûts aux méthodes de calcul des coûts Il n’est possible de calculer un coût que si l’objet du calcul est d’abord précisé. En effet, il y a plusieurs façons de calculer un coût et donc plusieurs coûts pour un même fait. C’est dans cette formulation que réside une des principales difficultés de l’analyse et de l’étude de coût. Il faut choisir des méthodes d’analyse qui puissent s’adapter aux différents objectifs poursuivis. Or, certains de ceux-ci sont malheureusement contradictoires comme, par exemple, la recherche du coût variable d’une prestation hospitalière à des fins de programmation budgétaire d’un service et celle d’un coût complet comme guide de politique tarifaire. Une fois les méthodes de calcul et de contrôle mises en place, les résultats s’avèrent souvent insuffisant puisque le coût de la technologie médicale étudiée peut concerner des centres de responsabilité de nature clinique et médico-technique. Des 2 études spécifiques transcendant les clivages budgétaires traditionnels doivent alors être mises en place avant de prendre une décision. Le mot « coût » n’a pas la même signification et n’est pas destiné au même usage dans les trois situations. Dans la première, il sert à vérifier le fonctionnement d’une unité économique. Dans la seconde, il s’agit de déterminer une allocation. Dans la dernière, il s’agit de choisir. La classification ainsi introduite présente l’avantage de mettre en lumière les qualités requises pour la mesure d’un coût qui ne soient pas nécessairement les mêmes dans les trois cas. On peut donc partir u postulat de base que « le coût d’un bien n’existe pas », ou encore qu’ « un coût ne peut être défini que si l’on opère des choix sur l’étendue de l’espace physique concerné, la nature des dépenses que l’on choisira de recenser, la période de temps sur laquelle l’attention sera portée » (C. Riveline, 1973). Il y a donc autant de types de coûts que d’utilisations possibles. Chaque type de coût est défini par trois caractéristiques : son objet, son contenu et le moment auquel est fait le calcul. L’objet : la relation entre le coût total et les quantités produites exige de préciser par rapport à quel paramètre on qualifie la charge (charge : traduction monétaire d’une consommation de ressources). En reprenant l’exemple d’un hôpital, ce peut être une fonction (blanchissage, hôtellerie), un produit (entrées, journées d’hospitalisation), une pathologie (GHM), un centre de responsabilités. Le contenu : chaque coût peut prendre en considération toutes les charges supportées au titre de l’activité étudiée (coût complet) ou simplement des charges ayant des caractéristiques particulières (coût partiel), selon leur variabilité (coût fixe, coût variable) ou leur relation avec l’objet (coût direct, coût indirect). Le moment : les coûts peuvent être déterminés antérieurement aux faits qui les engendrent (coûts préétablis, calculés sur la base des résultats obtenus dans les années précédentes ; coûts standards, résultant d’une analyse économique). Ces coûts peuvent également être calculés a posteriori (coûts constatés). 3 Faire un calcul de coût ne consiste donc pas à identifier indistinctement tous les coûts, mais à identifier et à mesurer l’ensemble particulier de coûts qui se rapporte à la question posée et au point de vue retenu. Ainsi, le coût constaté correspond au prix auquel "on paie les choses" ex post alors que le coût préétabli correspond à un coût calculé ex ante » (Viens-Bitker, 1989). Ces coûts sont calculés a priori en vue de faire apparaître distinctement les écarts entre les charges réelles et les charges prévues. Les coûts standards et les coûts rationnels sont des coûts préétablis. Les coûts standards utilisent des normes de volume d’activité, des normes de consommation propres à des tâches précises et exprimant, par conséquent, des rendements "normaux" ou des productivités normales. Les coûts rationnels sont calculés sur la base d’un niveau ou d’un volume d’activité de l’entreprise considéré comme normale. Issus de la technique de l’imputation rationnelle des coûts fixes, ils permettent de calculer un coût de revient standard qui correspond à ce que serait le prix si tout se déroulait conformément aux prévisions. L’écart observé entre prévisions et réalisation permet d’adopter les mesures correctrices nécessaires. C’est le domaine du contrôle budgétaire. 3. Les méthodes de calculs des coûts 3.1. La méthode des sections homogènes et des coûts complets La méthode méthode des coûts complets, complets déjà utilisée au XVIe siècle, consiste à calculer les coûts de production des produits (biens ou services) en répartissant les charges directes et indirectes de l'entreprise. Ajouter les coûts hors production (par exemple les coûts de distribution) aux coûts de production permet de trouver les coûts de revient. La répartition des coûts directs ne présente pas de difficultés, car ils peuvent être imputés directement aux produits. Les coûts indirects se répartissent sur différents centres de coûts selon des clés de répartition. Ces clés ou ratios, qui sont en général des rapports au produit, sont fixées plus ou moins arbitrairement. En effet, il n'existe pas de clés 4 pouvant être utilisées dans tous les cas. Par exemple, une clé fréquemment utilisée pour répartir les coûts indirects des ateliers de production est l'heure de main-d'œuvre directe. La somme des coûts répartis divisée par le nombre d’heures produites permet de trouver le coût de production unitaire qui sert à calculer le prix de revient. Ce prix de revient est repris à son tour pour déterminer le coût d'entrée utilisé dans les différentes méthodes de valorisation des stocks, tells que moyenne pondérée, FIFO (First In First Out) ou LIFO (Last In Last Out). Une limite de la méthode des coûts complets est l'emploi massif de répartitions des charges indirectes, qui débouche sur des effets de subventionnements masquant des différences de profitabilité entre produits. Principaux reproches faits à la méthode : - Elle suppose que les charges indirectes sont réparties de manière linéaire selon les produits, ce qui est rarement le cas, d’autant plus lorsque les produits sont hétérogènes. Cette imprécision conduit à imputer plus de charges indirectes sur certains produits et donc à alourdir leurs coûts au profit d'autres produits. L'utilisation de cette méthode gagne en pertinence lorsque le processus de production est stable, le personnel peu polyvalent, les produits standards (d’où son nom de méthode des sections homogènes). - Elle suppose qu’il existe des critères permettant un choix totalement objectif des clés de répartition. Or le plus souvent une clé de répartition est au mieux discutable, au pire arbitraire. L’utilisation d’une clé ou d’une autre peut donner des résultats très différents et mener à des décisions erronées. Le risque d’erreur est d'autant plus important que la proportion des charges indirectes est grande. Ces variations arbitraires du coût complet d’un produit en fonction de circonstances qui ne sont pas de la responsabilité des producteurs ne permet pas un dialogue constructif pour l’amélioration de la gestion. Ce qui suscite la délicate question des frais généraux et du niveau d’activité. Imaginons une entreprise produisant les produits A et B. Ils absorbent chacun la moitié des frais généraux. Pour une raison quelconque le produit B n’est plus fabriqué. La méthode des coûts complets provoque le reversement des frais généraux absorbés par B 5 sur A, dont le coût unitaire est augmenté d’autant et la rentabilité éventuellement compromise. De même la fixité relative des frais généraux, en terme économique l’absence d’élasticité en fonction de l’activité, entraîne un chargement des prix unitaires en cas de ralentissement général des affaires. Par le truchement des valorisations de stocks, cela limite la perte de résultat dans l’exercice concerné mais l’étale dans le temps. Sans compter que ces variations, qui ne sont pas reliées à l’activité de production proprement duite, peuvent troubler la fixation raisonnable des prix de vente. 3.2. La méthode de l’imputation rationnelle La méthode de l'imputation rationnelle est une méthode de comptabilité analytique qui inclut les coûts fixes dans le coût de production selon la proportion production effective sur production normale. Ainsi, pour la détermination du coût d'acquisition ou de production des stocks, on impute la totalité des coûts fixes quand il y a utilisation complète de la capacité de production. Quand l’utilisation de cette capacité n'est que partielle, la charge de la partie inemployée est imputée à l'exercice, sous forme d'écart sur activité. L’idée en elle-même est simple. On sépare les frais généraux qui ne sont pas directement imputables et on définit sur les centres de production un niveau normal de production. On détermine alors un coefficient d’imputation rationnelle, ratio entre l’activité normale et l’activité constatée. Les coûts unitaires calculés ne dépendent plus de l’activité, que ce soit pour un produit donné ou pour l’ensemble des produits. Les boni et mali d’incorporation de frais généraux sont laissés en frais de période (donc dans le résultat global) sans influencer les centres d’analyse de la production. Les variations de coûts que l’on constatera sur ces centres refléteront donc uniquement des comportements de production. Cette méthode confirme un des grands principes de comptabilité générale quant à la valorisation des stocks: « Les coûts d’acquisition et de production du stock ne comprennent que les seuls éléments qui interviennent normalement dans leur formation. 6 Les pertes et les gaspillages en sont exclus. L’imputation des charges fixes est basée sur la capacité normale de production. » Ce qui démontre la liaison beaucoup plus forte qu’on ne le pense parfois entre les concepts généraux et analytiques. La difficulté de la méthode est évidemment de définir des niveaux « normaux » qui peuvent être définis par rapport au passé, par rapport à une prévision ou par rapport à une capacité nominale. 3.3. La méthode du direct costing Le direct costing est une méthode d'évaluation des coûts qui consiste à affecter tous les coûts spécifiques aux différents produits pour obtenir leurs coûts directs et à regrouper les coûts fixes en une masse indifférenciée. Au lieu de mesurer un coût de revient réel, unitaire, complet, on met à part les charges fixes, considérées comme des charges de structure présentant une forte inertie. Ensuite, on mesure la contribution de chaque activité à la couverture de ces coûts fixes. Dans une variante plus perfectionnée du direct costing, on fait une distinction parmi les charges fixes : les charges fixes directes peuvent être imputées sur les produits et seules les charges fixes indirectes sont considérées globalement. Cette méthode vise à privilégier l’effet dynamique des ventes dans la gestion en se proposant de déterminer leur contribution à l’absorption des coûts fixes et au résultat global. La comparaison des contributions dans le temps donne une vision pertinente de l’activité des lignes de produits. Elle évite de fermer une ligne de produits qui contribue et qui serait déficitaire en coût complet, le report des frais généraux sur les produits restant les entraînant à leur tour dans le déficit. La méthode du direct costing présente néanmoins de nombreux inconvénients : - La méthode ne rend pas compte des coûts variables indirects. 7 - Elle ne permet pas de valoriser correctement les stocks. Il faut donc soit tenir deux comptabilités analytiques, soit trouver des méthodes pour fusionner tous les besoins en un seul système dont le direct costing sera l’une des sorties. - Si une partie du processus de fabrication est externalisée, les coûts transférés sont des prix de vente qui intègrent des frais de structure et le bénéfice du sous traitant. La comparaison d’une année sur l’autre devient impossible. - La tendance générale à l’augmentation des frais de structures dans le prix de revient d’un produit pénalise la méthode : les frais directs ne représentent plus qu’une fraction des coûts et jouent dès lors un trop grand rôle par rapport à ce qu’ils représentent réellement. - Enfin la focalisation sur des contributions positives (parfois très faibles) peut conduire à des politiques de prix dangereuses pour la survie de l’entreprise. Du fait de l'importance des charges fixes, cette méthode n'est utilisable que sur le court terme et pour des tâches opérationnelles de routine, ou en complément à une autre méthode d’analyse. 3.4. La méthode des coûts standards Les coûts standards sont une variété de coûts prévisionnels établis au moyen d'une analyse technique. L’analyse de l’écart éventuel entre le coût prévu et le coût effectif permet après le terme de démêler ce qui provient d'une variation de prix (d'origine externe à l'entreprise) de ce qui provient d'une variation de rendement (d'origine interne à l'entreprise). Le procédé est généralement calqué sur l’organisation. La formalisation des prévisions fixe les standards qui deviennent des objectifs à atteindre. La mesure et l'analyse des écarts montrent la manière dont les objectifs ont été atteints. On dispose ainsi d'un critère de jugement et d'une mesure de la responsabilité objectifs. Si on n’a pas lancé la quantité optimale, si on a été obligé de relancer la production à la suite d’incidents, entraînant des temps d’utilisation machine plus long et des pertes de 8 matières ou de sous produits, s’il y a eu une panne de machine, bref si on n’a pas suivi la norme, des écarts de production (boni ou mali) vont apparaître. Dans la cascade des déversements de coûts de centre de coûts en centre de coûts (souvent appelés sections en production), les boni et les mali ne sont pas transférés. Chaque entité sera donc jugée sur ses écarts propres et non pas sur les conséquences des erreurs des autres. Les stocks sont tenus en coûts standards. Les boni et mali restent dans les résultats de la période. Cette méthode présente de nombreux avantages : - Les marges sur coût standard permettent de suivre les contributions de produits, lignes de produits et entités commerciales mieux qu’en direct costing (le coût est plus réaliste et ne dépend pas de l’intensité capitalistique du système de production) - Les variations d’activités parasites et les effets de bords des autres produits dans l’absorption des coûts fixes sont évités. - Les stocks sont évalués de façon conforme aux règles comptables. - Les boni et mali sont immédiatement pris en charge (sur la période) - La méthode crée une tension dynamique vers l’optimum de production. Le contrôle peut se faire quasiment en temps réel et il n’est pas nécessaire d’attendre des mois pour constater les dérives. - La méthode est insensible aux politiques de sous-traitance (dans la mesure où les coûts standards sont relativement conformes au marché). - Elle permet d’associer une gestion budgétaire fine à la gestion analytique. Le seul inconvénient est la possibilité effective de définir les coûts standard, ce qui n’est pas toujours possible, ainsi que l’énorme travail de saisie et de traitement en continu des données opérationnelles, qui rend la méthode impraticable sans le secours de l’informatique. 9 3.5. La méthode ABC L’activity activity based costing, costing ou méthode ABC vise à fournir des analyses de coût, et par conséquence de rentabilité, selon des axes d'analyse divers (produit, client, fournisseur,…) reposant sur la consommation réelle de ressources de chaque activité. Partant du principe que la production et la vente d'un produit consomment des activités, que chacune de ces activités, prise isolément, consomme des ressources que l'on peut quantifier, il est alors possible de calculer les ressources réellement consommées par tout produit vendu. Tout comme la méthode UVA, la méthode ABC est tout à fait compatible avec une démarche processus dans la mesure où elle s'appuie sur la décomposition de processus en activités et en tâches dans l'optique de qualifier et de quantifier les ressources consommées à chaque niveau. Dans "Activity Based Costing", la notion d'activité peut être définie comme une succession de tâches exécutées de manière répétitive : préparer la commande, expédier la livraison,... A la décomposition traditionnelle processus > activité > fonction (ou tâche), s'ajoutent les notions : - de ressources (humaines et techniques) consommées par chaque fonction, - d'inducteur de ressources (indicateur mesurable permettant de quantifier la consommation de ressource par activité : effectif, m2,…) encore appelé resource driver ou parfois Cost Driver , - d'inducteur d'activité (événement déclenchant l'activité : validation d'une commande, …), encore appelé activity driver, - d'objet de coût traduisant les éléments dont il faut déterminer les coûts (produit, client,…), encore appelé Cost Object. Les principales étapes de la démarche ABC consistent à : - Modéliser les processus de l'entreprise pour en appréhender les circuits. Ces activités peuvent être, par exemple : le traitement d'une commande, la gestion des références ou encore la réception des marchandises. 10 - Pour chaque ressource, retenir et suivre un inducteur (Resource Driver), par exemple l’heure de production d’une machine. - Pour chaque activité, retenir et suivre un inducteur (Activity Driver), par exemple le nombre de commandes. Cet inducteur sera l'unité qui permettra de répartir le coût total de l'activité. Certains inducteurs ne seront pas utilisés pour éviter des modèles trop lourds. On préférera un inducteur typique de l'activité. Pour chaque activité étudiée, le modèle précisera alors les inducteurs consommés. - Quantifier les ressources utilisées par chaque tâche. - Calculer les coûts de revient, en partant des ressources puis en remontant vers les tâches et les activités. Dans la plupart des cas, la comptabilité (générale et analytique) fournira des informations globales sur les coûts des ressources. Ces coûts devront être éclatés en coûts directs (directement imputables à un produit ou un service), coûts indirects imputables à une activité et coûts indirects non imputables à une activité. Les coûts de direction générale ou de publicité institutionnelle rentreront par exemple dans ce dernier groupe. Les inducteurs ont pour objectif principal de répartir les charges indirectes tandis que les charges directes sont réparties généralement de manière ordinaire. La méthode ABC présente les avantages suivants : - En se focalisant sur les ressources consommées à un niveau fin, elle fournit sans conteste un coût plus proche de la réalité économique. Elle affecte de manière plus précise les coûts aux produits sans procéder à une répartition des coûts indirects à l'aide d'une unité de mesure souvent arbitraire (par exemple, les heures machines). - Elle permet ensuite de réaliser des consolidations par produit, clients ou canal de vente et d'obtenir des analyses multidimensionnelles. - Elle exige une meilleure connaissance des processus, ce qui permet de dégager les forces et faiblesses de l’organisation lors de sa mise en place. En contrepartie, elle nécessite un travail d'analyse préalable important afin de pouvoir alimenter le modèle en données pertinentes. Elle présente aussi l’inconvénient d’exiger 11 l’intervention longue de spécialistes extérieurs pour être mise en œuvre et l’emploi de solutions informatiques coûteuses. L'utilisation de cette méthode gagne en pertinence lorsque les processus de production sont "en ligne" avec un personnel qualifié et polyvalent, que les processus sont flexibles, et que la technique utilisée est celle de la production en série avec utilisation de la méthode du Just-In-Time. 3.6. La méthode GP Inventée par George Perrin, cette méthode visait principalement à simplifier le calcul des coûts de revient dans les entreprises de mécaniques fabriquant de nombreux produits sur un même ensemble de machines. L’idée principale est que la majorité des produits sont dans un rapport de coûts fixe entre eux. Les méthodes de fabrication ne changeant que lentement, la stabilité de ce rapport peut être considérée comme acquise. Plutôt que de suivre produit par produit les temps et les consommations, ce qui peut être exagérément coûteux et ralentir la production, on se contente de constater les quantités produites. Les rapports de coût étant stables, il est facile de les transformer en une quantité de production unique qui est rapprochée des coûts de production globaux de la période. On en déduit un coût unitaire de l’unité de production, opportunément appelée le GP, et on s’applique à la valorisation des stocks. On se contente dans cette méthode d’un nombre de centres d’analyse réduit et de l’inventaire des produits fabriqués. Elle peut donc s’avérer très économique. Cette méthode fort astucieuse est désormais remplacée par la méthode UVA. 3.7. La méthode UVA, une extension de la méthode GP Cette méthode perfectionne la méthode des coûts complets et sert d'alternative à la méthode ABC. Elle se fonde aussi sur une analyse minutieuse des activités (sous forme de gammes opératoires) et surtout des postes (opération élémentaire de travail constituée d'un ensemble de moyens matériels et humains qui fonctionnent de façon 12 homogène). Elle est née des travaux de Georges Perrin réalisés au début des années 1950 sur le concept de l'unification de la mesure de la production, qui aboutit au modèle de la méthode GP rebaptisée UVA en 1995. Le premier objectif de la méthode UVA est de calculer le résultat de chaque vente. La réalisation d'une vente est définie comme le processus transversal élémentaire dans l'entreprise regroupant tout le travail fait par toutes les fonctions depuis l'enregistrement de la commande, en passant par la production des produits, jusqu'à leur livraison et l'encaissement de la facture. La méthode UVA vise dans un premier temps à mesurer toutes les activités de l'entreprise avec une seule unité de référence. Cette unité, appelée UVA ou Unité de Valeur Ajoutée, correspond aux consommations de ressources nécessaires à la réalisation d’un produit ou d’un service représentatif de l’activité de l’entreprise. Le montant de ces consommations est le taux de l'UVA. Il s’agit donc clairement d’une unité de mesure propre à chaque entreprise, un mètre-étalon spécifique auquel seront comparées toutes les consommations de ressources de tous les postes UVA dans le but de valoriser chaque activité. La construction de la méthode UVA consiste à valoriser en UVA : - Les postes UVA : un poste UVA est un ensemble homogène de moyens matériels et humains. Le rapport entre les ressources consommées par un poste UVA et celles consommées par l’unité de référence (le taux de l'UVA) nous donne l’indice UVA (par Unité d’Œuvre) de ce poste UVA. L'entreprise est constituée d'une somme de postes UVA. - Les gammes opératoires : une gamme opératoire est une suite d’opérations, réalisées sur des postes dans un temps donné. Chaque opération génère des UVA en fonction de l’indice du poste et des unités d’œuvre consommées (généralement du temps). La somme de toutes les UVA de toutes les opérations correspond à l’équivalent UVA de la gamme opératoire. L'entreprise fonctionne comme un réseau de gammes opératoires. 13 - Les produits : un produit est une somme de gammes opératoires pour le concevoir, l’industrialiser, le fabriquer, le contrôler, … Un produit vaut a UVA. - Les services apportés aux clients : un service client est une somme de gammes opératoires pour le commercial, le traitement de la commande, la livraison, … C’est un service fourni par l’entreprise au client au sens le plus large. Un service client vaut b UVA. La méthode UVA permet de mesurer toutes les UVA générées par l'activité de l'entreprise pendant une période ou encore les UVA produites. C'est la somme des valeurs en UVA des produits fabriqués plus la somme des valeurs UVA des services apportés aux clients : UVA produites = ∑ a uva + ∑ b uva = P Après avoir valorisé toute l’activité de l’entreprise en UVA, on peut enfin calculer le coût de l’UVA, en divisant les charges de la comptabilité générale pour une période donnée (déduction faite des achats externes) par le total des UVA produites pour cette même période. Le calcul du coût se fait généralement pour une période de 12 mois glissant, dans le but de lisser les variations de ce dernier qui pourraient survenir d'un mois à 14 l'autre. Cette période devra toutefois correspondre à un (ou plusieurs) cycle(s) complet(s) de l'activité de l'entreprise. An appliquant le coût de l’UVA ainsi obtenu aux quantités d’UVA caractérisant chaque produit et chaque service client, on obtient le coût monétaire de ces produits et services. Le coût d’une vente est composé des coûts des produits constituant la vente et des services-client qu’elle a consommés. Le résultat d'une vente est la différence entre le montant facturé et les coûts engendrés par cette vente, c'est-à-dire les coûts liés aux produits et aux services apportés au client. La méthode présente les avantages fondamentaux suivants : - Elle considère que des activités dites "de support" (indirectes par rapport aux produits) sont directement consommées par chaque vente. Cette hypothèse permet de réduire considérablement les imputations arbitraires de charges indirectes. - Elle est indépendante des variations monétaires - Elle permet de gérer de façon simple des entreprises complexes (ayant beaucoup de produits et beaucoup de clients), de faire comme si l'entreprise était mono-produit. 15 Le prix de cette précision est le besoin d'une certaine stabilité dans le temps du rapport entre les ressources consommées par les postes de l'entreprise. Par conséquent en cas de changement profond technologique, il faut réactualiser l'analyse des postes touchés par ce changement, mais pas les autres. En conditions normales, une réactualisation tous les 5 ans est recommandée. 16 2ème partie : le pilotage de la performance 1. Introduction Le manager a besoin de savoir là où il veut aller, ce qu’on appellera sa « vision ». Sur base de cette vision, il doit déterminer sa « stratégie long terme », soit définir sur le long terme comment il compte atteindre les objectifs qu’il s’est fixé. Il déclinera ensuite sa stratégie long terme en un plan d’actions moyen terme, encore appelé « Business Plan ». Enfin, il traduira son Business Plan en termes financiers, obtenant ainsi son « Budget ». Pour piloter son entité, il dispose de nombreuses informations rendant compte de ce que son entité a déjà réalisé. Ces informations ont trait à la comptabilité générale, à la comptabilité analytique, … VISION PLAN STRATEGIQUE Horizon long terme – 5 à 10 ans Objectifs – Ambitions – Vocation PLAN OPERATIONNEL Horizon moyen terme – 2 à 5 ans Plan Plan Comptes de résultats d’investissements de financement prévisionnels BUDGETS Horizon court terme – 1 an Budget Budget Budget d’investissement de trésorerie d’exploitation TABLEAU DE BORD ET REPORTING Résultats réels – j + 15 à … 17 2. Le budget Le budget est un compromis entre d’une part les prévisions d’actions à court terme souhaitées et d’autre part les moyens dont l’entité dispose pour mettre en oeuvre ces prévisions d’actions. Cette gestion prévisionnelle ne peut se concevoir sans un contrôle de gestion en cours d’action et à posteriori. Pour les prévisions et le contrôle, la gestion prévisionnelle dispose de différents outils, dont la comptabilité analytique et la gestion budgétaire, présentation chiffrées des données résultant des prévisions. Trois phases interviennent dans le processus budgétaire : a) Plan opérationnel : La plan opérationnel consiste à mettre en place des programmes d’activités pour réaliser les orientations choisies. Pour chaque programme d’activités, le manager fera un examen et choix des actions, une évaluation des moyens et un chiffrage des résultats prévisionnels. b) Budgétisation : Lors de la budgétisation, le manager détermine ses objectifs à court terme, définit les ressources requises pour atteindre ces objectifs et attribue les responsabilités au sein de son équipe. c) Contrôle budgétaire : Le contrôle budgétaire consiste en la comparaison des résultats et des prévisions, du réalisé et du budget. Le manager procède alors à une analyse des écarts et détermine les éventuelles mesures correctives. Lors du contrôle budgétaire suivant, il contrôle ses hypothèses. 18 Les clés du succès d’un bon processus budgétaire sont les suivantes : - Articulation du système budgétaire avec la planification stratégique - Application de la démarche budgétaire à l’ensemble des composantes de l’organisation (la totalité des fonctions et des activités) - Cohérence de la démarche budgétaire avec le découpage de l’entreprise en centres de responsabilité - Cohérence des orientations de la politique du personnel avec la démarche budgétaire (incitation à atteindre des objectifs ambitieux) - Flexibilité en cas de modifications significatives de l’environnement 3. L’analyse des écarts L’analyse des écarts est un outil de gestion utilisé pour le contrôle budgétaire et mesurant de façon périodique la comparaison entre les résultats réels et les prévisions chiffrés budgétées afin de - rechercher la ou les causes des écarts - informer les responsables - prendre les mesures correctives éventuelles - apprécier l’activité des responsables Dans la pratique, l’analyse des écarts pourra comparer le réalisé à une date donnée et le budget à cette même date ou le réalisé à une date donnée et le réalisé (à la même date) l’année précédente. Quelques exemples d’analyse des écarts : Variation de la marge : la marge est égale au prix de vente diminué du prix de revient. Si la marge diminue, il peut y avoir deux raisons : soit le prix de vente a diminué, soit le prix de revient a augmenté. Ecart sur les coûts : un écart observé entre le coût réel et le coût standard budgétisé est causé par une variation du coût réel (le coût standard étant fixé lors du calcul du budget). Le coût réel résulte généralement du produit d’un coût unitaire par une quantité. Une 19 variation sur le coût réel peut avoir deux causes : soit une variation sur le coût unitaire, soit une variation sur la quantité (les deux causes se présentant souvent simultanément, une variation sur la quantité ayant généralement une incidence sur le coût unitaire). Ecart sur la main-d’œuvre : la main d’œuvre est déterminée par le produit d’un temps presté par un taux horaire. L’écart peut dès lors porter sur le temps ou sur le taux. Dans le premier cas, il vaut la différence entre le temps réel presté et le temps calculé lors de la budgétisation, le tout multiplié par le taux horaire standard (on parle alors de l’efficience). Dans le second cas, il vaut la différence entre le taux horaire réel et le taux horaire standard calculé lors de la budgétisation, le tout multiplié par le temps réellement presté. Ecart sur la charge : c’est l’écart global entre les charges réelles constatées et les charges imputées à la production. L’origine de cet écart pourra être un niveau d’activité différent du niveau d’activité prévu, le non respect de la prévision de rendement ou encore une variation des prix unitaires. Il est intéressant de comparer les bilans et comptes de résultats par natures et par destinations prévisionnels aux bilans et comptes de résultats réels en effectuant une table des mutations qui fera ressortir les écarts. L’établissement d’un état des ressources et utilisations des liquidités (cash-flow) complètera l’analyse. On obtient ainsi … un tableau de bord ! 4. Les tableaux de bord Définitions Le tableau de bord est un outil destiné à un responsable pour lui permettre grâce à des indicateurs présenté de façon synthétique de contrôler le fonctionnement de son système en analysant des écarts significatifs afin de prévoir, décider, agir. C’est donc un outil de pilotage qui souligne l’état d’avancement dans lequel se trouve le processus afin de permettre au responsable de mettre en place des actions correctives. Compte tenu de sa valeur stratégique, le tableau de bord doit nécessairement être simple tout en étant explicite et rigoureux. Pour cette raison, il est souvent présenté sous la forme d’une représentation graphique synthétique d'un ensemble d'indicateurs donnant au 20 responsable tous les éléments lui permettant de prendre visuellement et rapidement des décisions. Tout manager peut être amené à tenir un tableau de bord personnel, soit parce que cette pratique est généralisée dans l’organisation, soit parce qu’il désire contrôler la bonne marche de son secteur d’activité et qu’il veut être en mesure de répondre rapidement à des demandes de la hiérarchie, de ses collègues ou de l’extérieur. Les quatre avantages essentiels du tableau de bord Le manager tire de son tableau de bord quatre avantages essentiels : - un outil de contrôle de l'activité : la mise en place de tableaux de bord permet aux managers de « contrôler » l'activité. Raison pour laquelle cette tâche est souvent réalisée par le « contrôleur de gestion ». Grâce à son tableau de bord, le manager contrôle et mesure l’activité passée de son entité en visualisant les indicateurs qu’il a mis en place. - un outil d'aide à la décision : en tant que décideur, le rôle du manager est de prendre les bonnes décisions une fois qu’il a analysé et évalué l’activité de son entité. Le but est d'améliorer la position de l’entité par rapport à l'objectif que le manager s’est fixé (ou s’est vu fixer). Lors de cette deuxième étape, le manager doit donc prendre des décisions et mettre en place les actions correctives nécessaires. Si son tableau de bord est bien construit, qu’il a défini les bons indicateurs de performance, alors son reporting sera vraiment un outil précieux d'aide à la gestion de son entité. - un outil de prévision : le tableau de bord permet d'établir une vision passée de l'entité mais peut aussi intégrer des données de simulation et de projections dans le futur. Dans ce cas, on parle de tableau de bord « prospectif ». Le plus connu est le balanced scorecard établit par Kaplan et Norton - un outil de communication : le tableau de bord peut également servir d'outil de communication. D'une part communication interne à destination de la direction, à destination des employés, à destination des responsables opérationnels, aux actionnaires, … et d'autre part communication externe à destination notamment des banques, investisseurs et autres tiers financiers ou institutionnels. 21 Les tableaux de bord ne devraient donc pas être une option facultative mais plutôt une obligation afin d'obtenir les clés de la réussite en lien avec les objectifs et la stratégie. Un tableau de bord n’a d’intérêt que s’il permet de piloter une stratégie. stratégie Il est dès lors impératif de respecter le processus suivant : - connaître les objectifs stratégiques - décliner chaque objectif stratégique en un ou plusieurs objectifs opérationnels - déduire de ces objectifs opérationnels des indicateurs et les implémenter - réajuster le processus à chaque étape - analyser les écarts et prendre les décisions correctives Les indicateurs Les indicateurs doivent être clairs et simples, significatifs et durables, cohérents entre eux, personnalisés. Il en existe de différentes catégories : indicateurs physiques, indicateurs financiers, indicateurs relatifs à l’environnement, indicateurs relatifs à l’activité, … Certaines de leurs qualités sont objectivement contrôlables et mesurables, telles que la sensibilité, la reproductibilité de la mesure ou la reproductibilité inter-opérateur. D’autres sont plus ou moins subjectives, telles que la simplicité, l’accessibilité, la pertinence, la contrôlabilité et la cohérence avec les objectifs. Un bon tableau de bord réunira dès lors les qualités suivantes : 22 - Qualité des données - Limitation à l’essentiel - Présentation lisible et interprétable - Mise à jour périodique adaptée aux besoins - Evolutif (il prévoit des modalités d’actualisation) - Raisonnement prévisionnel (orientation futur) - Restitution à faible coût et dans des délais corrects - Adhésion des personnes à l’outil (climat de confiance) Familles de tableaux de bord A noter enfin qu’il existe deux grandes familles de tableaux de bord : les tableaux de bord destinés au reporting et les tableaux de bord destinés au pilotage. Les premiers doivent rendre des comptes sur les résultats obtenus, permettre le dialogue entre niveaux hiérarchiques et présentent donc une vision verticale des résultats. Les seconds doivent permettre de suivre l’avancement des plans d’actions et de leurs résultats, sont uniquement pour diffusion interne et présentent généralement une vision multidimensionnelle : les Balanced Scorecards. Scorecards Les deux grandes démarches pour construire les tableaux de bord dans une organisation La construction des tableaux de bord peut se faire selon différentes méthodes, plus ou moins centralisées ou décentralisées : 1. Démarche de bas en haut, soit construction de tableaux de bord opérationnels, service par service, projet par projet : - Que produit le service tant en quantité qu’en qualité ? Définition des mesures de volume d’activité, de qualité de service rendu et d’efficience au niveau des différentes activités du service ? - Combien coûte-t-il et combien coûtent ses différentes activités et ses différentes ressources ? Définition des mesures de coût permettant de s’assurer d’une bonne gestion des ressources ? - Quels sont les objectifs poursuivis ? Définition des mesures d’efficacité permettant d’assurer un pilotage des impacts, des résultats de l’action menée ? 2. Démarche de haut en bas, soit partir d’objectifs stratégiques définis au niveau central pour déployer ces objectifs dans les différents services : - Expliciter les objectifs stratégiques du service. - Associer des indicateurs de résultat à ces objectifs. - Identifier les principaux processus et projets en oeuvre dans le fonctionnement du service et présentant des enjeux significatifs. 23 - Déployer les objectifs stratégiques sur chaque processus et projet et donc définir des objectifs par processus et projet. - Construire avec les acteurs concernés des plans d’action par processus et projet. - Associer à ces plans d’action des indicateurs de résultat et de suivi de leur avancement. - Construire à partir de ces éléments le tableau de bord du service et celui de chacun de ses processus et projets. - Compléter la démarche en construisant les tableaux de bord des unités du service, en reprenant ceux des indicateurs précédents concernant l’unité et en y ajoutant les indicateurs utiles au pilotage de l’unité. Les deux méthodes présentent les avantages suivants : - Donne une vision multidimensionnelle de la performance - Donne une dimension prévisionnelle - Dote l’organisation d’un « système d’information » - Permet d’apprécier la délégation du pouvoir - Permet à chaque responsable d’une unité de gestion de disposer d’indicateurs synthétiques et de prendre des mesures correctives - Prend tout son sens dans le cadre d’une démarche d’animation de gestion qui le fait vivre, le rend opérationnel en en faisant le cadre d’un dialogue de gestion riche et régulier entre niveaux hiérarchiques et autres entités concernées. Elles nécessitent également toutes les deux quelques précautions : - Attention à ne pas se perdre dans trop de détails ; - La manipulation des indicateurs - Utilisé en tant que simple outil, l’intérêt du tableau de bord demeure limité ; il n’est qu’un moyen mais un moyen indispensable d’une démarche de pilotage - Il convient de veiller à ne pas mener la démarche tableaux de bord de façon trop cloisonnée, trop interne à chaque service. 24 Enfin, chacune de ces méthodes présente des avantages et des précautions qui luis sont propres : Démarchés de bas en haut Démarche de haut en bas Avantages - Démarche concrète qui permet d’aboutir à - A le mérite de mettre l’accent sur le des résultats assez rapidement, ce qui pilotage des impacts, des résultats de renforce sa crédibilité l’action menée, donc sur l’efficacité de - Implication forte, dès le départ, des l’action publique responsables de terrain - Démarche souple qui peut se déployer progressivement sur une base peu contraignante - Réduction des dysfonctionnements identifiés lors de la collecte des informations et reconnus comme tels par les responsables locaux - Ne nécessite pas vraiment d’expression préalable d’objectifs généraux ou de priorité à donner à tel secteur aux dépens de tel autre. Précautions - Ne permet pas de piloter des politiques - Nécessite une expression initiale des d’ensemble nécessitant l’action conjointe priorités de plusieurs services, puisqu’elle raisonne - Peut être perçue comme technocratique service par service et avoir des difficultés si l’on ne prend pas - Peut même encourager le cloisonnement les précautions nécessaires, à trouver son - Privilégie la maîtrise de l’efficience de ancrage dans la réalité des opérations l’action, parce que c’est le plus facilement - Bouscule les modes de fonctionnement mesurable. Si celle-ci demeure une hiérarchiques car travaille de façon préoccupation importante, il sera dans transverse par processus et par projet. certains cas plus prioritaire de réorienter les finalités de l’action. 25 Conception d’un tableau de bord 1. Principes de conception Les principes de conception sont cohérence avec l'organigramme, contenu synoptique et agrégé, rapidité d'élaboration et de transmission. 2. Définition des objectifs du contrôle La démarche souvent employée pour élaborer un tableau de bord consiste à définir directement des indicateurs. Cette approche est risquée, dans la mesure où les indicateurs identifiés sont rarement cohérents avec le contexte et les objectifs de la structure. Il s’agit donc de mener au préalable une réflexion sur la stratégie, les missions et les objectifs de la structure afin d’identifier les aspects qu’il faut contrôler. La conception du tableau de bord commence dès lors par une étape approfondie relative au fonctionnement de l’unité, cette approche garantissant une meilleure adéquation de l’outil aux besoins de gestion du responsable. 26 La démarche vise à réaliser une approche en entonnoir et ce en partant d’une analyse des missions de l’unité, pour définir ensuite la nature et le degré de priorité des domaines à contrôler. Les principales étapes en sont : • Etape 1 : Identifier les missions de l’unité : L’objectif de cette étape est de clarifier et formaliser les raisons d’être de l’unité. Ces raisons d’être traduisent les orientations stratégiques données au secteur. • Etape 2 : Identifier les évolutions du contexte de l’unité : Le contexte est porteur d’évolutions qui peuvent avoir des impacts forts sur le fonctionnement de l’unité. Si l’on ne prend pas en compte ces évolutions, le tableau de bord risque d’être inadapté aux impératifs de gestion, en n’incluant pas d’indicateurs centrés sur des facteurs émergents. • Etape 3 : Identifier les priorités de contrôle : En matière de tableau de bord, le principal danger réside dans l’inflation d’informations. Cela est d’autant plus vrai que les ressources technologiques fournissent en temps réel plusieurs dizaines de données. Conséquence paradoxale, le responsable risque d’être paralysé par les informations censées l’aider dans son action. Comment trier parmi toutes les informations possibles pour concentrer le modèle sur les informations prioritaires ? • Etape 4 : Définir les objectifs du contrôle. L’un des aspects du pilotage consiste à connaître sa destination. Le tableau de bord est précisément destiné à faciliter l’orientation du responsable vers les buts qu’il s’est fixés. Sans objectifs, la route est plus difficile. En termes de tableaux de bord, le choix des indicateurs est d’autant plus facile que la destination et son contexte sont déterminés avec précision. 27 3. Définition des indicateurs Cette phase constitue pour beaucoup le noyau de la démarche d’élaboration du tableau de bord. Bien qu’importante, elle n’est qu’une tape d’un processus global. Proposer des indicateurs pour n’en retenir que les plus pertinents n’est pas un travail aisé. Différents obstacles peuvent se mettre en travers de la route du responsable. Au cours de cette phase, le responsable complète son dispositif de contrôle à partir de témoins : les indicateurs. Cette phase de travail, extrêmement riche à la fois en termes techniques (la maîtrise du fonctionnement du système s’en trouve renforcée) et relationnels (l’approche participative est un pré-requis pour mener cette phase), fait apparaître un risque majeur : l’abstraction. À partir d’un travail créatif sur l’identification des indicateurs, le responsable cible progressivement les éléments qui vont lui permettre de mieux maîtriser son unité. Les étapes qui structurent cette phase sont les suivantes : • Etape 1 : Identifier les indicateurs possibles : La recherche des indicateurs constitue l’étape clé de la réussite du dispositif du contrôle, à condition de ne pas se limiter trop rapidement aux indicateurs naturels (ceux qui viennent immédiatement à l’esprit). L’adéquation du futur tableau de bord aux besoins de son responsable sera d’autant plus optimale que l’éventail de choix des indicateurs sera large. Avant de se lancer dans un travail de production d’indicateurs, il est bon de s’enquérir des informations déjà existantes sur le sujet. Une approche de type Benchmark constitue une première voie intéressante, Quels indicateurs sont généralement utilisés par d’autres structures sur la même thématique ? Le brainstorming est un outil idéal pour procéder à cette étape. En l’appliquant à la démarche tableau de bord, la recherche se déroule de la manière suivante : - Phase de production : il s’agit de proposer un maximum d’indicateurs, de manière spontanée et sans se censurer ; 28 - Phase d’approfondissement : il s’agit de trouver d’autres indicateurs à travers ceux déjà trouvés ; - Phase de synthèse : Ce travail permet d’avoir une vision globale des différents indicateurs par domaine. • Etape 2 : Choisir les indicateurs : Le tableau de bord reflète, dans une certaine mesure, la vision que porte le responsable sur l’unité qu’il gère. Choisir un indicateur est un acte de décision majeur. Ce choix inclut une dimension de partialité : le choix d’un indicateur n’est donc pas neutre et implique des conséquences. C’est en effet à partir de cet indicateur que des actions seront déclenchées. La difficulté quant au choix d’un indicateur, c’est de veiller à ne pas sur ou sousévaluer l’importance d’un indicateur, sous peine de fausser le caractère opérationnel du système. Une meilleure connaissance des ressorts personnels en matière de prise de décision est un facteur de qualité dans le travail de sélection. • Etape 3 : Définir précisément les indicateurs retenus : Les tableaux de bord peuvent être source de tensions : chacun interprète une information selon ses intérêts. La difficulté ne réside dons pas dans l’identification d’indicateurs, mais plus dans son utilisation ultérieure. Se pose alors le problème de définition de l’indicateur. Un indicateur est un instrument de langage particulier. Il constitue un signifiant pour des acteurs particuliers d’un système, le signifié les amenant à prendre des décisions d’action. • Etape 4 : Valider la cohérence du système de contrôle : La recherche des indicateurs procède d’une démarche de créativité. Malgré les jalons proposés par la définition des objectifs du contrôle, les pistes de recherche ont pu privilégier certains domaines de contrôle au détriment d’autres. Il peut exister donc un risque quant à la complétude et la cohérence du système de 29 contrôle. Il s’agit ici de s’assurer de l’adéquation des indicateurs aux domaines et priorités. 4. Définition des indices de contrôle La recherche des indicateurs est maintenant achevée. Le responsable est donc en mesure d’obtenir des informations. Pour qu’elles deviennent opérationnelles, il est indispensable de pouvoir les situer par rapport à une échelle de référence. L’information brute restituée par un indicateur n’a aucune valeur intrinsèque. Elle devient utile lorsqu’elle permet de situer certaines caractéristiques du système par rapport à des valeurs attendues. Cette phase a pour objet de valider le cadre de référence à l’intérieur duquel les indicateurs trouveront une signification du point de vue de l’action. Voici les étapes qui structurent cette phase : • Etape 1 : Identifier l’historique de contrôle : Le responsable n’a pas intérêt à intervenir à tout moment. Il doit faire preuve de réactivité, sans adopter de comportements réactionnels. Sans action réfléchie, la stérilité et l’épuisement sont au rendez-vous. L’information doit donc être transmise dans un laps de temps adapté. L’historique de contrôle détermine l’intervalle de temps à partir duquel la valeur de l’indicateur peut être appréciée en tendance, de manière fiable et opérationnelle. • Etape 2 : Définir les modes d’obtention des données : Des difficultés surgissent assez souvent lors de l’interprétation des résultats. Elles procèdent généralement de contestations formulées soit sur la manière de calculer la valeur de l’indicateur, soit sur l’interprétation qui est faite de cette valeur. Le mode de calcul de l’indicateur ne doit donc laisser aucune ambiguïté quant à ses principes. • Etape 3 : Définir la fourchette de tolérance : Quels éléments vont inciter un responsable à agir ? Sûrement pas l’indicateur : sa fonction se borne à restituer une valeur à un instant donné. Mais cette valeur n’est 30 pas suffisante pour déterminer une réaction. C’est l’écart enregistré par rapport à une valeur attendue et son interprétation qui fonde l’action. • Etape 4 : Formaliser le dictionnaire des indicateurs : Elaborer un tableau de bord est un processus qui s’inscrit dans le temps. La mémoire des acteurs est hélas volatile. Il n’est donc pas sûr que, quelques mois après la mise en place du tableau de bord, le responsable se souvienne de la signification de certains paramètres. Il peut s’ensuivre d’éventuelles difficultés quant à l’interprétation des résultats et, partant, des décisions qui sont prises. 5. Mettre en forme le tableau de bord Outre la facilité de lecture, la manière dont est présentée l’information a une influence sur le comportement des destinataires du tableau de bord. Que penser de la succession de tableaux de chiffres, où le responsable passe plus de temps à chercher et décoder l’information qu’à agir ? Il est donc nécessaire de structurer de manière opérationnelle le support d’information qu’est le tableau de bord. La démarche consiste maintenant à élaborer techniquement le dispositif, à vérifier son caractère opérationnel, puis à en faire un dispositif d’exploitation courante. Voici les étapes qui structurent cette phase : • Etape 1 : Défini une maquette : Certains tableaux de bord d’ancienne génération se bornent à livrer de l’information brute sans se soucier de son impact sur le destinataire. Véritables monographies, les tableaux de bord de ce type contraignent le lecteur à rechercher l’information dont il a besoin à travers des feuilles et de données. L’objectif du tableau de bord n’est pas de perdre son temps à rechercher et extraire de l’information de documents, mais bien à l’exploiter pour agir. Il y a donc un lien direct entre lisibilité et efficacité. • Etape 2 : Elaborer un prototype : Malgré le travail réalisé dans les étapes précédentes, certains responsables peuvent avoir des difficultés à se rendre compte, d’une part, de la faisabilité et, 31 d’autre part, de la réalité du dispositif. L’une des voies de clarification possibles consiste à réaliser un prototype. Le caractère concret du dispositif facilite son évaluation et son adaptation. • Etape 3 : Tester le prototype : Les impacts du tableau de bord sur l’unité sont importants. Mettre un dispositif en production sans l’avoir testé fait peser des risques multiples, principalement économiques (le coût d’adaptation peut être doublé ou triplé) et sociaux (possibilité de rejet par les utilisateurs). Il s’agit donc de définir les modalités qui vont assurer l’adéquation u dispositif aux besoins du responsable. • Etape 4 : Valider le résultat : Selon certains, le tableau de bord peut être mis en exploitation après quelques tests partiels, plus ou moins bien menés. Cette démarche pèche par excès de précipitation. Les résultats des tests doivent au contraire être validés de manière officielle, pour ne pas laisser les acteurs dans une quelconque ambiguïté. 32 5. Le Balanced Scorecard Une étude (Renaissance Solutions en association avec R.KAPLAN de Harvard) a permis de déterminer que 90% des entreprises croient que bâtir des actions en fonction de la stratégie est un facteur de succès. Cependant, moins de 10% des entreprises disent avoir une compréhension claire de leur propre stratégie. De plus, 60% des décideurs dans l’entreprise comprennent clairement la stratégie de la compagnie, mais moins de 30% de ces derniers (soit moins de 18% du total) affirment que la stratégie a été correctement appliquée. Les résultats de cette étude révèlent les faits suivants. - Une vision claire n’est pas suffisante. - Une stratégie n’a presque jamais de liens directs avec les objectifs des individus ou départements d’une entreprise. - Les décisions de tous les jours ne prennent pas en compte la planification stratégique de l’entreprise. - Les entreprises n’arrivent pas à collecter les bonnes infos afin de mesurer leur progrès vers leurs objectifs. - Les entreprises n’identifient pas leurs erreurs et n’en tirent donc pas de leçon. Ces observations ont amenés les auteurs a proposer un nouvel outil, le Balanced Scorecard, Scorecard conçu comme un puissant outil de gestion, de pilotage à utiliser pour clarifier et traduire la vision et la stratégie, communiquer et lier entre eux des objectifs et des indicateurs, mettre en place des cibles et aligner des actions à la stratégie et enfin améliorer le feed-back stratégique ainsi que le processus d’apprentissage. Le Balanced Scorecard permet ainsi de communiquer la stratégie à toute l’entreprise et de lier les objectifs de l’entreprise à ceux des individus. Il aide à définir les objectifs qui ont un impact direct dans les actions de tous les jours et assure une collecte des informations pertinentes. 33 L’approche présente deux particularités importantes : 1. Elle se veut mesurer la performance interne et externe d’une entreprise en confrontant les résultats obtenus aux objectifs stratégiques définis par les gestionnaires, à partir d’un système de référence bâti non seulement sur les indicateurs traditionnels (financier), mais également sur des indicateurs nouveaux d’ordre qualitatif. Elle complète ainsi la perspective financière par 3 autres perspectives : les clients, les processus internes et l’apprentissage/développement des compétences. 2. Elle est multidimensionnelle, permettant des analyses sur plusieurs dimensions. Pour un département commercial, on aura par exemple quatre dimensions : les produits (subdivisés en sous-dimensions comme les 34 activités, la ligne de produit, la gamme et les produits eux-mêmes), le réseau (subdivisé en sous-dimensions comme la zone, le pays, la région, le département, la ville et l’agence), le client (subdivisé en sous-dimensions comme le secteur, le groupe, le client et l’adresse) et le temps (subdivisé en sous-dimensions comme l’année, le trimestre, le mois, la semaine, le jour et le budget). 6. Tableau de bord en Excel : quelques recommandations Le tableur Excel et suffisamment performant pour concevoir des tableaux de bord personnels de pilotage dans le cadre de petits projets ou de petites structure. Vu sa diffusion sur la grande majorité des postes informatiques, nous avons voulu regrouper ici quelques règles de bonne pratique pour son utilisation dans le cadre des tableaux de bord. Premier principe et principe de base : « ce grâce à quoi je peux travailler » est très différent de « ce que je veux imprimer ». On considère trop souvent Excel comme un outil de mise en page avant impression. Or Excel est avant tout un tableau, c’est-à-dire une représentation ordonnée de champs (les lignes) contenant plusieurs informations (les colonnes). Second principe : Ne jamais fusionner code et libellé. En effet, ce sont deux champs de nature différente. Les regrouper va à l’encontre de la philosophie d’un tableur et peut rendre certains outils d’Excel en partie ou totalement inutilisables. Troisième principe : Prêter attention aux codes numériques. Et éviter ainsi des zéros initiaux et autre conversion implicite ou explicite entre chaînes numériques et chaînes alpha-numériques. Quatrième principe : Ne jamais fusionner des cellules. C’est une pratique non seulement dangereuse (impossibilité de ré-exploiter les tableaux, lourde tâche à réitérer à chaque changement de données) mais également tout à fait inutile : l’utilisation des tableaux croisés dynamiques et/ou de la mise en forme conditionnelle est tout aussi efficace. 35 Cinquième principe : Ne jamais insérer des lignes ou colonnes « blanches » dans un tableau. Pour le tableur, ces lignes ou colonnes blanches signifient le passage à un autre tableau. Dans le cas d’une ligne blanche, les outils de tri ou de filtre « oublieront » les lignes séparées de la position du curseur par cette ligne blanche. Dans le cas d’une colonne, l’outil de tri réordonnera toutes les colonnes figurant entre le curseur et la colonne blanche, sans trier les colonnes au-delà de la colonne blanche. Le tableau sera ainsi totalement et irrémédiablement désorganisé… Sixième principe : Un titre pour chaque colonne. C’est préférable pour les tris mais surtout exigé pour les tableaux croisés dynamiques… Septième principe : Mettre le code “principal” en première colonne, notamment dans les tables secondaires. Ceci est nécessaire pour les fonctions de recherche (lookup) permettant de rechercher une information dans une table secondaire sur base d’un code présent dans la table principale et au début de la table secondaire. 36 Rérérences - Bouquin H. : Comptabilité de Gestion, Economica, 2000 - Cibert A. Comptabilité analytique. Dunod, Paris, 1976 - Riveline C. Evaluation des coûts : élément d’une théorie de gestion. ENSMP, 1980. - Viens-Bitker C., Leclerq B. Collecte et élaboration de l’information économique nécessaire au calcul des - coûts de la décision thérapeutique. Arch. Mal. Coeur, 1989 - Fievez J. , Kieffer J.-P., Zaya R. : La méthode UVA : du contrôle de gestion à la maîtrise du profit, Dunod, 1999. - Perrin G. : Prix de revient et contrôle de gestion par la méthode GP, Dunod, 1963 - Comptabilité analytique et contrôle de gestion, Vuibert, 2005 - Linard Nadig, les fondements de la comptabilité de gestion, 1999 - Robert Kaplan, David Norton : Putting the Balanced Scorecard to Work 37
© Copyright 2024 Paperzz