L’Entreprise en équations. Vers l’I.A ?

A propos du contrôle de gestion et de son évolution

par Didier Riche

Étudiant EDC (École des Cadres) en 1970, j’avais déjà le sentiment que l’entreprise pouvait se modéliser par un ensemble de règles logiques appliquées sur les évènements extérieurs qui la sollicitaient.

Avec une formation initiale de gestion (comptabilité, finance) et de teinture informatique (programmation, recherche opérationnelle), tout mon parcours professionnel,  au gré des nombreuses évolutions méthodologiques et techniques, a été finalement de vouloir atteindre ce but.

Fin 70, très impressionné par l’arrivée du tableur, j’ai constaté à quel point les gestionnaires se mettaient facilement à l’apprentissage de règles logiques. Ce fut, et c’est encore trop souvent, le seul moyen qu’ils ont pour répondre à leurs nombreux besoins de traitement et d’analyse du passé, du présent et du futur.

De cette époque est né un schisme durable entre gestionnaires et informaticiens. Bon nombre de directions informatiques ne pardonnèrent pas aux gestionnaires de vouloir se passer de leurs services. Deux conséquences : 1. pas de participation des gestionnaires aux méthodologies d’analyse des données et à l’amélioration du système d’information. 2. Isolement des gestionnaires avec une formation centrée uniquement sur l’usage du tableur, d’autant que sa simplicité et son coût le prédestine à être utilisé dans le cursus des étudiants.

Fin 80, plutôt engagé dans les systèmes budgétaires et d’infocentre, proche des contrôleurs de gestion et des directions commerciales, j’ai tout de suite senti l’intérêt que pouvait représenter les nouvelles applications de systèmes experts dans le domaine de la modélisation d’entreprise.

Toutefois, alors que ceux-ci proliférèrent vite dans certains domaines (maintenance technique, diagnostics médicaux…), avec des faits traversant l’arbre de connaissances des experts, aucune proposition n’est apparue pour l’entreprise en dehors de la modélisation graphique et qualitative des processus (tel le logiciel Aris Toolset) dans le cadre de projets de reengineering et à but documentaire.

Fin 90, trois facteurs déterminants me permirent de concevoir ce que je ressentais intuitivement depuis le début de mes études, trente ans plus tôt !

  • En premier lieu, formé à la nouvelle méthodologie ABC de calcul des coûts, je trouvais enfin avec les activités, le bon niveau d’ancrage des règles de calcul. En faisant traverser un flux séquentiel de lignes d’évènements (commandes, ordres de fabrication, factures…) au sein d’une entreprise, chaque ligne avec ses données propres, active ou non les règles de calcul, et rend compte de ce qu’elle consomme en unités d’œuvre (appelés aussi inducteurs), en coût ou en toute autre nature (exemple CO2) dans chaque activité et sur chaque objet de coût (produits, services, clients…).
  • En second lieu, la découverte de la base de données relationnelle Watcom associée à l’outil de développement Powerbuilder. Très performante, elle ne nécessite pas d’administration et elle est aussi souple qu’un fichier tableur (copie par simple copier-coller). Elle devient ensuite la propriété de SYBASE sous le nom de SQL Anywhere, puis actuellement de SAP. Faciles à lire, les expressions logiques du langage SQL sont très proches du langage naturel, bien plus que les formules et macros du tableur.
  • En troisième lieu, La puissance des micro-ordinateurs. Le traitement séquentiel des évènements et leur passage à travers les activités d’un modèle reproduit tout simplement le fonctionnement d’un programme informatique (entrée, traitement, sortie). Les règles sont formulées sans redondance. Les temps de réponse sont proportionnels au produit (nombre d’évènements * nombre d’activités * nombre de règles) sans limite de volume. La solution se bonifie d’elle-même avec la puissance croissante (CPU, Accès disque, mémoire) des micro-ordinateurs. Aujourd’hui en 2019, on peut dire que le niveau est excellent, avec une limite qui ne cesse encore de reculer.

Tout ceci s’est concrétisé au sein d’une méthodologie appelée Expertizers avec son support logiciel.

Sans doute ne peut-on pas parler d’I.A, mais déclarer qu’Expertizers est le premier système expert dédié au contrôle de gestion, serait un bon constat.

C’est en tout cas notre avis, à la lumière de ces deux points :

  1. Pour la première fois le contrôleur de gestion dispose d’un environnement structuré, universel car uniforme, pour décrire quantitativement, au bon niveau de détail souhaité, le fonctionnement de son organisation dans le but de suivre en continu sa rentabilité économique. Le logiciel est maintenant doté d’un outillage de fonctions (Fusion de données homogènes et hétérogènes, Règles, Traitements, Requêtes) lui assurant une totale autonomie de conception, de traitement et d’analyse, les facteurs essentiels de son agilité.
  2. Le découpage de l’entreprise en activités et la lecture aisée des règles de calcul associées à chacune, facilite le contrôle des modèles par tous les responsables. Loin de déposséder le contrôleur de gestion de ses multiples compétences, le système expert le valorise auprès de sa hiérarchie en crédibilisant tout son travail.

Ainsi, nous sommes loin de reproduire les inconvénients si longtemps décriés du tableur : redondance des règles, erreurs indécelables, traitements non structurés, incommunicabilité de leur compréhension, donc aucun audit possible, etc. Le tableur reste un chaînon très utile, mais il est relégué à l’utilisation de ses fonctions les plus simples de base.

Certes, ces vingt dernières années ont vu naître de nouveaux logiciels d’analyse, Business Objects, QlikView, Tableau,… mais hormis l’ergonomie et les qualités graphiques de ces logiciels ce n’est qu’un relookage de l’infocentre des années 80 avec des termes marketing plus ronflants : Business Intelligence, Décisionnel. Sans un système d’information de qualité et une somme souvent non négligeable de traitements de préparation des données pertinentes, cette simplicité finale de manipulation et d’analyse ne saurait exister. La “business intelligence” n’est autre que l’arbre qui cache la forêt. L’activité principale du contrôleur de gestion et sa forte valeur ajoutée reste le déboisement de la forêt pour en assurer un entretien facile et en tirer des enseignements utiles, avant de faire du reporting à tout-va.

Quels éléments nous séparent donc maintenant de la prochaine étape de l’I.A ?

Le contrôle de gestion demande des qualités d’adaptation, un des principaux facteurs de l’intelligence,  et les situations nouvelles sont fréquentes ; les règles évoluent et doivent être maintenues. Difficile alors d’imaginer une tête pensante à la place de l’homme, sauf dans un contexte hautement standardisé et automatisé. Quasiment une entité qui fonctionnerait sur la base de quelques paramètres de variabilité donnant lieu à des simulations suivies de propositions immédiates d’action. Un peu à l’image des jeux d’entreprise très prisés pour appréhender ” de façon simpliste ” le fonctionnement global des organisations.

En fait, il est difficile de se projeter dans le futur que nous ouvre l’I.A.

On imagine bien que toute avancée de l’I.A dans le domaine de la gestion en général devrait avoir un impact fort sur les ressources humaines. Avec un staff réduit de personnes de haut niveau fonctionnel et technique, et un nombre toujours plus faible d’employés dévolus à des tâches de moins en moins qualifiantes.

On parle aussi du Big Data comme vecteur de l’I.A, cette masse énorme et disparate de données générée par l’humanité à travers Internet… Mais à ce stade je décroche de toute opinion sensée ! Avec une seule réflexion plutôt répulsive : Internet étant la source de nos désirs (de consommateur) plutôt que l’expression de notre âme (de conscience raisonnée), il serait étonnant que de l’exploitation du Big Data naisse du bon grain. Le Big Data ne me semble donc pas adapté au contrôle de gestion, mais en revanche dans d’autres domaines, qui flatteraient seulement notre ego,  je crains que nous ne récoltions beaucoup d’ivraie.

Il est indéniable en tout cas et, nous conclurons là-dessus, que tant que les contrôleurs de gestion ne seront pas formés à une méthodologie rigoureuse de structuration des données et d’ordonnancement des règles qui rythment la vie économique de l’entreprise, il ne sera pas possible de passer à l’étape de l’IA, à moins que celle-ci ne repose sur d’autres règles établies sur un plan plus global et stratégique ; on rejoindrait alors un processus de décision dans la lignée des jeux d’entreprise, mais en bien plus complexe.

Pour le moment, si vous pensez aussi que l’IA est subordonnée à un changement progressif de méthodes de travail des contrôleurs de gestion, notamment vers un changement de formalisation des données et des traitements, je vous propose de me contacter par mail. En retour je vous enverrai  gratuitement la brochure sur la méthode Expertizers et la présentation de tout son outillage à travers des études de cas.

Sa lecture est de nature à modifier profondément et durablement les approches fonctionnelles et techniques des contrôleurs de gestion, jusqu’à se révéler INDISPENSABLE  à l’exercice de leur fonction. Elle concerne autant la formation continue des gestionnaires que la formation des étudiants dans leur cycle initial de découverte des méthodes et des outils de gestion.

riche.dbb@orange.fr

À lire à propos des évolutions du contrôle de gestion.

Publié dans Normes & méthodes et marqué , .