Dossier > Supply Chain > Comment tirer réellement profit de vos données ? > Entretien Kinaxis



‘‘La digitalisation massive des organisations s'est traduite par un tsunami de données ’’
Pierre-Jacques EVRARD


Pierre-Jacques EVRARD, Business Consultant chez Kinaxis

P-J. EVRARD, Business Consultant chez Kinaxis


Avis d'expert soumis dans le cadre du dossier : « Comment maîtriser la visibilité de sa Supply Chain ? »


Quels sont les enjeux autour de l’exploitation des données en Supply Chain ?

La transformation et la digitalisation massive des organisations qui a été engagée depuis plusieurs années s’est traduite par un tsunami de données. C’est le résultat de la mise en œuvre de technologies de stockage, de traitement et d’analyse de la données issues des GAFA telles que les « Data-Lakes ».

Cette surabondance de données s’est avérée très prometteuse, en offrant de nouvelles perspectives à de nombreux métiers, à l’image du concept de manufacturing 4.0 pour l’industrie. Le même enthousiasme s’est manifesté dans le monde de la supply chain.

Une fois passée la phase sur-enthousiaste résultant du « cycle du hype », il me semble essentiel de revenir aux questions fondamentales autour de la donnée et de ses enjeux : Quelles données ? Pour servir quels objectifs ?

Avant d’aller plus loin, il est important de prendre en compte l’instabilité présente et très certainement future du contexte des affaires, entre crises sanitaires et événements géopolitiques.

A titre d’exemple, les modèles de prévision de la demande mis au point avant la crise sanitaire récente, à partir des données historiques, peuvent montrer leurs limites dans un monde imprévisible. De la même manière, on peut se demander si les données d’engagements reçues de la part des fournisseurs sont aussi fiables que par le passé, du fait des impondérables auxquels ils sont eux-mêmes confrontés.

On peut distinguer deux enjeux principaux autour de l’exploitation des données supply chain que je qualifierais ainsi :

  • La transparence de l’exécution
  • La pertinence de la planification

La transparence de l’exécution. La plupart des indicateurs de performance mis en place sur la supply chain dans les tours de contrôle et tableaux de bord servent bien le besoin de visibilité. Bien que ces indicateurs aient un caractère rassurant et consensuel, ils peinent généralement à répondre au besoin de transparence. Qu’entend-on par transparence ?

On a coutume de dire qu’une activité pilotée par des moyennes donne des résultats moyens. En effet, la visibilité sur un indicateur global ne permet pas de saisir la complexité et le détail de la réalité qui se dissimule derrière cet indicateur.

C’est là que la possibilité de creuser dans la donnée brute à partir de ces indicateurs fait la différence et qu’on parle de transparence. Guidé par le système, l’utilisateur peut alors naviguer à travers la donnée en mode interactif, découvrir, comprendre et analyser les causes racines, et ainsi prendre des actions efficaces grâce à cette transparence.

La pertinence de la planification se réalise s’il y a une confiance dans la donnée sur laquelle elle s’appuie. Cependant, le contexte actuel des affaires est tellement incertain que même si la donnée utilisée est fiable et mise à jour, elle peut engendrer des doutes et des incertitudes sur les actions à prendre. Le besoin d’agilité prend alors le pas sur la précision de la prévision.

Il devient donc nécessaire de pouvoir effectuer des simulations sur des scénarios multiples sur des quantités de données importantes. Cet exercice est généralement complexifié par le fait que la construction et l’analyse de ces simulations peut se révéler être très chronophage en l’absence de technologies appropriées. Les phases d’extraction, de préparation, de consolidation et de traitement de la donnée souvent réalisées à base d’Excel prennent généralement plusieurs jours, d’autant plus si les données sont silotées dans différents systèmes. Il en résulte une limitation du nombre de scénarios envisagés et un ralentissement du processus de décision.

Si l’on souhaite avoir toute l’agilité nécessaire pour affronter l’incertitude ambiante, il semble donc nécessaire de recourir à des méthodes et technologies de planification capables de faciliter l’analyse et la simulation de ces masses de données de manière quasi instantanée. De la même manière que lors d’une recherche sur Google, vous vous attendez à en obtenir le résultat immédiatement et non trois jours plus tard.

Afin de satisfaire ces deux enjeux qui sont intimement liés, il semble pertinent de pouvoir s’appuyer sur un jumeau numérique de la supply chain qui reproduit celle-ci fidèlement dans toute sa complexité. 

Ce jumeau numérique est une fondation, il doit permettre de reproduire fidèlement toute la complexité de votre supply chain tout en vous aidant à l’analyser et à la comprendre de manière transparente.

Il doit également être suffisamment souple et performant pour pouvoir y simuler et valider les intuitions qui font toute la valeur des hommes qui planifient et exécutent la supply chain. 




Quelle démarche appliquer ?

La qualification et la sélection de la donnée est une tâche difficile, au même titre que sa préparation et son analyse. Il faut avoir à l’esprit que la donnée présente de nombreuses caractéristiques, parmi lesquelles :

  • Données de référentiel, données transactionnelles.

Les données de référentiel servent à fonder le jumeau numérique de votre supply chain, il est primordial de déterminer quel système est maître. Ceci peut varier en fonction des données, c’est un point clé de la gouvernance et il est recommandé de travailler en collaboration avec les équipes data et/ou IT afin de s’assurer de la bonne synchronisation de cette donnée maître entre les différents systèmes ERP et Supply Chain Management. Les discussions porteront souvent sur les règles de mise à jour entre les systèmes (écrasement, mise à jour incrémentale…).

En ce qui concerne les données transactionnelles, une plus grande attention sera portée à la fréquence d’alimentation de ces données. Il sera souvent recommandé d’intégrer les données transactionnelles en temps réel là où les données de référentiel sont rafraichies moins souvent. Une fréquence de rafraichissement automatique élevée des données transactionnelles contribue à améliorer la transparence et à accroître l’agilité dans la prise de décision.

  • Données internes, données externes.

Il est assez simple de collecter les données internes issues de l’ERP ou d’autres systèmes. Cette fonctionnalité est généralement automatisée à travers les couches d’intégration déjà déployés dans votre organisation. La qualité de cette donnée est, de plus, garantie par les mécanismes de gouvernance de la donnée qui sont en place. La donnée externe est de plus en plus accessible, elle contribue à la transparence de l’exécution et à la pertinence de la planification.
Imaginons que vous receviez une alerte au sujet de composants que vous avez commandés auprès d’un fournisseur et qu’ils se retrouvent coincés dans un container sur un navire bloqué au beau milieu du Canal de Suez. Intégrer cette information de manière automatisée dans vos systèmes vous permet d’obtenir de la transparence sur les impacts de cette situation pour vos clients et vous permet également de planifier de manière plus pertinente grâce à la construction manuelle ou automatisée de scénarios de résolution (activation d’un sourcing alternatif par exemple).  

  • Données structurées, données non-structurées.

La donnée utilisée en supply chain est jusqu’à présent très majoritairement structurée.  Néanmoins, l’intelligence artificielle, dans sa capacité à analyser de la donnée non-structurée (du texte par exemple), permet de prendre en compte des signaux ignorés jusqu’à présent afin d’affiner la prédiction ou de prédire dans de nouveaux domaines.
A partir de l’analyse de l’actualité il est, par exemple, possible de générer des alertes visant à avertir du risque de défaillance potentiel d’un fournisseur critique de manière automatisée. A partir des alertes, vous pouvez alors prendre des mesures de redondance afin de sécuriser votre chaine de valeur.   

  • Données statiques, données en mouvement.

Les données des systèmes de votre entreprise ont un caractère statique (celles de l’ERP par exemple). La diffusion de l’internet des objets (IoT) génère des masses considérables de données dites en mouvements, on parle également de données de streaming.

La complexité réside ici dans l’intelligence à mettre en place sur ces flux de données de manière à générer des alertes pertinentes sur des fenêtres de temps définies. L’intelligence artificielle est ici aussi un formidable levier qui permet de tirer un maximum de valeur de ce type de données. Un exemple consiste par exemple à détecter l’absence de sortie caisse pour un article donné à forte rotation dans un point de vente sur une durée de plus de 30mn, une alerte en temps réel est alors générée, soit pour suspendre un réassortiment cadencé juste à temps, soit pour que quelqu’un aille examiner l’emplacement de l’article en fonction d’autres critères tels que le niveau de stock théorique.


Comment automatiser la collecte des données ?

Les modes de collecte sont également divers, on parle d’intégration de données manuelle ou automatisée. Sur cet aspect, l’automatisation est recommandée car elle est gage de rapidité et elle s’accompagne d’une gouvernance à travers des contrôles de cohérence.

Il ne faut toutefois pas fermer entièrement la porte à des intégrations manuelles qui pourraient s’avérer utiles dans certains cas particuliers. Par exemple : mon entreprise s’apprête à lancer un nouveau produit sur le marché mais il n’est pas encore créé dans mon ERP, il en résulte que je ne peux pas le prendre en compte dans ma planification supply chain.

Dans ce cas, ça a du sens de créer des données fictives à des fins de simulation dans mon outil de planification afin que je puisse prévoir l’impact de ce lancement produit sur ma supply chain, d’autant plus que des contraintes fortes liées à des campagnes de communication peuvent s’exercer sur ce lancement.

En tant que planificateur, je suis responsable d’assurer la bonne disponibilité de ce nouveau produit à son lancement et je ne peux donc pas faire l’impasse sur les données nécessaires à cette planification. Tout l’enjeu consistera à faire le lien entre mes données de simulation et les données réelles une fois que le nouveau produit sera créé dans l’ERP.


Comment s’assurer de partir sur des données exhaustives et fiables ?

Pour soutenir la pertinence de la planification et la transparence de l’exécution, on a vu qu’il faut pouvoir s’appuyer sur un jumeau numérique solide et donc des données fiables.

L’évaluation de la qualité des données a à la fois une dimension technique (exhaustivité, règles de mise à jour…) mais également une dimension fonctionnelle (exactitude, niveau de détail…).
Il est donc nécessaire d’avoir une approche concertée entre les experts métier de la Supply Chain et les experts de la donnée afin de s’assurer de la qualité de celle-ci.

Une illustration de cette approche combinée est ce qu’on appelle l’ingénierie des caractéristiques ou « Feature engineering » qui fait partie du processus de « Machine Learning ». Ce processus vise à créer et sélectionner des caractéristiques à partir des données. Ces caractéristiques sont indispensables au bon fonctionnement d’un modèle de prédiction.

Ce travail est à la fois mathématique, technique et fonctionnel car il faut créer des caractéristiques, souvent en transformant les données, et évaluer l’influence de ces caractéristiques sur le modèle. La première partie du travail est plutôt technique et mathématique.

Mais il est également important de valider la pertinence de ces caractéristiques d’un point de vue métier, c’est là que l’œil de l’expert métier Supply Chain est essentiel pour valider la pertinence fonctionnelle des prédicteurs et ainsi confirmer la valeur apportée par le modèle de prédiction.


Quelles sont les contraintes à lever ?

La donnée est devenue un bien commun au sein de l’entreprise grâce à l’émergence des Data-Lakes qui ont fait tomber de nombreuses barrières entre les silos et aussi des pratiques de Data Science de manière générale, à l’image du travail de « Feature Engineering » décrit précédemment. Les limitations éventuelles se trouvent désormais plutôt du côté des solution supply chain d’exécution et de planification qui ne sont pas toutes capables d’absorber la volumétrie, la variété et la vélocité des données induites par le Big Data.

En effet, de nombreuses solutions supply chain s’appuient sur des technologies de bases de données relationnelles traditionnelles qui ne sont pas prêtes à traiter, analyser, simuler ces données du big data dans un jumeau numérique exhaustif et nécessitent de dupliquer et/ou extraire les données pour pouvoir effectuer des simulations. Ce qui est contradictoire avec l’esprit d’une source unique de vérité et nécessite trop de temps pour pouvoir satisfaire les impératifs de prises de décisions rapides.


Comment identifier les données pertinentes ?

L’identification des données pertinentes est avant tout guidé par la définition des objectifs métier. Il est important de démarrer par des aspects fondamentaux, ai-je besoin de temps réel si mes systèmes en amont ou en aval ne le sont pas ? Quelle est l’horizon ? Ai-je besoin de visibilité ? Quel est la profondeur d’historique dont j’ai besoin pour établir une prévision fiable ? Quelle est la granularité ou le niveau d’agrégation sur lequel je souhaite planifier, article, famille, région ?

Il est important de se faire accompagner sur cet aspect, les éditeurs de solutions supply chain sont à même de vous guider dans l’identification et la sélection des données sur la base de leur expérience à travers des déploiements déjà réalisés.


Quelles solutions propose Kinaxis ?

Développée à la fois pour des multinationales, ETI et PME, la plateforme RapidResponse de Kinaxis permet de tirer le meilleur profit des données Supply Chain, quel que soit le secteur d’activité. En effet, cette solution s’appuie sur un jumeau numérique fidèle et détaillé de la supply chain qui est aussi une Source Unique de Vérité au service de la transparence et de l’agilité.

Ce jumeau numérique basée sur des données internes comme externes, statiques comme dynamiques, structurées comme non structurées alimente une tour de contrôle en temps réel qui apporte aux entreprises une transparence totale sur la supply chain étendue en permettant de creuser dans la donnée pour analyser les causes racines de situations relevées par des alertes ciblées.

Le jumeau numérique permet également de planifier une chaine d’approvisionnement de bout en bout, on parle de « IBP – Integrated Business Planning ».
Kinaxis met en avant une méthode de planification unique appelée « Concurrent Planning » qui calcule des plans instantanément et de bout en bout sur les horizons stratégique, tactique et opérationnel en prenant en compte toutes les contraintes et règles du jumeau numérique afin de pouvoir garantir que les scénarios proposés soient toujours réalisables.

Cette rapidité contribue à améliorer l’agilité des entreprises, d’autant plus qu’elle est couplée à la capacité de créer des scénarios de simulation en quelques instants à la volée et en nombre illimité afin de pouvoir tester et valider des hypothèses et alternatives de planification pour ensuite les appliquer au plan en s’appuyant sur de la collaboration contextualisée.

Cette planification se fait de manière gouvernée grâce à la modélisation et au suivi de des processus de planification S&OP dans la plateforme RapidResponse.
Par ailleurs, l’approche « Planning.AI », présente au sein de la solution RapidResponse, permet de combiner dans une même plateforme les forces de trois disciplines algorithmiques : heuristique, optimisation et Machine Learning. Ceci afin de répondre à toutes les problématiques de planification tout en préservant une grande rapidité de calcul.

De même, la technologie « in-memory » unique est à même de traiter, d’analyser et de calculer la volumétrie et la complexité des données du « Big Data » dans des contextes de réseaux, de nomenclatures riches.

Les capacités de data visualisation avancée couplées à des alertes en temps réel permettent aux utilisateurs de comprendre en un coup d’œil ce qu’il se passe et ce qui se passe dans la masse de données générées par leur supply chain. 

La plateforme RapidResponse est hautement configurable. Il est possible de personnaliser la solution en fonction du contexte de l’entreprise- en mode « self-service » - sans avoir besoin de recourir à des développeurs informatiques. Par exemple, pour construire ses propres tableaux de bord.

RapidResponse embarque également une couche d’intégration native dotée de connecteurs automatiques standard et certifiées pour tous types de systèmes tiers dont les ERP. Ces connecteurs peuvent également fonctionner en temps réel comme en batch.

RapidResponse se présente donc comme une plateforme unique dans sa capacité à adresser les enjeux de la donnée Supply Chain, en conférant aux entreprises qui l’utilisent un avantage concurrentiel.


Pour aller plus loin


Bio Express

Actuellement Senior Business Consultant chez Kinaxis, Pierre-Jacques Evrard a démarré sa carrière dans le management d’opérations supply chain en flux tendus pour le compte de prestataires internationaux avant d’évoluer vers des fonctions de direction de projets d’outsourcing 3PL et 4PL, ce qui lui a permis de développer une compréhension approfondie de la chaîne de valeur dans différents secteurs d’activité aussi bien dans le retail que dans l’industrie.

Impliqué dans des missions de déploiement de systèmes d’information, il a poursuivi sa carrière chez des éditeurs de solutions. D’abord dans le domaine de la supply chain exécution, puis dans la Big Data et l’intelligence artificielle pour continuer au sein d’une start-up centrée sur la transformation digitale des fonctions procurement, avant de rejoindre Kinaxis sur le sujet du Supply Chain Planning.

Pierre-Jacques Evrard enseigne également les technologies du Supply Chain Management dans deux Masters professionnalisés de l’IAE et de l’Université de Lille.

Site Internet de Kinaxis : https://www.kinaxis.com/fr


Contactez notre équipe







  Autres témoignages

F. PETITJEAN, DESCARTES
‘‘ Cartographier les données nécessaires à l’atteinte de son objectif ’’

I. BADOC | GENERIX
‘‘ Progresser étape par étape ’’

G. MOUSSET | ACSEP
‘‘ Le Big Data accessible à toute entreprise ’’

J. BOUR | DDS
‘‘ Passer de data Excel à la centralisation collaborative des données ne s'improvise pas ’’

C. ZELLE | ACTEOS
‘‘ Un "jumeau numérique" pour optimiser sa Supply Chain ’’

M. HERBERT SAADA| O9SOLUTIONS
‘‘ L'agilité et la proactivité passent par la collecte des données en temps réel ’’

B. FAURE | ANAPLAN
‘‘ En matière de données, le mieux est l’ennemi du bien ’’

M. DURBHA | COUPA
‘‘ Les données sont la monnaie de l'avenir ’’

P-J. EVRARD| KINAXIS
‘‘ La digitalisation massive des organisations s'est traduite par un tsunami de données ’’

R. SAVY | ALTERYX
‘‘ Les talents dans le domaine de la Data Science sont une denrée rare et coûteuse ’’