Dossier > Supply Chain > Comment tirer réellement profit de vos données ? > Entretien GENERIX



‘‘Progresser étape par étape ’’
Isabelle BADOC


Isabelle BADOC, Supply Chain Solutions Marketing Manager chez Generix Group

I. BADOC, Supply Chain Solutions Marketing Manager chez Generix Group


Interview réalisée le mercredi 7 décembre 2022 par Frédéric LEGRAS, Directeur du Portail FAQ Logistique dans le cadre du dossier : « Comment maîtriser la visibilité de sa Supply Chain ? »


En quoi l'exploitation des données peut-elle améliorer la performance Supply Chain ?

La gestion des données en Supply Chain doit contribuer à répondre aux grandes missions traditionnelles assignées aux Supply Chain Managers : la résilience, l'hyper réactivité et l'efficience opérationnelle. Dans un contexte dans lequel les objectifs économiques impliquent de maintenir des stocks aussi bas que possible, une gestion des données performante permet de prendre les meilleures décisions sur la base d'informations fiables et actualisées.

L'objectif est de planifier et adapter les ressources de manière proactive en fonction des prévisions d'activité et de la future disponibilité des moyens tout en anticipant les changements dans l'environnement de l'entreprise : risque d’augmentation de tarifs de transport, retard d’un camion, rupture de stock, risques de grèves, évolutions de tendance de consommation, menaces géopolitiques, etc.

Les informations à considérer sont donc très diverses et peuvent couvrir des horizons de temps différents.

En plus des objectifs traditionnels que je viens de citer, la gestion des données en Supply Chain doit prendre en compte deux autres éléments cruciaux : l'écoresponsabilité et la sécurité. Ces deux aspects doivent désormais être considérés comme deux piliers essentiels de la chaîne d'approvisionnement.




Quelle démarche appliquer pour commencer à tirer profit de ses données ?

L’erreur serait à mon sens de prendre le sujet à l’envers en partant des données disponibles pour se demander comment les utiliser.

Pour intégrer avec succès des grandes technologies, il est au contraire essentiel de définir le problème à résoudre et de déterminer ensuite quelles données sont nécessaires pour y parvenir. Cela évite de perdre du temps à exploiter des données qui ne seront pas utiles ou qui n'apporteront pas de retour sur investissement par rapport à ce qui existe déjà.

Avec les POC, l'utilisation de la solution est simulée et il est possible de vérifier si les décisions prises grâce à celle-ci sont améliorées. Ils permettent également d'estimer le retour sur investissement (ROI), en prenant en compte la source et la fréquence de collecte des données. Les POC peuvent être réalisés sans avoir à mettre en place une acquisition de données automatisée, par exemple en chargeant un simple historique de données.
Si le ROI est démontré, il sera alors possible d'implémenter une connexion pour récupérer les données de manière automatisée et fiable.

C’est le rôle des Data Engineers et des architectes de solutions d'identifier les données à collecter et la fréquence à laquelle il convient de les récupérer, ainsi que les coûts techniques et opérationnels associés à leur utilisation (coûts d’architecture et de run).

Il est en particulier important de mettre en place un système de monitoring permettant de s'assurer que les échanges de données se déroulent de manière fiable et que les décisions prises par les outils de gestion sont basées sur des données complètes et actualisées.


De quels risques convient-il de s’affranchir ?

Il est conseillé de ne pas chercher à tout résoudre dès le début, mais plutôt de progresser étape par étape, en commençant par des données de base qui seront enrichies au fur et à mesure. Cette approche de petits pas permet d'obtenir rapidement des résultats positifs et d'éviter de sous-estimer le coût et la complexité de la collecte et de l'utilisation de ces données.

C’est la démarche que nous avons appliquée avec Smart Planning, notre solution de planification des ressources à l’aide d’un moteur d'optimisation basé sur l'intelligence artificielle. Nous avons commencé par alimenter le moteur avec la productivité moyenne d'une équipe, avant d’affiner avec la productivité de chaque opérateur, etc.

Au fur et à mesure, la finesse de la solution est améliorée en intégrant des données :

  • De contexte (température ambiante / froid négatif, petits colis, prises en hauteur, packings complexes, etc.)
  • De profils opérateurs
  • De contraintes (ex : pas plus de X kilos par jour et par opérateur)
  • De disponibilité du matériel
  • Etc.

En fait chaque nouvelle donnée doit apporter un éclairage complémentaire contribuant à améliorer la prise de décision.


Est-il possible de mener un tel projet avec sa solution historique ou est-il préférable de repartir from scratch ?

Bien souvent c’est dans les outils "legacy" que la donnée est disponible. Par exemple, la planification des ressources utilisera le temps écoulé entre deux scans enregistrés dans une usine ou dans un entrepôt.  Il n’est en fait pas très compliqué de récupérer les données de ces systèmes. Les limites que j’identifie peuvent être liées à la fréquence de rafraîchissement ou à un format qu'il faudrait retravailler, ce qui introduirait de la latence dans le transfert des données et serait pénalisant si l’entreprise a besoin de l’information en temps réel.

Une des principales difficultés réside dans la complexité de l'intégration des données provenant de plateformes de tracking dans certains outils "legacy", non adaptés au traitement de telles données.
Une solution possible pour contourner ce problème consiste à créer un programme externe capable de récupérer les données et de traiter de nouvelles informations. Sachant qu’aujourd’hui, il est envisageable de construire une interface utilisateur similaire à celle de l'outil "legacy", de sorte que les utilisateurs ont l'impression de rester sous le même environnement.


Comment les données peuvent-elles contribuer à améliorer son écoresponsabilité ?

L'écoresponsabilité est un enjeu de plus en plus important pour les entreprises, mais la mesurer et l’optimiser peut parfois nécessiter des investissements préalables conséquents. En tant qu'éditeur, nous pouvons aider à mettre en place des solutions visant à améliorer cette performance. En permettant par exemple aux entreprises d’optimiser :

  • Les chargements et les packings pour réduire la part de vide transportée
  • Les tournées de livraison pour réduire les kilomètres à vide
  • Le choix des transporteurs en fonction de leur scoring sur des critères précis, comme leur impact carbone
  • Etc.

Quels sont les enjeux associés à la sécurité ?

L'adoption de solutions basées sur le cloud a entraîné une interdépendance accrue entre les différents systèmes utilisés. Si une faille de sécurité est détectée sur un des maillons, elle peut rapidement se propager à l'ensemble de la chaîne. C'est pourquoi il est essentiel de s'assurer que tous ses partenaires IT sont en mesure de garantir un niveau de sécurité élevé.

L’autre enjeu est de ne pas compromettre l'efficacité opérationnelle. Il s'agit de mettre en place une sécurité performante qui soit la moins intrusive possible pour les utilisateurs. Il ne me parait par exemple plus concevable d’imposer des changements de mots de passe trop fréquents ou le franchissement de plusieurs barrières avant de pouvoir commencer à utiliser les outils informatiques.
En trouvant un équilibre entre sécurité et efficacité, il est possible de protéger son entreprise tout en permettant à ses employés de travailler de manière fluide et productive.


Que propose Generix en termes de gestion de données ?

Notre offre est large et comprend aussi bien des solutions standard que sur mesure.

En standard d’abord, à travers Supply Chain Visibility, nous proposons des solutions d'exploitation des données de tracking, (sourcing, traitement et diffusion aux différents acteurs). Les données sont récupérées de diverses sources : application smartphone chauffeur, plateformes de Tracking, IoT embarqués sur les supports ou les camions, etc.

Notre outil de visibilité collecte et traite toutes ces informations, qui peuvent ensuite être renvoyées dans des outils d'exécution. Par exemple, l'heure estimée d'arrivée d'un camion est communiquée au WMS pour recalculer les priorités des missions dans l'entrepôt, ce qui permet d'optimiser la gestion des quais en priorisant le traitement des commandes afin d'éviter de surcharger inutilement un quai en cas de retard du camion. Grâce à cette utilisation optimale des moyens de production et des équipes, il est possible d'améliorer l'efficacité de l'entrepôt.

En mode projet ensuite, notre Data Lab propose de connecter des moteurs d'IA à notre solution d'analyse de performance Data Power pour identifier et mettre sous contrôle les facteurs qui influencent la productivité logistique des entreprises.

Chez un de nos clients, le moteur d'IA a par exemple analysé les courbes de productivité des équipes et, à partir des données récupérées depuis le WMS, a calculé des corrélations entre la performance et la survenance d’évènements. Pour réaliser des conclusions de ce type, il est nécessaire de disposer d'une importante quantité de données historiques.

Les corrélations sont donc déterminées site par site en fonction des données spécifiques à chacun d’entre eux. Sur un site donné, la performance peut par exemple être affectée par la congestion de certaines allées qui survient dans certaines situations. Le moteur d'IA peut analyser ces données et fournir des recommandations pour éviter que ce genre de congestion ne se reproduise à l'avenir.

À moyen terme, il devrait même être possible d'aller plus loin en déclenchant des alertes en cas de seuils dépassés et en prévoyant les risques de congestion. Il est également envisageable de nourrir le système de gestion de missions avec ces informations et de guider les opérateurs en évitant de leur faire emprunter des allées qui risqueraient d'être congestionnées.

Nous nous positionnons donc ici sur le développement de solutions sur mesure. Une fois le problème de notre client identifié grâce au moteur de corrélation, nos Data Scientists cherchent les algorithmes qui pourraient résoudre un problème similaire. Ils en sélectionnent un ou plusieurs et, le cas échéant l'améliorent. Les algorithmes de correction utilisés peuvent donc être différents d'un site à l'autre, en fonction des sources de non-performance propres à chaque site.

Nous passons ensuite aux tests, en effectuant des POC permettant de vérifier comment l'algorithme résout le problème. Enfin, une interface homme-machine (IHM) est élaborée permettant de présenter de manière claire les résultats aux utilisateurs.

Enfin, nous préparons actuellement le lancement de notre solution Resources Management. Celle-ci vise à utiliser toutes les informations de production et de productivité provenant des systèmes WMS, combinées aux prévisions de charge (par exemple, les commandes qui peuvent provenir de systèmes de vente). L'objectif est d'augmenter la capacité de production de chaque site en fonction des profils de collaborateurs disponibles, en répartissant les tâches tout au long de la journée. Si l'activité ne peut être assurée uniquement par les opérateurs en CDD ou CDI, les besoins en intérimaires sont évalués. Si, au contraire, les équipes sont surdimensionnées par rapport à l'activité prévue, il est proposé de former les collaborateurs à de nouvelles tâches, ce qui permet d'améliorer leur polyvalence, de favoriser la fidélité des équipes et d'augmenter la flexibilité du site à long terme.

La façon de dispatcher le travail et d'analyser la performance tient compte de différents éléments contextuels, tels que le profil de l'utilisateur, son âge, ses compétences et le contexte dans lequel il réalise sa tâche. Descendre à une telle finesse permet également d'améliorer la mesure de la performance et de préciser les objectifs fixés.

Resources Management est un outil de planification indépendant conçu dès le départ pour être utilisé dans le cloud. Doté d'APIs natives, il pourra être intégré à n'importe quel WMS du marché. Si toutes les solutions ne permettent pas de suivre aussi finement la productivité et le contexte de réalisation des tâches que ce que peut faire Generix WMS, les quelques informations que l'entreprise peut obtenir de son WMS peuvent déjà suffire à donner une estimation plus précise du planning.

Les avantages de Resources Management sont particulièrement importants dans un contexte de forte rotation du personnel et de variabilité de l'activité sur les sites, ainsi que d'absentéisme élevé.

Face à ces challenges, nos clients souhaitent pouvoir planifier efficacement sur le mois, la semaine, les jours à venir et même au cours de la journée, en fonction des opérateurs présents pour chaque shift.

Ils se posent des questions du type : "Il me manque 40% du personnel, que savent faire les 60% qui restent ? Que puis-je faire avec les présents en fonction de leur productivité sur chaque tâche ?" Notre outil leur permettra de répondre à ces questions et de gérer efficacement leur personnel dans ces conditions compliquées.


Quels bénéfices chiffrés une entreprise peut-elle tirer d’une solution telle que Resources Management ?

Les éditeurs américains communiquent beaucoup sur la performance de ce type de solutions. Quatre grandes observations ressortent :

  • La fiabilité du calcul des standards de travail (prises par heures, colis traités par site, etc.) est améliorée de 50%. Entrer dans une définition plus précise de la productivité type permet de mieux identifier les ressources nécessaires pour traiter les volumes et de mieux les affecter.
  • Le taux d'utilisation des ressources est amélioré de 30%. Les temps morts et les journées creuses sont réduits grâce à une répartition optimisée de la charge. Les opérateurs sont constamment occupés : en suivant une formation, en effectuant des tâches moins productives mais nécessaires, en améliorant leur productivité sur ces tâches, etc. Cela a à terme un impact positif sur la productivité globale de l'entrepôt.
  • La fidélisation des ressources augmente de 20%, ce qui permet de réduire les coûts RH. La formation et l'utilisation d'intérimaires sont en effet des postes de coût importants, surtout si ceux-ci ont peu d’expérience du métier et découvrent les spécificités du site.
  • Les améliorations mentionnées ci-dessus permettent ainsi une réduction générale de 25% des coûts de ressources humaines.

Tous ces éléments permettent d’entrer dans un cercle vertueux : la capacité de production est mieux appréhendée, l'utilisation des ressources en fonction de leur performance sur chaque tâche est optimisée, les collaborateurs sont plus motivés et donc fidélisés, etc.

C’est ainsi qu’en étudiant la courbe de performance des opérateurs d’un de nos clients tout au long de la journée, notre Data Lab a pu constater que les productivités diminuaient drastiquement au fil des heures, jusqu'à être 10 fois moins élevée à la fin de la journée. Dans un tel cas, proposer aux opérateurs de changer de poste toutes les 2 ou 3 heures doit permettre de maximiser leur productivité à plusieurs moments de la journée. Sans un outil de planification des ressources, il est impossible pour un chef d’équipe de mettre en œuvre une telle organisation.


Pour aller plus loin


Bio Express

Isabelle BADOC est titulaire d’un Mastère Spécialisé « Intelligence Marketing » obtenu à HEC en 1997 et diplômée depuis 2015 d’un MBA Global & Domestic Transport Management de l’E.S.T. Elle démarre sa carrière en 1998 chez Influe en tant qu’ingénieure commerciale sur la solution de Gestion Partagée des Approvisionnements puis est en charge du développement du marketing produit. En tant que Product Marketing Manager, sa mission consiste à définir la stratégie marketing produit de la plateforme collaborative Generix Supply Chain Hub, de l’animer et de la valoriser auprès des marchés cibles. Elle participe également activement en France aux rencontres de l’Agora Club ou de France Supply Chain.

Site Internet de Generix : https://www.generixgroup.com/fr


Contactez notre équipe







  Autres témoignages

F. PETITJEAN, DESCARTES
‘‘ Cartographier les données nécessaires à l’atteinte de son objectif ’’

I. BADOC | GENERIX
‘‘ Progresser étape par étape ’’

G. MOUSSET | ACSEP
‘‘ Le Big Data accessible à toute entreprise ’’

J. BOUR | DDS
‘‘ Passer de data Excel à la centralisation collaborative des données ne s'improvise pas ’’

C. ZELLE | ACTEOS
‘‘ Un "jumeau numérique" pour optimiser sa Supply Chain ’’

M. HERBERT SAADA| O9SOLUTIONS
‘‘ L'agilité et la proactivité passent par la collecte des données en temps réel ’’

B. FAURE | ANAPLAN
‘‘ En matière de données, le mieux est l’ennemi du bien ’’

M. DURBHA | COUPA
‘‘ Les données sont la monnaie de l'avenir ’’

P-J. EVRARD| KINAXIS
‘‘ La digitalisation massive des organisations s'est traduite par un tsunami de données ’’

R. SAVY | ALTERYX
‘‘ Les talents dans le domaine de la Data Science sont une denrée rare et coûteuse ’’