Optimiser la supply chain avec un data lakehouse

Jusqu'à récemment, l'accès à la majeure partie des données de la chaîne d'approvisionnement d'une organisation était limité aux spécialistes, répartis sur une myriade de systèmes de données. Contrainte par les limites des entrepôts de données traditionnels, la maintenance des données nécessite des efforts d'ingénierie considérables ; une surveillance étroite et un engagement financier substantiel. Aujourd’hui, une énorme quantité de données, générées par une chaîne d’approvisionnement de plus en plus numérique, croupit dans des lacs de données sans jamais être mises à la disposition de l’entreprise.

Une enquête du Boston Consulting Group de 2023 indique que 56 % des managers déclarent que même si les investissements dans la modernisation des architectures de données se poursuivent, la gestion des coûts d'exploitation des données reste un problème majeur. Le cabinet de conseil s’attend également à ce que les problèmes liés au déluge de données s’aggravent à mesure que le volume de données générées augmente à un taux de 21 % entre 2021 et 2024, pour atteindre 149 zettaoctets à l’échelle mondiale.

« Les données sont partout », déclare Mark Sear, directeur de l'IA, des données et de l'intégration chez Maersk. « Il suffit de penser à la durée de vie d'un produit et à ce qui se passe dans le transport d'une souris d'ordinateur de la Chine au Royaume-Uni. Vous devez déterminer comment l'acheminer de l'usine au port, du port au port suivant, du port à l'entrepôt et de l'entrepôt au consommateur. Il existe de grandes quantités de points de données tout au long de ce voyage.

Sear affirme que les organisations qui parviennent à intégrer ces riches ensembles de données sont sur le point de récolter de précieux avantages commerciaux. « Chaque point de données est une opportunité d'amélioration : pour améliorer la rentabilité, les connaissances, notre capacité à fixer des prix correctement, notre capacité à recruter correctement le personnel et à satisfaire le client », dit-il.

Des organisations comme Maersk se tournent de plus en plus vers une architecture de lac de données. En combinant l'échelle rentable d'un lac de données avec la capacité et les performances d'un entrepôt de données, un lac de données promet d'aider les entreprises à unifier les données disparates de la chaîne d'approvisionnement et à fournir à un plus grand groupe d'utilisateurs un accès aux données, y compris structurées, semi-. données structurées et non structurées. La création d'analyses au-dessus du Lakehouse permet non seulement à cette nouvelle approche architecturale d'améliorer l'efficacité de la chaîne d'approvisionnement avec de meilleures performances et une meilleure gouvernance, mais elle peut également prendre en charge une analyse simple et immédiate des données et contribuer à réduire les coûts opérationnels.

Ce contenu a été produit par Insights, la branche de contenu personnalisé du MIT Technology Review. Il n’a pas été rédigé par l’équipe éditoriale du MIT Technology Review.

François Zipponi
Je suis François Zipponi, éditorialiste pour le site 10-raisons.fr. J'ai commencé ma carrière de journaliste en 2004, et j'ai travaillé pour plusieurs médias français, dont le Monde et Libération. En 2016, j'ai rejoint 10-raisons.fr, un site innovant proposant des articles sous la forme « 10 raisons de... ». En tant qu'éditorialiste, je me suis engagé à fournir un contenu original et pertinent, abordant des sujets variés tels que la politique, l'économie, les sciences, l'histoire, etc. Je m'efforce de toujours traiter les sujets de façon objective et impartiale. Mes articles sont régulièrement partagés sur les réseaux sociaux et j'interviens dans des conférences et des tables rondes autour des thèmes abordés sur 10-raisons.fr.