Utiliser la data pour transformer votre organisation

Voyage dans le merveilleux monde des plateformes Data

24 Apr 2020

4 challenges pour une plateforme Data

Face à leurs transformations les entreprises doivent se constituer un patrimoine informationnel robuste, pour pouvoir se projeter efficacement. La construction de ce socle de connaissance doit permettre à l’organisation de développer sa création de valeur. Il ne peut y avoir de changement dans une organisation sans dynamique autour de l’exploitation des données et la constitution de ce socle.

Au delà de l’effort de transformation des pratiques dans l’entreprise nous avons perçu quatre challenges à relever pour rendre l’information opérationnelle dans une organisation avec une plateforme de données. Ces points essentiels s’intègrent dans une chaîne continue qui doit permettre d’accélérer la mutation des organisations pour les rendre plus efficace avec leur données.

On peut citer en exemple, un de nos clients, qui face à une croissance exponentielle de son activité a mis en place, en quelques mois, tous les reporting nécessaires au pilotage de son activité, et surtout l’outillage pour industrialiser l’intégration de nouvelles sources de données pour améliorer sa vision. Immédiatement sa capacité de pilotage s’est améliorée avec une réactivité qui a permis des retours sur investissements directs.

Collecter efficacement des données

Le développement d’intelligences artificielles est souvent un objectif majeur des organisations. Il convient au préalable, d’acquérir une vision globale des données, et de bien exploiter celles-ci. Il ne peut y avoir de projets ambitieux sans données et sans s’être assuré de la viabilité du socle sur lequel ils vont reposer.

La donnée est souvent éparse dans l’organisation, voir à l’extérieur de l’organisation. La centralisation de toutes les données, va offrir une bien meilleure vision pour guider les décisions. Plutôt que de vouloir collecter quelques données ciblées pouvant répondre à une question précises, il convient d’avoir une exhaustivité permettant de construire une vision la plus large possible. Un premier niveau de maturité des données est atteint lorsqu’on parvient à collecter plusieurs sources de données, à les mettre en relation et à les exploiter au travers d’outils permettant d’en exposer la valeur combinée simplement.

Un exemple concret de ce premier niveau serait un reporting consolidé à partir de plusieurs systèmes non prévus pour fonctionner ensemble. On extrait les données depuis chacun des systèmes, on les transforme pour les rendre cohérentes, et pour finir on génère des rapports interactifs utilisables par le management. L’alimentation pouvant se faire quotidiennement voir plusieurs fois par jours, les dirigeants peuvent piloter l’activité en temps réel.

Connaitre et Structurer

Une fois les données capturées et mises “sous cloche” leur utilisation doit pouvoir se faire par le plus grand nombre, et donc requiert que ces données soient référencées et qualifiées. Il convient d’apporter quelques informations complémentaires pour rendre utilisables ces données pour des métiers différents dans l’organisation, mais aussi pour caractériser la présence de données à caractère sensible par exemple… Les utilisateurs n’ont généralement pas de connaissance à priori de quelles données sont susceptibles de pouvoir répondre à tel ou tel cas de figure, et donc il convient de pouvoir rechercher facilement dans ce patrimoine pour trouver un réponse à une question métier..

Pour revenir à notre exemple, ce catalogue permet de facilement mesurer la pertinence des données disponibles dans le Datalake, et de “descendre” sans moyens techniques au coeur de celles-ci pour les comprendre.

Experimenter

Pour dépasser l’utilisation statique des données, et progresser vers la mise en oeuvre de services à forte valeur ajoutée, il est nécessaire de se doter d’une capacité à expérimenter sur les données. Ce “Datalab” a vocation à permettre de tester instantanément une idée pour la valider. L’accès direct à un patrimoine de données et aux ressources pour transformer celle-ci, ou appliquer des algorithmes standards du marché, va permettre de réaliser les premiers services prédictifs. L’intégration dans une chaîne continue d’acquisition et de raffinement des données permet d’accélérer fortement la gestation des premiers cas d’utilisation avancés de la donnée. Les notebooks au coeur du Datalab sont les standards du marchés utilisés quotidiennements par les data scientistes.

Revenons sur notre reporting consolidé. L’analyste va pouvoir construire des indicateurs prédictifs, les distribuer aux dirigeants, et facilement les mettre au point de manière itérative. Cet outillage lui permet aussi de répondre très vite à une question pointue, en construisant une analyse spécifique.

Déployer, Industrialiser et Exposer

Une fois les expérimentations réalisées et le pilote validé, il faut en faire un produit industriel matérialisant le service attendu. Autant nous avons vu de nombreux projets de PoC être des succès ces dernières années que leur passage au pilote et encore plus au service industrielle s’est souvent révélée une aventure délicate. L’expérimentation et la production sont des mondes classiquement antinomiques, et cela à pour effet de requérir d’important travaux d’ingénierie pour le passage en production.

En injectant des éléments structurels dans le processus expérimental au travers d’outillages spécifiques, on peut anticiper et automatiser ces travaux d’industrialisation. Il s’agit à ce stade d’assurer la résilience, la fiabilité, de maîtriser les processus pour garantir un niveau de service. La transformation d’une expérimentation en un vrai produit industrielle doit être dans ce sens l’un des maillons d’une chaîne parfaitement maîtrisée et intégrée qui démarre avec l’acquisition de données.

Pour notre exemple cela se traduit par la capacité à appliquer un score prédictif sur toutes les données et à intégrer celui-ci dans les dashboards déployés. Tous les calculs nécessaire à ces indicateurs avancés vont être produits quotidiennement sans requérir d’intervention humaine.


L’utilisation de la data au travers d’une plateforme permet de construire des services industrialisés, et surtout d’avancer vite vers ces services pour contribuer à la transformation des organisations. Datatask permet la mise en oeuvre d’un Data Operating Model à grande échelle en quelques semaines, mais aussi d’accélérer tout autant le déploiement de nouveaux use-cases. Par ailleurs on constate chez nos clients des coûts d’implémentation et d’exécution divisés par 3 à 6 en regard de démarches d’intégration traditionnelles.

Pour en savoir plus n’hésitez pas à nous contacter pour une discussion et éventuellement une démo de nos produits.