Philippe Nieuwbourg, Jeudi 9 Février 2012
De la gouvernance des données (Mario CANTIN le 9 février à TDWI Montréal)
Le chapitre Montréal de TDWI accueillait ce matin Mario Cantin, Stratégiste en Qualité de Données. Il a publié récemment dans le Business Intelligence Journal de TDWI un article complet sur la gouvernance des données et les projets d'amélioration de la qualité des données en entreprise. Au cours de ses deux interventions, Mario Cantin a tout d'abord brossé le tableau général de la gouvernance des données; puis dans sa seconde partie, partagé un plan d'action concret en quatre étapes pour donner vie à ses projets d'amélioration de la qualité des données.
Une première partie donc où Mario Cantin a tenté d'identifier l'origine non pas des problèmes de qualité des données, mais de leur découverte. Selon lui, le besoin de gouvernance des données est né de la mise en place dans les entreprises des processus d'intégration transverses. Tant que l'entreprise fonctionnait en silos, avec des processus verticaux pour chaque domaine, les problèmes éventuels de qualité des données éteint réglés par les domaines métiers concernés. Et si un problème de qualité n'était pas détecté ou pas corrigé, c'est sans doute qu'il n'impactait pas les processus opérationnels. Avec l'apparition de processus transverses, de nouvelles personnes ont besoin d'accéder à des données créées et gérées par d'autres. C'est à cette occasion que des problèmes de qualité de certaines données peuvent non pas apparaitre, mais plutôt être révélés au grand jour. "Le problème de la qualité des données est lié aux processus, pas aux données elles-mêmes", explique Mario Cantin. L'implantation de ces processus transverses entraine donc un besoin d'alignement des données. Pour identifier les domaines sur lesquels il faut agir, Mario Cantin préconise d'imputer les processus aux données. L'idée est de gérer les données comme un véritable actif de l'entreprise, dont on cherchera à maximiser la valeur en alignant la qualité recherchée des données avec les objectifs d'affaires de l'entreprise. Cette imputation, ce rattachement des processus aux données permet de cartographier de manière précise quel(s) processus utilise(nt) quelle(s) donnée(s).
Mario Cantin préconise la mise en place d'un nouvelle fonction, l'intendant de données (les américains l'appellent le "Data Stewart"). Il aura en charge la définition de la feuille de route, mais également sa mise en place et son suivi. Cette gouvernance des données ne se fera correctement selon Mario Cantin que si l'on respecte quelques règles basiques :
- Imputer les données aux processus
- Accepter et accompagner le changement culturel auquel correspond cette prise en compte de l'actif immatériel que représentent les données
- Une adhésion sans faille de l'exécutif
- Un focus constant sur la valeur générée par cette amélioration de la qualité des données
- Communiquer sur les problèmes rencontrés et les solutions apportées
- Devenir de véritables experts de la qualité de données ou tout au moins en avoir l'objectif
Une première partie donc où Mario Cantin a tenté d'identifier l'origine non pas des problèmes de qualité des données, mais de leur découverte. Selon lui, le besoin de gouvernance des données est né de la mise en place dans les entreprises des processus d'intégration transverses. Tant que l'entreprise fonctionnait en silos, avec des processus verticaux pour chaque domaine, les problèmes éventuels de qualité des données éteint réglés par les domaines métiers concernés. Et si un problème de qualité n'était pas détecté ou pas corrigé, c'est sans doute qu'il n'impactait pas les processus opérationnels. Avec l'apparition de processus transverses, de nouvelles personnes ont besoin d'accéder à des données créées et gérées par d'autres. C'est à cette occasion que des problèmes de qualité de certaines données peuvent non pas apparaitre, mais plutôt être révélés au grand jour. "Le problème de la qualité des données est lié aux processus, pas aux données elles-mêmes", explique Mario Cantin. L'implantation de ces processus transverses entraine donc un besoin d'alignement des données. Pour identifier les domaines sur lesquels il faut agir, Mario Cantin préconise d'imputer les processus aux données. L'idée est de gérer les données comme un véritable actif de l'entreprise, dont on cherchera à maximiser la valeur en alignant la qualité recherchée des données avec les objectifs d'affaires de l'entreprise. Cette imputation, ce rattachement des processus aux données permet de cartographier de manière précise quel(s) processus utilise(nt) quelle(s) donnée(s).
Mario Cantin préconise la mise en place d'un nouvelle fonction, l'intendant de données (les américains l'appellent le "Data Stewart"). Il aura en charge la définition de la feuille de route, mais également sa mise en place et son suivi. Cette gouvernance des données ne se fera correctement selon Mario Cantin que si l'on respecte quelques règles basiques :
- Imputer les données aux processus
- Accepter et accompagner le changement culturel auquel correspond cette prise en compte de l'actif immatériel que représentent les données
- Une adhésion sans faille de l'exécutif
- Un focus constant sur la valeur générée par cette amélioration de la qualité des données
- Communiquer sur les problèmes rencontrés et les solutions apportées
- Devenir de véritables experts de la qualité de données ou tout au moins en avoir l'objectif
Le projet "qualité des données" en quatre étapes
Gérer la qualité des données est un projet à part entière et comme tout projet, il doit être phasé. Voici les grandes étapes que préconise Mario Cantin. Mais en préalable, il insiste sur la nécessité de définir des indicateurs propres à ce projet de qualité des données, et d'inclure ces indicateurs dans le tableau de bord global du projet TI.
Etape 1 : Identifier les problèmes de qualité
- mise en place d'un registre des problèmes identifiés
- mise en place d'un registre des données clefs (on se reconnecte ici à un éventuel projet de Master Data Management)
Les indicateurs de pourcentage des processus analysés et de pourcentage des données évaluées permettent de suivre l'avancement de cette étape.
Etape 2 : Evaluer les risques
- mise en place d'un registre des risques de qualité des données
L'indicateur du pourcentage des problèmes de qualité qui ont été quantifiés et évalués permet de suivre l'avancement de cette étape.
Etape 3 : Mitiger les risques
Cela peut choquer, mais tous les problèmes identifiés ne doivent pas forcément être corrigés, soit parce que cela coute trop cher, soit parce que cela n'est pas possible, soit tout simplement parce que cela ne représente pas de risque pour l'entreprise. Il faut donc parfois accepter la mauvaise qualité de certaines données. Mais chaque cas doit être étudié et évalué. Un indicateur du pourcentage d'avancement de cette évaluation est nécessaire.
Etape 4 : Mesurer l'évolution de la qualité des données
Il faut définir ses propres indicateurs, et mesurer à la fois le pourcentage des données dont la qualité est mesurée, et la progression de cette même qualité. Ne pas confondre ici l'indicateur de mesure de la mesure, et la mesure elle-même…
En suivant ces grandes étapes, Mario Cantin nous assure que, même si par miracle vos données ne seront pas plus propres, vous en mesurez au moins le degré de propreté, et les risques que vous faites courir à votre entreprise !
Etape 1 : Identifier les problèmes de qualité
- mise en place d'un registre des problèmes identifiés
- mise en place d'un registre des données clefs (on se reconnecte ici à un éventuel projet de Master Data Management)
Les indicateurs de pourcentage des processus analysés et de pourcentage des données évaluées permettent de suivre l'avancement de cette étape.
Etape 2 : Evaluer les risques
- mise en place d'un registre des risques de qualité des données
L'indicateur du pourcentage des problèmes de qualité qui ont été quantifiés et évalués permet de suivre l'avancement de cette étape.
Etape 3 : Mitiger les risques
Cela peut choquer, mais tous les problèmes identifiés ne doivent pas forcément être corrigés, soit parce que cela coute trop cher, soit parce que cela n'est pas possible, soit tout simplement parce que cela ne représente pas de risque pour l'entreprise. Il faut donc parfois accepter la mauvaise qualité de certaines données. Mais chaque cas doit être étudié et évalué. Un indicateur du pourcentage d'avancement de cette évaluation est nécessaire.
Etape 4 : Mesurer l'évolution de la qualité des données
Il faut définir ses propres indicateurs, et mesurer à la fois le pourcentage des données dont la qualité est mesurée, et la progression de cette même qualité. Ne pas confondre ici l'indicateur de mesure de la mesure, et la mesure elle-même…
En suivant ces grandes étapes, Mario Cantin nous assure que, même si par miracle vos données ne seront pas plus propres, vous en mesurez au moins le degré de propreté, et les risques que vous faites courir à votre entreprise !
Aucun commentaire:
Enregistrer un commentaire