Dans un monde où les décisions stratégiques reposent de plus en plus sur la donnée, la qualité des informations utilisées est devenue un enjeu critique. Une donnée erronée ou mal gérée peut fausser une analyse, dégrader une expérience client, ou nuire à la conformité.
👉 Cet article vous aide à identifier les 10 principaux facteurs de dégradation de la qualité des données pour mieux les anticiper et sécuriser vos projets data.
1 – Le déclin logique ou vieillissement des données
Le vieillissement des données, également connu sous le nom de déclin logique, est un phénomène par lequel les informations deviennent obsolètes ou inexactes au fil du temps.
Nous parlons régulièrement d’un « tueur silencieux » : cette baisse de qualité est insidieuse et préjudiciable.. Elle résulte de compromis faits, au fil du temps, sur une ou plusieurs dimensions de qualité des données (complétude, cohérence, exactitude…).
Plusieurs facteurs contribuent à ce phénomène. Par exemple, les changements dans les données personnelles, comme le statut marital, les numéros de téléphone ou les adresses, peuvent rendre les anciens enregistrements inexacts. Certaines données peuvent aussi devenir périmées en raison de changements dans l’organisation, comme de nouvelles politiques ou réglementations.
Les organisations réévaluent et actualisent régulièrement leurs données afin qu’elles reflètent la réalité.
2 – Une mauvaise saisie des données
L’erreur humaine, lors de l’entrée des données dans les systèmes, est l’une des principales causes de mauvaise qualité des données. Les erreurs surviennent pour diverses raisons. Négligence, manque de formation ou contrôles de saisie insuffisants en sont les principales.
Des fautes de frappe, des oublis et des erreurs d’interprétation peuvent se produire, surtout dans des environnements de travail exigeants ou stressants. Lors d’une saisie rapide, un opérateur peut mal comprendre un champ. Il peut aussi oublier de renseigner des informations essentielles.
Ainsi, les systèmes qui valident mal les entrées accumulent, avec le temps, des informations erronées. Il est donc crucial d’implémenter des processus de validation rigoureux. Il faut aussi former correctement le personnel à l’usage des applications. Et, c’est seulement à ce prix que l’on peut espérer maîtriser les risques d’erreur et conserver la confiance dans les données collectées.
3 – Les silos organisationnels et la prolifération des systèmes
La présence de silos organisationnels a un impact négatif significatif sur la qualité des données au sein des entreprises. Lorsque les différentes unités fonctionnelles ne partagent pas leurs données, chacune interprète et utilise les informations selon sa propre perspective. Un même élément de données peut être géré différemment par divers départements, ce qui compromet son intégrité et sa fiabilité.
Des divergences surgissent également lorsque l’information se disperse dans le SI au lieu d’être centralisée. La multiplication des systèmes dans l’entreprise dégrade la qualité des données. Quand une organisation compte de nombreux systèmes d’enregistrement, les risques d’incohérences et de conflits se multiplient. Les différences de traitement dans les processus métiers et la multiplicité des usages peuvent mener à des interprétations divergentes des mêmes données. Il devient difficile de maintenir une vue d’ensemble cohérente.
Les entreprises doivent se doter de moyens leur permettant de réduire cette complexité et d’assurer une intégrité des données à travers les différents systèmes utilisés.
4 – Le manque de gouvernance
Les problèmes de gouvernance et de propriété des données peuvent aussi nuire à la qualité des données. Lorsqu’il n’existe pas de structure claire autour de la gestion des données, les responsabilités peuvent être floues. On constate un manque de rigueur et de professionnalisme dans l’entretien et la qualité des données. Si, par exemple, personne n’est responsable de la vérification de l’exactitude des informations, des erreurs peuvent s’accumuler sans être corrigées.
De même, l’absence de politiques claires concernant l’accès, la mise à jour et la suppression des données peut entraîner toute une série de problèmes, notamment des violations de la conformité et le vieillissement des données (voir point 1). Un cadre de gouvernance des données efficace est essentiel
pour assurer que les informations sont fiables, protégées et gérées de manière appropriée. Une culture axée sur la qualité des données encourage la responsabilité et l’engagement des employés, elle améliore ainsi la qualité globale des données de l’organisation.
5 – Le manque de normes et de définitions communes
Le manque de normes de données communes et l’absence d’un dictionnaire de données peuvent être des obstacles à une bonne diffusion et à une bonne utilisation des données. Lorsque les utilisateurs ne disposent pas de définitions claires ou de moyens d’accès standardisés, ils travaillent dans des conditions dégradées. La qualité des données perçue s’en trouve amoindrie.
Un dictionnaire (ou glossaire) de données fournit une base essentielle pour la gestion des informations. Il garantit que tous les utilisateurs comprennent autant que possible les données qu’ils manipulent. Les métadonnées, qui décrivent les attributs et les origines des données, sont cruciales pour
répondre aux objectifs de transparence et de traçabilité.
Combiner des données de différentes sources sans normes communes peut mener à des incohérences. Lorsque les systèmes ne partagent pas clairement formats et définitions de données, ils dupliquent les informations échangées. Les données échangées deviennent difficilement exploitables dans les processus.
Les organisations doivent mettre en place des normes de données claires et accessibles ainsi qu’un dictionnaire de données centralisé afin d’améliorer la cohérence et la fiabilité des données dans l’ensemble de l’organisation.
6 – Les projets de migration et les mises à niveau des systèmes
Les projets de migration de données sont par nature complexes et risqués. Trop souvent, les équipes privilégient les difficultés techniques au lieu de vérifier que les données livrées respectent les exigences de qualité du nouveau système. En négligeant l’application des règles de qualité, l’équipe risque d’introduire des erreurs et des incohérences, à terme, elle pourrait éroder la confiance des utilisateurs dans la nouvelle solution livrée.
Il est donc crucial de mettre en œuvre des contrôles qualité pendant la migration afin de transférer les données sans compromettre leur intégrité.
Des mises à niveau technologiques mal conduites peuvent aussi nuire à la qualité des données, car les anciennes et nouvelles structures peuvent être incompatibles. Ces incompatibilités provoquent alors pertes d’information, erreurs de traitement ou corruption des données. Les organisations doivent être préparées à gérer ce type de situations.
7- Une mauvaise conception des systèmes
La conception d’une base de données conditionne directement l’intégrité des données. Un schéma mal conçu peut entraîner des incohérences et compliquer l’accès et l’interprétation des données. La normalisation des schémas des bases est censée nous aider à anticiper ces problèmes en raffinant les tables et les relations entre les données. Encore faut-il qu’elle soit effectuée correctement. Dans le cas contraire, on hérite d’anomalies qui vont affecter les opérations d’insertion, de mise à jour ou de suppression. Il est par conséquent nécessaire de veiller à ce que les bases de données soient conçues de manière robuste et que les règles d’intégrité soient appliquées.
Des processus métier ou des bases de données mal conçus génèrent également des problèmes de qualité des données. Des processus mal définis ou pas suffisamment optimisés sont souvent la cause de points de friction dans le flux de travail qui compromettent la qualité des données. On constate alors des retards dans la mise à jour des informations ou des transferts d’informations obsolètes.
La gouvernance des données est le premier des leviers permettant aux organisations de mettre en pratique le « quality by design ».
8- Des nettoyages de données inadéquats
Les équipes informatiques mettent en œuvre les processus de nettoyage ou de purge des bases de données dès que la période de conservation arrive à son terme, que les données ne sont plus nécessaires et qu’il devient souhaitable de réduire les volumes pour des raisons de coût ou de performance.
Mais, mal conçu, ce processus peut supprimer trop ou trop peu de données pertinentes. Il faut notamment être conscient du risque de retirer des données qui doivent être conservées, à cause de règles de purge pouvant s’appliquer sur des données erronées. Si une stratégie vise, par exemple, à supprimer les données des assurés d’une compagnie décédés depuis dix ans, une erreur dans la date de décès d’un assuré vivant pourrait mener à la perte définitive de son dossier. Un autre point à ne pas négliger est le maintien de l’intégrité des données conservées. Il faut vérifier que toutes les occurrences d’un même jeu de données ont bien été supprimées. On évite ainsi de compromettre l’intégrité et la cohérence des données qui restent « vivantes ».
9- Les changements organisationnels
Le départ de collaborateurs clés qui possèdent une connaissance approfondie des systèmes de données est également un risque majeur de dégradation de la qualité des données. Ces experts comprennent les subtilités d’utilisation des applications, sont conscients des anomalies dans les données et savent comment les contourner. Leur départ a un impact direct, au moins temporaire, sur la qualité des données saisies et sur les erreurs d’interprétation des données.
Les changements dans la structure de l’organisation, tels que les fusions, les acquisitions ou les réorganisations, sont d’autres facteurs pouvant affecter sérieusement la gestion des données. Ces transitions s’accompagnent souvent de pertes de personnel compétent et d’une réticence à accepter les
changements. Lorsque les équipes n’intègrent pas correctement les systèmes et les politiques, ces changements majeurs dupliquent les données et créent des incohérences. Ils peuvent ensuite déclencher d’autres problèmes de qualité des données.
10- Une corruption des données due à une cyberattaque
Les violations de données causées par des cyberattaques représentent une menace sérieuse pour l’intégrité des données. Une corruption des données peut survenir lorsque des hackers compromettent des bases de données à la suite de modifications non autorisées. Ces attaques sont connues sous le nom de rançongiciel ou ransomware. Elles peuvent avoir des répercussions significatives : perte de la confiance des clients, conséquences juridiques et des coûts considérables pour réparer les systèmes affectés.
La vulnérabilité des systèmes et/ou des mesures de sécurité insuffisantes sont les principaux facteurs de risque associés à la corruption des données par des hackers.
Ne subissez plus vos données, reprenez le contrôle
La qualité des données n’est jamais acquise ! Elle se construit et se maintient au fil du temps, à travers des choix techniques, organisationnels et humains. En prenant conscience de ces 10 facteurs, vous êtes mieux armé pour diagnostiquer les points de vulnérabilité de votre SI, et enclencher une démarche structurée d’amélioration continue.