Chapitre 6 Les méthodes : mesurer la santé

Après avoir achevé ce chapitre, le lecteur sera en mesure :

1. D’interpréter et présenter l’analyse des indicateurs de l’état de la santé (Conseil médical 78-2), notamment :
− Les éléments de mesure (validité,  sensibilité, spécificité , fiabilité les valeurs prédictives positives et négatives)
− Les concepts  de l’incidence et la prévalence, du taux de mortalité, et comprendre les taux bruts et standardisés

2. De décrire l’éventail de mesures de santé et être capable de définir :
− l’espérance de vie
− les années potentielles de vie perdues
− les courbes de survie

3.  De décrire plusieurs échelles de mesure de la santé :
− les mesures de survie ajustée  (SAQV, AVCI et AVPAS)
− l’interprétation des résultats de mesures

4. D’ interpréter des tests pour confirmer ou exclure un diagnostic :
− qu’est-ce qu’une valeur normale?
 comprendre l’établissement des points de coupure
− les rapports de vraisemblance 

5. Comprendre l’utilisation appropriée des différents graphiques de présentation des données (diagramme à bandes, histogramme, graphique linéaire, courbes de survie) (78-2)

Faire le lien entre ces connaissances et les objectifs du Conseil médical du Canada, notamment le chapitre 78-2.

À noter : les cases colorées contiennent des informations supplémentaires facultatives ;
cliquez sur la boîte pour l’ouvrir.
Les mots en MAJUSCULES sont définis dans le Glossaire.

Le Dr Rao examine certains indicateurs de santé

Le Dr Rao, le médecin de famille des Richards, a vu des statistiques au sujet de Goosefoot dans la brochure Actualités médicales des services régionaux de santé publique de Weenigo. On y trouve des renseignements démographiques sur la répartition par âge et par sexe de la population et sur le revenu moyen, le chômage et le niveau d’instruction. Il y a aussi des renseignements sur les habitudes de santé et sur les taux d’hospitalisation, de décès et de consultation. L’une des pages présente l’information suivante sur la localité et sa région de Weenigo :

Indicateurs de santé pour la communauté de Goosefoot, comparativement à la région
Principaux indicateurs de santé Goosefoot Région de Weenigo
Nombre de décès par année, moyenne sur trois ans 132 9 829
Taux de mortalité annuel (p. 100 000 habitants), moyenne sur trois ans 884 808
Taux de mortalité standardisé selon l’âge (p. 100 000 habitants), moyenne sur trois ans 690 786
Espérance de vie des hommes à la naissance (en années) 76,2 77,5
Espérance de vie restante des hommes à 65 ans (en années) 20,0 17,9
Espérance de vie des femmes à la naissance (en années) 80,7 82,4
Espérance de vie restante des femmes à 65 ans (en années) 20,1 21,7
Nombre de naissances vivantes (2022) 140 13 981
Taux de mortalité infantile (p. 1 000 naissances vivantes, 2022) 4,2 4,9
Taux de mortalité périnatale (p. 1 000 naissances totales, 2022) 5,5 7,0

Le docteur Rao se demande ce qu’indiquent ces chiffres et pourquoi il y a tant de mesures de la mortalité.

L’éventail des mesures de la santé

Le modèle médical de la santé, abordé au premier chapitre, définissait et mesurait la santé en fonction de faibles taux d’épisodes morbides. La plupart des premières mesures de la santé des populations portaient sur les taux d’incidence de la maladie, les taux de du décès, puis la mesure de l’incapacité, de l’inconfort ou de la détresse (qu’on nomme en anglais les cinq « D » : death, disease, disability, discomfort et distress – voir « Pour les Mordus » au premier chapitre). Notons que les cinq « D » représentent une hiérarchie : des indicateurs objectifs et numériques jusqu’aux indicateurs plus subjectifs et qualitatifs, et des indicateurs recueillis régulièrement (les certificats de décès) jusqu’aux indicateurs que seule une étude de recherche peut produire (par ex. des questions sur les sentiments de détresse).

La qualité des données sur la santé varie. Les indicateurs fondés sur les décès sont fiables et presque exhaustifs étant donné que les certificats de décès sont une obligation légale (même si l’on peut douter de l’exactitude du diagnostic indiqué). Les registres de maladie peuvent également être assez exhaustifs (p. ex. on peut extraire des diagnostics des registres des sorties des hôpitaux, comme le fail l’Institut canadien d’information sur la santé. La qualité des statistiques fondées sur les registres de maladie dépend du soin mis à remplir les formulaires originaux par le médecin, mais elles sont relativement exactes. Étant donné leur disponibilité et leur comparabilité, les organismes nationaux et internationaux ont recours aux statistiques de mortalité et de morbidité pour comparer l’état de santé d’un pays à l’autre. Certaines des statistiques les plus courantes à ces fins sont le TAUX DE DÉCÈS P. 1 000 HABITANTS, le TAUX DE MORTALITÉ INFANTILE, l’ESPÉRANCE DE VIE moyenne et divers indicateurs de la morbidité, comme le taux de MALADIE À DÉCLARATION OBLIGATOIRE. On peut réaliser des analyses plus approfondies dans une région pour comparer la santé de différents groupes de personnes ou pour suivre des problèmes de santé particuliers, comme la grippe ou le VIH/sida.

Interprétation des taux de morbidité

On utilise souvent des statistiques de la morbidité extraites des registres des sorties des hôpitaux ou des factures médicales pour dégager des tendances ou comparer des régions. Cependant, ces statistiques reflètent souvent les services offerts, plutôt que le besoin de services des patients. Par exemple, les taux élevés d’implantation d’endoprothèses vasculaires dans une région indiquent probablement un meilleur accès aux services de cardiologie dans cette région.

L’évolution des indicateurs de santé

Le choix d’indicateurs pour repérer les problèmes de santé n’est pas statique; il évolue au fil du temps.

Habituellement, les administrateurs recueillent des renseignements sur des problèmes qui les intéressent ou qui les préoccupent, et le fait même de les mesurer et de publier les résultats attire l’attention sur ces problèmes. Prenons comme exemple la publication d’une mortalité infantile élevée. Si les interventions sociales ou médicales qui en découlent sont efficaces et réduisent les taux de mortalité, elles réduiront l’utilité de l’indicateur en tant que marqueur des problèmes actuels de santé. Entre-temps, l’émergence de nouvelles préoccupations motive la collecte de renseignements sur ces problèmes dans le but de surveiller les progrès réalisés sur la voie de nouveaux objectifs, et le cycle recommence.1 Par exemple, au fur et à mesure que diminue la mortalité infantile, un nombre croissant des enfants qui survivent présentent des problèmes de santé liés à l’insuffisance de poids à la naissance ou à la prématurité. Ces problèmes sont rares dans les populations où la mortalité infantile est élevée. Les efforts sont ainsi redirigés vers les indicateurs de l’incapacité et de la qualité de vie, plutôt que vers la mortalité. Cette évolution globale interagit avec l’évolution des définitions de la santé décrite dans le premier chapitre.

Mesures individuelles et indicateurs au niveau de la population

Les mesures de la santé peuvent donner des renseignements sur des personnes ou des populations entières. Les mesures les plus courantes en ce qui concerne la santé des populations, la mortalité et la morbidité, découlent de données individuelles qui sont totalisées pour refléter la réalité dans l’ensemble de la population (la prévalence et les taux d’incidence en sont des exemples). Il s’agit de mesures agrégées de la santé des populations.2 Les indicateurs écologiques représentent une deuxième catégorie de mesures de la santé. On y a recours pour consigner les facteurs qui touchent directement à la santé humaine. Plusieurs de ces indicateurs peuvent être consignés à l’interne ou à l’externe : les taux de plomb peuvent être mesurés dans le sang du patient, ou encore dans l’air, l’eau ou la terre. Comme troisième catégorie, on compte les indicateurs environnementaux qui agissent indirectement et n’ont pas d’équivalent chez la personne. Un exemple serait la présence de POLITIQUES PUBLIQUES SAINES visant à promouvoir l’équité sociale quant à l’accès aux soins, ou à interdire l’usage du tabac dans les endroits publics. De telles politiques peuvent être perçus comme des mesures synthétiques d’une population saine : Cette société est-elle bienveillante? Veille-t-elle à protéger la santé de ses citoyens? Le contraste entre les mesures agrégées et environnementales correspond à la distinction entre la santé dans la population et la santé de la population (voir Pour les mordus dans le chapitre 2 « Un regard organique sur la santé des populations »)

L’incidence et la prévalence

La prévalence et l’incidence sont deux indicateurs agrégés de la santé qui remplissent deux objectifs différents qui toutefois se chevauchent. L’incidence (le nombre de nouveaux cas au cours d’une période de temps) s’avère pertinente lorsqu’il est question d’affections aiguës, alors que la prévalence (le nombre total de cas dans une population) touche plutôt à la maladie chronique. L’analyse des causes étudie les cas incidents, tandis que la prévalence est utile pour estimer les besoins en services de santé. Ainsi, quand on cherche à prévenir les accidents de la route, on évalue leur incidence dans différentes conditions, mais quand on planifie des services de réadaptation, on évalue la prévalence de l’incapacité à long terme découlant des accidents de la route. L’incidence désigne la vitesse à laquelle les nouveaux cas (ou événements) surviennent dans une population au cours d’une période donnée; elle peut être mesurée en tant que fréquence, ou proportion de la population présentant un risque, ou en tant que taux par unité de temps. La distinction entre le taux d’incidence et la proportion de l’incidence est illustrée dans l’information supplémentaire.

Proportion et taux d’incidence

Figure 6.1 Les façons de calculer l’incidence à l’aide d’une cohorte imaginaire de six personnes
Figure 6.1 Les façons de calculer l’incidence à l’aide d’une cohorte imaginaire de six personnes

On peut mesurer l’incidence de deux manières et la figure 6.1 nous aidera à illustrer les différences. On y retrouve les résultats du suivi de 6 personnes à partir du début de leur participation à l’étude (ou de leur entrée dans une population) jusqu’à ce que certaines d’entre elles fassent l’expérience de l’événement en question, dans ce cas le décès.

Une approche vise à mesurer la proportion de l’incidence, soit le nombre d’événements qui surviennent pendant la période divisée par le nombre de personnes qui courent le risque de présenter un événement à un moment donné au cours de cette période. Le diagramme expose délibérément le défi de choisir un dénominateur lorsque les personnes immigrent ou émigrent de la population.

  • Le dénominateur pourrait comprendre uniquement les personnes présentes à partir du début de l’année. Il s’agit d’une étude de cohorte fermée n’ajoutant aucune nouvelle personne une fois entamée. Les personnes A, B et C étaient présentes au début, la proportion de l’incidence étant donc de 2/3 ou de 0,67 par année. Ce calcul est aussi appelé l’incidence cumulative.
  • D’autre part, on pourrait penser qu’il s’agit ici d’une étude de cohorte ouverte (permettant l’immigration et l’émigration) et définir la population comme les personnes présentes à mi-chemin pendant l’étude. Cela comprend les personnes A, B, D, E et F, dont deux sont décédées, la proportion de l’incidence étant ainsi de 2/5 ou de 0,4 pour l’année d’observation.

Ouf!  Ni l’une, ni l’autre des approches ne nous semble idéale et les deux entraînent des estimations biaisées, notamment en ce qui concerne les petites populations où la migration est courante. On peut autrement calculer le taux d’incidence ou la densité de l’incidence. Ce calcul tient compte de la durée du suivi de chaque personne dans le dénominateur. Dans notre exemple, les données sont les suivantes :

  • Personne A : 12 mois de suivi
  • Personne B : 10 mois
  • Personne C : 3 mois
  • Personne D : 11 mois
  • Personne E : 5 mois
  • Personne F : 7 mois.

Il y a donc un total de 48 personnes-mois (ou 4 personnes-années) d’observation. En utilisant cette valeur à titre de dénominateur et en considérant tous les événements (ici, des décès) en tant que numérateur, on obtient 3 par 4 personnes-années, ou 0,75 par année. Du point de vue conceptuel, cela représente une concentration ou une densité d’événements au cours d’une période composée où le temps plutôt que les personnes représente le dénominateur. On obtient, par conséquent, un taux pouvant être perçu comme la force de la mortalité (ou d’un autre facteur de risque) agissant sur la population. Ce taux n’a aucune signification au niveau de l’individu. Par contraste, la proportion de l’incidence se concentre sur le risque que courent les personnes. C’est une probabilité qui se limite à 100 %, alors que le taux est illimité. Les deux approches sont liées mathématiquement, comme décrit par Rothman et coll.3 Cette relation présente la notion des fonctions de survie qui sera décrite ci-dessous.

Lors d’études de recherche, l’incidence est généralement calculée en tant que densité de l’incidence, laquelle est plus précise (voir l’encadré ci-haut). Par contre, si la population compte un grand nombre de personnes, il n’est pas pratique de consigner le suivi pour chaque personne. C’est pourquoi les projets de surveillance calculent généralement la proportion de l’incidence à l’aide de la taille de la population à mi-chemin de la période. Cette approche convient lorsque la population est volumineuse étant donné que l’ampleur de la migration n’est habituellement pas suffisante pour biaiser les résultats. Cependant, des valeurs précises de la taille de la population ne sont disponibles que tous les 5 ans lors du Recensement ; le dénominateur est ainsi fondé sur une estimation de la taille de la population. Il est ainsi impossible d’établir un lien entre une personne dans le dénominateur et les événements consignés, tels que dans la figure 6.1. Dans les deux méthodes de calcul, le nombre d’événements est multiplié par 1 000 ou 100 000, selon le nombre d’événements nécessaires pour en arriver à chiffre commode, comme l’incidence de décès (ou mortalité) de 884 par 100 000 par année dans la localité de Goosefoot.

Tandis que l’incidence mesure des événements, la prévalence mesure des états pathologiques; c’est le nombre des cas existants à un moment donné divisé par la taille de la population. La prévalence est donc influencée à la fois par l’incidence et par la durée de la maladie, laquelle est liée à la survie. La prévalence est calculée pour un moment précis dans le temps, auprès d’une population statique (prévalence ponctuelle ou instantanée). D’autre part, on peut calculer la prévalence sur une certaine période, comme une année (prévalence au cours d’une période donnée). La prévalence est habituellement la mesure choisie pour évaluer le fardeau d’une maladie chronique, car les nouveaux cas peuvent être assez rares, mais peuvent néanmoins durer longtemps, exiger des soins et causer une incapacité considérable.

Dans les hôpitaux, la prévalence est élevée mais l’incidence est faible

La prévalence des maladies cardiaques chez les patients d’une unité de soins cardiaques est près de 100 % ; seules de rares erreurs de diagnostic peuvent légèrement la réduire. Par contre, l’incidence des maladies cardiaques chez ces patients est très faible (à moins d’inclure les récurrences), car seules les personnes mal diagnostiquées risquent d’être atteintes d’une maladie cardiaque, toutes les autres l’étant déjà.

Les taux de mortalité

Comme l’incidence, la mortalité est un événement pouvant être présenté en tant que taux ou proportion. De manière traditionnelle, on parle plus souvent de taux de mortalité peu importe la façon dont les valeurs sont calculées et nous respecterons ici cette tradition. Les taux de mortalité sont exprimés de diverses façons, par exemple par maladie, comme les taux spécifiques de mortalité par type de cancer, ou pour des groupes particuliers, comme les taux de mortalité infantile, jusqu’au TAUX BRUT DE MORTALITÉ (ou de décès) qui traduit la mortalité pour l’ensemble des individus et l’ensemble des causes dans une population. Comme la mort d’un enfant représente le plus grand nombre d’ANNÉES POTENTIELLES DE VIE PERDUES, et parce que les enfants sont vulnérables et la santé d’un enfant est ainsi sensible aux variations dans l’environnement social, il existe plusieurs indicateurs de la mortalité infantile.

Le taux de mortalité infantile (TMI)

Le taux de mortalité infantile est le total de décès d’enfants de moins d’un an survenus au cours d’une année, divisé par le nombre de naissances vivantes au cours de la même année, multiplié par 1 000. Étant donné que la mortalité infantile reflète la qualité de l’environnement ainsi que celle des soins médicaux, le TMI est souvent cité; il représente un indicateur utile de la santé d’une population, notamment pour les pays en voie de développement. Cependant, comme la mortalité infantile est rare dans les pays développés, il faut une population de grande taille pour calculer un taux fiable. Dans les populations de petite taille, il y a si peu de décès infantiles que la variation aléatoire brouille toute véritable variation.

Taux de mortalité infantile
Taux de mortalité infantile

Le taux de mortalité périnatale (TMP)

Dans la plupart des pays industriellement développés, ce taux est défini (pour une année donnée) de la manière suivante :

Taux de mortalité périnatale
Taux de mortalité périnatale

Le taux de mortalité néonatale (TMN)

Taux de mortalité néonatale
Taux de mortalité néonatale

Le Dr Rao examine les chiffres de la mortalité infantile

Le Dr Rao est fier du taux de mortalité infantile inférieur à Goosefoot (4,2 par mille) comparativement à l’ensemble de la région (4,9) : cela indique que cet indicateur est sensible à la qualité des soins médicaux et du milieu familial pendant l’enfance. Son équipe a porté une attention particulière à ces facteurs : l’infirmière praticienne rend systématiquement visite aux jeunes mères de nouveau-nés. D’ailleurs, son infirmière lui dit que leur taux est inférieur à la moyenne nationale (4,5 en 2017), il faut fêter ça! Il songe à son pays d’origine, l’Inde, où le TMI est toujours environ 6 fois plus élevé qu’à Goosefoot, et à l’impact énorme qu’un accès adéquat à la nutrition, aux milieux sécuritaires et aux soins primaires et préventifs peut avoir aux fins de comparaison.

Le Dr Rao remarque cependant que le taux de mortalité périnatale est plus élevé que la mortalité infantile; comme ces deux indicateurs se chevauchent, il présume qu’il doit y avoir un nombre élevé de décès fœtaux à Goosefoot. Il se préoccupe du lien possible à la pollution environnementale qui pourrait découler de l’industrie minière. Il se rend compte qu’il doit faire de la recherche…

Taux brut de mortalité, tous âges confondus

Ce taux est une estimation du taux de décès des membres d’une population sur une période donnée (habituellement une année). Le numérateur est le nombre de personnes qui décèdent pendant la période; le dénominateur est la taille de la population, habituellement au milieu de la période (population au jour médian de l’année), et la durée d’observation.

Taux brut de mortalité
Taux brut de mortalité

(Remarques : la valeur « 10n » veut simplement dire que l’on peut multiplier le taux par 1 000 (103), voire par 100 000 en cas de maladies rares, afin d’obtenir un nombre entier plus pratique. L’intervalle de temps le plus courant est l’année, mais dans l’exemple ci-dessus, la période est une moyenne sur trois ans. En effet, la population de Goosefoot est plutôt petite, et les taux pourraient varier quelque peu d’une année à l’autre; la moyenne sur trois ans offre une représentation plus stable.)

Le taux brut de mortalité au Canada était de 7,8 p. 1 000 habitants en 2022, un chiffre qui augmente légèrement à mesure que la population vieillit. La figure 6.2 montre les dix principales causes de décès au Canada en 2020.

Figure 6.2 : Les dix principales causes de décès au Canada, 2020 (Source : Statistique Canada)

Les taux de mortalité standardisés

Pourquoi dit-on « brut »? Le terme nous indique qu’il peut être trompeur de comparer les taux de maladie ou de décès d’une population à l’autre. Prenons pour exemple deux villes, la première ayant une jeune population et l’autre étant une collectivité de retraités. Étant donné que les taux de décès varient en fonction de l’âge, on peut s’attendre à plus de décès au sein de la collectivité de retraités. Ainsi, l’âge est un VARIABLE CONFUSIONNEL et une comparaison directe des taux de mortalité fournirait autant de renseignements sur leurs contrastes démographiques que sur leur santé. Si votre intérêt porte sur la santé des individus dans les deux communautés, la comparaison serait brouillée. Un ajustement arithmétique peut être appliqué aux taux bruts afin d’éliminer l’effet de variables confusionnels (tel une différence d’âge), permettant ainsi une comparaison plus juste de l’état de santé. Cet ajustement calcule les taux propres à chaque strate de la population, ici les groupes d’âge, produisant des taux de mortalité par tranche d’âge. Ces derniers sont combinés selon une méthode de standardisation, et présentent une comparaison hypothétique de la santé dans les deux communautés si leur structure par âge avait été le même.

On a recours à la standardisation pour comparer la mortalité de deux populations qui diffèrent selon certaines caractéristiques susceptibles d’influencer la mortalité. On peut aussi ajuster les taux pour plus d’une caractéristique de la population, comme les taux de décès selon l’âge, le sexe et la race. On peut également avoir recours à la standardisation pour comparer une population au fil du temps afin d’y apporter des ajustements reflétant les changements démographiques. On peut aussi l’utiliser pour comparer le rendement de différents cliniciens, selon la clientèle divergente de leur cabinet.

Un avantage de taux standardisés

Non seulement les Canadiens vivent-ils plus longtemps, mais leur santé s’améliore. Le taux de mortalité standardisé selon l’âge le démontre. Alors que le taux brut de décès est d’environ 7 à 8 p. 1 000 habitants depuis 1970, le taux standardisé selon l’âge a diminué, passant de près de 10 par 1 000 en 1970 à 4,9 par 1 000 en 2012 (standardisation en fonction de la population de 1991). La stabilité du taux brut reflète les effets conjoints de l’amélioration de la santé mais aussi du vieillissement de la population. Le taux standardisé dirige notre attention sur la santé plutôt que sur le vieillissement de la population.

Par « ajustement », on entend le terme plus général englobant la standardisation et d’autres méthodes visant à éliminer les effets des facteurs qui brouillent ou confondent une comparaison. La « standardisation » est une approche fondée sur des moyennes pondérées tirées d’une population de référence standard.La standardisation utilise une approche directe ou une approche indirecte (les calculs se trouvent dans l’encadré Pour les mordus).

L’approche directe offre plus d’information mais exige un plus grand nombre de données. La standardisation directe est exprimée comme un taux de mortalité standardisé en fonction de l’âge (TMSA) : x nombre de décès pour y nombre de personnes. Par exemple, en 2010, le taux brut de décès dus aux blessures en Alberta, calculé simplement en divisant le nombre de décès dus aux blessures par la population totale, était de 49 p. 100 000. Ce chiffre contribue à estimer la demande pour soins de santé. Mais si on pose une question sur l’importance des blessures dans le secteur pétrolière on doit faire une comparaison avec d’autres provinces sans secteurs pétrolières, ce qui nécessitera une standardisation par âge vu que les structures d’âge varieront parmi les provinces. Il est important de comprendre que cette valeur est artificielle et qu’elle ne peut servir qu’aux fins de comparaison (dans le temps ou l’espace). Les taux standardisés peuvent être comparés de manière absolue ou relative : en tant que simple différence entre les populations ou en tant que rapports entre deux taux standardisés.

La standardisation indirecte est généralement utilisée lorsque la taille des strates dans la population à l’étude est petite, menant à des taux par strate instables. Ici, seule la valeur de mortalité globale pour la population à l’étude est requise; les taux par strate sont tirés de la population de référence dont la taille est beaucoup plus importante. Une autre façon d’exprimer cette idée est d’imaginer que la population à l’étude fournit les poids alors que la population standard fournit les taux. Le résultat est exprimé comme un rapport standardisé de mortalité (RSM), lequel s’agit du rapport entre le nombre de décès observés dans la population et le nombre de décès attendu si la population possédait la même structure que la population de référence. Un RSM de 100 signifie que les décès sont au niveau attendu; un RSM de 110 indique que le taux de décès est 10 % plus élevé que le niveau attendu (la figure 6.3 offre une illustration).

Figure 6.3 : Exemple de standardisation indirecte. On notera les disparités croissantes dans les taux de mortalité selon la strate professionnelle en Grande-Bretagne pendant les années 1970.
Figure 6.3 : Exemple de standardisation indirecte.
On notera les disparités croissantes dans les taux de mortalité selon la strate professionnelle en Grande-Bretagne pendant les années 1970.

Le Dr Rao et les TSM

Le Dr Rao réfléchit depuis quelque temps à la signification des taux standardisés de mortalité de Goosefoot et se demande pourquoi le taux standardisé est tellement inférieur au taux brut (690 contre 884). C’est sa femme qui finit par lui suggérer la solution : il y a surtout des personnes âgées à Goosefoot, car la plupart des jeunes quittent la ville pour trouver du travail à Weenigo. Selon elle, il est évident que le taux brut de décès pour 1 000 habitants sera plus élevé que dans une population plus jeune.

Le Dr Rao est soulagé : la standardisation des taux lui donne un résultat plus comparable; en fait, si l’on élimine l’effet de l’âge, la situation de Goosefoot est meilleure que celle de l’ensemble de la région de Weenigo (690 décès p. 100 000, contre 786 dans l’ensemble de la région). Un sourire rassuré s’affiche sur son visage.

Calculer les taux et les rapports standardisés selon l’âge

Prenons l’exemple de la mortalité selon le groupe d’âge à Goosefoot et dans la région de Weenigo :

1. Standardisation directe.

Le taux de mortalité standardisé selon l’âge (TMSA) est calculé en quatre étapes :

  1. Sélectionnez une population de référence (habituellement l’ensemble d’un pays) et déterminez à l’aide du recensement combien il y a de personnes dans chaque groupe d’âge (habituellement des groupes de 5, 10 ou 20 ans). Saisissez-les dans une feuille de calcul (voir un exemple ci-dessous).
  2. Calculez les taux de mortalité standardisé selon l’âge (décès/taille de la population * 100 000) pour chaque groupe d’âge dans les populations à l’étude (Goosefoot et la région de Weenigo).
  3. Calculez le nombre de décès prévus dans chaque groupe d’âge si les populations à l’étude avaient la même structure d’âge que la population de référence (Canada) :
    Taux de mortalité standardisé selon l’âge de la population à l’étude * population de référence/100 000.
    Par exemple, pour les enfants âgés de 0 à 14 ans à Goosefoot : 111 * 5 607 345/100 000 = 6 251.
  4. Le TMSA pour chaque population à l’étude = le total de décès prévus / taille de la population de référence * 100 000 :
Canada Goosefoot Weenigo
Étape 1 : Étape 2 : Étape 3 : Étape 2 : Étape 3 :
Tranches d’âge Population
(2011)
Population Nbre de décès Taux de décès/
100 000
Décès prévus Population Nbre de décès Taux de décès/
100 000
Décès prévus
0-14 5 607 345 897 1 111 6 251 124 813 95 76 4 268
15-64 22 924 285 10 412 55 528 121 094 910 602 3 506 385 88 263
65+ 4 945 060 3 625 76 2 097 103 676 180 453 6 228 3 451 170 670
Total 33 476 690 14 934 132 884 231 021 1 215 868 9 829 808 263 201
Étape 4 : TMSA
(décès prévus/population de référence) * 100 000
690 786

Le tableau montre que le taux brut de mortalité pour Goosefoot (884) dépasse celui de la région (808), mais que le taux standardisé selon l’âge est moins élevé. Cet effet se produit parce que la population de Goosefoot compte plus de personnes d’âge avancé (25 % vs 15 %); le processus de standardisation élimine cette disparité et révèle que la population de Goosefoot est relativement bien portante.

Notons que les TMSA sont artificiels; ils ne veulent rien dire sauf en comparaison au taux brut de mortalité dans la population de référence ou aux TMSA d’autres groupes (calculés à partir des mêmes tranches d’âge et des mêmes populations de référence). On peut aussi considérer les TMSA comme une moyenne pondérée des taux propres à l’âge pour une région donnée, avec comme pondération la proportion de la population de référence dans chaque tranche d’âge.

2. Standardisation indirecte

La standardisation indiecte offre un raccourci lorsque les taux de mortalité par strate d’âge de la population à l’étude ne sont pas connus ou lorsque la taille de la population est trop petite pour calculer les taux par strates stables, comme pour les décès des personnes âgées de 0 à 14 ans à Goosefoot. Ici, les poids dérivent de la population à l’étude (c.-à-d. la taille relative des strates d’âge) et les taux de mortalité sont tirés de la population standard.

Les taux de mortalité standardisés (TMS) sont calculés en trois étapes :
1. Calculez les taux de mortalité standardisés pour chaque groupe d’âge dans la population de référence (ici, le Canada en 2011), soit décès / population * 100 000 dans chaque groupe d’âge.
2. Multipliez ces taux par le nombre de personnes dans les populations à l’étude de chaque groupe d’âge pour calculer les décès prévus. Ces valeurs indiquent le nombre de décès qui auraient lieu au sein de la population à l’étude si chaque strate d’âge avait le même taux de mortalité que la population de référence, c.-à-d. le taux de mortalité selon l’âge au Canada * population de ce groupe d’âge dans la population à l’étude / 100 000.
3. Calculez le rapport entre les décès observés et les décès prévus dans la population à l’étude : décès observés / décès prévus * 100.

Canada Goosefoot Weenigo
Étape 1 : Étape 2 : Étape 3 :
Groupe d’âge Population
(2011)
Nbre de décès Taux de décès/
100 000
Population Décès prévus Décès observés Population Décès prévus Décès observés
0-14 5 607 345 2 451 43,71 897 6 251 124 813 4 268
15-64 22 924 285 42 008 183,25 10 412 121 094  910 602  88 263
65+ 4 945 060 190 172 3 845,70 3 625 103 676 180 453 170 670
Total  33 476 690 234 631 14 934 231 021 1 215 868 263 201 9 829
Étape 4 : TMSA
(décès prévus/pop. de référence) * 100 000
83 113

Encore une fois on perçoit que les habitants de Goosefoot sont en meilleure santé que la population de la région. Remarque : chaque TMS peut être comparé à la population de référence (la mortalité à Goosefoot est inférieure à la mortalité dans l’ensemble du Canada dont la valeur égale 100). Il peut toutefois être trompeur de comparer les TMS puisque les TMS reflètent la structure d’âge de chaque région et si elles sont très différentes les comparaisons des TMS peuvent être biaisées.4, 5

L’espérance de vie

L’espérance de vie est l’âge moyen des individus au décès. On l’utilise comme un indicateur sommaire de la santé qui permet des comparaisons internationales. L’espérance de vie à la naissance est une estimation du nombre d’années qu’un nouveau-né peut s’attendre à vivre selon les taux de mortalité courants par âge. L’espérance de vie est ainsi une abstraction – après tout, il faudra attendre toute une vie pour connaître la durée de vie des bébés qui naissent aujourd’hui. Au Canada, en 2021, l’espérance de vie des femmes était d’environ 84,7 ans et celle des hommes était d’environ 80,6 ans. Nous sommes tout près de l’Australie et suivons de près le Japon. L’impact de l’instabilité sociale se révèle dans le cas de Russie pendant la décennie 1990 à 2000 : on constate que l’espérance de vie peut diminuer rapidement si les conditions se détériorent, tel qu’indiqué dans la figure 6.4 dans le cadre « illustrations » suivant.

L’espérance de vie en Russie postsoviétique

Les perturbations sociales en Russie postsoviétique se sont traduites par une croissance rapide des taux de décès. Entre 1990 et 1994, l’espérance de vie des femmes est passée de 74,4 à 71,2 ans, et celle des hommes a baissé de six ans, passant de 63,8 à 57,7 ans (figure 6.4). Ensemble, les maladies cardiovasculaires et les blessures représentaient 65 % de cette baisse.6

Figure 6.4 : Tendances temporelles de l'espérance de vie en Russie, 1950 à 2007 Source :http://en.wikipedia.org/wiki/File:Russian_male_and_female_life_expectancy.PNG (site consulté en juillet 2010)
Figure 6.4 : Tendances temporelles de l’espérance de vie en Russie, 1950 à 2007
Source http://en.wikipedia.org/wiki/File:Russian_male_and_female_life_expectancy.PNG (site consulté en juillet 2010)

Le Dr Rao réfléchit à l’espérance de vie

Le Dr Rao réfléchit aux chiffres bizarres de l’espérance de vie à Goosefoot :

Goosefoot  Région de Weenigo
Espérance de vie des hommes à la naissance (en années) 76,2 77,5
Espérance de vie restante des hommes à 65 ans (en années) 20,0 17.9
Espérance de vie des femmes à la naissance (en années) 80,7 82,4
Espérance de vie restante des femmes à 65 ans (en années) 20,1 21,7

Il sait, évidemment, que les femmes vivent plus longtemps que les hommes, et que les hommes de Goosefoot vivent moins vieux que dans l’ensemble de la région. Mais il trouve surprenant que les hommes qui atteignent l’âge de 65 ans finissent par vivre aussi longtemps que les femmes. « Ils doivent être coriaces! » se dit-il en songeant aux mineurs qu’il connaît. Ceux qui ne souffrent pas de maladie pulmonaire chronique sont, en fait, de grands amateurs de plein air. « S’ils vivent jusqu’à cet âge, peut-être vivent-ils plus longtemps que les hommes de la ville » songe-t-il. La tendance à vivre plus longtemps, chez les quelques personnes plus robustes que les autres, est ce qu’on appelle l’effet du survivant en santé.

Les années potentielles de vie perdues

Lorsqu’on tente de décider vers quelles maladies orienter les efforts de prévention, il est important de tenir compte de l’impact de ces maladies dans la population. Une mesure évidente de l’impact est le nombre de décès causés par une maladie. La Figure 6.2 suggère que le cancer, les maladies cardiaques sont les affections qui ont le plus d’impact. Cependant, ces maladies ont tendance à causer le décès de personnes qui se rapprochent de la fin de leur durée de vie prévue. Par conséquent, leur prévention pourrait n’avoir qu’un effet limité sur l’augmentation de l’espérance de vie globale. La prévention des décès prématurés ajouterait davantage d’années de vie (et, possiblement, des années plus productives) aux personnes et à la société. On peut définir le décès prématuré comme un décès survenant avant l’espérance de vie moyenne d’une personne (homme ou femme) ou selon une valeur arbitraire, comme avant l’âge de 75 ans. Les personnes qui meurent prématurément perdent des années potentielles de vie. Ainsi, une personne qui succombe à un infarctus du myocarde à 55 ans perd 20 années potentielles de vie, et on peut totaliser ces valeurs pour une population et obtenir l’impact (en années potentielles de vie perdues) de différentes causes. Une façon d’étudier l’impact des maladies sur une société consiste à les classer en fonction des ANNÉES POTENTIELLES DE VIE PERDUES (APVP) attribuables à chacune. (On utilise aussi l’abréviation AVPP, ou années de vie potentielle perdues.)

Les priorités basées sur les APVP ne seront pas les mêmes que les priorités basées sur de simples taux de mortalité. Selon la figure 6.5, si on a recours aux taux de mortalité, le cancer, les maladies des systèmes circulatoire et respiratoire demeurent les plus grandes priorités, comme on voyait dans la figure 6.2. Mais ces maladies tuent à un âge avancé (ce qui est moins le cas pour le cancer) et si l’on a recours aux APVP les blessures (accidentelles et volontaires) deviennent plus importantes que les AVC ou maladies cardiovasculaires. Effectivement, ensemble, les suicides et les blessures accidentelles représentent davantage d’années potentielles de vie perdues que les maladies du système circulatoire. 

Figure 6.5 : Différents indicateurs de l’impact de la maladie sur la mortalité (Remarque : les valeurs des APVP dans la figure sont multipliées par 10 000 pour indiquer les années de vie perdues.)

Les courbes de Kaplan-Meier ou courbes de survie

Dans les études de cohortes ou les essais cliniques, on peut choisir comme résultat la survie sans symptôme (la période sans symptôme après un traitement) ou simplement la survie (l’intervalle de temps entre le diagnostic et le décès), d’où l’expression COURBE DE SURVIE. Kaplan et Meier ont mis au point des analyses statistiques, tel que le test de Mantel et Haenszel, pour évaluer la différence entre deux courbes de survie. Dans un prolongement de ce méthode, le modèle de hasards proportionnels de Cox permet de comparer deux courbes de survie tout en apportant des ajustements selon d’autres variables qui pourraient être différentes d’un groupe à l’autre.

Cette sorte d’ANALYSE DE SURVIE est courante dans la documentation clinique, car elle présente plusieurs avantages. Elle donne une vue d’ensemble de l’évolution clinique d’une maladie selon les taux de survie à des intervalles précis après le diagnostic ou le traitement. La figure 6.6 est un exemple hypothétique. Les résultats des deux traitements après 48 semaines sont semblables, mais le traitement A prolonge la survie pendant les premiers mois qui suivent le traitement. Les courbes de survie peuvent aussi être ajustées mathématiquement pour tenir compte des personnes perdues au suivi. 

Figure 6.6 : Exemple d'une étude de cohortes analysée à l'aide de courbes de survie
Figure 6.6 : Exemple d’une étude de cohortes analysée à l’aide de courbes de survie

Courbes de survie et taux d’incidence

Dans la figure 6.6, remarquez la manière dont les courbes de survie sont associées à l’incidence (de décès, dans ce cas). La proportion de l’incidence, mesurée sur les 53 semaines, est égale pour les deux traitements. Cependant, le taux d’incidence des décès par personne-semaine de suivi (en d’autres mots la vitesse de survenue des décès) du groupe de traitement A est inférieur à celui du traitement B, étant donné que moins de patients sont décédés au cours des premières semaines du suivi.

Les échelles de mesure de la santé

Il y a évidemment des limites aux indicateurs de la santé basés sur la morbidité et la mortalité. Ils ne s’appliquent qu’aux affections graves et ne sont donc pas très pertinents pour la plupart des gens. En outre, un diagnostic qui devient une statistique de la morbidité n’est pas très révélateur du véritable niveau de fonctionnement d’une personne, et les indicateurs de la morbidité ne peuvent tenir compte des aspects positifs de la santé. C’est pourquoi on a créé une gamme d’indicateurs subjectifs appelés « échelles de mesure de la santé ». Cependant, mesurer un concept aussi abstrait que la santé est un défi en soi. Contrairement à la morbidité, la santé n’est pas définie par des indicateurs spécifiques pouvant servir de paramètres de mesure (la pression artérielle dans l’hypertension ou la glycémie dans le diabète) – voir Pour les mordus.

Mesurer les concepts abstraits

Comme la santé est un concept abstrait, on ne peut la mesurer directement à l’aide d’une échelle mécanique, comme on mesure le poids ou la taille. On a plutôt recours à des indicateurs choisis en fonction de la définition de la santé et auxquels on applique une évaluation numérique pour les quantifier ou les rapporter à une échelle. Par exemple, si l’on définit la santé en fonction du bien-être physique, mental et social, il faut choisir trois indicateurs connexes et un système d’évaluation numérique pour déterminer le résultat d’une personne pour chaque indicateur. On peut ensuite avoir recours à un deuxième système de pondération pour représenter l’importance relative des composantes physique, mentale et sociale pour en construire un résultat agrégé. Cela permet de présenter la mesure de la santé qui en résulte en tant que nombre unique : un « indice » de la santé qui va généralement de 0 (décès) à 1 (parfaite santé). D’autre part, on peut présenter les résultats de chaque composante séparément pour produire un « profil de la santé ».

Des échelles de mesure ont été mises au point pour les diagnostics les plus courants; ce sont les « échelles propres aux maladies ». Certaines évaluent la gravité des symptômes d’un appareil organique en particulier (perte de la vision, essoufflement, faiblesse des membres); d’autres portent sur un diagnostic, comme les échelles de l’anxiété ou de la dépression. D’autres mesures sont de plus grande envergure : des « mesures génériques » qui s’appliquent à toute forme de maladie et de personnes. Elles portent sur des syndromes (p. ex. les échelles du bien-être émotionnel), sur l’état général de santé et sur la qualité de vie relative à la santé, la catégorie la plus large. Un exemple courant est le SF-36 (Short-Form-36 Health Survey), un instrument de mesure de la santé fonctionnelle à partir de 36 questions, en est un exemple courant.1, pp 649-65 La question suivante représente un exemple encore plus simple : « De manière générale, comment décririez-vous votre santé aujourd’hui? Excellente? Très bonne? Bonne? Passable? Mauvaise? » Cette question donne lieu à des réponses qui sont presque aussi valides que les réponses aux échelles beaucoup plus longues.1, pp581-7 D’un point de vue encore plus général, certaines mesures cherchent à capter le bien-être des populations; c’est le cas de l’Indice canadien du mieux-être, dont une grande partie porte sur la santé.

Les mesures de santé dans un contexte clinique

Les cliniciens appliquent également les mesures de santé : on demande à un patient de juger sa douleur ou son niveau d’incapacité sur une échelle de 0 à 10. Les réponses sont subjectives mais s’avèrent utiles pour évaluer l’impacte des soins de santé.

Il existe trois grandes catégories d’application des mesures de la santé. Les instruments diagnostiques recueillent de renseignements provenant d’auto-évaluations et d’évaluations cliniques, puis les traitent à l’aide d’algorithmes pour suggérer un diagnostic. Le domaine de la psychiatrie en compte plusieurs, dont l’Entretien diagnostique international global.7 Les mesures pronostiques comprennent les tests de dépistage et, parfois, des renseignements sur les facteurs de risque, lesquels peuvent être combinés pour estimer les états futurs de santé; plusieurs outils numérisées évaluent les risques pour la santé. Les mesures évaluatives tiennent compte des changements dans l’état de santé au fil du temps et sont utilisées pour déterminer les résultats des soins. Cette catégorie est le groupe d’instruments le plus important; elle comprend des mesures spécifiques à des maladies particulières, ainsi que les mesures génériques déjà décrites. 

Indicateurs objectifs et subjectifs

Un indicateur de la santé peut être consigné mécaniquement, comme dans le cas d’une épreuve sur tapis roulant, ou provenir du jugement d’un expert, comme l’évaluation d’un symptôme par un médecin. On peut aussi le consigner par autodéclaration, comme lorsqu’une patiente décrit sa douleur.

Les mesures mécaniques recueillent des données objectivement; la collecte se fait sans aucun jugement ou presque, bien qu’un jugement puisse être nécessaire pour l’interprétation subséquente. Pour ce qui est des mesures subjectives, le jugement humain (par le clinicien, le patient ou les deux) fait partie intégrante de l’évaluation et de l’interprétation.

Les mesures subjectives de la santé présentent plusieurs avantages : elles peuvent décrire la qualité, non seulement la quantité, du fonctionnement; elles peuvent évaluer des éléments comme la douleur, la souffrance et la dépression, qu’il est difficile d’estimer par des mesures physiques ou des analyses en laboratoire. De plus, les mesures subjectives n’ont pas recours à des procédures effractives ni à de l’équipement coûteux. La grande majorité des mesures subjectives recueillent des renseignements à l’aide de questionnaires : beaucoup ont fait l’objet d’études approfondies et sont couramment utilisées pour mesurer les résultats d’essais cliniques. Les essais de médicaments doivent dorénavant comprendre des échelles de la qualité de vie, en plus des échelles propres aux symptômes ou aux maladies, afin de consigner les éventuels effets secondaires indésirables, comme les nausées, l’insomnie, etc.

Comme les indicateurs objectifs et subjectifs ont tous deux des avantages, ils sont parfois combinés. Par exemple, pour décider s’il subira ou non une chimiothérapie ou une chirurgie, un patient atteint d’un cancer souhaitera comparer la hausse prévue de son espérance de vie à un jugement sur la qualité de sa vie ainsi prolongée (en tenant compte des effets secondaires du traitement, de la douleur et de l’incapacité résiduelle). Socialement, cela aide à déterminer si prolonger l’espérance de vie (p. ex. par des traitements salvateurs) peut aussi augmenter le nombre de personnes infirmes dans la société. Cette question a mené à des indicateurs combinés de la mortalité et de la qualité de vie, comme la SURVIE AJUSTÉE POUR LA QUALITÉ DE VIE (SAQV).

La survie ajustée : SAQV, AVCI et AVPAS

La survie ajustée pour la qualité de vie (SAQV) approfondit l’idée de l’espérance de vie en y ajoutant un indicateur de la qualité de vie des survivants. Plutôt que de considérer chaque année de survie comme étant équivalente, cette statistique ajuste à la baisse la valeur des années vécues en mauvaise santé. Chacune de ces années est considérée comme ayant moins de valeur qu’une pleine année de vie saine. Dans le cadre de l’évaluation d’un traitement, la SAQV compte le nombre moyen d’années supplémentaires de vie gagnées grâce à l’intervention, puis le multiplie par une appréciation de la qualité de vie pendant chacune de ces années. Par exemple, une personne peut suivre un régime thérapeutique contre l’hypertension pendant 30 ans. Cela prolonge sa vie de dix ans mais réduit légèrement sa qualité de vie pendant ces 10 ans en raison d’une restriction de sa diète. Une pondération subjective est appliquée pour indiquer la qualité (ou l’utilité) d’une année de vie dont la qualité est ainsi réduite (disons une valeur de 0,9 comparativement à 1,0 pour une année saine). En outre, la nécessité d’un traitement médicamenteux continu pendant 30 ans réduit légèrement la qualité de vie, disons de 0,03. Ainsi, le gain de SAQV découlant du traitement serait : 10 ans x 0,9 – 30 ans x 0,03 = 8,1 ans de survie ajustée.

Les pondérations de la SAQV

On appelle « scores d’utilité » les pondérations numériques que l’on attribue à la gravité des incapacités. Ils vont de 0 (décès) à 1,0 (meilleur état de santé possible). Ces scores s’obtiennent par des études dans le cadre desquelles des patients, des professionnels ou des membres du public utilisent des méthodes d’évaluation pour exprimer leurs préférences pour différents résultats, tenant compte de la gravité de divers niveaux de déficience. Les méthodes courantes d’évaluation sont le pari standard et le marchandage-temps.

Le pari standard consiste à demander aux sujets de choisir entre
i) vivre dans l’état à l’étude (lequel est moins qu’idéal) le reste de leur vie, ou
ii) miser sur un traitement (comme une chirurgie) ayant une probabilité p de leur faire recouvrer la pleine santé, mais ayant aussi une probabilité 1-p de mettre fin à leur vie sur-le-champ. Dans le cadre de cette appréciation, le chercheur augmente le risque de décès jusqu’à ce que l’évaluateur n’exprime pas de préférence claire pour l’option i) ou ii). Cela démontre le degré du risque de mortalité opératoire que la personne est prête à tolérer pour ne plus vivre dans l’état décrit dans la première option. En principe, plus le patient perçoit la gravité de cet état, plus il acceptera un risque élevé de mortalité opératoire 1-p (parfois jusqu’à 5 ou 10 p. 100). Ce risque sert d’indicateur de l’« utilité » perçue (c.-à-d. de la gravité) de son état.

Le marchandage-temps est une autre façon de présenter le pari standard. Comme dans le cas précédent, on demande aux évaluateurs d’imaginer qu’ils souffrent de l’affection de laquelle on doit évaluer la gravité. On leur demande de choisir entre demeurer dans cet état le reste de leur vie naturelle (par ex. 30 ans pour une personne âgée de 40 ans) ou regagner une santé parfaite pour une durée plus courte. Le nombre d’années d’espérance de vie qu’ils sont prêts à sacrifier pour recouvrer la santé indique leur jugement de la gravité de l’affection. Son utilité, pour la personne dont l’espérance de vie est de 30 ans, est exprimée par la formule suivante : Utilité = (30 – années échangées)/30.

L’une des méthodes de mise à l’échelle de l’utilité est l’indice des états de santé selon l’utilité (Health Utilities Index) du Canada. Par exemple, la cécité totale correspond à un score d’utilité de 0,61; la présence d’une déficience cognitive, comme la maladie d’Alzheimer, correspond à un score de 0,42.8 Notons que ces pondérations d’utilité sont subjectives et peuvent varier d’une population à l’autre.

Certaines méthodes de mesure permettent aux patients d’attribuer eux-mêmes les pondérations d’utilité. Elles peuvent s’avérer utiles pour les cliniciens qui souhaitent aider un patient à décider s’il subira ou non un traitement associé à un risque d’effets secondaires. Le QTwiST (temps écoulé sans symptômes ni toxicité, ajusté pour la qualité de vie) est un exemple de ce type d’instrument.1, pp559-63

Les ANNÉES DE VIE CORRIGÉES DE L’INCAPACITÉ (AVCI) et les années de vie perdues ajustées sur la santé (AVPAS) ressemblent beaucoup à la SAQV. Les AVCI mettent l’accent sur l’impact négatif des incapacités dans le calcul de la pondération des années de vie, tandis que les AVPAS mettent l’accent sur l’impact positif d’une bonne santé. L’approche de la SAQV, des AVCI et des AVPAS peut aussi servir à ajuster les estimations de l’espérance de vie, en tenant compte de la qualité de vie, de l’incapacité et de la santé, respectivement. Dans ce dernier cas, la mesure s’appelle l’espérance de vie corrigée en fonction de la santé (EVCS).

La précision des mesures de la santé

Les indicateurs et mesures de la santé, ainsi que les tests cliniques, comprennent tous une part d’erreur. Il existe trois sources principales d’erreur de mesure : la chose mesurée (« mon poids oscille, il est difficile d’en obtenir un aperçu exact »); la personne qui mesure (« si vous me demandez mon poids un lundi, il se peut que j’enlève un kilo si je me suis gavé de la cuisine de ma belle-mère au cours de la fin de semaine ― le kilo supplémentaire ne reflète certainement pas mon véritable poids! »); et l’instrument de mesure (« le pèse-personne de la clinique est imprécis, il faudrait vraiment le faire réparer »).

Comme pour l’échantillonnage, des erreurs aléatoires et systématiques peuvent survenir (voir le chapitre 5, erreurs d’échantillonnage). Les erreurs aléatoires sont comme les interférences dans un système : leur effet n’est pas stable. Si l’on fait de nombreuses observations, la somme des erreurs aléatoires devrait se rapprocher de zéro, étant donné que certaines lectures les surestiment et d’autres les sous-estiment. Ces erreurs surviennent pour plusieurs raisons : le bourdonnement d’une moustique peut avoir distrait le Dr Rao alors qu’il mesurait la tension artérielle de Julie; il est difficile pour un patient de se rappeler son niveau de douleur du mardi précédent; et ainsi de suite. Les erreurs aléatoires sont détectées par les tests de fiabilité d’une mesure.

Les erreurs systématiques vont toutes dans le même sens, et il est probable qu’elles sont liées à une cause précise. Les sous-estimations ou les surestimations systématiques (« j’ai tendance à exagérer mes prouesses d’athlète ») faussent une mesure et nuisent à sa validité. Ces distinctions sont illustrées à la figure 6.7 par la métaphore d’une cible de tir que nous avons introduit dans le chapitre 5 : une grande dispersion des balles indique un manque de fiabilité, alors que des tirs excentrés indiquent un biais ou une faible validité. 

Figure 6.7 : La métaphore de la cible : pour illustrer les erreurs potentielles de fiabilité et de validité d'une mesure comparativement à la valeur réelle que l’on désire estimer
Figure 6.7 : La métaphore de la cible pour illustrer les erreurs potentielles de fiabilité et de validité d’une mesure comparativement à la valeur réelle que l’on désire estimer

La fiabilité

La fiabilité se rapporte à la cohérence. Votre patient, Jim, a un comportement imprévisible : il arrive parfois à l’heure, parfois en retard à son rendez-vous. Il est même arrivé tôt à quelques reprises. Jim n’est pas très fiable. Jack, lui, arrive toujours exactement dix minutes à l’avance. Même s’il ne se présente pas à l’heure exacte, Jack est fiable. Une mesure fiable peut être très reproductible, mais peut tout de même être erronée. Le cas échéant, elle est fiable, mais non valide (partie inférieure gauche de la figure 6.7).

La validité

La définition de base de la validité est la suivante : Le test mesure-t-il ce que nous voulons mesurer? En voici une définition un peu plus académique : Les résultats d’une mesure s’approchent-ils de l’état réel du phénomène à l’étude? Et une autre encore plus abstraite : Que signifie tel ou tel résultat à ce test? Cette dernière interprétation de la validité s’inscrit dans une conception plus générale qui cherche à répondre à la question suivante : Comment pouvons-nous interpréter les résultats de ce test? Et c’est  exactement ce que le clinicien veut savoir.

Il n’existe pas qu’une seule approche pour estimer la validité : l’approche varie en fonction de l’objectif de la mesure et des sources d’erreur de mesure que l’on souhaite détecter. En médecine, la manière la plus courante d’évaluer la validité est de comparer la mesure à celle d’un examen clinique ou pathologique approfondi du patient. On appelle cela la VALIDITÉ DE CRITÈRE, étant donné que l’on compare la mesure à une analyse complète dont l’excellence est reconnue, dit « étalon d’or ». On a recours à cette approche pour tester la validité d’une mesure simple et rapide quand on veut savoir si cette méthode simple prédit les mêmes résultats qu’un examen complet et détaillé (et coûteux, parfois même effractif). Par exemple, dans une étude de validation d’une recherche de sang occulte dans les selles pour dépister un cancer du côlon, on pourrait comparer les résultats à ceux d’une coloscopie chez un échantillon de personnes dont certaines sont atteintes de la maladie et d’autres non.

L’interprétation de tests sur des personnes

Le tableau 6.1, un tableau standard 2 x 2, sert à calculer la validité de critère d’un test. On a procédé au dépistage d’une certaine maladie dans une population de N personnes à l’aide d’un nouveau test (voir les résultats en rangées), et chaque personne a également subi un examen diagnostique dont l’excellence est reconnue (voir les résultats en colonnes). (On suppose que les résultats de l’examen reconnu sont exacts; bien entendu, en réalité, l’excellence n’est pas si catégorique.) Plusieurs statistiques peuvent être calculées pour démontrer la validité du test de dépistage.

Tableau 6.1 : Relations entre les résultats d’un test et la présence de la maladie

Résultat du test Maladie Totaux
Présence Absence
Positif  a
Vrais positifs
(VP)
 b
Faux positifs
(FP)
a+b
Négatif  c
Faux négatifs
(FN)
d
Vrais négatifs
(VN)
c+d
Totaux a+c b+d N

La sensibilité

La SENSIBILITÉ indique sommairement si un test détecte bien la maladie. Il s’agit de la probabilité que le test détecte la maladie chez une personne qui en est atteinte (l’expression est logique : le test est sensible à la maladie, donc il peut la détecter). À l’aide de la notation dans le tableau précédent, la sensibilité se calcule comme ceci :

a/(a+c), ou VP/(VP + FN).

L’inverse de la sensibilité est la proportion de faux négatifs (c/a+c), qui exprime la proportion de cas de la maladie manqués par le test. Un test à faible sensibilité produira une grande quantité de résultats faux négatifs.

Voici un petit truc mnémotechnique : la sensibilité est inversement associée à la proportion de faux négatifs d’un test (sensibilité élevée → peu de faux négatifs). Et, question sur laquelle on reviendra plus tard, plus la sensibilité est faible, plus la valeur prédictive négative est faible.

La spécificité

La spécificité mesure la capacité d’un test à reconnaître correctement les personnes qui ne sont pas atteintes de la maladie :

d/(b+d), ou VN/(VN + FP).

La spécificité est l’inverse de la proportion de faux positifs (b/b+d), laquelle est la proportion des personnes bien portantes faussement déclarées malades. Un test spécifique produit peu de résultats faux positifs, ne détectant que cette maladie spécifiquement.

La spécificité est importante cliniquement, car un résultat faux positif peut causer des inquiétudes et entraîner un examen approfondi inutilement coûteux, voire même un traitement inutile.

Petit truc mnémotechnique : la spécificité est inversement associée à la proportion de faux positifs. Une fois de plus, l’expression est intuitive : un test de dépistage spécifique est un test qui ne détecte que la maladie qu’il est spécifiquement conçu pour détecter; les personnes atteintes d’autres maladies n’auront donc pas de résultats faussement positifs. Si la spécificité est faible, la valeur prédictive positive est faible.

La balance entre la sensibilité et la spécificité

La plupart des tests diagnostiques et de dépistage offrent des scores numériques continus. Un point crucial dont il faut se rappeler est qu’en présence d’une validité imparfaite il y aura un chevauchement entre les scores de tests chez les personnes qui souffrent et celles qui ne souffrent pas de l’affection, comme illustré à la figure 6.8. Il est extrêmement rare qu’un test soit à la fois très sensible et très spécifique. Les erreurs sont dus à la variabilité biologique naturelle et aux erreurs aléatoires liées au test. Afin d’interpréter les scores de test, on doit identifier un point de coupure pour faire la distinction entre les résultats positifs et négatifs. Si le point de coupure dans le diagramme est déplacé vers la droite, la spécificité augmente (moins de faux positifs), mais la sensibilité diminue, possiblement de manière considérable : un nombre croissant de cas (en rouge) deviennent des faux-négatifs. L’inverse est également vrai. Les implications de ce dilemme sont expliquées dans les paragraphes qui suivent. A noter que le laboratoire communiquera le score du patient, ainsi qu’une plage de « valeurs normales ». Le clinicien peut choisir un score seuil pour ce patient, soit pour augmenter la sensibilité ou la spécificité selon son objectif : on discutera ce choix dans la section « Confirmer ou exclure un diagnostic », ci-dessous.

Figure 6.8 : Relations entre sensibilité, spécificité et points de coupure pour un test diagnostique ou un test de dépistage

Les valeurs prédictives positives et négatives

La sensibilité et la spécificité sont des caractéristiques inhérentes d’un test et sont utiles pour décrire son rendement prévu. Mais lorsque vous appliquez le test à votre patient, vous ne saurez pas si son score positif représente un vrai ou peut-être un faux positif (et de même pour un score négatif). En effet, nous savons à quelle ligne du tableau 6.1 le patient appartient, mais pas à quelle colonne. La signification du résultat d’un test négatif ou positif pour la personne est ce qui nous intéresse : quelle est la VRAISEMBLANCE qu’un score positif indique la présence de la maladie? Pour découvrir cette signification, nous utilisons les valeurs prédictives.

La VALEUR PRÉDICTIVE POSITIVE (VPP) est la proportion de personnes dont le résultat du test est positif qui sont véritablement atteintes de la maladie :

a/(a+b), ou VP/(VP + FP).

Si la spécificité d’un test est faible (c.-à-d., s’il produit beaucoup de faux positifs et que la case b est grande), sa VPP sera faible. (Faible spécificité → faible valeur prédictive positive).

De même, la VALEUR PRÉDICTIVE NÉGATIVE (VPN) est la proportion de personnes dont le résultat est négatif qui ne sont vraiment pas atteintes de la maladie :

d/(c+d), or VN/(VN + FN).

Si la sensibilité du test est faible, les résultats FN seront élevés et la VPN sera réduite (faible sensibilité → faible VPN)Cela a du sens, car une faible sensibilité signifie que le test manquera de nombreux cas, de sorte que leurs scores négatifs peuvent être trompeurs.

Les valeurs prédictives varient avec la prévalence

Maintenant les choses se compliquent encore plus, car les valeurs prédictives varient en fonction de la prévalence de la maladie dans la population où l’on utilise le test. Les cliniciens doivent en tenir compte lorsqu’ils interprètent un résultat : il faut traiter la personne et non le résultat du test! Les raisons sont illustrées à la figure 6.9, où le rendement du même test est comparé dans un milieu où la prévalence de la maladie est élevée et dans un autre où elle est faible.

Figure 6.9 : Impact de la prévalence sur les valeurs prédictives d'un test diagnostique dans un milieu à prévalence élevée (hôpital de recours spécialisé) et dans un milieu à prévalence faible (soins primaires)
Figure 6.9 : Impact de la prévalence sur les valeurs prédictives d’un test diagnostique dans un milieu à prévalence élevée (hôpital de recours spécialisé) et dans un milieu à prévalence faible (soins primaires)

Notons que la sensibilité et la spécificité du test demeurent les mêmes dans les deux milieux, mais que la valeur prédictive d’un résultat positif est très différente. C’est simplement que dans un milieu de soins primaires, il existe beaucoup moins de cas à dépister et beaucoup plus de non-cas. Mais les tests sont souvent validés en milieu hospitalier, où la prévalence de la maladie à l’étude est élevée, comme dans la partie gauche de la figure 6.9. Cependant, le test peut ensuite être utilisé en milieu de soins primaires, où la prévalence de la maladie est plus faible, comme dans la partie droite. Ainsi, si la spécificité du test n’est pas extrêmement élevée, le nombre de faux positifs peut dépasser les vrais. De même, une faible prévalence indique qu’un résultat de test négatif est précis : vous pouvez rassurer une personne en clinique primaire dont le résultat est négatif, car sa probabilité d’être atteint de la maladie est très faible (vous lui rappellerez, cependant, de revenir se faire évaluer si ses symptômes persistent : il pourrait être l’un des très rares patients dont le résultat est faussement négatif).

En résumé, l’interprétation des résultats d’un test exige une bonne connaissance de la population où l’on utilise le test. L’application de tests de dépistage ou diagnostiques dans des milieux à faible prévalence peut être trompeuse : elle peut donner de nombreux résultats faux positifs. Par exemple, dans le cadre du dépistage du cancer du sein par mammographie dans la population générale, la valeur prédictive positive d’une mammographie positive n’est que d’environ 10 %. Cela veut dire que chez 100 femmes qui reçoivent un résultat anormal et qui doivent ensuite subir des analyses approfondies, 90 n’auront pas le cancer.9 Une stratégie pour améliorer la valeur prédictive positive d’un test est d’effectuer le dépistage auprès d’un échantillon restreint, plutôt que global (ou dépistage universel). On peut, par exemple, tester uniquement les personnes dont le risque d’être atteintes de la maladie est élevé — celles qui présentent des facteurs de risque, des antécédents familiaux ou des symptômes suggérant la présence de la maladie, parmi lesquelles la prévalence de la maladie sera plus importante.

Allons plus loin : plus vous administrez de tests à une personne, par exemple lors de son examen annuel, plus il est probable que vous obteniez un résultat faussement positif (et donc trompeur) à l’un ou plusieurs des tests. Il faut donc choisir attentivement les tests et les appliquer en suivant une séquence particulière pour confirmer ou exclure un certain diagnostic. Chaque test doit être choisi en fonction de la conclusion que vous avez tirée des résultats du test précédent. N’oubliez pas que les tests inutiles sont non seulement coûteux pour le système de soins de santé, mais douteux sur le plan moral s’ils exposent une personne à des risques (comme le rayonnement d’une radiographie) ou à un traitement inutile après un résultat faussement positif.

La sensibilité imparfaite de certains tests peut découler d’erreurs aléatoires; elle peut aussi découler d’une erreur systématique, comme un point de coupure trop élevé pour un certain type de patient. Par exemple, les niveaux souhaitables de cholestérol et de poids corporel diffèrent pour les personnes atteintes de diabète par rapport aux non-diabétiques. Si l’erreur est aléatoire et que le test est répété, les personnes malades et en santé pourraient être reclassifiées.10 Le cas échéant, il pourrait s’avérer nécessaire de répéter les tests dont les résultats sont légèrement élevés afin de confirmer la stabilité de la valeur (voir « La régression à la moyenne » ci-dessous). La décision de diagnostiquer une personne doit être prise en regardant la situation dans son ensemble, et non seulement le résultat d’un  test. Il existe une tension inhérente entre vouloir intervenir tôt (lorsque le traitement peut prévenir une détérioration future) et poser un faux diagnostic. Cet équilibre fait partie de l’art de la médecine.

La régression à la moyenne

La variation aléatoire d’une mesure augmente ou diminue la valeur d’une mesure unique chez une personne par rapport à la moyenne de toutes les valeurs que vous pourriez enregistrer pour cette personne. Ainsi, si vous choisissez de répéter un test qui a donné un résultat extrême (élevée ou faible), il est probable par simple hasard que la nouvelle valeur se rapprochera de la moyenne pour cette personne. La pertinence clinique de ce phénomène est qu’un résultat extrême à un test diagnostique instable ne doit pas être pris trop au sérieux : le résultat ne se reproduira probablement pas si l’on répète le test.

Confirmer ou exclure un diagnostic

Les cliniciens se fondent souvent sur les résultats de tests pour confirmer ou exclure un diagnostic possible, mais la logique qui sous-tend ce procédé est souvent mal comprise. Pour confirmer un diagnostic, la spécificité du test utilisé doit être élevée; pour exclure un diagnostic, c’est la sensibilité du test qui doit être élevée. Comme cela peut sembler contre-intuitif, penchons-nous plus longuement sur la question, en abordant d’abord l’exclusion d’un diagnostic. Un test parfaitement sensible reconnaîtra tous les cas d’une maladie. Ainsi, si vous obtenez un résultat négatif à partir d’un test sensible, vous pouvez être suffisamment certain que la personne n’est pas atteinte de cette maladie (test sensible = peu de faux négatifs). Inversement, pour confirmer un diagnostic, vous devez obtenir un résultat positif à partir d’un test spécifique (test spécifique = peu de faux positifs) étant donné que ce dernier sert à identifier uniquement ce type de maladie. Il faut noter, malheureusement, que si une personne obtient un résultat négatif à un test spécifique, il pourrait quand même être atteint de la maladie (c.-à-d. le test est spécifique et ainsi pas très sensible et la personne a eu un résultat faux négatif).

Pour revenir à la question de la séquence d’administration de multiples tests, si l’objectif est d’exclure de diagnostics rivaux, vous pouvez administrer les tests en parallèle, en administrant plusieurs tests très sensibles à la fois, afin d’augmenter la sensibilité de détection des diagnostics rivaux. Si l’objectif est de confirmer un diagnostic, vous pouvez administrer les tests en série et vous arrêter lorsqu’un résultat positif est obtenu. Par exemple, le VIH peut d’abord être dépisté à l’aide d’un test sérologique sensible (mais pas très spécifique). On peut ainsi dépister les vrais positifs, mais il y aura également plusieurs résultats faux positifs. Les personnes ayant obtenu un résultat positif doivent donc se prêter à un test spécifique (p. ex. transfert Western) qui identifiera les résultats vrais positifs. Le recours aux tests pour améliorer la probabilité d’un diagnostic nous amène à présenter la notion des rapports des vraisemblances.

La logique de confirmation

Il se peut qu’à l’occasion une personne soutienne que vous avez besoin d’un test sensible pour confirmer un diagnostic, mais c’est faux. La raison? Un test sensible reconnaîtra effectivement la plupart des cas réels de la maladie, mais un test très sensible aura souvent une faible spécificité. Cela veut dire qu’un nombre de faux positifs pourraient faire partie de vos résultats. Le test sensible ne peut donc pas confirmer la présence de la maladie.

Les rapports de vraisemblance

Un RAPPORT DES VRAISEMBLANCES combine la sensibilité et la spécificité en un seul nombre, qui indique dans quelle mesure le résultat du test réduit l’incertitude d’un certain diagnostic. Il y a deux composantes :

Une vraisemblance positive (V+) indique la probabilité d’un score positif chez une personne atteinte de la maladie, soit a/(a + c) dans le tableau 6.1, ou  la sensibilité du test.

Une vraisemblance négative (V-) indique la probabilité qu’un score positif se produise chez une personne qui n’a pas la maladie, soit b/(b + d), ou 1-spécificité.

Alors, le rapport des vraisemblances positif (RV+) indique la probabilité qu’un résultat positif à un test survienne chez une personne atteinte de l’affection à l’étude, divisée par la probabilité que le même résultat survienne chez une personne qui n’en est pas atteinte. (RV+) se calcule comme

V+ / V- = sensibilité / (1 – spécificité) = vrais positifs / faux positifs.

Un rapport de vraisemblance négatif (RV-) indique dans quelle mesure il est plus probable qu’une personne qui n’est pas atteinte de la maladie obtienne un résultat négatif, comparativement à une personne atteinte.

RV– = (1 – sensibilité) / spécificité, ou faux négatifs / vrais négatifs,

ou le rapport entre les faux négatifs et les vrais négatifs : selon le tableau 6.1,

c/(a + c) / d/(b + d).

Autrement dit, le RV+ exprime le degré auquel un test positif augmente la probabilité qu’une personne soit atteint de la maladie; le RV- exprime le degré auquel un test négatif diminue la probabilité elle soit atteint de la maladie.

Heureusement, dans la situation clinique, recours à un nomogramme (figure 6.10) élimine le besoin de faire des calculs. Il faut partir d’une estimation initiale de la probabilité que le patient souffre de la maladie, soit la « probabilité prétest »; cette estimation sera ensuite ajustée selon les résultats du test. Il peut être difficile d’estimer la probabilité prétest (voir Pour les mordus : La probabilité prétest), mais vous pouvez vous commencer par la prévalence de l’affection dans votre milieu de pratique. Elle peut ensuite être modifiée à la hausse ou à la baisse selon votre impression clinique initiale et les antécédents que vous avez notés pour ce patient. L’échelle de gauche du nomogramme représente la probabilité prétest de la maladie, la colonne du centre représente les rapports des vraisemblances pour ce test, et l’échelle de droite représente la probabilité post-test. Pour utiliser le nomogramme, vous devez connaître (ou savoir calculer) le rapport des vraisemblances du test. Si le résultat du test est positif, prenez le nomogramme et tirez une ligne droite entre la probabilité prétest et le rapport des vraisemblances (RV+), et traversez l’échelle de droite; cette intersection indique la probabilité post-test que le patient soit atteint de la maladie. Évidemment, si, selon vos observations initiales, vous êtes presque certain que le patient est atteint, un résultat positif au test ne vous apprendra pas grand-chose – mais un résultat négatif, oui.

Dans l’exemple de la figure 6.9, la sensibilité et la spécificité du test sont toutes les deux de 0,91; le RV+ est donc de 0,91/(1 – 0,91) = 10,1. En général, les tests dont le RV+ est supérieur à 5 sont utiles pour confirmer la présence d’une maladie. Tirez un trait à partir de la probabilité prétest (à gauche sur le diagramme) en passant par 10,1 dans la colonne centrale, puis notez la probabilité post-test dans la colonne de droite. En milieu hospitalier, la prévalence était de 33 %, alors qu’elle était de 3 % en milieu de soins primaires; ces valeurs nous donnent une approximation des deux probabilités prétest. Par conséquent, en milieu hospitalier, un test positif indiquerait que la probabilité post-test qu’un patient soit atteint de la maladie est supérieure à 80 % (ligne bleue-verte), tandis qu’en milieu de soins primaires, elle serait d’environ 20 % (ligne rouge). Dans les deux cas, le résultat du test a augmenté de beaucoup la probabilité clinique que le patient soit atteint de la maladie. Si vous travaillez en milieu hospitalier, vous êtes maintenant être à peu près certain du diagnostic. En milieu de soins primaires, tant que la situation n’est pas urgente, il serait préférable d’être plus certain avant d’entamer un traitement potentiellement nuisible.

Figure 6.10 : Nomogramme pour interpréter les résultats de tests diagnostiques (Sackett et al.11) Les traits illustrent les résultats du RV+ décrits ci-dessus.
Figure 6.10 : Nomogramme pour interpréter les résultats de tests diagnostiques (Sackett et al.11) Les traits illustrent les résultats du RV+ décrits ci-dessus.

La probabilité prétest

L’estimation de la probabilité prétest nécessite un retour sur la distinction entre les déterminants de la santé et les facteurs de risque, présentée dans le deuxième chapitre. Les déterminants sont responsables du taux d’incidence dans une population, et l’incidence fournit une première approximation de la probabilité prétest d’une maladie pour une personne dans cette population. Toutefois, on ne peut appliquer des données en population directement à une personne (qui est unique et ne se situe probablement pas exactement dans la moyenne de la population). On peut donc modifier l’estimation brute de la probabilité prétest à la hausse ou à la baisse à l’aide des facteurs de risque individuels. Par exemple, l’incidence chez les hommes de 35 ans pourrait être de x p. 100 habitants, mais si un patient de cet âge présente un surpoids et fume, vous pourriez estimer que son risque relatif est de 2x par 100 habitants. En outre, le profil des signes et symptômes peut augmenter le risque encore davantage, jusqu’à 4x par 100 habitants, par exemple.

Néanmoins, l’évaluation du risque est souvent décrite de manière imprécise comme étant un doute clinique élevé ou faible, et un test diagnostique est réalisé pour confirmer ou exclure le diagnostic putatif. À ce moment, on peut avoir recours à un test pour « confirmer » le doute clinique. Un test de confirmation positif n’indique souvent qu’un niveau plus élevé de probabilité, mais un niveau auquel on doit cesser de douter jusqu’à preuve du contraire. De même, lorsqu’un test exclut la possibilité de la maladie, le clinicien peut dire au patient que son risque est très faible, mais qu’il doit tout de même lui signaler des symptômes inquiétants. Autrement dit, les cliniciens doivent toujours examiner et rester prêts à revoir leurs diagnostics.

Quand le test est négatif, le rapport des vraisemblances (RV-) est inférieur à 1 : les valeurs inférieures à 0,2 environ sont utiles pour exclure la possibilité d’une maladie. Dans notre exemple, le RV- est de 0,099. Pour un patient qui obtient un résultat négatif à un test en milieu hospitalier, la probabilité post-test d’être atteint de la maladie est d’environ 4 % (bien moins que la probabilité de 33 % avant l’administration du test). Pour un patient recevant des soins primaires qui obtient un résultat négatif, la probabilité post-test d’être atteint de la maladie est d’environ 0,2 % (1 p. 500). Il est donc presque certain de ne pas en être atteint.

Établir des points de coupure : qu’est-ce qu’une valeur normale?

La médecine exige la prise de décisions binaires : prescrire ou non un traitement, opérer ou non, et dire au patient s’il est ou non atteint d’une maladie. Cependant, la plupart des mesures biologiques ne donnent pas seulement deux résultats possibles, mais une plage continue de valeurs, comme c’est le cas pour la tension artérielle, le cholestérol sanguin, le glucose, la créatinine et la densité osseuse. Ainsi, on doit déterminer un POINT DE COUPURE sur chacune de ces échelles pour séparer les résultats « normaux » des résultats « anormaux ». Même pour les tests qualitatifs comme les radiographies ou les coupes histologiques, on doit choisir parmi une gamme de résultats qui incluent de zones grises entre ceux qui sont résolument anormaux et ceux qui sont tout à fait normaux.

Définir la normalité est une entreprise complexe. D’un point de vue superficiel, elle est définie par rapport au résultat moyen, ou le plus courant, pour une personne de ce type. Malheureusement, normalité n’est pas synonyme de santé : en moyenne, les Canadiens font de l’embonpoint. De plus, l’anormalité survient aux deux extrémités du continuum — l’insuffisance comme le surplus de poids est nuisible pour la santé. On pourrait autrement définir la normalité en fonction de plages, peut-être des centiles ou des écarts-types, sur le continuum de mesure (p. ex. le poids). La notion de normalité semble ainsi se rapprocher de la santé, mais il n’est pas facile d’en définir les marges. On ne peut définir la plage normale en fonction de moins de deux écarts-types, au-dessus ou en-dessous de la moyenne, étant donné qu’elle ne serait pas la même d’une mesure à l’autre.

Une approche plus prometteuse nous ramène à la médecine factuelle et définit la normalité en fonction d’une plage de valeurs au-dessus ou en-dessous desquelles le traitement s’avère bénéfique. Cette approche nous rappelle la définition du « besoin de soins » (voir chapitre 7) : l’anormalité est le seuil au-delà duquel une personne profiterait du traitement. Une conséquence de cette approche est qu’une évolution des traitements modifie la plage de normalité perçue. La détérioration précoce des fonctions cognitives en est un bon exemple, car de nouveaux traitements permettent d’intervenir plus tôt qu’auparavant. On reconnaît donc de nouvelles strates de déficience cognitive chez des personnes autrefois considérées comme « normales » ou simplement « un peu séniles ». De même, les points de coupure définissant l’hypertension ont changé. En 2003, on a redéfini la pré-hypertension comme étant une tension artérielle systolique de 120 à 139 mm Hg, ou une tension diastolique de 80 à 89 mm Hg.12 En modifiant les points de coupure, un plus grand nombre de personnes sont jugées atteintes de la maladie et deviennent admissibles à un traitement. On modifie habituellement les points de coupure lorsqu’un essai clinique auprès de ce nouveau groupe de patients indique une amélioration de leurs résultats, bien que cette amélioration puisse être minime. Il n’est pas surprenant que la modification des points de coupure fasse le bonheur des compagnies pharmaceutiques qui fabriquent et vendent les traitements.

Question d’auto-évaluation

1. Quelles sont les principales causes de décès au Canada? Dans quel ordre seraient-elles si vous vous fondiez sur les années potentielles de vie perdues?

Les principales causes de décès sont les cardiopathies ischémiques, suivies des cancers de la trachée, des bronches et du poumon, puis des maladies cérébrovasculaires en troisième position. En se basant sur les APVP, chez les hommes, les blessures sont au premier rang, suivies de tous les cancers, puis des maladies cardiovasculaires. Chez les femmes, le cancer est au premier rang, suivi des blessures et des maladies cardiovasculaires, qui se disputent la deuxième position.

Bibliographie

  1. McDowell I. Measuring health: a guide to rating scales and questionnaires. New York (NY): Oxford University Press; 2006.
  2. Morgenstern H. Ecologic studies in epidemiology: concepts, principles, and methods. Annu Rev Public Health. 1995;16:61-81.
  3. Rothman KJ, Greenland S, Lash TL. Modern epidemiology. New York: Lippincott, Williams and Wilkins; 2008.
  4. Goldman DA, Brender JD. Are standardized mortality ratios valid for public health data analysis? Statistics in Medicine. 2000;19:1081-8.
  5. Court B, Cheng K. Pros and cons of standardized mortality ratios. Lancet. 1995;346:1432.
  6. Notzon FC, Komarov YM, Ermakov SP, Sempos DT, Marks JS, Sempos EV. Causes of declining life expectancy in Russia. JAMA. 1997;279(10):793-800.
  7. Organisation mondiale de la santé. The Composite International Diagnostic Interview, version 1.1: researcher’s manual. Genève, Suisse : OMS; 1994.
  8. Université McMaster. Health utilities group health utilities index and quality of life 2000 [2010]. Disponible ici : http://www.fhs.mcmaster.ca/hug/index.htm.
  9. Wright CJ, Mueller CB. Screening mammography and public health policy: the need for perspective. Lancet. 1995;346(8966):29-32.
  10. Vickers AJ, Basch E, Kattan MW. Against diagnosis. Ann Intern Med. 2008;149(3):200-3.
  11. Sackett DL, Haynes RB, Tugwell P. Clinical epidemiology: a basic science for clinical medicine. Philadelphia (PA): Lippincott, Williams & Wilkins; 1991.
  12. Chobanian AV, Bakris GL, Black HR, et al. The seventh report of the joint national committee on prevention, detection, evaluation, and treatment of high blood pressure: the JNC 7 report. JAMA. 2003;289:2560-72.

English (Anglais)