L’absence de preuves n’est pas la preuve de l’absence
Résumé
PIP : Des essais cliniques contrôlés randomisés sont menés pour déterminer si des différences d’importance clinique existent entre des régimes de traitement sélectionnés. Lorsque l’analyse statistique des données de l’étude trouve une valeur P supérieure à 5%, il est de convention de considérer la différence évaluée comme non significative. Cependant, ce n’est pas parce que la convention veut que les résultats d’une étude soient qualifiés de non significatifs, ou négatifs, que l’étude n’a rien trouvé d’important sur le plan clinique. Les échantillons de sujets utilisés dans les essais contrôlés ont tendance à être trop petits. Les études n’ont donc pas la puissance nécessaire pour détecter des différences réelles, et cliniquement valables, dans le traitement. Freiman et al. ont constaté que seulement 30 % d’un échantillon de 71 essais publiés dans le New England Journal of Medicine en 1978-79 avec une valeur P supérieure à 10 % étaient suffisamment importants pour avoir 90 % de chances de détecter ne serait-ce qu’une différence de 50 % dans l’efficacité des traitements comparés, et ils n’ont constaté aucune amélioration dans un échantillon similaire d’essais publiés en 1988. Il est donc erroné et peu judicieux d’interpréter un si grand nombre d’essais négatifs comme une preuve de l’inefficacité des nouveaux traitements. Il faut au contraire se demander sérieusement si l’absence de preuves est une justification valable de l’inaction. Il faut s’efforcer de rechercher la quantification d’une association plutôt qu’une simple valeur P, surtout lorsque les risques étudiés sont faibles. Les auteurs citent en exemple un essai récent comparant l’octréotide et la sclérothérapie chez les patients souffrant de saignements variqueux, ainsi que l’aperçu des essais cliniques évaluant le traitement fibrinolytique pour prévenir le réinfarctus après un infarctus aigu du myocarde.