L’assenza di prove non è prova di assenza
Abstract
PIP: Gli studi clinici controllati randomizzati sono condotti per determinare se esistono differenze di importanza clinica tra regimi di trattamento selezionati. Quando l’analisi statistica dei dati dello studio trova un valore P superiore al 5%, è convenzione ritenere la differenza valutata non significativa. Solo perché la convenzione impone che tali risultati dello studio siano definiti non significativi, o negativi, tuttavia, non ne consegue necessariamente che lo studio non abbia trovato nulla di clinicamente importante. I campioni di soggetti utilizzati negli studi controllati tendono ad essere troppo piccoli. Gli studi mancano quindi della potenza necessaria per rilevare differenze reali, e clinicamente valide, nel trattamento. Freiman et al. hanno trovato che solo il 30% di un campione di 71 studi pubblicati nel New England Journal of Medicine nel 1978-79 con un valore P maggiore del 10% erano abbastanza grandi da avere una probabilità del 90% di rilevare anche una differenza del 50% nell’efficacia dei trattamenti confrontati, e non hanno trovato alcun miglioramento in un campione simile di studi pubblicati nel 1988. È quindi sbagliato e poco saggio interpretare così tanti studi negativi come prova dell’inefficacia dei nuovi trattamenti. Bisogna invece chiedersi seriamente se l’assenza di prove sia una valida giustificazione per l’inazione. Bisogna sforzarsi di cercare la quantificazione di un’associazione piuttosto che un semplice valore P, specialmente quando i rischi in esame sono piccoli. Gli autori citano come esempi un recente studio che confronta octreotide e scleroterapia in pazienti con emorragia variceale, così come la panoramica degli studi clinici che valutano il trattamento fibrinolitico per prevenire il reinfarto dopo infarto miocardico acuto.