close

Enter

Log in using OpenID

Appunti statistica ricerca 2014

embedDownload
Le caratteristiche dei fenomeni sanitari: variabilità e multidimensionalità
Chiunque sia interessato allo studio delle problematiche legate alla salute dell’uomo
si rende conto della complessità del problema e della necessità di possedere
strumenti adeguati di conoscenza.
Quando l’oggetto di studio è l’uomo i principali problemi metodologici sono:
1. variabilità: i fenomeni biologici sono caratterizzati da un'estrema variabilità sia
entro lo stesso soggetto che tra soggetti. Se replico più volte la misura della
pressione arteriosa sistolica su uno stesso soggetto potrò trovare valori diversi e le
motivazioni di tale variabilità sono molteplici: variabilità nelle misurazioni, ritmi
circadiani, stato emozionale del soggetto, diversa posizione (coricato o seduto)
farmaci assunti, e così via (variabilità entro soggetto). Le rilevazioni della
pressione arteriosa sistolica in soggetti diversi possono avere valori variabili per
diverse motivazioni: età, sesso, razza, stato di salute per citare solo alcuni aspetti
(variabilità tra soggetti).
2. la multidimensionalità, per cui è necessario indagare su diversi aspetti del
soggetto, anche se l’interesse è una specifica malattia (es. le possibilità di cura,
riabilitazione o prevenzione della cardiopatia ischemica dipendono non solo della
gravità della malattia, ma dalla presenza o meno di altre patologie (comorbidità)
dell’età del soggetto, dal sesso, dalle attività professionali, dalle condizioni socioeconomiche, dal suo livello di educazione, dalla sua personalità, etc.). Tutto ciò
implica che gli aspetti da indagare non possono limitarsi alla rilevazione della
presenza-assenza della patologia in studio, ma anche di una serie di altre
dimensioni ad essa associate che potrebbero condizionare la corretta conoscenza
del fenomeno.
3. Il soggetto oggetto di studio è condizionato dal contesto in cui vive, per cui le
manifestazioni della malattia possono dipendere dall’ambiente fisico, sociale e
familiare in cui si trova e dalle conseguenti interazioni uomo-ambiente. Tutto
ciò complica il processo di conoscenza dei fenomeni biologici e sanitari in
particolare e rende indispensabile un metodo di approccio rigoroso.
Da quanto detto, lo scenario in cui operiamo si presenta così:
-
unità statistica complessa: l’individuo che è unico, ma deve essere analizzato
nelle sue varie dimensioni e quindi ricomposto
-
la variabilità: ogni osservazione può essere diversa da un’altra (variabilità
intra individuale, tra individui, di misura, di fluttuazioni biologiche.
Il ruolo della statistica e del metodo scientifico in sanità
La statistica medica può essere considerata il momento empirico della scienza,
fornendoci la metodologia per lo studio “del vivente”. La statistica medica è intesa
come metodologia generale per lo studio dei fenomeni collettivi e quindi della
variabilità, attraverso le seguenti modalità:
a. osservazione dei fenomeni. La statistica medica insegna come occorre osservare
la realtà, come raccogliere i dati, con quali strumenti, su chi, su quanti, etc.
b. traduzione in simboli. La statistica medica insegna come riassumere in modo
corretto i dati raccolti, cioè come esprimerli e rappresentarli in modo sintetico e
appropriato in funzione del tipo di variabile e della sua distribuzione. La media e
la deviazione standard, la moda, la mediana, la percentuale, i tassi, i rischi
relativi, gli istogrammi, etc. rappresentano alcune delle misure di sintesi di
variabili raccolte, ciascuna rispondente ad uno specifico obiettivo come vedremo
più avanti.
c. evidenza delle irregolarità. Una appropriata analisi statistica di variabili raccolte,
consente di evidenziare quei fenomeni che si scostano dalla “normalità” cioè dai
valori più frequenti in un set di dati: spesso l’approfondimento su tali irregolarità
è molto informativo e può generare nuove ipotesi.
d. verifica di ipotesi. È l’aspetto più interessante della metodologia statistica: la
possibilità di verificare se un’ipotesi posta sia o no sia confutata dalla
osservazione della realtà.
Uno dei principali contributi della statistica medica alla conoscenza dei fenomeni
biologici è quello di fornirci i metodi per analizzare la variabilità, scomponendola
nelle sue componenti di tipo:
-
sistematico ossia quella parte di variabilità che possiamo attribuire ad una
causa (età, sesso, comorbidità, etc.), detta anche variabilità spiegata o
prevedibile;
-
casuale ossia quella parte di variabilità che non riusciamo ad attribuire ad una
causa (è detta anche variabilità non spiegata, imprevedibile, e genericamente
“biologica”). Il fatto che due rilevazioni successive della pressione arteriosa
sistolica sullo stesso soggetto in tempi ravvicinati diano valori diversi, etc.
sembra logicamente inspiegabile.
In base alle sue funzioni, la statistica si può distinguere in:
a) statistica descrittiva il cui obiettivo è quello di riassumere i dati sanitari raccolti
calcolando le opportune statistiche descrittive e/o indicatori che in modo sintetico
descrivano il fenomeno studiato. La statistica descrittiva rappresenta sempre la
prima fase di qualsiasi ricerca, o può essere lo scopo di uno studio conoscitivo
esplorativo;
b) statistica inferenziale il cui obiettivo è quello di ricavare dallo studio condotto
leggi generali che si intendono estendere alla popolazione e/o ad altre situazioni
simili. I due momenti fondamentali sono:
-
la stima dei parametri. Ad esempio lo studio antropometrico di un campione
di bambini maschi dai 6 ai 14 anni può consentire di stimare gli intervalli di
altezza entro cui dovrebbero collocarsi le altezze dei bambini della stessa
fascia di età e della stessa popolazione con un certo livello di probabilità
(intervallo di confidenza attorno alla media);
-
la verifica di ipotesi. Lo scopo della statistica inferenziale è quello di stimare
la probabilità che le differenze osservate nei dati di gruppi diversi siano
interamente dovute a variabilità casuale piuttosto che a differenze della
sottostante popolazione di riferimento. Per capire la statistica inferenziale è
necessario introdurre il concetto di popolazione e campione.
Popolazione e campione
Spesso non è possibile studiare l’intera popolazione che interessa. La statistica ci
offre la possibilità di selezionare un sottoinsieme di tale popolazione (un campione),
analizzando il quale si possono trarre conclusioni sull’intera popolazione. Perché ciò
sia possibile è necessario che la metodologia adottata sia corretta e rigorosa. Lo
schema logico di tale processo è illustrato nella seguente figura:
Popolazione target o popolazione obiettivo
È l’insieme di tutti gli ipotetici elementi oggetto del nostro interesse. La popolazione
obiettivo può essere:
-
finita se è possibile produrre l’elenco di tutti gli elementi oggetto di interesse. Ad
esempio: desidero conoscere le anomalie di comportamento (droghe, alcool, etc.)
dei giovani adolescenti frequentanti le scuole medie superiori e inferiori dell’area
sanitaria di mia competenza (ASL) ai fini di organizzare un programma di
educazione sanitaria nelle scuole. In tal caso la popolazione oggetto di studio è
finita, in quanto mi interessa quella specifica popolazione di studenti residenti in
quella zona specifica in cui voglio attuare gli interventi di prevenzione.
-
Infinita quando si tratta di una popolazione ideale, di cui non è possibile produrre
un elenco, in quanto spesso deve ancora verificarsi. Se ad esempio, l’obiettivo
del mio studio è quello di valutare l’efficacia di un test di deglutizione per
pazienti colpiti da ictus, la popolazione obiettivo è costituita da tutti quei pazienti
che sono colpiti da ictus, ma anche che potranno esserlo in futuro, che risiedono
ove io conduco lo studio ma anche in altre parti del paese e del mondo. In tal
caso la popolazione di interesse e che potrà beneficiare dei risultati dello studio è
infinita.
Popolazione campionata (o base di campionamento)
Rappresenta l’aspetto operativo della popolazione obiettivo. Nel caso in cui la
popolazione sia finita (utenti di un servizio, residenti di una città, di un’ASL, etc.) è
possibile ottenere la lista dei soggetti della popolazione stessa. Se la popolazione
obiettivo è infinita non è possibile ottenere la lista di soggetti. In tal caso si sceglie
una definizione operativa della popolazione.
Ad
esempio
per
valutare
per tossicodipendenti
se
si
l’efficacia
opera
a
di
un
Roma,
intervento
psico-sociale
si
scegliere
potrà
di
effettuare la sperimentazione sugli utenti dei servizi dei SERT della provincia
di Roma, per motivi pratici e di fattibilità (si hanno buoni rapporti con i
responsabili dei servizi, sono conosciuta dalla popolazione, le distanze
sono limitate, etc.). L’assunto è che i tossicodipendenti frequentanti i SERT
di Roma non siano diversi da quelli che potrebbero frequentare altri SERT
italiani o di altre parti del mondo e che se dimostrerà l’efficacia di un
trattamento per tale gruppo di soggetti ci si aspetta che ciò sarà valido anche
per altri. Tale assunto è molto ambizioso e non sempre è verificato e la
generalizzazione alla fine dello studio dovrà essere molto prudente e verificata
con le opportune analisi.
Il campione
Non potendo per ragioni pratiche condurre uno studio su tutti i soggetti della base di
campionamento (per ragioni di costi, di tempi ed anche etici), la statistica offre
i metodi per selezionare un sottoinsieme di tale popolazione, di numerosità
limitata, ma adeguata su cui si condurrà in pratica lo studio. Il processo di selezione
si chiama campionamento. Selezionato il campione, ed effettuata la raccolta dei
dati, prima di sottoporli alla analisi occorre controllarne la qualità con gli opportuni
metodi e quindi i dati validati vengono sottoposti alle usuali elaborazioni di statistica
descrittiva.
La fase successiva di stima dei parametri ed inferenza sulla popolazione sono molto
più ambiziose in quanto dall’analisi di un gruppo limitato di soggetti si ha la
pretesa di trarre conclusioni su tutta la popolazione. Tale processo è corretto solo se
vengono rispettate in modo rigoroso le regole di campionamento che la metodologia
statistica indica, e che si basano sulle leggi della probabilità (teoria del
campionamento), la cui trattazione esula dal livello di questo corso ma di cui è
bene essere consapevoli. Il processo
risultati
trovati
alla
si
conclude
con
la
estensione
dei
popolazione campionata e da questa alla popolazione
obiettivo.
In ciascuno di questi processi inferenziali si possono condurre errori di tipo logico
(bias) e pertanto occorre procedere con estrema prudenza e senso critico.
Se ad esempio i SERT di Roma non offrissero alcune prestazioni (metadone,
etc.) alcuni tossicodipendenti potrebbero recarsi in altri servizi e quindi alcune
tipologie di soggetti
sarebbero
assenti
dal
nostro
campione
(errore
di
selezione o bias di selezione).
Tipi di campionamento
La metodologia con cui si selezionano i soggetti (o le unità statistiche) dalla
popolazione si chiama campionamento.
Distinguiamo diversi metodi di campionamento non alternativi, ma ciascuno indicato
in specifici contesti, che solo l’esperienza di ricerca in campo clinico ed
epidemiologo consente di verificare. Una prima distinzione è la seguente:
I)
campionamenti probabilistici: la scelta delle unità statistiche da sottoporre allo
studio è regolata dalle leggi della probabilità;
II) campionamenti non probabilistici: la scelta delle unità statistiche da sottoporre
allo studio non è di tipo probabilistico.
Campionamenti probabilistici A.
Casuale semplice.
Nel campionamento probabilistico è nota a priori la probabilità di selezione delle
unità statistiche presenti nella lista. Occorre quindi affidarsi a un metodo che
garantisca la casualità, così che la differenza tra popolazione e campione sia solo
di tipo numerico:
Sistematicità. Si introduce una regola fissa di selezione che sia indipendente
dalle caratteristiche che poi si vanno a misurare (esempio: 1 soggetto ogni 10
partendo da un numero a caso; il primo nato di ogni mese; il paziente che sta
nel 2° letto di ogni stanza, etc.).
Randomizzazione. Si ricorre a un criterio di generazione di numeri casuali
(lancio di dadi, tabelle dei numeri casuali, programmi per PC che generino
numeri casuali, etc.). Il campione sarà costituito da quegli elementi della base
di campionamento (opportunamente numerati) che corrispondono ai numeri
selezionati.
B. Casuale stratificato.
In campo clinico ed epidemiologico è difficile che non siano disponibili
informazioni su caratteristiche della popolazione, che potrebbero essere associate
alle variabili in studio la cui presenza potrebbe “confondere” i risultati finali
(fattori confondenti). Per tener conto di tali fattori occorre non solo che siano
raccolti, ma anche eliminati. Uno dei metodi utilizzati è quello della
stratificazione, cioè la suddivisione della base di campionamento in strati
omogenei per quelle caratteristiche. Il campione è scelto in modo casuale da
ciascuno degli strati.
Campionamento stratificato a numero proporzionale. In tal caso il campione
riproduce la stessa proporzione della popolazione generale di elementi nei
singoli strati, cioè la distribuzione dei fattori di stratificazione nel campione è
la stessa di quella della popolazione. Si
campionamento,
quando
la
popolazione
ricorre
a
tale
tipo
di
obiettivo coincide con la
popolazione campionata e quindi si è interessati a ottenere un campione che
risponda il più fedelmente possibile alla popolazione.
Se ad esempio si è interessati a studiare la prevalenza di asma nella
popolazione adulta dell'ASL RMB (20-69 anni) ai fini di dimensionare i
servizi per le patologie allergiche e respiratorie, essendo il sesso e l’età due
caratteristiche associate alla malattia, si eseguirà un campionamento
stratificato proporzionale.
Campionamento stratificato a numero fisso. In tal caso la scelta casuale dai
singoli strati sarà effettuata prelevando uno stesso numero di soggetti dagli
starti, così da ottenere un campione bilanciato per i fattori confondenti.
Ad esempio, in uno studio europeo (ECRHS) per conoscere la prevalenza
dell’asma nei vari paesi e identificare i fattori di rischio, si è deciso di
scegliere per ogni area un campione di 3000 soggetti stratificando la
popolazione generale adulta per età e sesso, ma a numero fisso (1500 maschi
e 1500 femmine, con numerosità fissa per età) non essendo la popolazione
dell’area il vero obiettivo dello studio, ma solo operazionale.
C. A grappolo.
In tal caso il campionamento è effettuato in due momenti successivi:
−
campionamento di unità aggregate;
−
campionamento di unità individuali.
Tale tecnica di campionamento è utilizzata quando la ricerca deve essere svolta in
aree ampie e dove è possibile utilizzare aggregati di soggetti.
Se ad esempio l’obiettivo dello studio è di conoscere la diffusione della carie
dentaria, tra i ragazzi in età scolare e identificarne i fattori di rischio l’approccio
più ovvio è quello di condurre un’indagine nelle scuole.
Non essendo realistico effettuare una visita odontoiatrica a tutti i ragazzi
frequentanti la scuola dell’obbligo della nostra area, si può scegliere:
− un campione di plessi scolastici distribuiti nelle varie zone geografiche o socioeconomiche dell’ASL e per tipo di scuola (unità aggregate);
− un campione di sezioni all’interno di ogni plesso (unità aggregate);
− tutti gli alunni delle sezioni così scelte.
Ciò consentirebbe di concentrare le risorse salvaguardando la necessità di
rappresentatività delle diverse tipologie di scuole e quindi di alunni, in modo
realizzabile praticamente.
D. Multistadi.
Si tratta di un campionamento che si svolge a stadi successivi con numerosità
decrescente e a progressivo livello di approfondimento. Se ad esempio si vuole
conoscere la diffusione di asma in una popolazione generale, si può procedere a
stadi successivi, come di seguito esemplificato.
I° stadio: campione casuale di 3000 soggetti sottoposto a indagine postale
mediante un questionario di sintomi standardizzato. Sulla base di tale indagine è
possibile individuare un gruppo di soggetti con sintomi riferibili ad asma,
un gruppo di soggetti senza sintomi e a un gruppo borderline.
II° stadio: da ciascuno dei gruppi precedenti vengono campionati soggetti da
sottoporre a indagine più approfondita (con esame clinico, esami strumentali ed
ematologici, etc.).
Tale procedura, se condotta in modo corretto con la numerosità necessaria,
consente di ottenere risultati di ottima qualità con bassi costi.
Tutti i tipi di campionamento, ad eccezione di quello casuale semplice, richiedono
particolari metodi di analisi per effettuare le stime dei parametri di interesse.
Campionamenti non probabilistici
Quando è possibile definire la popolazione obiettivo e non si dispone di una base di
campionamento, si ricorre a tecniche di campionamento non probabilistico.
a) Campionamento a quote.
Si decide di arruolare nel campione un certo numero di soggetti con le
caratteristiche di interesse e si esaminano (esempio volendo conoscere l’opinione
di alcuni utenti di un servizio sul comportamento degli operatori, si intervistano
20 maschi e 20 femmine tra gli utenti di 2 giorni diversi della settimana).
b) Campionamento a valanga.
Si tratta di una metodologia di campionamento che coinvolge inizialmente pochi
soggetti a cui si chiede di coinvolgerne altri (amici, conoscenti con le
caratteristiche di nostro interesse). Ad esempio, se si desidera conoscere quali
siano i problemi di accesso ai servizi degli immigrati extracomunitari di una certa
città: si inizia con l’intervistare i gruppi che stazionano agli ingressi dei
supermercati, e si chiede loro di coinvolgere amici o compaesani.
c) Campionamento a scelta ragionata (judgement).
Per alcuni studi interessa conoscere l’opinione dei personaggi chiave, che si
ritiene in grado di fornirmi informazioni interessanti sull’argomento. La scelta
del campione è allora “ragionata” nel senso che è il gruppo di ricercatori che
decide chi scegliere per lo studio. A tale approccio si ricorre spesso negli studi
valutativi e di accreditamento dei servizi.
d) Campionamento accidentale.
Per studi esplorativi si ricorre a campioni occasionali su pochi casi: l’obiettivo è
spesso quello di messa a punto di metodologie di indagine.
Va
sottolineato
generalizzazione.
che
i
campioni
non
probabilistici
non
consentono
la
I disegni degli studi quantitativi
Le indagini epidemiologiche, cioè gli studi sulle condizioni di salute della
popolazione generale, possono essere classificati in studi osservazionali o studi
sperimentali, come schematizzato in tabella 1 riporta i tipi di studio epidemiologico.
Gli studi osservazionali sono quegli studi in cui il ricercatore si limita ad osservare
ciò che accade, rilevando le caratteristiche di interesse (presenza di malattie, di
fattori
di
rischio
o
causali,
etc.)
senza
intervenire.
Gli studi sperimentali sono quegli studi in cui il ricercatore interviene
attivamente per
modificare
un
determinante
della
malattia
(come
un’esposizione o il comportamento) o il suo progredire (come un trattamento).
Gli studi sperimentali implicano quindi che il ricercatore somministri (o tolga)
il
fattore
di
cui
vuole studiare l’effetto (manipolazione della variabile
indipendente). Per ragioni etiche gli studi, sperimentali sull’uomo sono limitati a
quelli di tipo terapeutico o preventivo: se l’obiettivo è quello di trovare fattori di
rischio o causali di patologie, il tipo di studio non può essere sperimentale ma
osservazionale.
Studi osservazionali e studi sperimentali
1. Gli studi osservazionali, in base allo scopo, si dividono in:
a) studi descrittivi. L’obiettivo è quello di descrivere lo stato di salute di una
popolazione, attraverso l’uso di dati routinari: rappresentano in genere il
primo approccio alla conoscenza di un problema epidemiologico. Si tratta di
studi semplici, il livello informativo è limitato.
b) studi analitici. L’obiettivo è quello di studiare le relazioni tra malattia e altre
variabili supposte fattori di rischio o causali. La maggior parte degli studi
epidemiologici sono di tipo analitico. In base al disegno della ricerca gli studi
analitici si distinguono in:
35
-studi ecologici; l’obiettivo è quello di esplorare la plausibilità di relazioni
tra fattori di rischio (determinanti) e patologie (outcome). Le unità di
analisi sono popolazioni di soggetti e non individui: inoltre il fattore e
l’effetto non sono raccolti sullo stesso individuo.
Ad esempio, ipotizzando che esista una relazione tra fumo di sigaretta e
tumore del polmone, un primo approccio è quello di verificare se la
mortalità per tumore al polmone di diversi paesi è associata alle vendite di
tabacco in quei paesi. L’associazione così evidenziata (correlazione
ecologica) rappresenta una evidenza a favore dell’ipotesi anche se non
conclusiva, in quanto il rischio di bias in tali studi è molto elevato.
-studi trasversali o di prevalenza; l’obiettivo di tali studi è quello di
misurare la diffusione di una patologia (o stato morboso) in una
popolazione generale e in gruppi di popolazione a rischio. Si effettuano su
campioni casuali della popolazione obiettivo (studi campionari) o su intere
popolazioni (studi esaustivi). La misura di malattia prodotta è il
N° di persone con la malattia
Tasso di prevalenza =
in un momento specificato
× 1000
N° di persone nella popolazione a rischio
in un momento specificato
Se i dati sono stati raccolti in un preciso momento temporale, si ottiene il
tasso di prevalenza puntuale. Più frequentemente, il tasso è calcolato in un
periodo (mese o anno) e si chiama tasso di prevalenza periodale, inteso
come numero di persone che presentano la situazione morbosa in un
definito periodo, nella popolazione a rischio nello stesso periodo.
Indipendentemente dalla durata dello studio, il fatto importante è che lo
stato di salute del soggetto è valutato in un definito momento
contemporaneamente alla rilevazione degli eventuali fattori di rischio e
confondenti. In altre parole, tutte le rilevazioni sul soggetto vengono
effettuate una sola volta.
36
Se si valuta il tasso di prevalenza in gruppi a diversa esposizione al fattore
di rischio, si può calcolare una misura di associazione nota come Rischio
Relativo.
Ad esempio, è stato calcolato il tasso di prevalenza di asma in un’area a
basso livello di inquinamento ambientale (A) e in un’area ad alto
inquinamento ambientale (B):
Area A: tasso di prevalenza 0,3%
Area B: tasso di prevalenza 0,8%
Il Rischio Relativo è:
RR =
0,8
= 2,7
0,3
Ciò significa che chi risiede nell’area B ha 2,7 volte più rischio di essere
malato di asma rispetto a chi vive nell’area A.
-studi longitudinali o di incidenza o di coorte; l’obiettivo di tali studi è
quello di valutare l’insorgenza della patologia di interesse nella
popolazione e in gruppi a rischio. Tali studi prevedono sempre almeno due
rilevazioni successive sui soggetti: nella prima fase si sceglie un campione
di popolazione senza la malattia in studio (coorte) si raccolgono le
variabili di interesse (fattori di rischio, protettivi, etc.) e si segue nel tempo
stabilito (follow-up) tale coorte, rilevando l’insorgenza dei casi della
malattia, che ovviamente saranno “nuovi casi”
37
Le misure di malattia sono il:
a) tasso di incidenza (I):
N° di persone che si ammalano
nel periodo scelto
Somma dei tempi durante i quali
Tasso di incidenza tempo - persona =
× 1000
ogni soggetto della coorte è a rischio
Tale tasso tiene cioè conto del periodo di osservazione specifico per ogni
individuo della coorte. Va sempre specificato il periodo di follow-up
(anno, mese, etc.).
b) tasso di incidenza cumulato (IC): è una misura più semplice, che valuta
i nuovi casi di malattia sulla popolazione a rischio all’inizio dello
studio:
N° di persone che si ammalano
IC =
nel periodo
× 1000
N° di soggetti liberi dalla malattia
all' inizio dello studio
Anche questo tasso va riferito al periodo in studio. Esso rappresenta la
probabilità che un soggetto della coorte libero da malattia ha di sviluppare
la malattia nel periodo di follow-up.
Le misure di associazione.
Dagli studi longitudinali si ricava anche il Rischio Relativo:
RR =
IC negli esposti
IC nei non esposti
Esempio: si consideri una coorte di 1000 soggetti di cui 300 fumatori e
700 non fumatori. Alla fine del periodo di follow-up (di 25 anni) si
38
valutano quanti soggetti si sono ammalati di tumore al polmone nei due
gruppi e si ottengono i seguenti risultati:
FUMO
MALATTIA
Sì
No
Sì
15
285
300
No
4
696
700
20
980
1000
Le Incidenze Comulative (IC) sono pertanto:
IC totali =
IC fumatori =
20
× 1000 in 25 anni = 20%
1000
15
× 1000 in 25 anni = 50%
300
IC non fumatori =
RR =
4
× 1000 in 25 anni = 5,7%
700
IC fumatori
50
=
= 8,8
IC non fumatori 5,7
I fumatori hanno un rischio di 8,8 volte più elevato di ammalarsi in 25 anni
di tumore al polmone rispetto ai non fumatori.
Vale la pena di ricordare la diversa capacità informativa dei due tipi di
studio ed i legami tra le misure fornite.
Prevalenza e Incidenza
La prevalenza è legata all’incidenza da
P ≅ IC × d
dove P = Prevalenza, IC = Incidenza, d = durata della malattia. La
prevalenza comprende infatti sia i nuovi casi (IC) ma anche i vecchi casi di
malattia condizionatamente alla sua durata. Nel caso di patologie acute i
due tassi sono quasi coincidenti, nel caso di patologie croniche a lunga
sopravvivenza i due tassi sono molto diversi.
39
-studi caso-controllo; l’obiettivo è quello di individuare i fattori di rischio o
protettivi per una patologia. Si identificano due gruppi di soggetti da una
stessa popolazione
casi = soggetti con la patologia in esame
controlli = soggetti senza la patologia in esame
Si ricerca quindi la presenza attuale o passata dei supposti fattori di rischio
nei due gruppi come illustrato nella seguente figura
Ad esempio, è stato condotto uno studio per valutare il rischio di morire se
non si indossa il casco in gravi incidenti che coinvolgono motociclisti: si
sono scelti come casi 100 soggetti morti in incidenti e 100 soggetti
sopravvissuti.
CASCO
I risultati ottenuti sono i seguenti:
Casi
Controlli
Sì
30
80
110
No
70
20
90
100
100
200
Si nota che su 200 incidenti gravi, il 45% era senza casco, ma la
distribuzione dei soggetti senza casco è diversa tra casi e controlli. Infatti,
40
tra i casi i soggetti senza casco sono il 70% mentre tra i sopravvissuti sono
solo il 20%. La misura di associazione appropriata è l’Odds Ratio (OR)
cioè il rapporto delle probabilità di esposizione tra i casi e la probabilità di
esposizione tra i controlli. Nell’esempio considerato l’esposizione è il ‘non
usare il casco’:
OR =
70 30 70 × 80
=
= 9,3
20 80 30 × 20
cioè il rischio di morire in un grave incidente è 9,3 volte più elevato in chi
non ha il casco rispetto a chi lo porta. L’Odds Ratio è una buona stima del
Rischio Relativo, soprattutto se la patologia è rara, perché i casi ed i
controlli siano tratti dalla stessa popolazione.
2. Gli studi sperimentali. L’obiettivo di tali studi è quello di evidenziare
l’associazione tra un fattore (trattamento) e un effetto (modificazione dello stato
di malattia): si possono quindi considerare studi analitici, in cui il fattore è
somministrato, ad un certo momento, dal ricercatore.
Rispetto alla valutazione di una relazione, gli studi sperimentali consentono di
conoscere la precedenza temporale del fattore rispetto all’effetto. Inoltre, essendo
il fattore somministrato secondo criteri casuali ai soggetti selezionati, si garantisce
un’equa distribuzione dei fattori confondenti tra i gruppi in studio. Pur
rappresentando quindi un disegno di studio vantaggioso, non è sempre attuabile
quando l’oggetto di studio è l’uomo.
Per ovvi motivi etici possiamo, infatti, condurre studi sperimentali solo quando
l’intervento previsto è “positivo” per il soggetto (trattamento terapeutico o
preventivo) e non per l’identificazione di fattori casuali o supposti di rischio per lo
sviluppo della malattia.
Schematicamente distinguiamo diversi tipi di studi sperimentali sull’uomo:
- sperimentazioni cliniche controllate randomizzate.
L’obiettivo è quello di valutare l’efficacia di un intervento terapeutico o
riabilitativo e quindi riguarda pazienti affetti da malattia.
- sperimentazioni sul campo (field trials).
41
L’obiettivo è quello di valutare l’efficacia di interventi di prevenzione sui
soggetti esposti a rischio, ma non ancora malati. Rientrano in questo tipo di
studi le sperimentazioni di nuovi vaccini, le sperimentazioni di farmaci o diete
per soggetti con ipercolesterolemia o sovrappeso, e così via;
Si tratta di studi piuttosto complessi poiché implicano dapprima uno studio “sul
campo” per individuarne i soggetti a rischio, da sottoporre poi ad una
sperimentazione.
- sperimentazioni di comunità (community trial).
L’obiettivo è quello di verificare l’efficacia di interventi preventivi effettuati su
comunità, anziché sui singoli individui. È utilizzato soprattutto nel caso di
patologie che riconoscono fattori di rischio sociali e ambientali, per cui è
possibile agire direttamente su tali fattori.
42
I disegni sperimentali sono disegni di ricerca mediante i quali il ricercatore può ridurre o eliminare il rischio di
ipotesi alternative che minacciano la validità delle conclusioni della propria indagine.
Il disegno sperimentale è uno strumento fondamentale poichè rappresenta la struttura dibase di tutta la ricerca e
anche se non è in grando di incrementare tutti i tipi di validità precedentemente discussi, garantisce la validità
interna, e in misura minore quella esterna, che rappresentano le due tipologie di validità più importanti per una
ricerca.
Un disegno di ricerca dovrebbe consentire un'interpretazione non ambigua dei risultati escludendo a priori tutte le
possibili interpretazioni alternative. Questo limite ideale però non è stato mai raggiunto. Costruire un disegno
sperimentale vuol dire mettere a punto un insieme di elementi e di procedure che consentano di dire, con la più alta
sicurezza, che gli effetti riscontrati nella variabile dipendente sono causati dalla manipolazione di quella
indipendente e non dall'influenza di variabili incontrollate. Il disegno di ricerca costituisce l'ossatura stessa di
un'indagine empirica e fonda l'affidabilità dei risultati (Pedon 1995).
In genere, i piani di ricerca vengono distinti in veri esperimenti e quasi esperimenti.
I veri esperimenti consentono allo studioso di avere un controllo completo su tutte le variabili della
ricerca: sul chi, sul che cosa, sul quando, sul dove e sul come. Il controllo sul chi comporta che si possano
assegnare in modo casuale i soggetti alle varie condizioni sperimentali. Il controllo sul che cosa, quando, dove,
come, permette di padroneggiare tutte le modalità di esecuzione dell'esperimento, cioè il momento dell'esecuzione,
il luogo, la strumentazione, ecc..
Per questo alto livello di controllo, il loro grado di costrizione è molto elevato.
Negli studi quasi sperimentali può mancare la randomizzazione o il controllo.
I quasi-esperimenti non controllano tutte le condizioni e tutti i fattori di confusione.
OPZIONI PROCEDURALI PER IL DISEGNO SPERIMENTALE.
Sulla base degli scopi e delle assunzioni scientifiche, l'impostazione dei diversi disegni sperimentali
viene fatta sulla diversa combinazione delle seguenti quattro opzioni procedurali: la misura della VD; il modo di
sottoporre i gruppi al trattamento; il numero delle VI e il tipo di controllo delle variabili estranee.
La misura della VD può essere eseguita sia prima che dopo il trattamento (pre-test e post-test), oppure
solo dopo il trattamento. I modi di sottoporre a trattamento i gruppi sono:
1. Ogni gruppo è sottoposto ad un solo livello della VI, in tal caso si ha il disegno sperimentale tra i
gruppi (between groups design), chiamato anche tra i soggetti (between subjects).
2. Ogni gruppo è sottoposto a tutte le condizioni di trattamento: in questo caso il disegno è entro i
gruppi (within groups design), chiamato anche entro i soggetti (within subjects) o disegno a misure ripetute.
Il numero delle VI varia da una a più; se si hanno due o più VI avremo di fronte un disegno fattoriale.
Per quanto riguarda la quarta opzione, il tipo di controllo delle variabili estranee, come abbiamo visto,
viene eseguito mediante uno dei seguenti metodi: randomizzazione, pareggiamento e metodo dei blocchi.
Comunque oltre ai disegni di esperimenti veri o quasi sperimentali, ve ne sono altri, chiamati pre-sperimentali,
che vengono indicati per lo più nei manuali di metodologia come "disegni da evitare".
DISEGNI PRE-SPERIMENTALI
Sono disegni molto maneggevoli e proprio per questo sono utilizzati per esplorare nuovi problemi o per
mettere a punto eventuali nuove ipotesi. Proprio perchè servono per compiti esplorativi, vengono chiamati
pre-sperimentali.
Un primo tipo di disegno pre-sperimentale è quello con un solo gruppo ed una sola prova. Ad
esempio, si potrebbe sottoporre una sola classe ad un nuovo metodo per aumentare la velocità di lettura negli
alunni. Dal punto di vista del controllo questo disegno, non garantisce validità interna, poichè non vengono prese in
considerazione altre variabili (come la maturazione degli studenti stessi), nè i risultati del post-test possono essere
confrontati con dati precedenti il trattamento non essendoci stato nè il pre-test nè un gruppo di controllo. Però data la
sua semplicità, si riconosce a questo disegno l'utilità nel compito di esplorare nuovi problemi di ricerca o di
sviluppare nuove ipotesi. E' utile quindi come fonte di suggerimenti.
Un secondo tipo di disegno pre-sperimetnale è quello con un solo gruppo ma con due prove, cioè con
pre-test e post-test. In questo caso si avrebbe come paragone il risultato della prova del pre-test da confrontare
con quello del post-test, per vedere se il trattamento ha modificato o meno, nel nostro esempio, la velocità di
lettura. Ma dal punto di vista del controllo, anche se è più sicuro, presenta gli stessi limiti del disegno precedente.
Un altro disegno pre-sperimentale è quello con due gruppi non equivalenti ed una sola prova, cioè il
post-test. Questo piano si presenta come un tentativo di rimediare ai limiti dei due disegni precedenti includendo un
gruppo di confronto, ma che non è un vero gruppo di controllo perchè non è randomizzato. In questo disegno, un
gruppo di soggetti viene sottoposto al trattamento mentre l'altro no. Il limite maggiore di questo disegno sta nella
non equivalenza dei gruppi; infatti un' eventuale differenza significativa nei risultati dei due gruppi non può essere
attribuita con certezza al trattamento, perchè altre variabili differenti nei due gruppi possono essere la causa dei dati
diversi, ad esempio, un gruppo potrebbe avere un Q.I. medio superiore all'altro, ed ottenere risultati migliori per
questo motivo.
VERI ESPERIMENTI
Disegni con una sola variabile indipendente
Abbiamo detto che i disegni con una sola VI si suddividono in piani tra i gruppi (o tra soggetti) e piani
entro i gruppi (o entro i soggetti). La distinzione si basa congiuntamente sulle modalità di scegliere i soggetti dalla
popolazione e su quelle di assegnarli alle varie condizioni sperimentali. I disegni tra i gruppi comportano che i
soggetti siano scelti in modo casuale dalla popolazione e siano assegnati pure casualmente alle condizioni del
trattamento; ogni soggetto (o gruppo) deve essere sottoposto ad una sola condizione sperimentale, per cui si avrà
una sola prestazione ed un solo punteggio per ogni soggetto. I piani entro i gruppi richiedono che i soggetti siano
sottoposti a tutte le condizioni sperimentali.
Piani tra gruppi con una sola VI
Dato che i soggetti vengono scelti casualmente dalla popolazione, sono assegnati ai gruppi e sottoposti
ai trattamenti diversi pure casulmente, si ottengono misure indipendenti. Questi piani comportano la formazione
di tanti gruppi di soggetti quanti sono i livelli della VI o trattamento. Nella forma più semplice si ha quindi la
presenza di due gruppi randomizzati, due prove e il trattamento per un solo gruppo, cioè:
Pre-test Trattamento Post-test
Gruppo Sperimentale R SI SI SI
Gruppo di Controllo R SI NO SI
Questo piano esclude gli effetti della regressione statistica, della selezione della mortalità, e il gruppo di
controllo consente di analizzare statisticamente gli effetti dovuti a storia, maturazione, interazione tra mortalità e
trattamento. Non è evidenziabile però un'eventuale interazione tra pre-test e trattamento, pertanto se la prova
preliminare influisce in qualche misura sui soggetti, allora la validità esterna è compromessa.
Molti autori preferiscono a questo il piano in cui anche il gruppo di controllo randomizzato è sottoposto
a trattamento, purchè il livello sia differente da quello del gruppo sperimentale. Nel caso si adoperassero 3 gruppi
invece di due, il terzo dei quali fa da gruppo di controllo e non viene sottoposto a trattamento, il disegno diventa
ancora più affidabile. Anche in questo caso, la verifica dell'effetto del trattamento si ha dal confronto delle prove
finali. Si avrà quindi:
Pre-test Trattamento Post-test
1° Gruppo S. SI Xa SI
2° Gruppo S. SI Xb SI CONFRONTO
3° Gruppo di controllo SI NO SI
Rispetto al precedente, la validità interna di questo disegno risulta rafforzata perchè sono controllati
contemporaneamente per i due gruppi, gli eventuali fattori di disturbo tra le due sessioni. Ma per quanto
riguarda la validità esterna, valgono le stesse osservazioni del disegno precedente.
Il disegno che garantisce la validità in misura maggiore è invece il cosiddetto disegno a quattro
gruppi randomizzati di Salomon. Esso richiede quattro gruppi di soggetti che sono sottoposti alle condizioni
sperimentali secondo lo schema seguente:
Pre-test Trattamento Post-test
1° Gruppo Randomizzato T1 SI T2
2° Gruppo Randomizzato T3 NO T4
3° Gruppo Randomizzato NO SI T5
4° Gruppo Randomizzato NO NO T6
Mentre nè il primo nè il secondo disegno consentono di isolare gli effetti di disturbo dovuti alla prova
preliminare, all'interazione tra pre-test e trattamento gli effetti combinati della maturazione e della storia, il disegno
di Salomon offre invece questa possibilità. Questo disegno però è molto difficile da attuare sia perchè è molto
articolato sia perchè richiede la disponibilità di un grande numero di soggetti. Il procedimento di secuzione è il
seguente: il primo gruppo viene sottoposto ad ambedue le prove e al trattamento, il secondo gruppo esegue ambedue
le prove ma non la condizione sperimentale, il terzo gruppo viene sottoposto al trattamento e alla seconda prova, il
quarto gruppo esegue solo il post-test. Tutti i gruppi devono essere randomizzati. Il piano di Salomon consente tre
importanti tipi di controllo:
1. Permette la verifica dell'omogeneità del rendimento del gruppo sperimentale (1° G) con quello di
controllo (2° G), dato che ambedue i gruppi sono sottoposti al medesimo pre-test. Tale verifica si esegue
calcolando la significatività della seguente differenza:
questa è chiamata anche effetto principale del fattore sperimentale.
2. Permette di verificare se la presenza della prova preliminare produce qualche effetto sul rendimento
dei soggetti
3. Consente di controllare se esiste una interazione tra prova preliminare e trattamento:
Questo disegno permette anche il controllo e la misura sia degli effetti del pre-test, sia degli effetti di interazione
tra pre-test e trattamento. In realtà, questo disegno comporta un doppio esperimento: uno eseguito con il pre-test e
uno senza. Da questo disegno si ricavano due piani uno corrispondente alla prima parte del disegno di Salomon e
l'altro corrispondente alla seconda parte.
Piani entro i gruppi con una sola VI
Come si è detto, i disegni entro i gruppi comportano che tutti i soggetti siano sottopostia tutte le
condizioni sperimentali, si tratta, quindi, di disegni a misure ripetute e pertanto ogni soggetto serve da controllo a
se stesso.
Nel disegno a misure ripetute semplici, ogni soggetto è sottoposto a tutti i livelli della VI; perciò i
punteggi di ogni condizione sono correlati tra loro. Ogni soggetto viene valutato più di una volta sulla VD e il
confronto critico consiste nel calcolare la differenza dei punteggi ottenuti nelle diverse condizioni sperimentali. Lo
schema è il seguente:
Pre-test Trattamento Post-test
Condizione 1 (sperimentale) SI SI SI
Condizione 2 (controllo) SI Controllo SI
I disegni entro i soggetti non solo controllano, ma eliminano del tutto la varianza dovuta alle differenze
dei soggetti, perciò riducono la varianza dell'errore. Inoltre necessitano di un numero ridotto di soggetti, ma
poichè tutti i soggetti sono sottoposti a tutte le condizioni, è possibile che si verifichi sia l'effetto dell'ordine che
della sequenza.
Disegni con più VI o disegni fattoriali
Nella ricerca psicologica molto spesso è necessario analizzare l'effetto combinato di due o più variabili
indipendenti per poter spiegare un fenomeno. In tal caso ci si trova di fronte ai cosiddetti disegni fattoriali.
I disegni fattoriali si differenziano dagli altri piani di ricerca per la presenza di due o più VI, che
tecnicamente sono chiamate fattori; per la presenza dell'effetto proprio di ciascuna VI sulla VD; questo effetto è
chiamato effetto principale di ciascun fattore; per la presenza dell'effetto dovuto alla reciproca relazione tra le due o
più VI: si tratta del cosiddetto effetto di interazione dei fattori. Una volta stabilito se la VD è misurabile e qual'è il
tipo di misura più adatta al caso, il ricercatore manipola le due VI, considerando i diversi livelli, delle due VI e
combinandoli insieme. Ad esempio, nel caso di un disegno con due VI di due livelli ciascuna si avrà una matrice a
celle con quattro combinazioni. Il risultato sarà perciò un disegno fattoriale 2x2:
VI A
A1
A2
VI B1
B
A1B1
A2B1
Media B1
B2
B2A1
Media
A1
A2B2
Media
A2
Media B2
effetto
principale di
B
effetto principale di A
Il ricercatore deve selezionare in modo casuale dalla popolazione considerata, un campione e
assegnarlo in modo randomizzato nelle quattro combinazioni del trattamento.
Le notazioni 2x2, 2x3, 3x3x2 e così via, stanno ad indicare la presenza di più VI con più livelli per
ciascuna di esse. Ogni numero della notazione indica una VI e ognuno precisa il numero di livelli di ogni
variabile. Così la notazione 3x3x2 indica che il disegno ha 3 variabili rispettivamente di 3, 3, 2 livelli.
Teoricamente i disegni fattoriali possono avere qualsiasi numero di fattori e di livelli, ma è naturale che un'
esagerata complessità di un disegno comporterebbe una difficile interpretazione dei dati.
In metodologia si parla di interazione tra variabili quando l'effetto di una VI risulta diverso ai differenti
livelli dell'altra VI, cioè quando l'effetto combinato delle due variabili indipendenti è diverso dalla somma
degli effetti singoli delle due variabili.
Inoltre non sempre gli effetti principali delle VI di un piano fattoriale influiscono significativamente
sulla VD, come non sempre si ha l'effetto di interazione tra i fattori. Gli effetti principali delle VI sono presenti se
tra le medie dei due o più livelli del fattore esiste una differenza significativa. Come esempio riportiamo un recente
esperimento di J. Fetterman, Leon Dreyfus e Alan Stubbs (1996), sulla durata relativa a due stimoli diversi. Gli
studiosi hanno utilizzato un disegno fattoriale 3x2x2 misto con due fattori tra i soggetti e uno entro i soggetti. Il
primo fattore "Durata" presentava 3 livelli per cui:
a) un gruppo valutava quale fra due durate di presentazione di due stimoli diversi fosse più lunga
(Longer)
b) un altro gruppo giudicava se il rapporto della prima con la seconda durata fosse minore o maggiore
di 3:1 (Ratio)
c) un terzo gruppo giudicava se le due durate fossero uguali o diverse (SD).
Il secondo fattore tra i soggetti riguardava le istruzioni fornite ai partecipanti all'inizio dell'esperimento;
ad un primo gruppo veniva fornita una spiegazione verbale della regola temporale per effettuare scelte giuste (le
possibilità di scelta venivano mostrate sul monitor di un computer in ogni prova); ad un secondo gruppo non veniva
detto nulla sulla regola, ma veniva data solo una spiegazione molto generale del compito da svolgere. Tutti i
soggetti sono stati sottoposti alle prove in due sessioni distanziate l'una dall'altra da una settimana. La sessione (Ia e
IIa) costituiva il terzo fattore entro i soggetti. I due stimoli erano rappresentati da un quadrato rosso e uno bianco
che apparivano sul monitor del computer posto davanti ad ogni soggetto. Anche le risposte possibili apparivano sul
monitor e il soggetto sceglieva la risposta tramite la tastiera del computer. Ogni risposta esatta riceveva
un feedback visivo.
I risultati di questo studio hanno mostrato che la discriminazione che riguarda la scelta della durata più lunga è più
facile rispetto ad una discriminazione che richiede un giudizio basato sul rapporto dei due intervalli, o una che
richiede ai partecipanti di distinguere se le due durate sono le stesse o diverse.
L'informazione, quindi la preconoscenza di una regola per confrontare due durate, aumenta la
precisione di scelta rispetto al gruppo che non era stato informato.
Tutte e tre gli effetti principali risultano significativi. L'interazione più importante è risultata essere
quella tra la variabile istruzionale (informazione) e la precisione per stabilire il rapporto (Ratio), mentre
l'interazione tra Longer e informazione e SD e informazione non è risultata significativa. In generale però si è
avuto un miglioramento nella seconda sessione dell'esperimento.
Alcuni disegni fattoriali
Si parla di disegno fattoriale completamente randomizzato (o tra i soggetti) quando sono presenti
contemporaneamente:
a) due o più VI manipolate con due o più livelli per ciascuna di esse;
b) quando ogni VI è completamente incrociata con ogni altra VI, cosa che comporta che ogni livello di
un fattore sia combinato con ogni livello dell'altro fattore;
c) quando i soggetti sono assegnati in modo randomizzato ad ogni gruppo;
d) quando ogni gruppo è sottoposto solamente ad una combinazione delle VI. E' il piano di base già
illustrato nella matrice 2x2 presentata nelle pagine precedenti.
Oltre ai piani tra i soggetti, però troviamo i disegni fattoriali entro i soggetti chiamati anche disegni
fattoriali a misure ripetute, dove i gruppi sono sottoposti a tutte le combinazioni dei fattori invece, che ad una sola
di esse. Se si tengono sotto controllo gli effetti dell'ordine e della sequenza, questi ultimi disegni offrono una
maggiore sensibilità agli effetti della VI, l'esigenza di un minor numero di soggetti e una maggiore efficienza.
Alle volte, le due o più VI che costituiscono un disegno fattoriale possono essere di tipo diverso: ad
esempio, una tra i soggetti e l'altra entro i soggetti, oppure una manipolabile e l'altra no. Questi piani vengono
chiamati "disegni misti". Un disegno misto quindi può includere una VI tra i soggetti ed una entro i soggetti; oppure
può invece indicare un disegno fattoriale che comprende un fattore manipolato ed uno non manipolato. Nel primo
caso, un fattore richiede tanti gruppi di soggetti quanti sono i suoi livelli di variazione e l'altro fattore comporta che
tutti i soggetti siano sottoposti a tutti i livelli.
Il secondo tipo di disegni misti, cioè quello composto da fattori manipolati e non manipolati, assegna i
soggetti in modo randomizzato alle condizioni della variabile manipolata, mentre ai livelli del fattore non
manipolato vengono assegnati sulla base di caratteristiche preesistenti: come maschio e femmina, volontari e non
volontari, ecc..
Il problema presentato da questo disegno riguarda l'interpretazione dei risultati, perchè le variabili non
manipolate comportano sempre degli effetti di confusione, per cui è difficile fare inferenze causali basate
sull'analisi degli effetti principali delle variabili indipendenti.
I QUASI-ESPERIMENTI
I disegni quasi-sperimentali assomigliano ai veri esperimenti, infatti, ne possiedono gli aspetti
essenziali e cioè: un'ipotesi di tipo causale da verificare; la possibilità di manipolazione della VI cosa che consente
dei confronti tra due o più condizioni sperimentali.
Poichè non controllano tutte le variabili di disturbo, le inferenze basate sui loro dati meno affidabili degli studi
sperimentali. Ciò accade perchè può mancare la randomizzazione (assegnazione ai gruppi in modo randomizzato) o
il controllo.
Fanno parte dei disegni quasi-sperimentali i disegni che presentano un gruppo di controllo non
equivalente; i disegni a serie temporali interrotte e i disegni simulati prima e dopo.
I disegni con gruppo di controllo non equivalente costituiscono la soluzione migliore quando i gruppi
formano delle entità naturali, che devono essere mantenute intatte per studiarne le caratteristiche. La mancanza
di equivalenza dei gruppi viene in genere limitata componendo un gruppo di controllo quanto più possibile simile
a quello sperimentale. Si sottopongono infatti i gruppi al pre-test per individuarne il grado di equivalenza. Un
esempio di questo tipo di disegno può essere così schematizzato:
Pre-test Trattamento Post-test
Gruppo A SI SI SI
Gruppo B SI NO SI
L'eventuale differenza significativa tra i dati del pre-test con quelli del post-test può indicare la misura
del cambiamento attribuibile al trattamento. Questo disegno, mentre per l'assenza di randomizzazione presenta
maggiori pecche per quanto riguarda la validità interna rispetto ai disegni sperimentali veri, ha però il vantaggio di
rispettare l'integrità naturale dei gruppi e di non toglierli dal contesto della vita quotidiana. Così la validità esterna, e
in particolare quella ecologica, sono meglio salvaguardate.
Disegni a serie temporali interrotte
Nella loro forma generale, i disegni a serie temporali interrotte assomigliano a un disegno con un solo
gruppo e due prove, ma, invece di una singola misura prima del trattamento e una dopo, richiedono diverse
misurazioni della VD, a scadenze ben definite, sia prima della condizione sperimentali che dopo.
Così, prima del trattamento e per un certo periodo di tempo, si effettuerà la prima serie di misurazioni;
poi si darà luogo alla fase della manipolazione, infine quando questa verrà interrotta, si riprenderanno le
misurazioni per un altro periodo di tempo. Questi piani sono sostanzialmente una variazione dei disegni entro i
soggetti, perchè ogni elemento del gruppo è sottoposto a tutte le condizioni di trattamento.
In questo tipo di disegni, la molteplicità delle misurazioni protratta nel tempo ha un ruolo molto
importante. Consente, infatti, di evidenziare la tendenza dei dati prima della condizione sperimentale
chiamata linea di base (baseline), che viene utilizzata come punto di paragone fisso per l'andamento dei dati
raccolti dopo il trattamento. I disegni a serie temporali interrotte, a causa della molteplicità delle misure prima e
dopo il trattamento, controllano gli effetti dovuti alla regressione verso la media; non controllano invece gli effetti
della storia. Sostanzialmente la molteplicità delle misure sostituisce il gruppo di controllo.
Questi piani possono essere usati ad esempio in una ricerca clinica, o in quegli studi che prima
osservano i soggetti tramite misurazioni per un certo periodo di tempo, come può essere uno studio sul
comportamento di bambini con problemi comportamentali, che vengono osservati per un anno intero prima del
trattamento. Una volta ottenuti dati sufficienti, viene applicato il trattamento, e una volta terminato questo stadio si
riprendono le misure dei soggetti per lo stesso tempo di osservazione precedente l'applicazione del trattamento.
E' quindi un disegno utile per condurre ricerche sui fenomeni naturali o clinici. Tuttavia in questo tipo
di disegno vi sono due potenziali fattori di confusione: la storia e la strumentazione, infatti, il disegno per essere
espletato richiede sempre un certo periodo di tempo, durante il quale possono accadere degli eventi capaci di influire
sulla VD (come la storia), e quando vengono riprese le misurazioni dopo l'interruzione del trattamento, può accadere
di introdurre qualche cambiamento nel modo di raccogliere e di codificare i dati (strumentazione).
Un interessante sviluppo del disegno a serie temporali interrotte semplici è quello a serie temporali
interrotte multiple. Questo piano è del tutto simile al precedente, ad eccezione del fatto che utilizza un secondo
gruppo di soggetti (il gruppo di controllo) che non è sottoposto al trattamento. Rispetto al disegno a serie temporali
interrotte semplici, questo piano ha il pregio di permettere il controllo degli effetti di confusione dovuti alla storia.
Teoricamente infatti, qualsiasi avvenimento esterno al trattamento dovrebbe influire in ugual misura sia sul gruppo
sperimentale sia su quello di controllo. Ma come nel caso del piano con un gruppo di controllo non equivalente,
anche in questo disegno l'interazione tra selezione e storia è tanto più probabile quanto più i gruppi sono differenti.
Disegni simulati prima e dopo
Quando le ricerche sono condotte sul campo, non si può sempre assegnare casualmente i soggetti ai
differenti livelli di trattamento. In molte circostanze, però, è possibile esercitare un sufficiente controllo sui
momenti di registrazione delle prove preliminari e del post-test, come pure sui campioni. Ad esempio, negli studi su
grandi popolazioni, è possibile rilevare l'impatto esercitato da un intervento qualunque sull'insieme della
popolazione se si possono raccogliere e misurare i dati della variabile che interessa sia prima che accada l'evento
che modifica tale variabile sia dopo.
Ad esempio, se si suppone che un'università voglia promuovere una campagna pubblicitaria per una
corretta utilizzazione della biblioteca su 10.000 iscritti, si potrebbero formare due gruppi di soggetti
(sperimentale e di controllo), quindi misurare le abitudini di consultazione del gruppo di controllo prima
dell'inizio della campagna pubblicitaria e dopo che questa è terminata, misurare le abitudini di consultazione del
gruppo sperimentale. A questo punto si confrontano i dati ottenuti nella prova preliminare del gruppo di controllo
con quelli ottenuti nel post-test dal gruppo sperimentale. Questo disegno viene denominato a campioni differenti
nel pre-test e nel post-test.
Questo disegno è utile quando il trattamento riguarda tutta la popolazione. Qualora il gruppo di
controllo non potesse essere sottoposto alla condizione sperimentale, il disegno più opportuno è quello a campioni
differenti nel pre-test e nel post-test, con o senza trattamento. Questo disegno richiede che il gruppo sperimentale e
quello di controllo siano a loro volta suddivisi in due sottogruppi. I due sottogruppi del gruppo sperimentale
corrispondono al gruppo sperimentale e di controllo del disegno
visto precedentemente; i due sottogruppi del gruppo di controllo sono sottoposti al pre-test e al post-test
rispettivamente. Per cui si avrà:
Sottogruppi Pre-test Trattamento Post-test
1 SI NO NO
Gruppo Sperimentale
2 NO SI SI
3 SI NO NO
Gruppo di Controllo
4 NO NO SI
L'efficacia del trattamento viene verificata confrontando la differenza osservata tra i risultati dei
sottogruppi 1 e 2 e quella osservata tra i sottogruppi 3 e 4. Questo disegno potrebbe essere utile quando si volesse
confrontare, ad esempio, le abitudini alimentari di una popolazione sottoposta ad una campagna pubblicitaria su una
sana nutrizione (sottogruppi sperimentali) e quella di una popolazione non toccata dalla campagna (sottogruppi di
controllo). Grazie al gruppo di controllo, di cui una parte è sottoposta al pre-test ed una al post-test, il ricercatore
può controllare gli effetti dovuti alla storia e alla maturazione. E' possibile però che i risultati siano influenzati da
certe variabili esterne che intervengono solo nel gruppo sperimentale. Infine il disegno può risentire dell'effetto della
mortalità. Questi sono solo alcuni dei disegni sperimentali possibili, ma rappresentano i tipi di disegni più usati
nella ricerca sperimentale in psicologica.
Modelli di sperimentazione
La sperimentazione clinica nell’uomo può essere condotta seguendo tre distinti modelli
sperimentali.
Sperimentazione non controllata
L'intervento sperimentale viene assegnato a tutti i soggetti eliggibili consecutivamente
osservati. Non c'è un confronto diretto con un gruppo di controllo costituito da soggetti che
ricevono un intervento alternativo. Gli effetti dell'intervento sperimentale sono valutati in base al
confronto con il decorso della malattia trattata con terapia standard che si ritiene ben noto.
Possono avere un ruolo nella ricerca di trattamenti per malattie molto rare che non
consentono quindi un trial controllato e randomizzato, neppure multicentrico, oppure se sussistono
tutte le seguenti condizioni:
- malattia a decorso prevedibile ed esito invariabilmente fatale
- efficacia terapeutica del nuovo trattamento esplicitamente evidente
- assenza di trattamenti alternativi utilizzabili per il confronto in una sperimentazione
controllata
- presupposti fisopatologici e farmacologici sufficientemente forti, tali da rendere credibili i
risultati favorevoli alla sperimentazione.
Sperimentazione controllata, non randomizzata
Il trattamento sperimentale viene assegnato a tutti o a una parte dei pazienti
eliggibili consecutivamente osservati. Esiste un gruppo di pazienti trattati in altro modo, che
servono come controlli, arruolati con procedure diverse:
controlli paralleli: esiste un gruppo trattato in modo alternativo ma l'attribuzione dei
pazienti al gruppo non avviene in modo casuale;
controlli storici;
controlli da banche dati.
La perfetta comparabilità tra i pazienti cui viene somministrato l'intervento sperimentale e i
controlli non può mai essere del tutto accertata.
Un esempio noto di studio non randomizzato è quello relativo ai possibili benefici di supplementi di
vitamine nel momento del concepimento in donne ad alto rischio di avere un bambino con difetti
alle tube neurali (Smithells et al., 1980); i ricercatori trovarono che il gruppo che aveva assunto
vitamine ha avuto meno bambini con difetti neurali rispetto al gruppo di controllo con placebo. Il
gruppo di controllo includeva sia donne non eleggibili per il trial sia donne che avevano rifiutato la
partecipazione.
Sperimentazione controllata e randomizzata (RCT)
Si tratta della sperimentazione più frequentemente utilizzata e che fornisce le massime garanzie di
oggettività ed attendibilità. Dopo aver individuato i pazienti eligibili si procede all'assegnazione ai gruppi in
modo randomizzato. Un gruppo, definito gruppo trattato, viene sottoposto al trattamento sperimentale; l'altro
gruppo, detto di controllo, viene trattato con metodi alternativi (trattamento già noto o placebo). Al termine
di un periodo prestabilito si osserva il decorso clinico di entrambi i gruppi e si testano statisticamente i
risultati ottenuti.
L’adozione di un farmaco di confronto già noto o di una sostanza farmacologicamente inerte
(placebo) dipende dalla natura della patologia studiata; l’adozione di un placebo, in particolare, consente di
controllare gli effetti positivi dovuti al semplice fatto di effettuare un trattamento, il cosiddetto effetto
placebo, e “di osservare, in condizioni di studio parallelo, le variazioni spontanee di un fenomeno
morboso” (Favilli, 1988).
Il fatto che un gruppo di soggetti malati possa, a causa dell’attribuzione casuale ad uno dei gruppi,
subire un trattamento con una sostanza inerte, o, comunque, non il migliore trattamento possibile, comporta
alcuni evidenti problemi etici. Viene infatti palesemente contraddetto il principio giuridico e deontologico
del neminem ledere, secondo il quale il medico non può in alcun modo ledere l’integrità psicofisica del suo
paziente o consentire, con il suo mancato intervento, che ciò possa accadere. D’altro canto, la
sperimentazione clinica trova origine dall’esigenza etica del medico di acquisire nuove conoscienze
terapeutiche tali da consentirgli di curare in modo migliore i sui pazienti futuri.
La contrapposizione di questi due principi raggiunge una forma di equilibrio privilegiando,
nell’ambito della sperimentazione, una etica collettiva, cioè un comportamento tale da consentirgli di
apportare notevoli miglioramenti al trattamento dei malati futuri, e, per quanto riguarda i pazienti trattati con
placebo, una etica individuale, consistente nell’interrompere il trattamento il più tempestivamente possibile,
ovvero non appena appropriate analisi intermedie facciano comprendere la validità del nuovo trattamento
oppure la sua tossicità o non efficacia. Inoltre, nel caso le condizioni cliniche del paziente lo richiedano, il
medico sperimentatore è in grado, in ogni momento, di venire a conoscienza del tipo di trattamento
somministrato e quindi di comportarsi di conseguenza.
Naturalmente il paziente deve essere informato di essere entrato a far parte di una sperimentazione
clinica; sarà perciò indispensabile che preventivamente il medico lo renda edotto del tipo di patologia di cui è
affetto, della sua probabilità di guarigione, del tipo di sperimentazione cui dovrà partecipare e quindi di tutti i
problemi ed i rischi che questa comporta. Il paziente dovrà inoltre essere informato che ha la facoltà di
interrompere in qualunque momento la sua partecipazione alla sperimentazione avviata. Solo a questo punto
il paziente potrà, se vorrà, firmare il modulo relativo al consenso informato.
La non conoscenza del tipo di trattamento che è somministrato a ciascun paziente viene indicata con
il termine di cecità. Può essere singola, ovvero il paziente ignora il trattamento che gli viene somministrato,
doppia, lo ignorano il paziente ed il medico o tripla, lo ignorano paziente, medico e statistico. La cecità è
utilizzata per eliminare i bias psicologici dovuti alla conoscenza del trattamento e della sua assegnazione ed è
uno degli indicatori utilizzati per valutare la qualità di un trial. La cecità è indispensabile quando gli end-
point implicano un certo margine di soggettività, come nel caso di interpretazione di imaging, oppure
l'intensità o la presenza di sintomi come il dolore.
In fase di progettazione della ricerca, un aspetto importante è costituito dalla definizione a priori
della numerosità campionaria, stabilita sulla base degli errori di primo e secondo tipo, della risposta che ci
si attende e della variabilità. Tale numerosità deve essere stimata tenedo anche conto della necessità di
compensare le eventuali perdite al follow-up (drop-out).
La registrazione e la comunicazione delle sospensioni del trattamento e dei drop-out forniscono
informazioni essenziali sulla tollerabilità del trattamento stesso e sulla capacità degli sperimentatori di
mantenere la compliance dei pazienti.
La frequenza dei drop-out è un problema importante, perché questi non si distribuiscono casualmente
all’interno dei gruppi considerati, ma, al contrario, si concentrano fra i soggetti che trovano meno
giovamento dal trattamento ricevuto; la valutazione finale perciò, per essere corretta ed oggettiva, è
opportuno che sia basata su tutti i soggetti che all’inizio dello studio ci si era riproposto di trattare (intention
to treat principle), eventualmente considerando i drop-out come soggetti con risposta negativa.
L’esigenza di effettuare la randomizzazione deriva dalla necessità di prevenire bias di selezione dei
pazienti. Inoltre questa procedura consente di utilizzare le tecniche proprie dell’inferenza statistica per
valutare, a fine follow-up, se le differenze osservate fra i risultati ottenuti con i vari trattamenti siano
attribuibili al caso o ad una reale diversa efficacia terapeutica.
Il termine random non significa "per caso" ma indica una precisa tecnica. Per allocazione casuale si
intende che ogni paziente ha una probabilità conosciuta, in genere costante ed uguale, di essere assegnato ad
un trattamento; ciò può avvenire secondo varie procedure già in passato sommariamente trattate in questa
rubrica (v. NOFRONI 2000).
Randomizzazione casuale semplice
Si determina il trattamento per ogni paziente casualmente senza nessun vincolo (uguale allocazione
tra i gruppi). Se i gruppi sono due, tale procedura equivale ad assegnare i soggetti sulla base del lancio di una
moneta. E’ una procedura raramente applicabile, perché presuppone una estrema omogeneità del collettivo
campionato.
Randomizzazione in blocchi
Un blocco consiste in un numero specificato a priori di pazienti, tutti arruolati nello stesso tempo e
assegnati ai vari trattamenti in studio in modo da soddisfare il rapporto di allocazione prestabilito. Si utilizza
quando si vuole assicurare il bilanciamento nel numero di allocazioni fatte per i vari gruppi di trattamenti.
Per esempio, se consideriamo i soggetti in blocchi di 4, ci sono solo 6 modi in cui due soggetti potranno
venire assegnati al trattamento A e due al trattamento B:
AABB
ABAB
ABBA
BBAA
BABA
BAAB
Si scelgono i blocchi random per creare la sequenza delle allocazioni.
Il numero nei due gruppi in ogni tempo non può differire di oltre la metà della lunghezza del blocco.
La dimensione del blocco in genere è un multiplo del numero dei trattamenti. Grandi blocchi dovrebbero
essere evitati, in quanto si controlla meno il bilanciamento
Randomizzazione stratificata
I fattori prognostici che verosimilmente condizionano l'esito terapeutico, possono essere bilanciati tra
i vari gruppi. Il metodo è di produrre una lista randomizzata separata in blocchi per ogni sottogruppo (strato).
Per esempio in uno studio per comparare due trattamenti alternativi per il tumore della mammella potrebbe
essere importante stratificare secondo lo stato di menopausa.
Si devono costruire due liste separate di numeri casuali per le donne in premenopausa e
postmenopausa. E’ essenziale che l'allocazione stratificata del trattamento sia basata sulla randomizzazione
in blocchi all'interno di ogni strato piuttosto che la randomizzazione semplice, altrimenti non c'è controllo del
bilanciamento.
Nell’ambito degli studi RCT, si possono individuare due grandi categorie di disegni sperimentali.
Entro pazienti
Negli studi entro pazienti (o cross-over) i soggetti trattati fanno parte di un unico gruppo
sperimentale e ad ogni paziente vengono somministrati alternativamente tutti i trattamenti. In questo caso è
randomizzata la sequenza con cui ciascun trattamento viene somministrato a ciascun paziente.
Questo disegno in genere è utilizzato quando la malattia è cronica e relativamente stabile, ad
esempio asma, ipertensione, disturbi del sonno, angina, diabete, epilessia. Il vantaggio principale di questo
disegno di studio è la sua efficienza, poichè elimina la maggior parte degli errori dipendenti dalla variabilità
biologica individuale, infatti ogni soggetto è il controllo di sè stesso. Conseguenza diretta di questa
efficienza, è la possibilità di poter utilizzare una numerosità campionaria ridotta rispetto al disegno tra
pazienti. Un altro potenziale vantaggio è la possibilità di studiare le reazioni individuali al trattamento.
Le limitazioni di questi studi riguardano l’impossibilità di essere utilizzati per processi patologici che
evolvono in tempi brevi e la possibile sommazione degli effetti farmacologici (carry-over); a tal fine è
opportuno prevedere un periodo in cui verosimilmente l'effetto residuo del trattamento viene eliminato, detto
periodo di wash – out (letteralmente: lavaggio).
Come conseguenza di tali vantaggi e svantaggi i disegni cross-over vengono usati prevalentemente
per studi di fase I e fase II, oppure per studi di bioequivalenza.
Tra pazienti
Il numero di gruppi sperimentali è pari al numero dei trattamenti somministrati e ad ogni paziente
viene somministrato un solo trattamento.
Una particolare importanza riveste la definizione degli obiettivi dello studio (end-point) e la scelta
della variabile risposta. L’identificazione della variabile risposta deve essere motivata in funzione delle
caratteristiche della patologia studiata, indicando il tipo di variabile, qualitativa o quantitativa, e la pertinente
legge di distribuzione.
Per trattamenti in pazienti con malattia clinicamente misurabile, possono scegliersi come end-point
primari alcune manifestazioni oggettive quali, ad esempio, frequenza delle risposte documentate, loro durata
ed entità, tempo intercorso tra inizio trattamento ed eventuale decesso, tempo libero da malattia, ecc.
Per malattie a decorso cronico l'efficacia del trattamento si misurata generalmente su end-point
secondari (tossicità, effetti collaterali, qualità della vita, valutazione dello stato di malattia).
PROTOCOLLO DELLO STUDIO
La pianificazione di una sperimentazione clinica comporta la stesura di un documento, detto
Protocollo dello studio, nel quale devono essere riportati, in dettaglio, tutti gli aspetti caratterizzanti la
ricerca che ci si ripropone di intraprendere, al fine di poter comunicare le caratteristiche della stessa ai vari
ricercatori e standardizzarne le procedure sperimentali.
Per sperimentazioni particolarmente complesse è anche consigliabile la stesura di un manuale
operativo e la sintesi dell’intero processo sperimentale in un diagramma di flusso (flow-chart).
Esemplificando, i punti che dovrebbero essere trattati in un protocollo completo e corretto, sono i
seguenti:
-
Introduzione
Valutazione dei risultati ottenuti sugli animali
Motivazione clinica
Obiettivi primari e secondari
Criteri di arruolamento dei pazienti
Eticità
Consenso informato
Durata del trattamento
Stima del numero di drop-out
Calcolo a priori della numerosità campionaria
Procedura di randomizzazione
Descrizione del trattamento
Definizione del disegno sperimentale
Definizione dei criteri di valutazione
Cecità
Schede di rilevazione
Gestione dei dati
Esami al tempo basale
Analisi intermedie
Analisi finali
Elaborazioni statistiche
Conclusioni finali
-
Bibliografia
VALUTAZIONE DELLA QUALITÀ
La qualità di un trial è di ovvia rilevanza sia per lo studio in esame che per le revisioni sistematiche
(o metanalisi). Se i dati di base e il razionale scientifico della ricerca non sono consistenti, ne consegue che
anche l’interpretazione dei risultati risulterà distorta. La validità dei risultati generati di uno studio è una
dimensione importante della qualità.
La qualità è un concetto multidimensionale che può riguardare il disegno, la conduzione e l'analisi di
un trial oppure la qualità del reporting. Spesso queste fasi non vengono descritte accuratamente dagli Autori
dello studio, a tal fine un gruppo internazionale di studiosi ha sviluppato, intorno agli anni ’90, una
procedura, lo schema CONSORT (Consolidated Standards of Reporting Trial); tale schema comprende una
lista di controllo e un diagramma di flusso al quale dovrebbero adattarsi tutti i trial clinici. Questo strumento
è in evoluzione poiché viene sottoposto a continue revisioni, l’ultima è apparsa nel 2001 (MOHER et al.). In
sintesi si dovrebbero controllare i seguenti items al fine di poter valutare se lo studio è stato condotto in
modo adeguato oppure no:
- buon disegno dello studio con background scientifico e spiegazione del razionale;
- determinazione della numerosità campionaria;
- schema di randomizzazione;
- metodi statisticici;
- compliance dei soggetti;
- dati basali;
- outcome primari e secondari;
- eventi avversi;
- interpretazione e generalizzazione dei risultati;
- interpretazione generale in base alle evidenze correnti:
- per malattie a decorso cronico l'efficacia del trattamento misurata su end-point surrogati.
Campbell (1957) e Campbell & Stanley (1963) proposero una distinzione tra validità interna ed
esterna.
La validità interna è riferita alla minimizzazione dei possibili bias di conduzione del trial,
individuabili nelle quattro seguenti categorie:
- bias di selezione: allocazione distorta dei soggetti in fase di randomizzazione;
- bias di performance: fruizione di cure non omogenee;
- bias di individuazione: valutazione errata dell'outcome;
- bias di attrito: deviazioni dal protocollo e perdite al follow-up.
La validità esterna è basata sulla possibilità di generalizzare i risultati di un trial clinico ad altri
collettivi diversi da quello in studio. Le caratteristiche da considerare riguardano:
- i pazienti: età, sesso, gravità della malattia, fattori di rischio, comorbidità;
- il regime di trattamento: dosaggio, tempi e modi di somministrazione, tipo di trattamento all'interno
di una classe di trattamento, trattamenti concomitanti;
- il setting: livello delle cure, esperienza e specializzazione medica;
- la valutazione del
risultato: tipo di definizione dei risultati e durata del follow-up.
LA VERIFICA DELLE IPOTESI
Concettualmente il processo di verifica delle ipotesi consiste nello stabilire se una assunzione fatta
possa essere considerata accettabile o meno, sulla base delle informazioni raccolte su una campione, ovvero
solo su una parte delle unità statistiche della popolazione oggetto di studio. Essa trova nel test statistico lo
strumento basilare intorno al quale ruota tutta la logica di questo tipo di studi.
Può essere utile, schematicamente, individuare quattro distinte fasi operative:
1) DEFINIZIONE DELLE IPOTESI
2) DEFINIZIONE DEL RISCHIO DI ERRORE
3) SCELTA DEL TEST
4) DECISIONE FINALE
Analizziamole in dettaglio.
1) DEFINIZIONE DELLE IPOTESI
Lo studioso che vuole applicare i test statistici per prima cosa deve formulare l’ipotesi di partenza su
cui lavorare. Ma occorre precisare che tale ipotesi statistica è, in genere, ben diversa dall’ipotesi sperimentale
che è alla base della ricerca. L’ipotesi statistica infatti è basata sul presupposto che non ci sia alcuna
differenza fra i gruppi messi a confronto per il carattere oggetto di studio; per questo motivo viene appunto
indicata come Ipotesi nulla (H0). Se sussisteranno motivi per ritenere tale ipotesi non attendibile, si dovrà
adottare una seconda ipotesi, alternativa alla prima, che viene appunto definita Ipotesi alternativa (H1),
secondo la quale i gruppi messi a confronto sono diversi tra loro per il carattere preso in esame.
Se, ad esempio, si volesse valutare quale fra due diverse diete possa dare migliori risultati a livello di
accrescimento ponderale, si potrebbero costituire due campioni omogenei cui somministrare le due diete, con
il presupposto di valutare, dopo un adeguato periodo di tempo, quale avrà avuto migliore esito. L’ipotesi
nulla di partenza sarà che le due diete portano alle stesse variazioni ponderali medie (a meno di differenze
dovute a fattori casuali); se ci sarà motivo per rifiutare tale ipotesi, si accetterà l’ipotesi alternativa secondo
la quale le due variazioni medie sono diverse e quindi una dieta è migliore dell’altra.
2) SCELTA DEL RISCHIO DI ERRORE
Poiché in statistica inferenziale non potranno esserci conclusioni certe, ma solo probabilistiche, sarà
necessario fissare a priori il rischio di errore che lo studioso è disposto ad accettare nel respingere l’ipotesi
nulla quando questa in realtà è vera. Tale rischio di errore (detto errore di prima specie) viene
convenzionalmente indicato con α e classicamente posto uguale a 0.05 (o un valore inferiore, come 0.025,
0.01...). In pratica lo studioso è disposto a giungere ad una conclusione errata una volta su venti.
Definito l’errore di prima specie, in alcune ricerche può essere necessario definire anche l’errore di
seconda specie (β) cioè la probabilità di accettare l’ipotesi nulla quando questa è errata; il valore di β
generalmente è fissato fra 0.10 e 0.20.
In realtà, essendo gli errori α e β inversamente proporzionali tra loro, appare evidente che, fissato
l’uno, è immediatamente determinato anche l’altro. Entrambi però sono funzione della numerosità
campionaria e pertanto, laddove opportuno e possibile, si fissano a priori α e β ed in funzione di questi
rischi di errore e di altre informazioni a priori, si calcola con un processo inverso la numerosità
campionaria ideale, in grado cioè di rendere significativa (v. fase 4) la differenza fra i gruppi che si sono
presi in considerazione.
3) SCELTA DEL TEST
I test statistici sono molteplici (v. Tab. 1) e al profano che legge una pubblicazione scientifica può a
volte sembrare che lo statistico faccia una specie di slalon fra i test alla ricerca di quelli che meglio
supportino le teorie che vuole dimostrare. In realtà non è così: la scelta del test è basata su una molteplicità di
fattori e conoscenze a priori.
1) Tipo di verifica da effettuare: sulla dipendenza tra variabili, sul confronto tra medie, sul confronto tra
varianze, sulla simmetria della distribuzione dei dati, ecc.
E' necessario inoltre distinguere il caso di confronti tra campioni indipendenti (confronto tra gruppi
diversi, come nel caso di studi tra pazienti), e tra campioni dipendenti (quando cioè un gruppo di soggetti
viene seguito e studiato in tempi diversi, come negli studi entro pazienti o crossover). In quest'ultima
situazione la variabile oggetto di studio è generalmente data dalla differenza fra il valore che si riscontra al
tempo basale ed il corrispondente valore al tempo 1, al tempo 2, ecc. (test per dati appaiati).
2) Conoscenza, o meno, delle caratteristiche della distribuzione che la variabile oggetto di studio
presenta nella popolazione. Sono principalmente due le informazioni richieste: la conoscenza della forma
della distribuzione, se segue cioè la distribuzione normale o meno, e la conoscenza della variabilità della
popolazione, calcolata con un opportuno indice detto standard deviation (σ).
Disponendo delle informazioni su queste caratteristiche della variabile oggetto di studio si potrà
decidere quale tipo di test sia opportuno applicare:
se tali caratteristiche saranno conformi a determinati
assunti, si potranno applicare i cosiddetti test parametrici; in mancanza delle conoscenze a priori, o nel
caso queste non soddisfino i suddetti assunti, si potranno applicare i test non parametrici (anche detti
distribution free), meno potenti dei precedenti, ma che hanno il pregio di poter essere applicati facilmente e
senza il timore di basarsi su ipotesi non sufficientemente verificate.
3) Numerosità del campione.
A tutti è noto che quanto più il campione è grande tanto più il test fornisce risultati attendibili,
nondimeno esistono dei test particolarmente adatti a piccoli campioni come il test esatto di Fisher, il test t di
Student ecc. E’ opportuno precisare che vengono classicamente definiti piccoli campioni quelli che hanno
una numerosità inferiore alle 30 unità, ma la numerosità ideale dipende comunque dagli scopi della ricerca e
dalle caratteristiche delle tecniche statistiche utilizzate; ad es. applicando metodi statistici multivariati è
necessaria come minimo una numerosità campionaria di alcune centinaia di unità statistiche.
4) Tipo di scala con cui è espressa la variabile oggetto di studio.
Le scale più comunemente utilizzate sono le tre seguenti:
a) scala nominale: il carattere qualitativo oggetto di studio si presenta secondo qualità diverse per le quali
non è previsto un ordine di successione precostituito. Appartengono a questo gruppo ad esempio la
nazionalità (può essere italiana, francese, spagnola…), la professione (medico, avvocato, architetto ecc.), il
sesso (maschio o femmina), l'esito di un trattamento (guarito e non guarito) e così via. Utilizzando tale scala
l’unica relazione che può essere instaurata tra le unità statistiche è di uguaglianza o di diseguaglianza, senza
poter precisare né la grandezza né la direzione di tale diseguaglianza. E’ opportuno precisare che eventuali
codici numerici attribuiti convenzionalmente a tali qualità (come ad es. i codici attribuiti dall’Istat alle varie
forme morbose) hanno solo la funzione di etichette e non possono in alcun modo essere elaborati
matematicamente.
Per questo tipo di variabili si possono utilizzare solo test che si basano sulle frequenze come ad
esempio confronto tra conteggi, confronto tra proporzioni, test chi quadro, test di Mc Nemar ecc.
b) scala ordinale: il carattere qualitativo oggetto di studio si presenta secondo modalità per le quali esiste
un ordine di successione precostituito; ne sono esempio i mesi dell’anno (gennaio, febbraio, marzo…), il
livello di scolarità (analfabeta, elementari, media inferiore, media superiore, laurea), una graduatoria (primo,
secondo, terzo …), il livello sociale (basso, medio, alto). Si possono avere anche caratteri quantitativi che
però, per comodità, vengono sintetizzati su scala ordinale: ad es. l’età, comunemente espressa in anni, può
anche essere espressa come carattere qualitativo: neonato, adolescente, giovane, anziano ecc. Utilizzando
tale scala è possibile classificare le unità statistiche con concetti di uguale, maggiore o minore, ma anche in
questo caso senza poter quantizzare l’entità della diversità, infatti due posizioni successive non sono
necessariamente equidistanti tra loro; ad es. in una corsa ciclistica il secondo arrivato potrà avere il distacco
di un minuto dal primo, ma il terzo potrebbe giungere a cinque minuti dal secondo.
Con variabili di questo tipo si possono utilizzare sia test che si basano sulle frequenze che sui ranghi
(posizione assunta in una graduatoria).
c) scala a intervalli: la variabile considerata si presenta con diversi valori numerici; ne sono esempi l’età, il
peso, il reddito, il volume toracico ecc. Tali valori per comodità vengono frequentemente raggruppati in
classi (60 – 70 kg.; 70 – 80 kg. ecc). Le scale ad intervalli godono di due proprietà: esiste un ordinamento
naturale delle modalità in quanto queste sono espresse da valori numerici; esiste una unità di misura ed è
quindi sempre possibile calcolare la distanza tra le unità statistiche, rispetto al carattere considerato,
semplicemente effettuando la differenza fra i valori assunti da tali unità.
Si tratta in questo caso di variabili che forniscono le maggiori informazioni sui fenomeni oggetto di
studio e più gestibili dal punto di vista matematico formale; su queste può essere applicato qualunque tipo di
test statistico.
4) DECISIONE FINALE
L’elaborazione del test statistico porterà come risultato un valore del test stesso che a sua volta
individuerà una probabilità (p): la probabilità che il risultato ottenuto si sia verificato per solo effetto del
caso; appare quindi logico pensare che se tale probabilità è grande si possa attribuire appunto al caso la
diversità che si è osservata fra i gruppi messi a confronto (plausibilmente a quanto affermato nell'ipotesi
nulla), mentre se è molto piccola si possa ritenere che non sia stato il caso a determinare il risultato, ma
questo sia stato determinato da qualche altro fattore (come riportato nell'ipotesi alternativa).
Emerge quindi la necessità di un criterio oggettivo ed univoco per stabilire quando una probabilità
possa definirsi piccola o grande; il problema si risolve con il confronto del valore p trovato con la
probabilità dell’errore di prima specie α; se risulterà p > α, dove, come detto, generalmente α= 0.05, si sarà
ottenuto un risultato che è probabile si sia verificato per effetto del caso ed è quindi plausibile considerare
valida l’ipotesi nulla di eguaglianza. Al contrario, se risulterà p < α, si sarà ottenuto un risultato che appare
poco probabile essere dovuto al caso e quindi non coerente con l’ipotesi nulla prefissata. L'ipotesi nulla verrà
quindi rifiutata, lo studioso adotterà l’ipotesi alternativa (secondo la quale la diversità tra i gruppi è reale) ed
il risultato verrà definito significativo.
Operativamente sarà sufficiente, ricorrendo alle tavole relative al test utilizzato, confrontare il il
valore del test con il valore che, sulle tavole, individua la probabilità prefissata α (valore soglia); se il
valore del test sarà maggiore del valore soglia individuerà una p inferiore ad α per cui si respingerà l’ipotesi
nulla.
Nel caso contrario, ovverosia quando il valore desunto dal test risulterà inferiore al valore soglia, la
probabilità p sarà superiore ad α, quindi si sarà ottenuto un risultato che è probabile sia dovuto al caso, per
cui si accetterà l’ipotesi nulla.
E' opportuno precisare che il valore del test è inversamente proporzionale alla probabilità che il
valore stesso individua, ovvero quando il test fornirà un valore grande individuerà una p piccola e viceversa.
APPLICAZIONI
Esempio 1
Si vuol valutare se ci sia una diversa propensione al tabagismo nei due sessi; a tale scopo si sono
costituiti due gruppi (campioni in linguaggio statistico) di maschi (nM = 44) e di femmine (nF = 38),
omogenei tra di loro (se ci fossero rilevanti diversità di età, cultura, livello sociale ecc., l’eventuale diversa
propensione al tabagismo potrebbe essere attribuita a tali fattori).
L’ipotesi nulla di partenza è di indipendenza (la propensione al tabagismo non dipende dal sesso)
contro una ipotesi alternativa di dipendenza (la propensione al tabagismo dipende dal sesso). Il rischio di
errore è fissato come di consueto al 5 % (α= 0.05).
Volendo valutare la dipendenza tra due caratteri qualitativi, il test da adottare è il Chi quadro; se la
casistica fosse stata poco numerosa (n < 40) o fossero risultate frequenze teoriche molto piccole (< 5),
sarebbe stato preferibile il test esatto di Fisher.
Il valore del Chi quadro calcolato risulta pari a 4.6; utilizzando le relative tavole si osserva che per
α= 0.05 e gradi di libertà = 1, il Chi quadro teorico è pari a 3.841. Il nostro valore supera il valore soglia e di
conseguenza individua un risultato che presenta una probabilità di verificarsi inferiore ad α. L'ipotesi nulla di
partenza non appare plausibile, quindi la respingiamo e adottiamo in sua vece l'ipotesi alternativa: i due sessi
sembrano avere una diversa propensione nei confronti del tabagismo; tale affermazione ha una probabilità
dello 0.05 di essere errata.
Esempio 2
Si vuole valutare se il quoziente di intelligenza (QI) degli studenti con maturità scientifica sia diverso
da quello degli studenti con maturità classica. A tale scopo si costituiscono due campioni omogenei, ciascuno
di 21 individui, estratti casualmente fra gli studenti che hanno conseguito la maturità nel 1998 nei due tipi di
scuola.
Viene misurata con un opportuno metodo il QI dei due campioni, ottenendo i seguenti risultati:
Maturità scientifica
Maturità classica
Media (QI)
108
114
Varianza (QI)
70
86
E' noto che il QI si distribuisce in modo approssimativamente normale. Il campione è piccolo e
pertanto il test da adottare per il confronto delle due medie è il test t di Student per campioni indipendenti.
Per poterlo utilizzare è però necessario preliminarmente testare l'omogeneità delle varianze (verificare cioè
che le varianze non siano significativamente diverse) tramite il test F di Fisher.
H0: le varianze sono uguali
H1: la varianza degli studenti provenienti dal classico è maggiore di quella dei provenienti dallo
scientifico
Si pone inoltre α= 0.05
Si ottiene
86
F = ---------- = 1.22
70
Essendo 1.22 < F α = 2.12 (rispettivamente con 20 e 20 gradi di libertà), si evince che il nostro
risultato cade nell'area di accettazione dell'ipotesi nulla e pertanto si può concludere che le due varianze sono
omogenee tra loro: è corretto l'uso del test t. Se così non fosse stato sarebbe stato necessario effettuare una
trasformata della variabile o utilizzare un test non parametrico.
Si passa quindi al test t di Student per campioni indipendenti.
H0: le due medie sono uguali
H1: le due medie sono diverse
α= 0.05
Si ottiene t = 2.201. Poiché il valore del t teorico (per 40 gradi di libertà) è pari a 2.02, il valore da
noi trovato supera il valore soglia e ci induce a respingere l'ipotesi nulla. Il QI degli studenti con maturità
scientifica sembra essere diverso da quello degli studenti con maturità classica. Naturalmente da questi dati
non è possibile stabilire se sia il tipo di liceo a determinare una modificazione del QI, o ci sia una
autoselezione all'origine, per cui i ragazzi con il QI maggiore optano con maggiore frequenza per il liceo
classico.
Esempio 3
Il questionario Faces II fu realizzato da Olson, Portner e Bell al fine di studiare le dinamiche
familiari; è costituito da trenta domande, ciascuna delle quali prevede come risposta un punteggio da 1 a 5
che esprime la frequenza con cui, secondo l'intervistato, accade l'evento enunciato nella domanda (dove 1 =
quasi mai, …, 5 = quasi sempre).
Selezionato nell'ambito di una ricerca infermieristica un campione di 200 famiglie, il Faces II fu
somministrato comparativamente a due membri di ciascuna famiglia, uno giovane (25 < età < 50) ed uno
anziano (> 65), al fine di evidenziare eventuali differenze di giudizio.
Considerata una singola domanda (ad es. la n. 7: "Nella nostra famiglia si fanno le cose insieme") si
pone il problema di come valutare statisticamente le risposte.
Un primo approccio può consistere nel calcolare rispettivamente il punteggio medio fornito dai
giovani e dagli anziani e di testarne la relativa differenza:
Media (giovani) = 4.6
Media (anziani) = 5.3
Per la scelta del test occorre tener conto che:
1) le risposte ottenuti si presentano secondo una distribuzione non conforme alla distribuzione normale (o di
Gauss), ma sono anzi vistosamente asimmetriche; il campione è comunque molto ampio, il che tende a
rendere normale la distribuzione campionaria delle medie.
2) i punteggi forniti non individuano una variabile quantitativa, ma soltanto una scala ordinale;
3) membri della stessa famiglia si può presumere che forniscano risposte fondamentalmente simili, quindi si
sia di fronte a dati dipendenti (detti anche dati appaiati).
Alla luce di quanto sopra, si ritiene che il corretto test da adottare per confrontare le due medie sia il
test non parametrico di Wilcoxon che utilizza i ranghi (posizione assunta in una graduatoria).
H0: la media dei punteggi forniti dai giovani non è diversa da quella dei punteggi forniti dagli
anziani.
H1: la media dei punteggi forniti dai giovani è diversa da quella dei punteggi forniti dagli anziani.
α= 0.05.
Poiché il test di Wilcoxon fornisce un valore che non supera il valore soglia, si decide di accettare
l'ipotesi nulla e di affermare quindi che la media dei punteggi non sembra essere diversa fra giovani ed
anziani.
In alternativa si può calcolare la Statistica K che calcola il livello di concordanza fra le risposte
fornite dai giovani e dagli anziani, con K compreso fra 0 (minimo) e 100 (massimo). Nel nostro caso si è
trovato un valore pari al 47 % che sta ad indicare un discreto livello di concordanza. Tale risultato può essere
testato utilizzando il test Z.
H0: K = 0
H1: K > 0
α= 0.05.
Poiché Z = 2.25 > Z α = 1.65 si può respingere l'ipotesi nulla, accettare l'ipotesi alternativa ed
affermare che il valore della concordanza espressa dalla statistica K non sembra dovuto al caso.
LA STIMA DEI PARAMETRI
Dopo la verifica di ipotesi, un'importante area dell'inferenza statistica è quella relativa alla stima dei
parametri ignoti della popolazione. Lo studioso infatti si pone l'obiettivo di ottenere, con i dati parziali
ottenuti dal campione, informazioni attendibili in merito alla popolazione da cui il campione stesso è stato
estratto; il valore che un certo fenomeno assume nella popolazione viene detto parametro e il
corrispondente risultato desunto dai dati campionari si può considerare una sua stima.
Definita la variabile di interesse (ad esempio X = pressione arteriosa sistolica) e prendendo in
considerazione, a puro scopo esemplificativo, il parametro media aritmetica della popolazione,
convenzionalmente indicata con la lettera greca μ, la corrispondente stima sarà fornita dalla media aritmetica
campionaria. Questa tipo di stima viene detta stima puntuale, in quanto rappresenta un valore preciso,
graficamente identificabile in un punto collocato sull'asse delle ascisse all'interno del range di dispersione dei
valori campionari.
Questa stima ha però il limite che lo studioso non ha alcun modo di valutarne l'attendibilità: potrebbe
infatti trattarsi di una stima molto vicina al valore ignoto μ, e quindi del tutto attendibile, oppure molto
lontana da esso, risultando quindi fuorviante.
Per superare questo problema, viene utilizzato un altro tipo di stima, detta stima intervallare (o
intervallo di confidenza); questo metodo consente di affermare che la media ignota μ è compresa in un
intervallo noto con una probabilità prefissata.
Fissata infatti a priori la probabilità di errore α, la stessa cha abbiamo visto nell'ambito della verifica
di ipotesi essere identificata come probabilità dell'errore di primo tipo, è immediatamente definita la
probabilità che l'intervallo definito comprenda μ, pari ad 1 - α. Pertanto se α = 0.05 sarà 1 - α = 0.95.
Sarà quindi
Prob { M - θ ES < μ < M + θ ES} = 0.95
Dove
M = media campionaria
ES = errore standard (errore medio che si commette stimando μ con la media
campionaria) dato dalla deviazione standard campionaria o della popolazione, se nota)
diviso radice di n (n = numerosità campionaria)
θ = valore della distribuzione Z o della distribuzione t (dipende dalle caratteristiche dello
studio) che delimita nelle due code della distribuzione un'area totale pari ad α
Mi accorgo con orrore che ho bruscamente tradito il mio proposito, fin qui rispettato, di divulgare la
metodologia statistica senza appesantirla, per quanto possibile, con simboli e formule; credo però di dover
fare una eccezione in questo caso, perché la suddetta formula, peraltro non terribile, se ben compresa
consente importanti riflessioni.
Se ad esempio a seguito di uno studio risultasse che i soggetti trattati con un determinato farmaco
presentano, con la probabilità del 95 %, una pressione sistolica compresa tra un minimo 120 ed un massimo
di 160 mm di mercurio, lo studioso sarebbe giunto ad una conclusione del tutto ovvia e per nulla conclusiva.
Potrebbe riproporsi perciò di modificare le caratteristiche dello studio per ottenere un intervallo meno ampio.
Un intervento potrebbe consistere nell'aumentare α, perché così facendo θ sarebbe minore (sia che si
utilizzi la distribuzione Z che la t) e quindi l'intervallo più piccolo; questo comporterebbe però un aumento
del rischio di errore, appunto identificato da α, e quindi si otterrebbe una maggiore precisione a scapito di
una minore sicurezza.
Altra soluzione potrebbe consistere nell'aumentare la numerosità campionaria n: infatti nella formula
dell'errore standard aumenterebbe il denominatore con conseguente diminuzione dell'errore standard stesso e
quindi della variabilità. E' questa naturalmente la soluzione ottimale, ma è opportuno ricordare che un
aumento della dimensione del campione comporta quasi sempre costi e/o tempi maggiori. Inoltre nella
formula dell'errore standard n si trova sotto radice, quindi ad un eventuale raddoppio della numerosità
campionaria non corrisponde un dimezzamento dell'errore standard: se, ad esempio, con un campione di 25
unità si fosse ottenuto un ES = 20, raddoppiando il campione si otterrebbe un ES = 14.14 con una
diminuzione quindi di poco superiore al 25 %.
Non ritengo opportuno, in questa sede, precisare i passaggi logici e formali che consentono di
arrivare alla definizione dell'intervallo di confidenza, gioverà però ricordare che questa metodica, come
anche quella relativa alla verifica di ipotesi, è basata sulla conoscenza della distribuzione normale (o di
Gauss) che svolge un ruolo fondamentale in gran parte delle tecniche relative all'inferenza statistica.
CALCOLO DELLA NUMEROSITA’ CAMPIONARIA
Posto che in uno studio clinico tendente a valutare dell'efficacia di un certo trattamento la risposta
terapeutica possa essere individuata nella variazione media (ad esempio: prima e dopo la cura) di una certa
variabile presa in esame, per poter stabilire a priori la numerosità campionaria necessaria per portare a
termine la ricerca in modo soddisfaciente, cioè dimostrando la validità del trattamento, è necessario disporre
di quattro informazioni:
•
•
•
•
errore α (o errore di primo tipo): probabilità di ritenere efficace il trattamento mentre in realtà la
variazione osservata è solo casuale;
errore β (o errore di secondo tipo): probabilità di ritenere la variazione dovuta al caso mentre in realtà
è conseguenza del trattamento;
differenza media clinicamente rilevante (δ);
deviazione standard (σ) delle differenze prima/dopo.
Le prime due informazioni sono facilmente disponibili, in quanto le determina, a priori, il
ricercatore: l'errore α classicamente viene posto pari a 0.05, mentre l'errore β oscilla, in genere, tra 0.10 e
0.20.
Le ultime due informazioni creano qualche problema in più perché sarebbero dati desumibili solo
dall'esperienza, cioè dopo aver portato a termine la ricerca. Nella pratica viene preliminarmente condotto uno
studio pilota (cioè su un numero limitato di soggetti) e sulla base dei risultati ottenuti vengono stimate le
due informazioni mancanti. E' inoltre possibile, in corso di sperimentazione, ritarare la numerosità
campionaria sulla base dei dati raccolti in itinere.
E' opportuno precisare che la differenza media individuata deve necessariamente essere
clinicamente rilevante, cioè tale da costituire un risultato valido e soddisfacente dal punto di vista clinico,
sia in assoluto che in confronto di pratiche terapeutiche similari. Avrebbe poco senso, infatti, proporre una
terapia poco efficace o comunque meno valida di altre terapie note, a meno che in essa non si individuino
rilevanti vantaggi a livello di tempi e/o costi di produzione, nonché di controindicazioni ed effetti collaterali.
Vogliamo infine ricordare, dal punto di vista statistico, che quanto più la variazione media ottenuta è
modesta, tanto più il campione tendente a dimostrare la validità del trattamento deve essere numeroso; la
necessità di dover disporre di una casistica particolarmente ampia può peraltro comportare ulteriori problemi,
sia pratici che economici, per chi conduce la ricerca.
INTRODUZIONE ALLA META-ANALISI
Le revisioni sistematiche delle migliori evidenze disponibili concernenti i rischi e i benefici degli
interventi medici possono essere utili per prendere decisioni nella pratica clinica e nella sanità pubblica. Tali
revisioni sono, quando possibile, basate sulle meta-analisi. La meta-analisi è una tecnica statistica per
combinare, o integrare, e quindi valutare complessivamente i risultati di più studi indipendenti aventi un
oggetto comune.
Il termine “meta” indica qualcosa che “avviene dopo” e spesso viene utilizzato come suffisso per una
nuova disciplina collegata con una precedente per poterla trattare criticamente.
La meta-analisi potrebbe essere vista come uno studio osservazionale dell’evidenza. Le fasi sono analoghe a
quelle di ogni ricerca statistica: formulazione del problema, raccolta dei dati, analisi, interpretazione e
pubblicazione dei risultati. I ricercatori dovrebbero predisporre prioritariamente un protocollo dettagliato di
ricerca che formuli chiaramente gli obiettivi, le ipotesi da saggiare, i sottogruppi di interesse, i metodi
proposti e i criteri per identificare e selezionare gli studi più rilevanti (ad esempio si può decidere di
includere, o meno, studi non pubblicati) e per estrarre ed analizzare le informazioni.
In alcuni settori clinici, in modo particolare nella valutazione dell’efficacia di farmaci e trattamenti
antitumorali e delle malattie cardiache, consultando la letteratura è possibile imbattersi in numerosi trials che
cercano di fornire risposte circa l’efficacia di determinati trattamenti terapeutici.
La difficoltà per i clinici consiste nell’interpretare una molteplicità di studi che alle volte forniscono
risultati discordanti. Accade spesso, ad esempio, che trial clinici forniscano risultati incerti a causa della loro
scarsa numerosità campionaria oppure ci siano studi in conflitto tra loro nella stima del beneficio netto,
anche perché alcuni studi mostrano i rischi ed altri illustrano i benefici.
In tale contesto si inseriscono le meta-analisi; queste forniscono una sintesi razionale della ricerca di
base valutando la qualità del disegno sperimentale e della sua esecuzione di tutti gli studi considerati,
combinando i risultati in modo non distorto. In tal modo si presentano le evidenze esistenti e viene
individuata una stima quantitativa del beneficio netto aggregato relativo a tutti gli studi.
La meta-analisi non consiste solo nella combinazione dei dati ma include l’esplorazione
epidemiologica e la valutazione dei risultati (epidemiologia dei risultati) sostituendo questi ultimi
all’individuo come unità di analisi. Nelle meta-analisi, inoltre, si possono saggiare nuove ipotesi.
Limitazioni di uno studio singolo
Uno studio singolo spesso non riesce ad individuare (o ad escludere) una modesta differenza,
sebbene clinicamente rilevante, esistente tra due trattamenti. Un trial può quindi mostrare assenza di effetto
anche quando in realtà l’effetto esiste, cioè può produrre un risultato falso negativo. In questo caso ci si
trova di fronte ad un errore di II tipo (accettazione dell’ipotesi nulla quando questa è falsa), la cui
probabilità di verificarsi può essere calcolata per una data differenza nell’effetto del trattamento, una
determinata dimensione campionaria e un prefissato livello di significatività.
In genere, negli studi clinici, si fa riferimento solo all’errore di I tipo per valutare differenze
statisticamente significative, la cui probabilità di verificarsi corrisponde al P value. Un esame dei clinical
trials che riportano differenze statisticamente non significative fra trattamento sperimentale e controllo ha
però mostrato che l’errore di II tipo è molto comune nella ricerca clinica: per una differenza clinicamente
rilevante nell’esito la probabilità a priori di mancare questo effetto a causa della modesta dimensione del
trial, è più grande del 20 % in 115 dei 136 trials esaminati (Freiman 1992).
Il numero dei pazienti è spesso inadeguato in quanto, in alcuni casi, la dimensione campionaria ottimale è
difficile da raggiungere. Un farmaco che riduca del 10 % il rischio di morte per infarto del miocardio
potrebbe, ad esempio, cancellare migliaia di morti ogni anno nella sola Inghilterra. Ma per rilevare un tale
effetto, con il 90 % di probabilità, cioè con errore del II tipo non superiore al 10 %, ci sarebbe bisogno di più
di 10.000 pazienti in ogni gruppo di trattamento (Collins 1992).
L’approccio meta-analitico sembra fornire una interessante alternativa a tali studi troppo estesi,
estremamente costosi e logisticamente problematici.
La meta-analisi può inoltre contribuire alla generalizzazione dei risultati: i risultati di un particolare
studio possono essere validi solo per una popolazione di pazienti con le stesse caratteristiche di quelli
indagati nel trial. Se invece esistono molti trials in differenti gruppi di pazienti, con risultati simili nei vari
trials, si è portati a concludere che l’effetto dell’intervento sotto studio possa essere generalizzato.
Requisiti fondamentali della meta-analisi
Le meta-analisi dovrebbero essere pianificate attentamente così come ogni altro progetto di ricerca,
con un protocollo dettagliato predisposto in anticipo. Una definizione a priori dei criteri di eligibilità degli
studi da prendere in considerazione, una ricerca attenta di tali studi, per valutarne il livello di qualità e
l’utilizzo di dati non distorti, e una revisione sistematica ben eseguita, sono requisiti fondamentali per
un’alta qualità della meta-analisi.
Vantaggi
1. Fornisce un quadro di riferimento più chiaro di quanto possano studi di piccole dimensioni e quindi di
scarsa potenza.
2. Superamento di bias dovuti a revisioni descrittive (non sistematiche) che tendano ad includere solo studi
con risultati che mostrano benefici.
3. Maggiore precisione, in quanto la dimensione dell’effetto stimato dipende dal numero di pazienti
studiati.
4. Trasparenza delle scelte effettuate, in quanto una buona meta-analisi consente di determinare la
decisione più idonea.
Limiti
Come tutte le tecniche di ricerca ci possono essere distorsioni nella conduzione e nell’interpretazioni delle
meta-analisi. Anche se i dati provengono da studi randomizzati, le meta-analisi sono essenzialmente studi
osservazionali di evidenza, per cui sono soggette a diversi bias che possono indebolire i risultati trovati.
Bias di localizzazione e selezione degli studi
Al fine di evitare i bias di pubblicazione (si pubblicano maggiormente gli studi che raggiungono
risultati positivi) si devono utilizzare criteri univoci di inclusione o rifiuto degli studi da considerare.
Un modo semplice per valutare il bias di selezione è quello di costruire un funnel-plot (vedi oltre)
che visualizzi la dimensione dell’effetto stimato vs la dimensione campionaria degli studi inclusi nella metaanalisi. Il funnel plot è basato sul fatto che la precisione nello stimare l’effetto del trattamento sottostante si
incrementerà all’aumentare della dimensione campionaria.
I risultati provenienti da studi di piccole dimensioni si disperderanno ampiamente verso il basso del
grafico, con una diffusione limitata tra gli studi più grandi. In assenza di bias il plot assomiglierà ad un
funnel simmetrico. Al contrario, se ci sono errori, il funnel plot sarà spesso asimmetrico.
Bias di eterogeneità
La casistica considerata si può presentare disomogenea nei vari studi per alcune caratteristiche. Queste
possono riguardare:
Il gruppo di pazienti studiato in relazione a differenti stadi di gravità o diverse caratteristiche della
patologia.
Gli interventi applicati; una meta-analisi potrebbe includere lo studio di più trattamenti piuttosto che di
un singolo trattamento (ad es. magnesio o streptochinasi oppure agenti anti-colesterolo).
L’obiettivo primario: questo può differire tra gli studi e quindi una buona meta-analisi dovrebbe cercare
di aggregare studi con end-point comuni.
Luogo geografico diverso; spesso le meta-analisi combinano studi di differenti paesi, all’interno di
queste realtà vi possono essere altri fattori (ad esempio cure concomitanti, caratteristiche genetiche, ecc.)
che contribuiscono al successo o al fallimento dell’intervento terapeutico oggetto di studio.
L’eterogeneità degli studi è però inevitabile per la meta-analisi. La questione non è se essa sia
presente o meno, ma se risulti così estesa da minare le conclusioni che potrebbero essere tratte.
Se i risultati degli studi differiscono molto tra loro non è appropriato combinare i risultati. In questa
situazione, come valutare le differenze?
Un approccio consiste nell’esaminare statisticamente il grado di similarità nei risultati degli studi,
cioè saggiarne l’eterogeneità. Con tali procedure si valuta se i risultati riflettono un singolo effetto oppure
una distribuzione di effetti. Se il test mostra omogeneità ne segue che le differenze possono essere assunte
come conseguenze di variazioni campionarie ed è appropriato il modello ad effetti fissi. In caso contrario è
più idoneo il modello ad effetti casuali (vedi oltre).
Anche se esistono test statistici per valutare l’eterogeneità, di fatto hanno scarsa capacità di
individuare differenze sostanziali. Uno dei limiti principali di tali metodi è la mancanza di potenza statistica:
infatti comunemente si accetta l’ipotesi nulla (H0) anche quando esistono differenze sostanziali.
Per esempio alcune meta-analisi hanno esaminato il ruolo dell’eparina con basso peso molecolare
(LMWHs) come agente tromboprofilattico post-intervento e nel trattamento delle trombosi venose profonde.
Mentre alcune grandi reviews hanno dimostrato l’utilità di questa classe di farmaci, altre meta-analisi basate
su dati individuali sono state meno conclusive. Una possibilità interpretativa è che non tutte le LMWHs
abbiano le stesse caratteristiche, e che gli effetti benefici dei maggiori componenti efficaci siano diluiti in
aggregazioni eterogenee inappropriate. In questo caso le differenti LMHWs dovrebbero essere considerate
come entità chimiche distinte e di conseguenza analizzate separatamente con la conduzione di meta-analisi
appropriate.
Ulteriori bias
Perdita di informazioni su obiettivi importanti. In genere le meta-analisi riguardano variabili dicotomiche
(es vivo/morto, guarito/malato, recidiva/non recidiva) e viene spesso trascurato l’approccio quantitativo
al problema.
Analisi dei sottogruppi non appropriate. L’esplorazione di risultati su sottogruppi è spesso un obiettivo
della meta-analisi, talvolta per poter spiegare un insuccesso del trattamento. Si può esaminare un subsets
di studi isolati (probabilmente quelli con metodologia migliore) oppure, se sono stati utilizzati i dati
individuali per condurre la meta-analisi, sottogruppi di pazienti (ad es. anziani oppure quelli con
patologie più gravi). Questo approccio può offrire nuove prospettive da testare in futuri studi ma è
opportuno procedere con cautela nelle interpretazioni. Anche se gli studi sotto esame sono randomizzati,
questa randomizzazione e il conseguente bilanciamento tra gruppo trattato e gruppo di controllo
potrebbero non estendersi ai sottogruppi definiti successivamente. Tutto ciò è fonte di potenziali
confondenti e di interpretazioni errate, quindi indagare sugli effetti per sottogruppi dovrebbe essere visto
per ciò che è: esplorazione e non spiegazione.
Analisi di sensitività non adeguate. Poiché si possono prendere diverse decisioni circa la selezione,
l’inclusione e l’aggregazione dei dati e questo può condizionare i risultati principali, in genere per le
meta-analisi vengono condotte analisi di sensitività. L’analisi di sensitività esplora i modi in cui i
principali risultati possono cambiare variando l’approccio di aggregazione. Una buona analisi di
sensitività sarà in grado di valutare, tra le altre cose, l’effetto dell’esclusione di varie categorie di studi,
ad esempio trial non pubblicati o di scarsa qualità. Può inoltre esaminare la consistenza dei risultati tra i
vari sottogruppi.
Conflitto con nuovi dati sperimentali. Le meta-analisi cercano nuove conoscenze partendo da dati
esistenti; un modo per saggiare la validità di queste nuove conoscenze è quello di comparare i risultati
delle meta-analisi con i risultati dei cosiddetti mega-trials, studi randomizzati controllati condotti su larga
scala. Tali confronti in genere hanno un buon grado di accordo ma in alcuni casi vi possono essere
notevoli discrepanze. Ad esempio un tale esercizio ha condotto alla pubblicazione di un paper dal titolo
“Lezioni da un intervento efficace, sicuro e semplice che non è stato eseguito” (Egger & Davey-Smith
1995) riferito al mancato uso del magnesio intravenoso dopo un attacco di cuore.
Metodi statistici per calcolare l’effetto globale
Una semplice media aritmetica dei risultati di tutti i trials potrebbe dare risultati errati, infatti i
risultati che provengono da piccoli studi sono più soggetti a variazioni casuali. Il principale metodo utilizzato
per compensare tale distorsione consiste nel ponderare i risultati in modo da assegnare un peso maggiore ai
trials più grandi.
Le tecniche statistiche per la meta-analisi possono essere classificate secondo due distinti modelli, la
cui differenza consiste nel modo in cui è trattata la variabilità dei risultati.
Modello ad effetti fissi: considera che la variabilità sia dovuta esclusivamente a variazione random;
quindi, teoricamente, se tutti gli studi fossero infinitamente grandi dovrebbero fornire risultati identici.
Modello ad effetti random: assume l’esistenza di una componente della variabilità sottostante ai
dati e differente per ogni studio; considera tale componente come una fonte di variazione aggiuntiva che
conduce, talvolta, ad intervalli di confidenza più ampi rispetto al modello ad effetti fissi. Gli effetti si
assumono distribuiti in modo random e il punto centrale di questa distribuzione è il nucleo della stima
dell’effetto combinato.
Sebbene nessuno dei due modelli possa definirsi corretto, si evidenzia una sostanziale differenza se gli studi
sono marcatamente eterogenei.
Interpretare i risultati principali
Per confrontare i risoltati ottenuti sono comunemente usate diverse misure di associazione tra
trattamento e risultato dello stesso, definite, come negli studi epidemiologici, misure di effetto. Queste
possono essere assolute e relative.
La più utilizzata è l’Odds ratio (OR) che, come è noto, si interpreta come un rischio relativo.
L’Odds relativo ad un determinato evento patologico è dato dal numero dei pazienti che sperimentano un
determinato end-point diviso il numero di pazienti che non lo sperimentano. Per esempio l’odds di disturbi
gastrointestinale durante un trattamento antibiotico in un gruppo di 10 pazienti esposti, dei quali 4 con
disturbi e 6 senza disturbi, si ottiene con il rapporto 4 diviso 6 (0.66); nel gruppo di controllo l’odds può
essere 1 a 9 (0.11). L’odds ratio del trattamento rispetto al controllo sarà quindi 6 (0.66/0.11).
In alternativa si può utilizzare il Rischio relativo (RR). Conoscendo il rischio assoluto, dato dal
numero di pazienti che sperimentano un determinato end-point diviso il numero totale di pazienti, è agevole
il calcolo del rischio relativo. Nell’esempio precedente il rischio dovrebbe essere 4/10 nel gruppo trattato e
1/10 nel gruppo di controllo fornendo un rischio relativo di 4 (0.4/0.1).
L’odds ratio numericamente sarà vicino al rischio relativo se l’end-point si verifica non di frequente,
meno del 20%; se invece l’outcome è più comune, l’odds ratio sovrastima il rischio relativo.
Misure standardizzate
I risultati individuali devono essere espressi in forma standardizzata per consentire la comparazione
tra gli studi.
Se l’end-point è espresso da una variabile continua (ad es. livello di colesterolo, pressione arteriosa,
ecc.) si usa la differenza media tra il gruppo cui è stato assegnato il trattamento ed il gruppo di controllo. Le
differenze vengono presentate in unità di deviazione standard.
E’ opportuno precisare che la dimensione della differenza è influenzata dalla popolazione
sottostante. Ad esempio, un farmaco antiipertensivo avrà probabilmente un effetto assoluto maggiore se
riferito ad una popolazione di pazienti ipertesi rispetto a soggetti borderline. Quando gli outcomes sono
molto differenti tra i gruppi a diversi livelli di rischio non è appropriato condurre una meta-analisi in cui è
calcolata la stima complessiva dell’effetto del trattamento. Meglio effettuare una stratificazione in funzione
dei diversi livelli di rischio.
Se l’end-point è dicotomico (malato vs non malato, sintomo presente/assente...) si calcolano l’odds ratio o il
rischio relativo. L’odds ratio ha proprietà matematiche convenienti che consentono di combinare facilmente i
dati e saggiare l’effetto globale.
Quando si applicano i risultati nella pratica clinica, si usano misure come la riduzione assoluta del
rischio o l’NNT, numero minimo di pazienti da trattare per prevenire un singolo evento.
Rappresentazione grafica
I risultati dei trial valutati con la meta-analisi possono essere utilmente rappresentati graficamente insieme ai
loro intervalli di confidenza.
Generalmente si utilizza un grafico detto funnel plot; questo visualizza graficamente i risultati di
ciascuno studio individuale come una bolla o quadrato (l’effetto misurato) con un segmento orizzontale
corrispondente agli estremi dell’intervallo di confidenza (al 95 %) dell’odds ratio intorno al risultato
principale. La dimensione delle bolla può variare per riflettere l’ammontare dell’informazione nello studio
individuale; la lunghezza della linea orizzontale rappresenta l’incertezza della stima dell’effetto del
trattamento per quello studio.
Per rappresentare gli odds ratio si utilizza in genere una scala logaritmica ove la linea tratteggiata
verticale corrisponde ad un OR =1. Ci sono più motivi per rappresentare le misure di rapporto su scala
logaritmica: la più importante è che il valore di un odds ratio e del suo reciproco, per esempio 0.5 e 2,
rappresentano odds di stessa grandezza ma di direzione opposta, e saranno equidistanti da 1.
Il rombo rappresenta l’odds ratio combinato calcolato secondo il modello scelto (ad effetti fissi o ad effetti
random) della meta-analisi. Si può anche mostrare sulla stessa figura la dimensione dell’effetto aggregato per
alcuni sottogruppi. Questa tecnica consente peraltro soltanto una verifica visiva.
Conclusioni
Le meta-analisi offrono un approccio sistematico e quantitativo per la revisione di importanti
problemi terapeutici. Ciò nonostante vi possono essere errori nell’esecuzione delle meta-analisi che sono
dovuti fondamentalmente alla qualità degli studi sottostanti. Si ritiene che per i clinici e per i managers
sanitari un’attenta revisione delle meta-analisi pubblicate, bilanciata da una valutazione delle loro mancanze,
possa contribuire a risolvere alcuni problemi relativi alle incertezze terapeutiche.
Tabella 1 – Tipi di studio epidemiologico
Denominazione
Unità
epidemiologica
Misure di malattia
Misure di associazione
Possibili applicazioni
Rischio di bias
Capacità di evidenziare
relazioni causali
altissimo
nessuna
(talora generazione
di ipotesi)
alto
generazione di ipotesi
medio
bassa
medio-basso
(rischio di
perdite al
follow-up)
media
1) Osservazionali
a) descrittivi
soggetti
comunità
statistiche descrittive indici
mortalità
correlazioni
morbosità
etc.
- studi pilota
- studi esplorativi
b) analitici
b1) ecologici
popolazioni
gruppi
b2) trasversali
soggetti
b3) coorte o
longitudinali
soggetti
correlazione ecologica
- patologie rare
- rend
prevalenza
~ RR
- diffusione patologie
- fattori di rischio
incidenza
RR
- comparsa di nuovi casi di
malattia
- fattori di rischio
- effetto di interventi
b4) caso-controllo
soggetti
OR
- fattori di rischio
medio
media
2) Sperimentali
1) RCT (sperimentazioni
cliniche controllate)
2) Trial sul campo
soggetti
trattamento-esito
- valutazione efficacia trattamenti
basso
buona
soggetti
buona
comunità
- valutazione efficacia interventi
preventivi
- valutazione efficacia interventi
preventivi
basso
3) Trial in comunità
intervento-comparsa di
malattia
intervento-comparsa di
malattia
medio
medio
69
Metodi di analisi dei dati e loro interpretazione
Prima di vedere i metodi di analisi dei dati e la loro interpretazione, è opportuno
introdurre alcuni termini fondamentali. Un esempio pratico consentirà di
comprendere meglio i concetti che saranno esposti. Il direttore generale di una certa
ASL vorrebbe sapere qual è il grado di diffusione delle patologie cronicodegenerative nella popolazione residente sul territorio dell’Azienda Sanitaria da lui
diretta, al fine di meglio orientare le risorse disponibili. Pertanto è condotto uno
studio su un campione di 500 persone dai 20 ai 59 anni di età estratte in modo
casuale dalle liste dei medici di famiglia. Ogni individuo costituisce la minima unità
da cui si raccolgono le informazioni ed è detta unità statistica.
Le informazioni su ogni soggetto sono raccolte mediante un’intervista effettuata a
domicilio da personale opportunamente addestrato utilizzando un questionario semistrutturato, contenente oltre che le caratteristiche anagrafiche (sesso, età, stato civile,
scolarità) diverse domande indaganti lo stato di salute di ogni rispondente rispetto
alla presenza e assenza di cardiopatia ischemica, vasculopatie periferiche o cerebrali,
ipertensione, diabete, oltre che valori di pressione (sistolica o PAS e diastolica o
PAD), la concentrazione all’eventuale ultimo prelievo effettuato negli ultimi 12 mesi
di colesterolo, HDL, LDL, glicemia. Ciascuna informazione raccolta con il
questionario è detta variabile. La natura delle variabili è varia entro uno studio, nel
senso che alcune ‘misurano’ la presenza di determinati stati con cui la caratteristica si
può presentare (basti pensare al colore dei capelli, che può essere nero, marrone,
rosso, biondo), altre ‘misurano’ in termini quantitativi come una determinata
caratteristica si presenta e la esprimono per mezzo di un numero (si pensi alla
pressione sistolica). Come precisato in precedenza le variabili si dicono:
1) qualitative e si suddividono in nominali e ordinali. Una variabile si dice
nominale dicotomica o politomica quando assume rispettivamente due o più stati
tra loro non ordinabili. A titolo di esempio si ricordino per le variabili nominali
dicotomiche
il
sesso
(maschio/femmina)
e
la
cardiopatia
ischemica
(assente/presente); per quelle nominali politomiche il gruppo sanguigno (A, B,
AB, 0). Quando è possibile individuare un ordine tra gli stati assumibili, la
variabile si dice ordinale: e il grado di istruzione (analfabeta, licenza elementare,
licenza media inferiore, diploma superiore, laurea) o la gravità di un sintomo
(lieve, medio, forte) ne sono un esempio;
2) quantitative o numeriche quando specificano il valore assumibile mediante un
conteggio (come può essere il numero di attacchi anginosi e di gravidanze) o una
misurazione (il peso, l’altezza, il livello di colesterolo). Nel primo caso la
variabile si dice discreta perché può assumere solo valori interi, nel secondo
continua perché potrebbe assumere qualsiasi valore compreso in un intervallo se
il grado di precisione dello strumento di misurazione impiegato fosse
sufficientemente elevato.
L’informazione contenuta in ogni questionario è stato utilmente informatizzata (in un
foglio elettronico Excel) così da ottenere una matrice dei dati, costituita da tante
righe quanti erano i soggetti intervistati (500) e da tante colonne quante erano le
informazioni o variabili raccolte con il questionario. In generale, leggendo una riga
della matrice si ha l’informazione di un soggetto per tutte le variabili, leggendo una
colonna si ha per una stessa variabile l’informazione su tutti i soggetti. Dopo un
accurato controllo di qualità è iniziata la descrizione dei dati.
La statistica descrittiva
La statistica descrittiva comprende (come già detto) quelle tecniche che consentono
di sintetizzare i dati o variabili raccolte in una ricerca. Secondo la natura delle
variabili indagate sarà corretto l’impiego di una o diverse misure di sintesi.
Le frequenze e i grafici
Per poter rispondere alla domanda: quanti sono gli ipertesi e quanti i normotesi, è
necessario scegliere la colonna della matrice nella quale l’informazione sulla
ipertensione è stata inserita, e andare a contare quante volte compare la parola
‘presente’ e quante volte quella ‘assente’. Ovviamente la somma dei due conteggi
sarà uguale al totale delle osservazioni effettuate.
Così facendo altro non si determina che la distribuzione di frequenza assoluta di una
variabile, da cui si può ricavare quella relativa rapportando il conteggio di ogni
modalità al totale delle osservazioni fatte, e moltiplicando quest’ultima per 100 si
ottiene quella percentuale:
IPERTENSIONE
Presente
Assente
Totale
Frequenza
assoluta
201
299
500
Frequenza
Relativa
201/500=0,40
299/500=0,60
500/500=1,00
Frequenza
percentuale
40%
60%
100%
Leggendo la colonna relativa alla distribuzione di frequenza percentuale (Frequenza
percentuale) si sa che per la variabile ipertensione la frequenza percentuale della
modalità ‘presente’ è del 40 % ossia che l’ipertensione è presente nel 40% dei
soggetti campionati.
Le distribuzioni di frequenza sono
o istogramma a canne d’organo del tipo:
il primo modo con cui vanno
PRESSIONE SISTOLICA
sintetizzate le informazioni, siano
esse variabili qualitative come il
sesso oppure quantitative come la
40%
30%
sarebbe
20%
auspicabile prima raggruppare in
10%
PAS.
classi
In
i
calcolarne
tal
caso
valori
la
osservati
e
distribuzione
di
0%
[110120)
[120130)
[130140)
[140150)
[150160)
[170180)
intervallo di classe di 10 mmHg
frequenza. Poi sulla base di questa
distribuzione, costruire un grafico
Dalla tabella riportata a lato, si deduce
che la frequenza percentuale per la
classe [160-180) mg/100 ml è 11%, ossia
si
ricava
che
l’11%
dei
soggetti
campionati presentano un valore di
colesterolo compreso tra 160 e 180
mg/100ml.
Colesterolo
(mg/100ml)
[140-160)
[160-180)
[180-200)
[200-220)
[220-240)
[240-260)
[260-280)
[280-300)
Frequenza
%
4
11
22
24
19
10
7
3
100
Per le variabili quantitative è possibile determinare la distribuzione di frequenza
cumulata partendo da quella assoluta, oppure relativa o percentuale, come
esemplificato nella tabella sottostante per la distribuzione di frequenza percentuale
del colesterolo raggruppato in classi:
Colesterolo
(mg/100ml)
[140-160)
[160-180)
[180-200)
[200-220)
[220-240)
[240-260)
[260-280)
[280-300)
Frequenza
%
4
11
22
24
19
10
7
3
100
Freq. Cumulata
%
4
4+11=15
4+11+22=37
4+11+22+24=61
4+11+22+24+19=80
4+11+22+24+19+10=90
4+11+22+24+19+10+7=97
4+11+22+24+19+10+7+3=100
La frequenza cumulata percentuale alla classe [160-180) è pari al 15% e ci dice qual
è la percentuale di soggetti che presentano un valore di colesterolo ematico ‘fino a
180 mg/100ml’: infatti, si determina sommando la frequenza percentuale per la
classe [140-160) con la frequenza percentuale per la classe [160-180).
Le misure di sintesi
Nel caso di variabili quantitative sono però calcolabili altre importanti misure di
sintesi che vanno sotto il nome di misure o statistiche descrittive: la media, la
mediana, i percentili, la moda, sono tra le misure di posizione; il range, la varianza, la
deviazione standard, sono alcune misure di dispersione o variabilità. Tali misure
sintetizzano in un unico valore numerico l’informazione raccolta e ciò è
particolarmente vantaggioso nel caso di campioni numerosi, dove è possibile trovare
differenti e svariati valori assunti dalla variabile quantitativa esaminata.
La media aritmetica è la somma dei valori che una variabile assume per ogni unità
statistica osservata divisa per il numero di unità statistiche e si indica con x (si legge
ics sopra segnato) o M quando si tratta di un campione:
n
x=
∑x
i =1
n
i
e con la lettera greca µ (si legge mi) quando si tratta di una popolazione e in tal caso
si parla di parametro.
La mediana è il valore della variabile che divide esattamente a metà la serie ordinata
(in senso crescente o decrescente) delle osservazioni.
I percentili dividono la serie ordinata delle osservazioni in 100 parti, contenenti
ciascuna l’1% delle osservazioni. I più noti sono: il 25° percentile che lascia prima di
sé il 25% delle osservazioni e il 75% dopo, il 50° percentile che lascia il 50% prima e
il 50% dopo, il 75° percentile che lascia il 75% prima e il 25% dopo. Come si può
facilmente dedurre da quanto sopra detto il 50° percentile coincide con la mediana.
La moda è il valore che la variabile assume con maggior frequenza. Può esserci più
di una moda.
Il range è la differenza tra il valori massimo e il valore minimo osservati per una
certa variabile. Tale misura di variabilità tende però a diventare più grande
aumentando il numero di osservazioni e comunque non ci dice quanto siano
‘dispersi’ tra il massimo e il minimo i valori della variabile esaminata. Più utile
sarebbe allora determinare la distanza o scarto di ogni (i-esima) osservazione dalla
media e poi fare la media di queste distanze, così da determinare la distanza media:
∑ (x
i
− x)
n
Purtroppo però il numeratore di questo rapporto, cioè la somma degli scarti delle
osservazioni dalla media, è 0. Per ovviare a questo problema una delle possibilità è
l’elevamento a quadrato di ogni scarto, che porta sempre a valori positivi. La somma
di tali scarti elevati al quadrato è detta anche devianza. A questo punto sarà possibile
calcolare la media dei quadrati degli scarti intorno alla media che è la misura di
sintesi nota come
Varianza =
∑ (x
i
− x)
2
(n − 1)
indicata solitamente con s2, nel caso di un campione, o con σ2 (si legge sigma), se si
tratta di popolazione. Al denominatore anziché n si può mettere (n − 1) ossia i gradi
libertà, ricordando così un solo modo per calcolare la varianza. I gradi di libertà è “il
numero di quantità indipendenti tra tutte quelle osservate, dove per quantità si
intendono gli scarti dalla media di tutte le n osservazioni”: tenuto conto il vincolo
che la somma degli scarti delle osservazioni dalla media è uguale a zero, noti (n − 1)
scarti si trova per differenza l’nsimo valore.
Come si deduce dalla stessa definizione, la varianza esprime i valori della
dispersione elevati al quadrato. Il modo per ritornare ad esprimere la dispersione
nella stessa unità di misura della media è estrarre la radice quadrata della varianza,
ossia:
s =
2
∑ (x
i
− x)
2
(n − 1)
Così facendo si determina la cosiddetta deviazione standard, indicata con s o DS per
un campione, o σ se si tratta di popolazione.
Per meglio capire quanto sopra spiegato, consideriamo il seguente esempio: si
supponga avere un campione di 8 studenti di medicina da cui è raccolta
l’informazione sull’altezza 171, 168, 174, 172, 180, 175, 176, 177 (in cm). La media
dell’altezza è pari a 174,125 cm. Calcolando gli scarti di ogni osservazione dalla
media e sommandoli (seconda colonna), si otterrebbe zero.
xi
( xi − x )
x
168 − 174,125 =
171 − 174,125 =
172 − 174,125 =
174 − 174,125 =
175 − 174,125 =
176 − 174,125 =
177 − 174,125 =
180 − 174,125 =
−6,125
−3,125
−2,125
−0,125
+0,875
+1,875
+2,875
+5,875
0,000
( xi − x ) 2
37,516
9,766
4,516
0,016
0,766
3,516
8,266
34,516
98,878
Elevando al quadrato gli scarti tale problema si elimina (terza colonna), quindi la
varianza è
∑ (x
i
− x)
2
n −1
=
98,878
= 14,125429 cm2
7
e la deviazione standard sarà la sua radice quadrata pari a 3,76 cm.
Tornando al caso dell’esempio iniziale, nel campione esaminato di 500 individui per
la variabile colesterolo si avrebbe:
x = 203,56 µg/100ml;
mediana=175 µg/100ml;
min=145 µg/100ml;
max=390 µg/100ml;
s=80,66 µg/100ml;
R=245 µg/100ml
Nel caso di variabili quantitative i cui valori sono osservati più di una volta, ossia
con frequenza ripetuta, o riclassificati in classi, allora sarà necessario ‘pesare’ per
tale frequenza tanto nella stima della media quanto in quella della varianza e della
deviazione standard. Precisamente il numeratore della media, della varianza e della
deviazione standard va moltiplicato per la frequenza fi (o fk) con cui il valore xi (o xk)
si osserva:
Media
Variabile con frequenza
ripetuta
Variabile con dati in
classi
∑x
i
fi
Varianza
∑ [( x
k
∑ [( x
i
n −1
n
∑x
− x) 2 ⋅ fi ]
i
Deviazione Standard
fk
∑ [( x
n
k
− x)2 ⋅ fk ]
n −1
− x)2 ⋅ fi ]
n −1
∑ [( x
k
− x)2 ⋅ f k ]
n −1
dove xk è il valore centrale della classe, ottenuto facendo la media aritmetica
dell’estremo superiore e inferiore di ogni classe ([estremo inferiore+estremo
superiore]/2).
Immaginiamo di aver selezionato in modo casuale dalla popolazione delle matricole
della classe delle Professioni Sanitarie tecniche di una data Università Italiana un
campione di 57 studenti, e di averne misurata la statura. Poiché i valori di tale
variabile erano molto diversi tra loro, sono stati riclassificati in classi, ottenendo la
seguente distribuzione di frequenza:
Statura
cm
[170.5-175.5)
[175.5-180.5)
[180.5-185.5)
[185.5-190.5)
[190.5-195.5)
fk
10
12
19
10
6
57
Volendo determinare la statura media e la deviazione standard, si dovrà procedere
prima a calcolare il valore centrale di ciascuna classe (xk) (a titolo esemplificativo
riportiamo
il
calcolo
del
valore
centrale
della
prima
classe:
xk=1=(170.5+175.5)/2=173) e quindi alla stima delle misure di sintesi pesando per la
frequenza:
[xj − xj+1)
fk
xk
xk fk
( xk − x )
[170.5-175.5)
[175.5-180.5)
[180.5-185.5)
[185.5-190.5)
[190.5-195.5)
Σ
10
12
19
10
6
57
173
178
183
188
193
173×10
178×12
183×19
188×10
193×6
− 9.12
− 4.12
0.88
5.88
10.88
x=
( xk − x ) 2
83.1744
16.9744
0.7744
35.5744
118.3744
( xk − x ) 2 f k
831.7440
203.6928
14.7136
345.7440
710.2464
2106.1408
173 ⋅10 + 178 ⋅12 + 183 ⋅19 + 188 ⋅10 + 193 ⋅ 6 10381
=
= 182.12 cm
57
57
s2 =
∑ [( x
k
− x )2 ⋅ f k ]
n −1
s=
∑ [( x
k
=
2106.1408
= 37.6097 cm 2
56
− x)2 ⋅ fk ]
n −1
= 6.1327 cm
Risulta quindi una statura media di 182.12 cm, con una variabilità di 6.13 cm.
La distribuzione di frequenza di una variabile quantitativa è spesso una distribuzione
normale, che graficamente si presenta come una curva a campana simmetrica. Tale
distribuzione normale gode di alcune proprietà: la mediana e la moda coincidono con
la media. Inoltre, tra il valore medio e una deviazione standard è contenuto il 68%
circa delle osservazioni, tra il valore medio e due volte la deviazione standard è
contenuto (circa) il 95% delle osservazioni e tra il valore medio e tre volte la
deviazione standard è contenuto il 99,7% delle osservazioni:
µ ± σ = 68%
µ ± 2σ = 95% µ ± 3σ = 99,7%
Ciò significa che se in una ricerca si sono raccolti 100 valori di peso per un gruppo di
soggetti maschi di 18 anni di età, e la media è 71 Kg con una deviazione standard di
6 Kg, ho l’informazione che circa il 68% dei soggetti del campione ha un peso
compreso tra 65 e 77 chilogrammi, il 95% circa ha un peso compreso tra 59 e 83
chilogrammi, dato che la variabile peso è distribuita normalmente quando raccolta su
gruppi omogenei.
In Appendice A sono riportate le tavole della distribuzione o Curva Normale
Standardizzata.
La statistica inferenziale
La statistica inferenziale è quella parte della statistica con cui, si cerca di trarre delle
conclusioni sulla popolazione basandosi sulle informazioni osservate in un
campione. Precisamente, la statistica inferenziale è un insieme di tecniche con le
quali si cerca:
di verificare se i risultati ottenuti in una certa indagine sono conformi o meno con
le congetture o le supposizioni (il quesito scientifico) che hanno motivato la
ricerca stessa;
di stimare un parametro della popolazione, partendo dai dati relativi ad un
campione che si suppone appartenere ad essa.
La verifica d’ipotesi e il test statistico
La verifica dell’ipotesi è un metodo per valutare se le differenze osservate tra gruppi
diversi siano dovute alla variabilità biologica e quindi al caso o a differenze delle
sottostanti popolazioni di riferimento.
Per verificare l’ipotesi si ricorre ad una statistica: la statistica test, che è diversa
secondo il tipo di variabili e del problema in esame. Il test statistico è costruito per
verificare l’ipotesi di uguaglianza (o nulla) H0 tra i gruppi, ovvero che le differenze
osservate sono solo dovute al caso. Per ogni statistica test è stata formulata una
distribuzione che rappresenta le probabilità di trovare i diversi valori della statistica
test quando l’ipotesi zero o nulla è vera, cioè quando le differenze sono casuali, sotto
H0 vera. Di seguito è riportata la distribuzione per la statistica test χ2 (caso specifico
per 1 grado di libertà).
5%
95%
3,84
Dalla figura sopra riportata si evince che, sotto l’ipotesi nulla vera, la statistica χ2
può assumere tutti i valori da 0 a +∞, ma la probabilità di trovare valori elevati è più
piccola che quella di trovarne di piccoli. È necessaria allora una regola di decisione,
che consenta di rendere operativo l’uso del test.
La comunità scientifica è d’accordo nel ritenere che valori del χ2 che hanno
complessivamente una probabilità di verificarsi di almeno il 95%, sono più
compatibili con H0 vera e quindi portano ad accettare H0. Valori del test che hanno
solo una probabilità di verificarsi del 5% o inferiore sono considerati troppo rari e
quindi meno compatibili con H0 vera: tali valori porteranno a rifiutare H0. È chiaro
che la decisione di rifiutare H0 non è scevra di rischi di errore, ma si è in grado di
quantificarlo in un p-value o P<0,05: pertanto la probabilità di errore che noi
commettiamo rifiutando H0 è inferiore al 5%. L’errore commesso quando si rifiuta
H0 è comunemente chiamato errore α o di I tipo. Ed ora qualche esempio.
Esempio di applicazione del test χ2 (chi quadro)
È stato condotto un trial clinico controllato randomizzato per valutare se il nuovo
farmaco potesse essere efficacemente utilizzato per ridurre il rischio di morte nei
pazienti affetti da HIV. Ventidue soggetti sottoposti a terapia con il nuovo farmaco e
22 trattati con placebo furono seguiti per 15 anni. Al termine del periodo di
osservazione si trovò che 11 soggetti erano morti nel gruppo trattato con il nuovo
farmaco e 16 in quello trattato con placebo. Apparentemente sembrerebbe che il
nuovo farmaco sia efficace, data la minor frequenza di morti nel gruppo di soggetti
trattati (11/22) rispetto a quella del gruppo di coloro che ricevettero placebo (16/22):
Nuovo farmaco
11
11
22
Vivo
Morto
Placebo
6
16
22
17
27
44
Supposto corretto il metodo di campionamento si deve oggettivamente verificare se
quanto osservato su un campione di pazienti affetti da HIV sia generalizzabile a tutta
la popolazione (campionata) di pazienti interessati dalla stessa patologia.
Pertanto si formula l’ipotesi statistica:
H0
non esiste associazione tra trattamento ed esito
Quindi si individua il test statistico da utilizzare. Essendo l’outcome di interesse
(morte) una variabile di tipo binario (sì/no), utilizziamo allora il test χ2 (chi quadro)
per le tavole di contingenza 2×2
χ2 = ∑
(O − E ) 2
E
dove O sono le frequenze osservate ed E quelle attese sotto H0 vera. Queste ultime si
ottengono semplicemente moltiplicando il totale di riga per quello di colonna e
dividendo per il totale generale. La frequenza dei pazienti vivi in trattamento sarà:
E1 =
22 × 17
= 8,5
44
per differenza si possono facilmente ricavare tutte le altre frequenze attese e si
costruisce la tabella degli attesi:
Nuovo farmaco
8,5
13,5
22
Vivo
Morto
Placebo
8,5
13,5
22
17
27
44
Con i dati rilevati nel campione esaminato, risulterebbe:
2
2
2
2
11 − 8,5)
6 − 8,5)
11 − 13,5)
16 − 13,5)
(
(
(
(
χ =
+
+
+
2
8,5
8,5
13,5
13,5
=
= 0,74 + 0,74 + 0,46 + 0,46 = 2,4
Controllando sulla tavola della distribuzione χ2 (in Appendice B) in corrispondenza
della riga 1 grado di libertà (essendo una tabella 2×2) il valore ‘calcolato’ non cade
nella colonna 0,05, dove si trova 3,84: ciò significa che il valore ‘calcolato’ è minore
di quello tabulato (ossia cade nella regione di non rifiuto dell’ipotesi nulla) quindi
non si deve rifiutare l’ipotesi nulla di uguaglianza, e concludere che la differenza
riscontrata tra la frequenza di morte dei pazienti trattati con il nuovo farmaco e quella
dei pazienti trattati con placebo potrebbe essere casuale, e non dovuta all’efficacia
del nuovo terapico.
Esempio di applicazione del test t di Student per confrontare due campioni (test
t per dati indipendenti)
Alcuni ricercatori sono interessati a conoscere se il livello medio di acido urico
serico di soggetti con Sindrome di Prader-Willi (gruppo 1) sia diverso da quello di
individui normali. Sono stati esaminati 12 soggetti con la sindrome e 15 senza
ottenendo i seguenti dati:
Gruppo 1
Gruppo 2
n
x
s
12
15
4,5 mg/100 ml
3,4 mg/100 ml
1 mg/100 ml
1,22 mg/100 ml
I due valori medi suggerirebbero che livelli di acido urico serico sono diversi tra i
soggetti con e senza Sindrome di Prader-Willi. Come visto per il caso precedente,
l’interesse è rivolto non solo ai 27 soggetti con la Sindrome, ma a tutti quelli che
presentano la stessa Sindrome (popolazione campionata). Di conseguenza, si deve
oggettivamente verificare se quanto osservato su un campione di individui sia
generalizzabile a tutta la popolazione (campionata) da cui esso è stato estratto.
Pertanto si formula l’ipotesi statistica:
H0
il livello medio di acido urico serico è uguale nei soggetti con e senza
Sindrome di Prader-Willi
e si individua il test statistico da utilizzare. Essendo l’outcome di interesse (livello di
acido urico serico) una variabile di tipo quantitativo, utilizziamo il test t di Student
per dati indipendenti (supponendo che le varianze siano uguali):
t=
(x1 − x2 )
1
1
s 2p  +
 n1 n 2



dove
(n1 − 1) s12 + (n2 − 1) s 22
s =
n1 + n 2 − 2
2
p
è la varianza pooled, ossia una stima congiunta delle varianze nei due campioni.
Con i dati rilevati nel campione esaminato, risulterebbe:
t=
(4,5 − 3,4)
1 1
1,273504 + 
 12 15 
= 2,52
Controllando sulle tavole della distribuzione t (Appendice C) nella colonna relativa a
α=0,05 per numero di gradi di libertà pari a n1+n2−2=25 si trova un valore pari a
2,06.
Ecco che il valore ‘calcolato’ è in
termini assoluti maggiore di quello
tabulato (ossia cade nella regione di
rifiuto dell’ipotesi nulla) quindi si deve
2,5%
rifiutare l’ipotesi nulla di uguaglianza, e
2,5%
concludere che la differenza riscontrata
95%
tra i livelli di acido urico serico dei
soggetti con Sindrome di Prader-Willi
sono significativamente diversi da quelli
senza la Sindrome. L’errore di tale
conclusione è P<0,05.
4.3.4 Errori di I e II tipo
Come abbiamo visto, il test statistico non porta a conclusioni certe (vero o falso) ma ci
consente di prendere decisioni in termini probabilistici: non si dimostra che una ipotesi
è vera o falsa, ma che è accettabile o rifiutabile con un errore quantificabile.
Gli errori che possiamo commettere prendendo tale decisione sono:
1)
errore di I tipo (o errore α ) che rappresenta l’errore che noi commettiamo
rifiutando l’ipotesi nulla (H0) quando in realtà questa potrebbe essere vera: è quindi
legato alla funzione di distribuzione del test costruito sotto H0 vera. Rappresenta
anche il livello di significatività del test (P ≤ α).
2)
errore di II tipo (o errore β ): è un errore di tipo logico, che si può verificare
quando accettiamo H0, cioè la non differenza tra i due gruppi, mentre in realtà è
falsa. Il complemento dell’errore β si chiama potenza (1−β) del test e rappresenta la
probabilità di rifiutare H0 quando è falsa.
Ad esempio, in una sperimentazione clinica si vuole valutare l’efficacia del trattamento
A rispetto al trattamento B:
H0
A=B
Il test applicato mi porta a concludere che A è diverso da B quando P< 0,05, perchè la
probabilità di trovare quel valore del test come scostamento casuale da H0 è basso:
l’errore α <0,05. Se invece il test mi porta ad accettare H0 in quanto P>0,05, allora
concluderò che non c’è differenza d’efficacia. In realtà ciò potrebbe essere dovuto ad
una scorretta pianificazione della ricerca, con troppi pochi casi in rapporto alla
variabilità della variabile in studio, al tipo di scelta dell’errore α, etc.
Pertanto, quando si programma uno studio occorre tener conto di entrambi i rischi di
errore, che sono raffigurabili come nella tabella di seguito riportata, nella quale
l’ombreggiatura indica conclusione corretta del test.
Associazione tra variabili
È possibile descrivere anziché una variabile la volta, 2 variabili, utilizzando ogni volta
una misura opportuna della statistica bivariata (cosiddetta proprio perché si esaminano
contemporaneamente 2 variabili).
Per descrivere 2 variabili qualitative si costruisce una tabella a doppia entrata, sulle
righe si pongono le modalità di una variabile e sulle colonne quelle della seconda
variabile. Entro ogni cella della tabella si ha la frequenza congiunta, ossia il conteggio
di quanti individui presentano contemporaneamente le 2 caratteristiche esaminate,
mentre i totali di riga o di colonna coincidono con la distribuzione di frequenza della
variabile che si trova rispettivamente sulle righe o sulle colonne.
Per indagare la relazione tra 2 variabili qualitative, detta connessione, si fa un χ2 che
può assumero un valore minimo pari a 0 ed uno massimo pari a [n×min(C-1)(R-1)] dove
n è il numero totale di osservazioni e min(C-1)(R-1) è il minore tra il numero delle righe
e il numero delle colonne della tabella a doppia entrata o di contingenza.
Per descrivere la relazione tra 2 variabili quantitative si calcola:
A. il coefficiente di correlazione, nel caso di una relazione simmetrica ossia quando le
due variabili variano congiuntamente, e la loro associazione è spiegata da
qualcos’altro;
B. la retta di regressione semplice, se si tratta di una relazione asimmetrica ossia
quando la variazione di una delle due variabili dipende dall’altra.
Quando si vuole indagare una relazione tra due variabili quantitative è sempre buona
regola esaminare dapprima il diagramma di dispersione delle stesse due variabili,
meglio noto con il termine inglese di scatter plot. Supponiamo di avere l’informazione
sui valori di pressione sistolica (PAS) e diastolica (PAD) di 65 pazienti ambulatoriali,
che sono tipiche variabili quantitative.
Volendo indagare se esiste una relazione tra queste due variabili plottiamo, dapprima su
un grafico i dati e otteniamo il seguente diagramma di dispersione:
Sembrerebbe che non esista una buona associazione tra le due variabili dal momento
che la nuvola dei punti non si dispone idealmente come lungo una retta, ma tende a
disperdersi nel piano in modo disordinato. Infatti, calcolando il coefficiente di
correlazione con la seguente formula:
r=
∑ ( x − x )( y − y )
∑ (x − x) ∑ ( y − y)
i
i
2
i
2
i
si ottiene un valore pari a 0,13 che indica una debole associazione diretta, essendo di
segno positivo. Il coefficiente di correlazione può assumere valore compreso tra –1 e
+1: valori negativi indicano associazione inversa o indiretta, ossia al crescere dei valori
della variabile sull’asse delle ascisse diminuiscono quelli della variabile sull’asse delle
ordinate. Quanto più il valore del coefficiente è prossimo allo zero, tanto più debole o
inesistente (=0) è la relazione, mentre più il valore del coefficiente è vicino a 1 (in
termine assoluto) maggiore sarà la relazione.
Qualora
si
volesse
indagare
una
dipendenza si dovrebbe calcolare la
regressione
semplice
usando
l’equazione:
Y = a + bx
dove a dicesi intercetta e b pendenza
della retta. Quindi si costruisce la
cosiddetta
tendenza:
interpolata
o
linea
di
Author
Document
Category
Uncategorized
Views
0
File Size
1 250 KB
Tags
1/--pages
Report inappropriate content