PSICOLOGIA E MISURE

GLI
ALTRI TEMI
▲
PSICOLOGIA E MISURE
Stefano Noventa, Giulio Vidotto
Da Fechner a Luce,
la misura in psicologia
Parte 1
FROM FECHNER TO LUCE, MEASUREMENT IN PSYCHOLOGY –
PART 1
In this first short review, the problem of measurement in psychological and
social sciences is presented. Its history is chronicled in broad lines, moving
from the beginning of psychophysics, through the criticisms of the Ferguson
Committee, to the development of the modern theory of measurement. In a
following second review, some aspects of the representational theory of
measurement and of the theory of conjoint measurement will be detailed.
Some consequences and open problems will also be discussed.
RIASSUNTO
In questa prima breve rassegna sarà presentato il problema della misura
nelle scienze psicologiche e sociali e ne sarà ripercorsa a grandi linee la
storia, dalla nascita della psicofisica, attraverso le critiche mosse dal Ferguson Committee, fino alla moderna teoria della misura. In una successiva
rassegna saranno approfonditi alcuni aspetti della moderna teoria rappresentazionale della misura, della teoria della misurazione congiunta, e
saranno esposte alcune conseguenze e problemi aperti.
IL PROBLEMA DELLA MISURA
La difficoltà nel definire un concetto di
misurazione nell’ambito delle Scienze
Psicologiche e Sociali può essere ricondotta alla natura stessa dei fenomeni in
esame. La maggior parte dei costrutti
(i.e. delle variabili di natura psicologica) sono grandezze intensive, non direttamente misurabili e, se graduabili, non
necessariamente sommabili. Simpatia e
bellezza, anche se misurate su una
scala opportuna, non sono concatenabili come la massa o la lunghezza,
esempi classici di grandezze estensive.
È difficile pensare a un’opera d’arte o
a una persona due volte e mezzo più
bella o simpatica di un’altra.
Si pensa spesso che il problema origini dalla natura qualitativa delle variabili osservate, senza la possibilità quindi di una misura quantitativa del fenomeno. In realtà si tratta di una visione
impropria: la natura qualitativa di un
attributo non esclude a priori la possibilità di misurarlo e un’eventuale impossibilità di misurarlo non esclude
comunque l’esistenza di una trattazione matematica (Michell, 1999). Il con-
Tuttavia, basta considerare una grandezza fondamentale come la temperatura, per osservare come questa non
rispecchi i criteri per definire una misura
numerabilmente additiva. Concatenando un litro d’acqua a venti gradi e un
litro d’acqua a trenta gradi otterremo
due litri (la massa è una quantità estensiva) ma a una temperatura che non è
cinquanta gradi (la temperatura è una
quantità intensiva). Un simile discorso
vale per le grandezze derivate: concatenando masse e volumi non si ottiene la
somma delle densità di partenza.
Eppure, le grandezze intensive e le
grandezze derivate possono essere
misurate, pur violando l’idea di concatenazione così intuitiva e immediata
nel caso delle grandezze estensive.
Bisogna perciò chiarire cosa s’intende
per misura. Nel caso della temperatura, per esempio, il concetto di misurazione non può essere ricondotto al rapporto intuitivo tra una quantità e un’unità di misura, dato che un’unica unità
di misura non esiste ma dipende dalla
scala considerata. Questo, inoltre, si
riflette sulle operazioni definibili su tali
scale: nel caso della scala Kelvin, dotata di uno zero assoluto che corrisponde all’assenza del fenomeno, ha senso
parlare di una temperatura doppia di
un’altra (i.e. di un sistema termodinamico che ha un’energia cinetica media
doppia rispetto a un altro), ma nel caso
della Celsius è improprio. In entrambi i
casi, poi, non ha senso un’operazione
di concatenazione, quantomeno non
nel senso dell’additività.
Eppure alcune regolarità possono essere individuate: ciò che è quantificabile
nella scala Celsius non è la temperatu-
cetto di misurazione, anche nelle scienze fisiche, è meno ovvio da formalizzare di quanto possa sembrare pensando al concetto intuitivo di misura.
Il caso intuitivo è infatti il caso più semplice: la misurazione di una grandezza estensiva, come la massa, per la
quale la concatenazione empirica
(aggiunta di diverse masse sul piatto
di una bilancia) ha un equivalente
matematico nell’operazione di addizione. L’insieme delle masse è, dunque, rappresentabile con l’insieme dei
numeri reali positivi e il processo di
misurazione corrisponde alla definizione di un rapporto adimensionale
tra quantità (la grandezza stessa e
un’unità di misura). Viene quindi spontaneo definire, all’interno di una teoria
assiomatica, una misura numerabilmente additiva come una funzione
definita su una σ-algebra, a valori nei
reali positivi, e tale per cui l’insieme
vuoto abbia immagine nulla e l’immagine di un’unione di sottoinsiemi sia la
somma delle immagini dei sottoinsiemi
stessi. In altri termini, esiste un legame Università di Padova,
tra la struttura empirica e la struttura Dip. Psicologia Generale
[email protected]
relazionale dei numeri reali.
T_M
N.
2/12 ƒ 127
ra in sé, ma le differenze di temperatura. La relazione diretta tra numeri reali
positivi e rapporti delle quantità che
caratterizza una grandezza estensiva o
una scala come la Kelvin, muta quindi
in una relazione tra numeri reali positivi e rapporti tra differenze di quantità,
cioè intervalli sull’asse reale. Inoltre, tali
rapporti non mutano se si effettua una
trasformazione affine dei suoi elementi,
come nel passaggio dalla scala Celsius
alla Farhenheit.
Più in generale, il problema può essere
ricondotto alla costruzione e identificazione di scale opportune o, detto in altri
termini, a comprendere e testare se le
proprietà fondamentali di un fenomeno
empirico, anche se di natura qualitativa, siano rappresentabili attraverso
strutture relazionali numeriche che consentano la quantificazione del fenomeno in oggetto. E non è detto che la concatenabilità di una grandezza si manifesti in una relazione additiva.
T_M ƒ 128
N. 02ƒ
; 2012
▲
GLI
ALTRI TEMI
Il problema di costruire una teoria formale della misura non è quindi affatto
banale e ha coinvolto, negli ultimi due
secoli, studiosi del calibro di Helmholtz, Holder, Wiener, Russell, Neumann e Campbell (per una rassegna
si veda Michell, 1999), attraversando
fasi alterne fino a culminare nella
costruzione di una teoria della misura
assiomatica (Suppes & Zinnes, 1963;
Pfanzagl, 1968) e nella conjoint
measurement (Luce & Tukey, 1964),
e ricevendo, paradossalmente, una
spinta fondamentale proprio dalle
scienze psicologiche.
LA MISURA IN PSICOLOGIA
Le variabili in psicologia sono, nella
maggior parte dei casi, astrazioni
concettuali la cui definizione può
variare da teoria a teoria e, infatti,
per quanto si cerchi di ricondurre la
misura di un costrutto a misure di comportamento che ricadano all’interno
di specifiche classi (latenza, frequenza, durata e intensità), non è raro il
verificarsi del risultato paradossale in
cui il disaccordo tra teorie rende problematica la misura stessa.
In generale, inoltre, le misure di variabili psicologiche sono affette da errori casuali come quelle fisiche, ma per
loro stessa natura non sono affette da
errori sistematici, in quanto lo zero
assoluto degli strumenti di misura è fissato in modo del tutto arbitrario. Da
questo punto di vista le misure in psicologia sono spesso simili alla misura
della temperatura in gradi Celsius:
data l’esistenza di una relazione di
ordine che conserva le distanze relative si può identificare un legame tra i
rapporti delle differenze e l’insieme
dei numeri reali positivi. Questa tipologia di scala, in teoria della misurazione, è definita scala a intervalli.
N. 02ƒ
;2012
costrutti psicologici dal concetto di
misura fisica e aprendo la strada alla
Signal Detection Theory.
Tuttavia c’era un errore di fondo nell’impostazione fechneriana, che assumeva senza evidenze sperimentali
una natura quantitativa delle variabili
psicologiche, e tale omissione venne
pagata a caro prezzo con le conclusioni del Ferguson Committee, un
comitato istituito nel 1932 dalla British Association for the Advancement
of Science, al fine di valutare la reale
possibilità di misure quantitative degli
eventi sensoriali. La commissione, presieduta dal fisico A. Ferguson, stabilì
in due report del 1938 e del 1940
come non ci fossero gli estremi per
connotare le variabili sensoriali come
misurabili fintanto che non si fosse
dato un significato al concetto di additività e di unità di misura per le sensazioni (Michell, 1999).
La teoria della misura infatti, sviluppatasi in quegli anni ben al di fuori dell’ambito delle scienze psicologiche,
pur essendosi discostata dall’iniziale
definizione di misura euclidea (ricalcato anche dai lavori di Hölder;
Michell and Ernst, 1996) e avendo
assunto, grazie a Russell, Nagel e
Campbell, una natura rappresentazionale, dove il concetto di misurazione
era legato all’esistenza di una rappresentazione numerica del fenomeno
empirico e delle sue relazioni, aveva
ben presente la necessità di verificare
con il metodo sperimentale la natura
quantitativa o meno di una specifica
grandezza. La psicofisica e i metodi
indiretti di Fechner non ricadevano
perciò all’interno della teoria della
misura, per com’era stata definita da
Campbell (per inciso, uno dei membri
più importanti e influenti del comitato), focalizzandosi sull’aspetto strumentale più che sull’aspetto scientifico
della quantificazione delle variabili
(Michell, 1999).
Eppure fu proprio tale conclusione a
scatenare una progressiva rivoluzione. La prima reazione ai report del
comitato fu di Stevens (1946, 1957)
che introdusse un radicale cambio di
paradigma nelle metodologie di misura in psicologia, introducendo i metodi diretti, cioè una serie di metodolo-
▲
Assumono quindi particolare importanza l’attendibilità, intesa come precisione della misura nel ridurre l’errore casuale, e la validità della misura,
intesa come il grado in cui uno strumento misura ciò che in effetti si prefigge di misurare; per esempio discriminando tra costrutti diversi e convergendo sullo stesso costrutto quando si
applicano metodi diversi. È evidente
come l’attendibilità di una misura sia
una condizione necessaria ma non
sufficiente alla sua validità.
Da un punto di vista storico, nonostante alcuni precedenti tentativi senza successo come quelli di Herbart (Michell,
1999), la nascita della misurazione in
psicologia si può collegare alla ricerca
empirica di Weber e alla nascita della
psicofisica (Fechner, 1860), oggi intesa come lo studio scientifico della relazione tra stimolo e sensazione. In particolare, la psicofisica classica, si occupava dello studio delle soglie assolute
e differenziali attraverso l’uso di metodi indiretti nei quali il valore attribuito
alla sensazione è “letto” sugli apparecchi che misurano gli stimoli fisici.
Tra questi metodi è interessante citare il
metodo degli stimoli costanti, precursore della ben nota Probit Analysis di
Chester Ittner Bliss (Finney, 1947). Il
culmine della psicofisica fechneriana
può essere considerato la formalizzazione in una legge logaritmica della
relazione esistente tra il continuum psicologico e quello fisico.
Anche se la derivazione seguita da
Fechner (1860) per ottenere la legge
psicofisica a partire dalla relazione
empirica di Weber, sarebbe stata in
seguito dimostrata da Luce e Edwards
(1958) come circoscritta al solo caso
logaritmico (corrispondente a una funzione di Weber lineare) l’idea di misurazione in psicologia era ormai stata
introdotta, tanto che negli anni successivi, seguendo le orme della Psicofisica, Spearman (1904) gettò le basi
per l’Analisi fattoriale e Binet (1905)
creò i primi test per l’intelligenza
aprendo la strada alla teoria classica
dei test (filone più recentemente sfociato nella Item Response Theory),
mentre Thurstone (1927) sviluppò il
metodo della comparazione a coppie, slegando la misurazione dei
GLI
ALTRI TEMI
gie dove i soggetti attribuiscono direttamente un valore numerico alla sensazione percepita. Tali metodi non
solo portarono a una diversa formulazione della legge psicofisica (Stevens,
1957), ma anche a una deriva operazionista della definizione di misura.
Stevens infatti definì, in modo del tutto
empirico, vari tipi di scale (nominale,
ordinale, intervalli, rapporti) nelle
quali le misurazioni ricadono: a ogni
scala corrispondono trasformazioni
ammissibili dei dati e specifiche statistiche ammesse dalla natura stessa
dei dati. Alla base vi era la visione
che la misurazione corrispondesse a
un “processo di assegnare numeri
secondo una regola” (Stevens, 1946).
Se da un lato a Stevens bisogna riconoscere il pregio di aver colto ciò che
anche a Campbell era sfuggito, e cioè
l’essenza di quel che poi sarebbe
diventato il nucleo della teoria assiomatica della misura, dall’altro bisogna
riconoscere che la sua definizione operazionista del processo di misurazione
contribuì solo ad aumentare la separazione tra scienze quantitative e psicologiche, allontanando dalla mente
degli psicologi la necessità scientifica
di verificare la natura quantitativa delle
loro variabili (Michell, 1999).
I semi per la rivoluzione erano però
ormai stati gettati e una maggiore formalizzazione delle idee di Stevens,
nel contesto di sistemi non empirici
ma formali, venne con l’ulteriore sviluppo del metodo di costruzione di
scale a intervalli basato sui modelli
logistici semplici (Rasch, 1960), la
costruzione di una teoria assiomatica
della misura (Suppes & Zinnes, 1963;
Pfanzagl, 1968; Luce et al., 1990;
Luce & Narens, 1994) basata sull’invarianza per trasformazioni ammissibili e sulla significanza delle statistiche, e con lo sviluppo della teoria
della
misurazione
congiunta
(Debreau, 1960; Luce & Tukey, 1964)
che rivelò l’erroneità dell’assunzione
di Campbell secondo la quale la misura nelle scienze psicologiche non era
possibile a causa dell’assenza di
un’operazione di concatenazione. La
misurazione congiunta mostra infatti
una via per verificare la presenza di
relazioni additive, entro gli attributi,
T_M ƒ 129
attraverso l’esistenza di relazioni
additive tra gli attributi stessi e ha una
delle sue applicazioni più rappresentative nella “Prospect Theory” (Kahneman & Tversky, 1979). Tali argomenti
saranno però affrontati nella seconda
parte di questa rassegna.
RIFERIMENTI BIBLIOGRAFICI
▼
A. Binet (1905). L’Etude éxperimental
de l’intelligence. Paris, Schleicher.
G. Debreu (1960). Topological
methods in cardinal utility theory. In K.
J. Arrow, S. Karlin, & P.
P. Suppes (1959, Eds.). Mathematical
methods in the social sciences (pp. 1626). Stanford: Stanford Univ. Press.
G. Th. Fechner (1860). Elemente der
Psychophysik. Breitkopf und Härtel,
Leipzig.
D.J. Finney (1947). Probit analysis; a
statistical treatment of the sigmoid
NEWS
MICROFONI IN PRONTA
CONSEGNA CON LA
SEMPLICITÀ DELLA
TECNOLOGIA ICP ®
PCB Piezotronics offre
una varietà
di prodotti
per le misure acustiche, tra cui
microfoni ICP® prepolarizzati serie 377
(moderna versione del tradizionale microfono a condensatore esternamente polarizzato), microfoni ad array, microfoni piatti e
microfoni per impieghi speciali. La linea dei
microfoni è integrata da un assortimento di
preamplificatori, condizionatori di segnale,
filtro di ponderazione A, calibratori portatili e accessori. Tutti i prodotti acustici PCB®
vengono utilizzati in una varietà d’industrie
tra cui: automotive, aerospaziale e difesa,
OEM, università, consulenti, elettrodomestici, ricerca e sviluppo, ecc.
PCB® è l’inventrice della tecnologia ICP®,
parte integrante del progetto dei moderni
microfoni prepolarizzati, ed è fra i pionieri nella microelettronica: questo dimostra i nostri continui investimenti in ricerca
avanzata per essere sempre all’avanguardia nei progetti acustici.
T_M ƒ 130
N. 02
01ƒ
; 2012
▲
GLI
ALTRI TEMI
response curve. Oxford, England:
Macmillan.
D. Kahneman, A. Tversky (1979). Prospect theory: an analysis of decision
under risk. Econometrica, 47,
263–291.
R.D. Luce, W. Edwards (1958). The
derivation of subjective scales from
just noticeable differences, The
psychological review, 65(4), 222238.
R.D. Luce, J.W. Tukey (1964). Simultaneous conjoint measurement: a new
scale type of fundamental measurement. Journal of Mathematical Psychology, 1, 1–27.
R.D. Luce, L. Narens (1994). Fifteen
problems concerning the representational theory of measurement, in P.
Humphries, (ed.), Patrick Suppes:
Scientific Philosopher, Vol. 2, Dordrecht: Kluwer, pp.219-49.
R.D. Luce, D.H. Krantz, S. Suppes, A.
Tversky (1990). Foundations of MeaI microfoni prepolarizzati hanno molti vantaggi rispetto ai modelli esternamente polarizzati, soprattutto nell’ambito delle applicazioni portatili o dell’uso in ambiente
esterno (“prove sul campo”) con elevati
tassi di umidità.
I microfoni di misura PCB sono conformi
allo standard di alta qualità IEC 61094-4,
quindi in classe 1, e hanno un campo di
temperatura esteso fino a 80 °C, con una
versione HT fino a 120 °C (Industry exclusive). Il risultato è che la performance è
migliorata, la gamma dinamica può rimanere precisa per un intervallo di temperatura maggiorato e il loro rumore di fondo è
molto basso.
Calibratori acustici di precisione portatili:
PCB® offre calibratori per microfoni, leggeri, portatili con funzionamento a batteria,
che soddisfano gli standard IEC e ANSI.
PCB® realizza anche un sistema di taratura
acustico allo stato dell’arte. Tutti i rapporti
di prova e i certificati di taratura mostrano
la risposta in frequenza del microfono alla
pressione (con l’utilizzo dell’attuatore) e al
campo libero, la sua correzione, le condizioni in cui è stata eseguita la taratura, i
relativi fattori di incertezza e le attrezzature utilizzate. La taratura dei microfoni di
riferimento è tracciabile attraverso documentazione PTB e la maggior parte delle
tarature sono A2LA, che per il mutuo riconoscimento interlaboratori (ILAC_MRA)
sono equivalenti ai certificati ACCREDIA.
Per ulteriori informazioni:
www.pcbpiezotronics.it
ILAC_MRA
è giusto il trattino basso
surement, Vol. 3: Representation,
Axiomatization and Invariance. San
Diego: Academic Press
J. Michell (1999). Measurement in
psychology: a critical history of a
methodological concept. New York:
Cambridge University Press.
J. Michell, C. Ernst (1996). The
axioms of quantity and the theory of
measurement, Part I, An English translations of Hölder (1901), Part I, Journal of Mathematical Psychology,
40,235-252.
J. Pfanzagl (1968). Theory of measurement. Wiley, Oxford.
G. Rasch (1960). Probabilistic models
for some intelligence and attainment
tests. Copenhagen: Danish Institute for
Educational Research.
C. Spearman, (1904). General intelligence, objectively determined and
measured. American journal of
psychology, 15, 201-293.
S.S. Stevens (1946). On the theory of
scales of Measurement. Science, 103
(2684): 677–680.
S.S. Stevens (1957). On the
psychophysical law. Psychological
Review, 64, 153-181.
P. Suppes, J. Zinnes (1963). Basic
measurement theory, in R.D. Luce,
R.R. Bush, E. Galanter, (eds.), Handbook of mathematical psychology,
Vol. I, New York: wiley, pp. 1-76.
L.L. Thurstone (1927). A law of comparative judgement. Psychological
Review, 34, 273-286.
Stefano Noventa è assegnista di ricerca presso
il Dipartimento di Psicologia Generale dell’Università degli Studi di Padova.
Si occupa di Psicometria,
Psicofisica e Psicologia
Matematica.
Giulio Vidotto è professore Ordinario di Psicometria presso il Dipartimento
di Psicologia Generale
dell’Università degli Studi
di Padova. Si occupa di
Psicometria, Percezione e
Psicofisica, Psicologia Matematica, Testing
e Psicologia della Salute.
CURRICULUM NOVENTA
è brutto, puoi aggiungere
qualcosa?