GLI ALTRI TEMI ▲ PSICOLOGIA E MISURE Stefano Noventa, Giulio Vidotto Da Fechner a Luce, la misura in psicologia Parte 1 FROM FECHNER TO LUCE, MEASUREMENT IN PSYCHOLOGY – PART 1 In this first short review, the problem of measurement in psychological and social sciences is presented. Its history is chronicled in broad lines, moving from the beginning of psychophysics, through the criticisms of the Ferguson Committee, to the development of the modern theory of measurement. In a following second review, some aspects of the representational theory of measurement and of the theory of conjoint measurement will be detailed. Some consequences and open problems will also be discussed. RIASSUNTO In questa prima breve rassegna sarà presentato il problema della misura nelle scienze psicologiche e sociali e ne sarà ripercorsa a grandi linee la storia, dalla nascita della psicofisica, attraverso le critiche mosse dal Ferguson Committee, fino alla moderna teoria della misura. In una successiva rassegna saranno approfonditi alcuni aspetti della moderna teoria rappresentazionale della misura, della teoria della misurazione congiunta, e saranno esposte alcune conseguenze e problemi aperti. IL PROBLEMA DELLA MISURA La difficoltà nel definire un concetto di misurazione nell’ambito delle Scienze Psicologiche e Sociali può essere ricondotta alla natura stessa dei fenomeni in esame. La maggior parte dei costrutti (i.e. delle variabili di natura psicologica) sono grandezze intensive, non direttamente misurabili e, se graduabili, non necessariamente sommabili. Simpatia e bellezza, anche se misurate su una scala opportuna, non sono concatenabili come la massa o la lunghezza, esempi classici di grandezze estensive. È difficile pensare a un’opera d’arte o a una persona due volte e mezzo più bella o simpatica di un’altra. Si pensa spesso che il problema origini dalla natura qualitativa delle variabili osservate, senza la possibilità quindi di una misura quantitativa del fenomeno. In realtà si tratta di una visione impropria: la natura qualitativa di un attributo non esclude a priori la possibilità di misurarlo e un’eventuale impossibilità di misurarlo non esclude comunque l’esistenza di una trattazione matematica (Michell, 1999). Il con- Tuttavia, basta considerare una grandezza fondamentale come la temperatura, per osservare come questa non rispecchi i criteri per definire una misura numerabilmente additiva. Concatenando un litro d’acqua a venti gradi e un litro d’acqua a trenta gradi otterremo due litri (la massa è una quantità estensiva) ma a una temperatura che non è cinquanta gradi (la temperatura è una quantità intensiva). Un simile discorso vale per le grandezze derivate: concatenando masse e volumi non si ottiene la somma delle densità di partenza. Eppure, le grandezze intensive e le grandezze derivate possono essere misurate, pur violando l’idea di concatenazione così intuitiva e immediata nel caso delle grandezze estensive. Bisogna perciò chiarire cosa s’intende per misura. Nel caso della temperatura, per esempio, il concetto di misurazione non può essere ricondotto al rapporto intuitivo tra una quantità e un’unità di misura, dato che un’unica unità di misura non esiste ma dipende dalla scala considerata. Questo, inoltre, si riflette sulle operazioni definibili su tali scale: nel caso della scala Kelvin, dotata di uno zero assoluto che corrisponde all’assenza del fenomeno, ha senso parlare di una temperatura doppia di un’altra (i.e. di un sistema termodinamico che ha un’energia cinetica media doppia rispetto a un altro), ma nel caso della Celsius è improprio. In entrambi i casi, poi, non ha senso un’operazione di concatenazione, quantomeno non nel senso dell’additività. Eppure alcune regolarità possono essere individuate: ciò che è quantificabile nella scala Celsius non è la temperatu- cetto di misurazione, anche nelle scienze fisiche, è meno ovvio da formalizzare di quanto possa sembrare pensando al concetto intuitivo di misura. Il caso intuitivo è infatti il caso più semplice: la misurazione di una grandezza estensiva, come la massa, per la quale la concatenazione empirica (aggiunta di diverse masse sul piatto di una bilancia) ha un equivalente matematico nell’operazione di addizione. L’insieme delle masse è, dunque, rappresentabile con l’insieme dei numeri reali positivi e il processo di misurazione corrisponde alla definizione di un rapporto adimensionale tra quantità (la grandezza stessa e un’unità di misura). Viene quindi spontaneo definire, all’interno di una teoria assiomatica, una misura numerabilmente additiva come una funzione definita su una σ-algebra, a valori nei reali positivi, e tale per cui l’insieme vuoto abbia immagine nulla e l’immagine di un’unione di sottoinsiemi sia la somma delle immagini dei sottoinsiemi stessi. In altri termini, esiste un legame Università di Padova, tra la struttura empirica e la struttura Dip. Psicologia Generale [email protected] relazionale dei numeri reali. T_M N. 2/12 ƒ 127 ra in sé, ma le differenze di temperatura. La relazione diretta tra numeri reali positivi e rapporti delle quantità che caratterizza una grandezza estensiva o una scala come la Kelvin, muta quindi in una relazione tra numeri reali positivi e rapporti tra differenze di quantità, cioè intervalli sull’asse reale. Inoltre, tali rapporti non mutano se si effettua una trasformazione affine dei suoi elementi, come nel passaggio dalla scala Celsius alla Farhenheit. Più in generale, il problema può essere ricondotto alla costruzione e identificazione di scale opportune o, detto in altri termini, a comprendere e testare se le proprietà fondamentali di un fenomeno empirico, anche se di natura qualitativa, siano rappresentabili attraverso strutture relazionali numeriche che consentano la quantificazione del fenomeno in oggetto. E non è detto che la concatenabilità di una grandezza si manifesti in una relazione additiva. T_M ƒ 128 N. 02ƒ ; 2012 ▲ GLI ALTRI TEMI Il problema di costruire una teoria formale della misura non è quindi affatto banale e ha coinvolto, negli ultimi due secoli, studiosi del calibro di Helmholtz, Holder, Wiener, Russell, Neumann e Campbell (per una rassegna si veda Michell, 1999), attraversando fasi alterne fino a culminare nella costruzione di una teoria della misura assiomatica (Suppes & Zinnes, 1963; Pfanzagl, 1968) e nella conjoint measurement (Luce & Tukey, 1964), e ricevendo, paradossalmente, una spinta fondamentale proprio dalle scienze psicologiche. LA MISURA IN PSICOLOGIA Le variabili in psicologia sono, nella maggior parte dei casi, astrazioni concettuali la cui definizione può variare da teoria a teoria e, infatti, per quanto si cerchi di ricondurre la misura di un costrutto a misure di comportamento che ricadano all’interno di specifiche classi (latenza, frequenza, durata e intensità), non è raro il verificarsi del risultato paradossale in cui il disaccordo tra teorie rende problematica la misura stessa. In generale, inoltre, le misure di variabili psicologiche sono affette da errori casuali come quelle fisiche, ma per loro stessa natura non sono affette da errori sistematici, in quanto lo zero assoluto degli strumenti di misura è fissato in modo del tutto arbitrario. Da questo punto di vista le misure in psicologia sono spesso simili alla misura della temperatura in gradi Celsius: data l’esistenza di una relazione di ordine che conserva le distanze relative si può identificare un legame tra i rapporti delle differenze e l’insieme dei numeri reali positivi. Questa tipologia di scala, in teoria della misurazione, è definita scala a intervalli. N. 02ƒ ;2012 costrutti psicologici dal concetto di misura fisica e aprendo la strada alla Signal Detection Theory. Tuttavia c’era un errore di fondo nell’impostazione fechneriana, che assumeva senza evidenze sperimentali una natura quantitativa delle variabili psicologiche, e tale omissione venne pagata a caro prezzo con le conclusioni del Ferguson Committee, un comitato istituito nel 1932 dalla British Association for the Advancement of Science, al fine di valutare la reale possibilità di misure quantitative degli eventi sensoriali. La commissione, presieduta dal fisico A. Ferguson, stabilì in due report del 1938 e del 1940 come non ci fossero gli estremi per connotare le variabili sensoriali come misurabili fintanto che non si fosse dato un significato al concetto di additività e di unità di misura per le sensazioni (Michell, 1999). La teoria della misura infatti, sviluppatasi in quegli anni ben al di fuori dell’ambito delle scienze psicologiche, pur essendosi discostata dall’iniziale definizione di misura euclidea (ricalcato anche dai lavori di Hölder; Michell and Ernst, 1996) e avendo assunto, grazie a Russell, Nagel e Campbell, una natura rappresentazionale, dove il concetto di misurazione era legato all’esistenza di una rappresentazione numerica del fenomeno empirico e delle sue relazioni, aveva ben presente la necessità di verificare con il metodo sperimentale la natura quantitativa o meno di una specifica grandezza. La psicofisica e i metodi indiretti di Fechner non ricadevano perciò all’interno della teoria della misura, per com’era stata definita da Campbell (per inciso, uno dei membri più importanti e influenti del comitato), focalizzandosi sull’aspetto strumentale più che sull’aspetto scientifico della quantificazione delle variabili (Michell, 1999). Eppure fu proprio tale conclusione a scatenare una progressiva rivoluzione. La prima reazione ai report del comitato fu di Stevens (1946, 1957) che introdusse un radicale cambio di paradigma nelle metodologie di misura in psicologia, introducendo i metodi diretti, cioè una serie di metodolo- ▲ Assumono quindi particolare importanza l’attendibilità, intesa come precisione della misura nel ridurre l’errore casuale, e la validità della misura, intesa come il grado in cui uno strumento misura ciò che in effetti si prefigge di misurare; per esempio discriminando tra costrutti diversi e convergendo sullo stesso costrutto quando si applicano metodi diversi. È evidente come l’attendibilità di una misura sia una condizione necessaria ma non sufficiente alla sua validità. Da un punto di vista storico, nonostante alcuni precedenti tentativi senza successo come quelli di Herbart (Michell, 1999), la nascita della misurazione in psicologia si può collegare alla ricerca empirica di Weber e alla nascita della psicofisica (Fechner, 1860), oggi intesa come lo studio scientifico della relazione tra stimolo e sensazione. In particolare, la psicofisica classica, si occupava dello studio delle soglie assolute e differenziali attraverso l’uso di metodi indiretti nei quali il valore attribuito alla sensazione è “letto” sugli apparecchi che misurano gli stimoli fisici. Tra questi metodi è interessante citare il metodo degli stimoli costanti, precursore della ben nota Probit Analysis di Chester Ittner Bliss (Finney, 1947). Il culmine della psicofisica fechneriana può essere considerato la formalizzazione in una legge logaritmica della relazione esistente tra il continuum psicologico e quello fisico. Anche se la derivazione seguita da Fechner (1860) per ottenere la legge psicofisica a partire dalla relazione empirica di Weber, sarebbe stata in seguito dimostrata da Luce e Edwards (1958) come circoscritta al solo caso logaritmico (corrispondente a una funzione di Weber lineare) l’idea di misurazione in psicologia era ormai stata introdotta, tanto che negli anni successivi, seguendo le orme della Psicofisica, Spearman (1904) gettò le basi per l’Analisi fattoriale e Binet (1905) creò i primi test per l’intelligenza aprendo la strada alla teoria classica dei test (filone più recentemente sfociato nella Item Response Theory), mentre Thurstone (1927) sviluppò il metodo della comparazione a coppie, slegando la misurazione dei GLI ALTRI TEMI gie dove i soggetti attribuiscono direttamente un valore numerico alla sensazione percepita. Tali metodi non solo portarono a una diversa formulazione della legge psicofisica (Stevens, 1957), ma anche a una deriva operazionista della definizione di misura. Stevens infatti definì, in modo del tutto empirico, vari tipi di scale (nominale, ordinale, intervalli, rapporti) nelle quali le misurazioni ricadono: a ogni scala corrispondono trasformazioni ammissibili dei dati e specifiche statistiche ammesse dalla natura stessa dei dati. Alla base vi era la visione che la misurazione corrispondesse a un “processo di assegnare numeri secondo una regola” (Stevens, 1946). Se da un lato a Stevens bisogna riconoscere il pregio di aver colto ciò che anche a Campbell era sfuggito, e cioè l’essenza di quel che poi sarebbe diventato il nucleo della teoria assiomatica della misura, dall’altro bisogna riconoscere che la sua definizione operazionista del processo di misurazione contribuì solo ad aumentare la separazione tra scienze quantitative e psicologiche, allontanando dalla mente degli psicologi la necessità scientifica di verificare la natura quantitativa delle loro variabili (Michell, 1999). I semi per la rivoluzione erano però ormai stati gettati e una maggiore formalizzazione delle idee di Stevens, nel contesto di sistemi non empirici ma formali, venne con l’ulteriore sviluppo del metodo di costruzione di scale a intervalli basato sui modelli logistici semplici (Rasch, 1960), la costruzione di una teoria assiomatica della misura (Suppes & Zinnes, 1963; Pfanzagl, 1968; Luce et al., 1990; Luce & Narens, 1994) basata sull’invarianza per trasformazioni ammissibili e sulla significanza delle statistiche, e con lo sviluppo della teoria della misurazione congiunta (Debreau, 1960; Luce & Tukey, 1964) che rivelò l’erroneità dell’assunzione di Campbell secondo la quale la misura nelle scienze psicologiche non era possibile a causa dell’assenza di un’operazione di concatenazione. La misurazione congiunta mostra infatti una via per verificare la presenza di relazioni additive, entro gli attributi, T_M ƒ 129 attraverso l’esistenza di relazioni additive tra gli attributi stessi e ha una delle sue applicazioni più rappresentative nella “Prospect Theory” (Kahneman & Tversky, 1979). Tali argomenti saranno però affrontati nella seconda parte di questa rassegna. RIFERIMENTI BIBLIOGRAFICI ▼ A. Binet (1905). L’Etude éxperimental de l’intelligence. Paris, Schleicher. G. Debreu (1960). Topological methods in cardinal utility theory. In K. J. Arrow, S. Karlin, & P. P. Suppes (1959, Eds.). Mathematical methods in the social sciences (pp. 1626). Stanford: Stanford Univ. Press. G. Th. Fechner (1860). Elemente der Psychophysik. Breitkopf und Härtel, Leipzig. D.J. Finney (1947). Probit analysis; a statistical treatment of the sigmoid NEWS MICROFONI IN PRONTA CONSEGNA CON LA SEMPLICITÀ DELLA TECNOLOGIA ICP ® PCB Piezotronics offre una varietà di prodotti per le misure acustiche, tra cui microfoni ICP® prepolarizzati serie 377 (moderna versione del tradizionale microfono a condensatore esternamente polarizzato), microfoni ad array, microfoni piatti e microfoni per impieghi speciali. La linea dei microfoni è integrata da un assortimento di preamplificatori, condizionatori di segnale, filtro di ponderazione A, calibratori portatili e accessori. Tutti i prodotti acustici PCB® vengono utilizzati in una varietà d’industrie tra cui: automotive, aerospaziale e difesa, OEM, università, consulenti, elettrodomestici, ricerca e sviluppo, ecc. PCB® è l’inventrice della tecnologia ICP®, parte integrante del progetto dei moderni microfoni prepolarizzati, ed è fra i pionieri nella microelettronica: questo dimostra i nostri continui investimenti in ricerca avanzata per essere sempre all’avanguardia nei progetti acustici. T_M ƒ 130 N. 02 01ƒ ; 2012 ▲ GLI ALTRI TEMI response curve. Oxford, England: Macmillan. D. Kahneman, A. Tversky (1979). Prospect theory: an analysis of decision under risk. Econometrica, 47, 263–291. R.D. Luce, W. Edwards (1958). The derivation of subjective scales from just noticeable differences, The psychological review, 65(4), 222238. R.D. Luce, J.W. Tukey (1964). Simultaneous conjoint measurement: a new scale type of fundamental measurement. Journal of Mathematical Psychology, 1, 1–27. R.D. Luce, L. Narens (1994). Fifteen problems concerning the representational theory of measurement, in P. Humphries, (ed.), Patrick Suppes: Scientific Philosopher, Vol. 2, Dordrecht: Kluwer, pp.219-49. R.D. Luce, D.H. Krantz, S. Suppes, A. Tversky (1990). Foundations of MeaI microfoni prepolarizzati hanno molti vantaggi rispetto ai modelli esternamente polarizzati, soprattutto nell’ambito delle applicazioni portatili o dell’uso in ambiente esterno (“prove sul campo”) con elevati tassi di umidità. I microfoni di misura PCB sono conformi allo standard di alta qualità IEC 61094-4, quindi in classe 1, e hanno un campo di temperatura esteso fino a 80 °C, con una versione HT fino a 120 °C (Industry exclusive). Il risultato è che la performance è migliorata, la gamma dinamica può rimanere precisa per un intervallo di temperatura maggiorato e il loro rumore di fondo è molto basso. Calibratori acustici di precisione portatili: PCB® offre calibratori per microfoni, leggeri, portatili con funzionamento a batteria, che soddisfano gli standard IEC e ANSI. PCB® realizza anche un sistema di taratura acustico allo stato dell’arte. Tutti i rapporti di prova e i certificati di taratura mostrano la risposta in frequenza del microfono alla pressione (con l’utilizzo dell’attuatore) e al campo libero, la sua correzione, le condizioni in cui è stata eseguita la taratura, i relativi fattori di incertezza e le attrezzature utilizzate. La taratura dei microfoni di riferimento è tracciabile attraverso documentazione PTB e la maggior parte delle tarature sono A2LA, che per il mutuo riconoscimento interlaboratori (ILAC_MRA) sono equivalenti ai certificati ACCREDIA. Per ulteriori informazioni: www.pcbpiezotronics.it ILAC_MRA è giusto il trattino basso surement, Vol. 3: Representation, Axiomatization and Invariance. San Diego: Academic Press J. Michell (1999). Measurement in psychology: a critical history of a methodological concept. New York: Cambridge University Press. J. Michell, C. Ernst (1996). The axioms of quantity and the theory of measurement, Part I, An English translations of Hölder (1901), Part I, Journal of Mathematical Psychology, 40,235-252. J. Pfanzagl (1968). Theory of measurement. Wiley, Oxford. G. Rasch (1960). Probabilistic models for some intelligence and attainment tests. Copenhagen: Danish Institute for Educational Research. C. Spearman, (1904). General intelligence, objectively determined and measured. American journal of psychology, 15, 201-293. S.S. Stevens (1946). On the theory of scales of Measurement. Science, 103 (2684): 677–680. S.S. Stevens (1957). On the psychophysical law. Psychological Review, 64, 153-181. P. Suppes, J. Zinnes (1963). Basic measurement theory, in R.D. Luce, R.R. Bush, E. Galanter, (eds.), Handbook of mathematical psychology, Vol. I, New York: wiley, pp. 1-76. L.L. Thurstone (1927). A law of comparative judgement. Psychological Review, 34, 273-286. Stefano Noventa è assegnista di ricerca presso il Dipartimento di Psicologia Generale dell’Università degli Studi di Padova. Si occupa di Psicometria, Psicofisica e Psicologia Matematica. Giulio Vidotto è professore Ordinario di Psicometria presso il Dipartimento di Psicologia Generale dell’Università degli Studi di Padova. Si occupa di Psicometria, Percezione e Psicofisica, Psicologia Matematica, Testing e Psicologia della Salute. CURRICULUM NOVENTA è brutto, puoi aggiungere qualcosa?
© Copyright 2024 Paperzz