TEORIA DELLA PROBABILITA’ Anche se del concetto di probabilità si parla sin dagli albori della storia, la sua formalizzazione scientifica come teoria avviene con l’assiomatizzazione introdotta da Kolmogorov nel 1933 e successivamente ripresa ed ampliata da altri scienziati. Alla base della attuale formalizzazione vi è la distinzione tra concetto e misura della probabilità 1 La probabilità è un concetto primitivo, primitivo ossia originario per l’essere umano perché innato e sempre presente nelle sue regole di comportamento. In quanto tale, esso è regolato da criteri logici coerenti traducibili in un insieme di assiomi dai quali si possono, con deduzioni rigorose, dimostrare i teoremi. 2 La probabilità è una misura in quanto associa al concetto primitivo una valutazione numerica 1 Esperimento casuale o probabilistico È una generica operazione la cui esecuzione, detta prova, è suscettibile di fornire un risultato – compreso in un insieme di risultati necessari ed incompatibili – che non può essere previsto con certezza. Esempio: Lancio di un dado (prova) • necessarietà: si presenta almeno uno dei possibili risultati • incompatibilità: si presenterà solo uno dei possibili risultati. Gli esperimenti casuali riguardano quindi tutti i casi in cui bisogna effettuare una previsione in condizioni di incertezza. Nel formulare tali previsioni, si esprime il “grado di incertezza” relativo al presentarsi di un certo risultato con una valutazione numerica che prende il nome di probabilità. 2 Caratteristiche degli esperimenti casuali Incertezza del risultato: Per le situazioni esaminate sono possibili più esiti, che possono essere elencabili (es. le 6 facce del dado) o non elencabili perché assimilabili a tutti i numeri compresi in un intervallo reale (es. il tasso di inflazione nell’anno x) Ripetibilità dell’esperimento: L’esito si verificherà nuovamente nelle medesime circostanze? In senso stretto, un esperimento reale è sempre irripetibile; tuttavia, se si accetta di considerare circostanze simili, mantenendo fisse le condizioni relative agli elementi ritenuti essenziali ai fini del risultato. Equiprobabilità dei risultati: (Condizione non necessariamente verificata): Esprime l’indifferenza rispetto al verificarsi di uno dei possibili esiti, ossia che non esistono motivi per ritenere un risultato più possibile di un altro. 3 Teoria e calcolo della probabilità 1. Impostazione assiomatica: a) Concetti primitivi “La prova genera l’evento con una certa probabilità” i. Prova: esperimento il cui risultato non è prevedibile con certezza ii. Evento: possibile risultato di una prova iii. Probabilita: numero associato al presentarsi di un evento b) 2. Assiomi: regole formali a cui deve sottostare una valutazione di probabilità. Impostazione classica: classica la probabilità del verificarsi di un certo risultato è data dal rapporto tra numero di casi favorevoli al verificarsi di quel risultato ed il numero totale di casi possibili, ammesso che questi possano essere considerati tutti ugualmente possibili. Critica: Non applicabile agli esperimenti i cui risultati non possono ritenersi tutti ugualmente possibili 4 Concezioni alternative della probabilità L’impostazione assiomatica permette di costruire tutta la teoria della probabilità, a partire dagli assiomi (o postulati). Nei casi più semplici la probabilità si calcola mediante l’impostazione classica. Quando questo non è possibile si ricorre a uno dei seguenti approcci: 3. Impostazione soggettiva: soggettiva la probabilità è l’espressione del grado di fiducia che un individuo ripone nel verificarsi di un certo evento. Critica: Le valutazioni della probabilità possono variare da individuo ad individuo 4. Impostazione frequentista: frequentista all’aumentare del numero delle prove (per n→∞) la probabilità del verificarsi di un certo risultato coincide con la frequenza relativa di tale risultato. n Pr ≡ lim i n →∞ n a condizione che le prove si svolgano tutte nelle medesime condizioni. Critica: Non sempre tutte le prove si svolgono nelle stesse condizioni. 5 SPAZIO CAMPIONARIO Ω Insieme dei possibili risultati ottenibili da una prova. Esempi: 1. Lancio di una moneta: Ω = {T, C} 2. Lancio di un dado: Ω = {1,2,3, 4,5, 6} 3. Numero di minuti in cui una lampadina resta accesa prima di bruciarsi: Ω = {x : x > 0} N.B. Nei primi due esempi Ω ha cardinalità finita, nel terzo esempio Ω ha cardinalità infinita. 6 Eventi Un qualunque sottoinsieme dello spazio campionario Ω. A ∈ Ω Si realizza il risultato della prova appartenente ad A. Tipi di Eventi (es: lancio di un dado): Eventi Elementari {1} , {2 } , {3 } , {4 } , {5 } , {6 } Eventi Composti {1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6} Evento Certo Ω ∅ Evento Impossibile Esempio: sottoinsiemi dell’evento “durata di una lampadina” ( Ω = {x : x > 0}) {x : x > 5 0 0 }; {x : 6 0 0 ≤ x ≤ 7 0 0}; ......... 7 Assiomi (o postulati) del calcolo delle probabilità Siano Ei, i = 1, 2, … eventi di Ω. La probabilità di un evento Ei è una funzione degli elementi di un insieme (dominio) che assume valori reali (codominio). La probabilità è indicata con P(Ei) e soddisfa i seguenti assiomi: i) 0 ≤ P (Ei ) ≤ 1 P(·) = funzione di probabilità ii) P ( Ω ) = 1 iii) ∀i ≠ j P (Ei ∪ Ej ) = P (Ei ) + P (Ej ) se Ei ∩ Ej = ∅ Le impostazioni classica e frequentista soddisfano gli assiomi. Solitamente, nel misurare la probabilità si fa sempre riferimento alla definizione classica. L’assioma iii) permette di definire una misura della probabilità per tutti gli eventi (elementari e composti). 8 Esempio Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10} Ω 1 2 A = estrazione di numero pari B = estrazione di numero > 7 P (Ω) = 3 4 5 8 6 9 10 7 numero totale di elementi di Ω 10 = =1 numero totale di elementi di Ω 10 A B 4 2 6 10 8 10 8 P (A) = numero di elementi pari 5 = = 0,5 numero totale di elementi di Ω 10 P (B ) = numero di elementi > 7 3 = = 0,3 numero totale di elementi di Ω 10 9 9 Operazioni sugli eventi a) Unione (o Somma Logica) fra due eventi A e B è l'evento C che si verifica quando si verifica A oppure B oppure A e B contemporaneamente: Esempio: Ω 1 2 A 3 4 5 8 6 9 B 4 10 2 7 6 8 10 10 8 9 A∪B C = A∪B 4 6 10 2 8 P ( A ∪ B) = 6 = 0, 6 10 9 10 3° teorema del calcolo delle probabilità Eventi elementari e composti Eventi Elementari {1} , {2 } , {3 } , {4 } , {5 } , {6 } Non possono essere scritti come l’unione di altri eventi elementari. Tutti i possibili risultati di una prova sono eventi elementari Eventi Composti {1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6} Unione di più eventi elementari E si è verificato ≡ si è verificato almeno un evento di cui E costituisce l’unione 11 b) Intersezione (o Prodotto Logico) fra due eventi A e B è l'evento D che si verifica quando si verificano sia A che B contemporaneamente: Esempio: Ω 1 2 A 3 4 5 8 6 9 B 4 10 2 7 8 10 6 10 8 9 A∩B D = A∩B 4 6 8 10 9 2 P ( A ∩ B) = 2 = 0,2 10 Probabilità composte e condizionate 12 c) Negazione (o Complementazione) di un evento A è l'evento E che si verifica allorquando A non si verifica: A A Ω Esempio: Ω 1 2 B 3 5 8 B 4 6 9 1 2 3 5 8 10 10 7 ( ) 4 6 P B = 9 numero di elementi ≤ 7 7 = = 0,7 numero totale di elementi di Ω 10 7 13 Proprietà delle operazioni tra eventi Sono mutuate dall’algebra degli insiemi Proprietà Unione Intersezione Idempotenza A∪A=A A∩A=A Elemento neutro A∪∅=A A∩Ω=A Commutativa A∪B=B∪A A∩B=B∩A Associativa (A ∪ B ) ∪ C = A ∪ (B ∪ C) (A ∩ B ) ∩ C = A ∩ (B ∩ C) Distributiva A ∩ (B ∪ C) = (A ∩ B ) ∪ (A ∩ C) A ∪ (B ∩ C) = (A ∪ B ) ∩ (A ∩ C) 14 Leggi di De Morgan Definiscono un legame tra le 3 operazioni 1. La negazione dell’intersezione è uguale all’unione delle negazioni: Ω A ∪B A A ∩B B A ∩B = A ∪B 2. La negazione dell’unione è uguale all’intersezione delle negazioni: Ω A ∩B A A ∪B B A ∪B = A ∩B 15 Relazioni tra eventi Ω Eventi incompatibili Non contengono elementi comuni e quindi la loro intersezione da luogo all’evento impossibile. B A A ∩B = ∅ A = {3,5} ; B= {1,2, 4} ; incompatibili A ∩B ≠ ∅ A = {3,5} ; In pratica, il verificarsi dell’uno implica il non verificarsi dell’altro in una prova. B= {1,3, 6} ; compatibili Partizione dello spazio campionario Suddivisione di Ω in un insieme di eventi Ei necessari ed incompatibili Ω P (Ω) = E3 E2 ∑ P (E ) = 1 i i E1 E4 E5 16 Relazioni tra eventi Inclusione: A ⊂ B Un evento A è incluso nell’evento B se tutte le volte che si verifica A certamente si verifica B B Esempio: A Ω A: {x partorisce} B: {x è di sesso femminile} Differenza tra relazioni ed operazioni tra eventi: Un’operazione è una funzione che assegna ad 1, 2, …, n eventi un altro evento. Il risultato di un’operazione è un evento. Una relazione è un’affermazione che crea un collegamento e/o un ordinamento tra eventi. Una relazione può essere vera o falsa. 17 Principali teoremi del calcolo delle probabilità / =0 1) P(O) 2) P(A) = 1-P(A) 3) P(A ∪ B) = P(A) + P(B)-P(A ∩ B) Ω A B A ∩B Generalizzazione al caso di 3 eventi P(A ∪ B ∪ C)= = P(A) + P(B) + P(C)-P(A ∩ B) − P (A ∩ C ) − P (B ∩ C ) + P (A ∩ B ∩ C ) Ω A B C A ∩B ∩C B∩C Il teorema è generalizzabile al caso di n eventi 18 Eventi subordinati Tra 2 eventi A e B può sussistere una relazione per la quale, sapendo che una prova ha generato un risultato che appartiene a B, si è indotti a modificare la valutazione del verificarsi di A. Esempi: •probabilità che una certa squadra vinca una partita dopo che alla fine del primo tempo è in vantaggio di 3 reti a 0; •probabilità di estrarre un numero maggiore di 7 (B) sapendo che è pari (E2) Ω E1 1 3 7 E2 B 2 4 5 9 6 10 8 10 9 8 P(B) = 3/10 = 0,3 P(B|E2) = 2/5 = 0,4 19 Probabilità condizionata • B si è verificato • B è il nuovo spazio campionario A B Ω qualsiasi evento deve essere incluso in B; la sua probabilità è misurata non più rispetto all’area di Ω ma rispetto all’area di B) •la probabilità di A subordinata a B è data dall’area dell’intersezione rispetto all’area di B La probabilità dell'evento B, dato che si è verificato l'evento A, è il rapporto fra la probabilità del contemporaneo verificarsi di A e B e la probabilità di A, se questa è diversa da zero: P ( A | B) = P (B | A ) = P ( A ∩ B) P (B ) P (B ∩ A ) P (A) ; P (B ) > 0 ; P (A) > 0 20 Probabilità composte Dati 2 eventi A e B per i quali P(A)>0 e P(B)>0, risulta: P (A ∩ B ) = P (A |B ) × P (B ) = P (A ) × P (B |A ) Indipendenza stocastica Se risulta: P P (A (B | B | A ) ) = P = P (A ); (B ) . allora A e B sono stocasticamente indipendenti. In questo caso: P ( A ∩ B ) = P ( A ) × P (B ) Esempi: •Probabilità che nasca una femmina dato che il primo figlio è maschio •Probabilità di estrarre una carta di cuori dopo averne estratta una di cuori ed averla reimmessa nel mazzo di carte. 21 Incompatibilità e indipendenza Incompatibilità: relazione tra eventi Conseguenza: la probabilità dell’unione di più eventi incompatibili è la somma delle singole probabilità Indipendenza: relazione tra probabilità (non rappresentabile sui diagrammi di Venn) Conseguenza: la probabilità dell’intersezione di più eventi indipendenti è il prodotto delle singole probabilità Legame tra indipendenza ed incompatibilità: se due eventi sono incompatibili non possono essere indipendenti 22 Teorema 1 Se A e B sono indipendenti lo sono anche A eB, A e B A eB Dimostrazione per A e B: ( A = ( A ∩ B) ∪ A ∩ B ) Quindi: ( ) ) P ( A ) = P ( A ) × P (B ) + P ( A ∩ B ) ; P ( A ) − P ( A ) × P ( B ) = P ( A ∩ B ) P ( A ) × 1 − P (B ) = P ( A ∩ B ) P ( A ) × P (B ) = P ( A ∩ B ) P ( A ) = P ( A ∩ B ) ∪ A ∩ B ; ( P ( A ) = P ( A ∩ B) + A ∩ B 23 Teorema 2 Se A e B sono eventi indipendenti, allora: ( ) ( ) P ( A ∪ B) = 1 − P A × P B Dimostrazione: ( P ( A ∪ B) = 1 − P A ∪ B ) Poiché per la Legge di De Morgan: A ∪B = A ∩B ( ) = 1 − P ( A ) × P (B ) ( ) P ( A ∪ B) = 1 − P A ∪ B = 1 − P A ∩ B = 24 Teorema delle Probabilità Totali Ω E2 E3 E1 Ei ∩ Ej = ∅ ∀i ≠ j P (Ω) = i A i E5 E4 ∑ P (E ) = 1 A⊂Ω ( ⇒ A ∩ Ei ≠ ∅) Data una partizione di Ω in n eventi Ei (necessari ed incompatibili) e dato un evento A ⊂ Ω, la probabilità di A può essere calcolata come: ( ) ( ) ( ) P ( A ) = P A E1 × p (E1 ) + P A E2 × p (E2 ) + + P A En × p (En ) = = n ∑ P ( A E ) × p (E ) i i i =1 Interpretazione: Ei = cause A = effetto La probabilità dell’effetto A è pari alla somma delle probabilità di A condizionate a ciascuna delle cause Ei 25 Teorema di Bayes È un’applicazione del teorema delle probabilità totali, dotata di un’interpretazione di notevole importanza, tale da generare un’intera branca della statistica, detta statistica Bayesiana, che si contrappone alla cosiddetta statistica classica. Il teorema è attribuito al rev. Thomas Bayes ed è stato utilizzato soprattutto da Laplace nella sua impostazione della probabilità delle cause. Su di esso si basa tutta la odierna teoria delle decisioni statistiche Indipendentemente dall’impostazione cui si aderisce, il teorema costituisce una pietra miliare nella teoria della conoscenza su basi statistiche, in quanto esplicita il ruolo delle differenti probabilità nella scelta tra decisioni alternative 26 Teorema di Bayes Ω E2 E3 E1 Teorema delle P (A) = probabilità totali: A = effetto ∀i ≠ j P (Ω) = i A P (Ei | A ) = ( ⇒ A ∩ Ei A⊂Ω ≠ ∅) k ∑ P (E ) ⋅ P ( A | E ) = P ( A ∩ E ) + P ( A ∩ E ) + … + P ( A ∩ E ) i i 1 2 k i =1 P(Ei) e P(A|Ei) note. Qual è P(Ei|A)? In molti casi, posto che l’evento A si sia verificato, ci si può chiedere quale sia la probabilità che, tra tutte le sue possibili cause, sia stato l’evento Ei a determinarlo. Poiché: ∑ P (E ) = 1 i E5 E4 Ei = cause Ei ∩ Ej = ∅ P (Ei ∩ A ) P (A) Teorema di Bayes: Esempi: E1, E2, …, Ek Malattie Docenti Macchine : P (Ei ∩ A ) = P (Ei ) ⋅ P ( A | Ei ) P (Ei | A ) = A Sintomi Esito esame Pezzi difettosi : P (Ei ) ⋅ P ( A | Ei ) k ∑ P (E ) ⋅ P ( A | E ) i i =1 i 27 Teorema di Bayes Ω E2 E3 E1 P (Ei | A ) = A E4 P (Ei ) ⋅ P ( A | Ei ) k ∑ P (E ) ⋅ P ( A | E ) i E5 i =1 P(Ei) = Probabilità a priori Sono le probabilità delle singole cause e non dipendono dal verificarsi o meno dall’effetto A. P(A|Ei) = Verosimiglianze Sono le probabilità con cui le singole cause Ei determinano l’effetto A. Sono note o determinabili. P(Ei|A) = Probabilità a posteriori Sapendo che l’effetto A si è verificato, è la probabilità con cui sia stato la causa Ei a determinarlo. Il teorema di Bayes consente di correggere le informazioni a priori, P(Ei), sulla base delle evidenze sperimentali, o verosimiglianze, P(A|Ei), fornendo le probabilità a 28 posteriori, P(Ei|A). Quanto più la probabilità a posteriori P(Ei|A) è diversa dalla probabilità a priori P(Ei), tanto più si può dire che la verosimiglianza ha modificato le informazioni a priori sulle cause Ei. i Esempio M1 30% della produzione 1% di pezzi difettosi M2 25% della produzione 1,2% di pezzi difettosi M3 45% della produzione 2% di pezzi difettosi Ω A M1 M2 M3 Problema: In una giornata si producono 10.000 pezzi. Si sceglie un pezzo a caso, e questo risulta difettoso. Qual è la probabilità che il pezzo sia stato prodotto da M1, M2 o M3? Sappiamo: A = pezzo difettoso M1, M2, M3 = macchine produttrici M1 M2 M3 Probabilità a priori: P(M1)=0,30 P(M2)=0,25 P(M3)=0,45 Verosimiglianze: P(A|M1)=0,01 P(A|M2)=0,012 P(A|M3)=0,02 P(M2|A) P(M3|A) Cerchiamo: Probabilità a posteriori: P(M1|A) Sapendo che: P (Mi | A ) = P (Mi ∩ A ) P (A) = P ( A | Mi ) ⋅ P (Mi ) P (A) = P ( A | Mi ) ⋅ P (Mi ) 29 ∑ P ( A | Mi ) ⋅ P (Mi ) i Soluzione: P (M i | A ) = P (M i ∩ A ) P (A ) P (M1 ∩ A ) = P ( A | M1 ) ⋅ P (M1 ) = 0, 010 × 0,30 = 0, 003 P (M2 ∩ A ) = P ( A | M2 ) ⋅ P (M2 ) = 0, 012 × 0,25 = 0, 003 P (M3 ∩ A ) = P ( A | M3 ) ⋅ P (M3 ) = 0, 020 × 0, 45 = 0, 009 Quindi: P (M1 | A ) = P (M2 | A ) = P (M3 | A ) = P (M1 ∩ A ) P (A) P (M2 ∩ A ) P (A) P (M3 ∩ A ) P (A) = 0, 003 = 0,20 0, 015 = 0, 003 = 0,20 0, 015 = 0, 009 = 0, 60 0, 015 P ( A ) = P (M1 ∩ A ) + P (M2 ∩ A ) + P (M3 ∩ A ) = 0, 003 + 0, 003 + 0, 009 = 0, 015 Esempio V = VIRUS: V0 99,9 % della popolazione (sani) V1 0,1 % della popolazione (malati) Ω T1 Tasso di penetrazione del virus V (1/1000 casi) V0 V1 T = TEST CLINICO: 98% dei casi diagnostica correttamente la presenza del virus 1% dei casi diagnostica il Virus a soggetti sani (c.d. “falso positivo”) Problema: Sappiamo: Una persona si sottopone al test e risulta positivo. Qual è la probabilità che abbia il virus? T0 Test diagnostica NO VIRUS V0 Il soggetto NON HA il Virus T1 Test diagnostica V1 Il soggetto HA il Virus VIRUS V1 V0 Probabilità a priori: P(V1)=0,001 P(V0)=0,999 Verosimiglianze: P(T1|V1)=0,98 P(T1|V0)=0,01 Cerchiamo: Probabilità a posteriori: P(V1|T1) = P ( V1 ) ⋅ P ( T1 | V1 ) P ( V1 ) ⋅ P ( T1 | V1 ) + P ( V0 ) ⋅ P ( T1 | V0 ) P(V0|T1) = Soluzione: P ( V1 | T1 ) = P ( V1 ∩ T1 ) P ( T1 ) 0, 001 × 0,98 = 0, 089 0,001 × 0, 98 + 0, 999 × 0, 01 31 = Probabilità composte e indipendenza stocastica su tabelle doppie di frequenza X X1 X2 X3 X4 Totale Y1 n11 n12 n13 N14 n1. Y2 n21 n22 N23 N24 n2. Totale n.1 n.2 n.3 n.4 N X1 X2 X3 X4 Totale Y1 f11 f12 f13 f14 f1. Y2 f21 f22 f23 f24 f2. Totale f.1 f.2 f.3 f.4 1 Y X Y In caso di indipendenza tra X ed Y: ˆ nij = ni•n• j n ossia ˆ fij = fi• f• j P ( Yi ∩ Xj) = P ( Yi) ⋅ P ( Xj) N.B.: Se X ed Y non sono stocasticamente indipendenti bisogna passare per le probabilità condizionate (probabilità composta) 32 Esempio La produzione di pneumatici in una fabbrica avviene in tre turni: il 50% di giorno – il 30% di sera – il 20% di notte. Il controllo della conformità dei pneumatici prodotti si basa su un campione di 200 pezzi, ripartiti secondo le proporzioni dei 3 turni di produzione, che ha rivelato ciò che segue: TURNO DI PRODUZIONE ESITO Giorno Conformità Non conformità totale Sera totale Notte 97 54 33 184 3 6 7 16 100 60 40 200 1) Calcolare la probabilità che un pneumatico scelto a caso: a) sia difettoso; b) sia difettoso e prodotto: b1) di giorno; b2) di sera; b3) di notte; c) sia difettoso, sapendo che è stato prodotto: c1) di giorno; c2) di sera; c3) di notte; d) sapendo che è difettoso, sia stato prodotto: d1) di giorno; d2) di sera; d3) di notte. 2) È lecito sostenere che la qualità del prodotto è influenzata dal turno di produzione? 33 Le probabilità cercate possono essere ottenute dalla tabella delle frequenze relative: TURNO DI PRODUZIONE ESITO Giorno (G) Notte (N) totale Conformità (C) 0,485 0,27 0,165 0,92 Non conformità (D) 0,015 0,03 0,035 0,08 0,5 0,3 0,2 1 totale a) Sera (S) P(D) = 0,08 (difettoso) b) b.1 P(D ∩ G) = 0,015 b.2 P(D ∩ S) = 0,03 b.3 P(D ∩ N) = 0,035 (difettoso e prodotto di giorno) (difettoso e prodotto di sera) (difettoso e prodotto di notte) c.1 P(D ∩ G) 0, 015 = = 0, 03 P(D|G) = P(G) 0,5 c.2 P(D|S) = P(D ∩ S) 0, 03 = = 0,1 P(S) 0,3 c.3 P(D|N) = P(D ∩ N) 0, 035 = = 0,175 P(N) 0,2 c) (che sia difettoso, sapendo che è stato prodotto di giorno) (che sia difettoso, sapendo che è stato prodotto di sera) (che sia difettoso, sapendo che è stato prodotto di notte) 34 d) d.1 P(G|D) = P(D ∩ G) 0, 015 = = 0,1875 P(D) 0, 08 (sapendo che è difettoso, sia prodotto di giorno) d.2 P(S|D) = P(D ∩ S) 0, 03 = = 0,375 P(D) 0,08 (sapendo che è difettoso, sia prodotto di sera) d.3 P(N|D) = P(D ∩ N) 0, 035 = = 0, 4375 P(D) 0, 08 (sapendo che è difettoso, sia prodotto di notte) N.B.: Ipotizzando un legame di causa-effetto tra turno di produzione (causa) ed esito del controllo (effetto), il quesito d può essere interpretato in termini di teorema di Bayes. 2) Se la qualità del prodotto non fosse influenzata dal turno di produzione, si dovrebbe avere: P(D|G) = P(D|S) = P(D|N) = P(D) ma evidentemente così non è. 35 Nell’esempio del virus: La seguente tabella mostra la distribuzione doppia da cui provengono le probabilità a priori e le verosimiglianze utilizzate nell’esempio precedente. VIRUS TEST Positivo (V1) Negativo (V0) totale 98 99 1.097 2 98.900 98.903 100 99.900 100.000 Positivo (T1) Negativo (T0) totale V1 V0 100 = 0,001 100.000 Probabilità a priori: P ( V1 ) = Verosimiglianze: P ( T1 V1 ) = 98 = 0,98 100 Probabilità a posteriori: P ( V1 | T1 ) = 98 = 0, 089 1.097 P ( V0 ) = 99.900 = 0,999 100.000 P ( T1 V0 ) = 99 = 0,01 99.900
© Copyright 2024 Paperzz