Probabilità

TEORIA DELLA PROBABILITA’
Anche se del concetto di probabilità si parla sin dagli albori della storia,
la sua formalizzazione scientifica come teoria avviene con l’assiomatizzazione introdotta da Kolmogorov nel 1933 e successivamente ripresa
ed ampliata da altri scienziati.
Alla base della attuale formalizzazione vi è la distinzione tra
concetto e misura della probabilità
1
La probabilità è un concetto primitivo,
primitivo ossia originario per l’essere
umano perché innato e sempre presente nelle sue regole di
comportamento.
In quanto tale, esso è regolato da criteri logici coerenti traducibili in un
insieme di assiomi dai quali si possono, con deduzioni rigorose,
dimostrare i teoremi.
2
La probabilità è una misura in quanto associa al concetto primitivo una
valutazione numerica
1
Esperimento casuale o probabilistico
È una generica operazione la cui esecuzione, detta prova, è
suscettibile di fornire un risultato – compreso in un insieme di
risultati necessari ed incompatibili – che non può essere
previsto con certezza.
Esempio: Lancio di un dado (prova)
• necessarietà: si presenta almeno uno dei possibili risultati
• incompatibilità: si presenterà solo uno dei possibili risultati.
Gli esperimenti casuali riguardano quindi tutti i casi in cui bisogna effettuare
una previsione in condizioni di incertezza.
Nel formulare tali previsioni, si esprime il “grado di incertezza” relativo al
presentarsi di un certo risultato con una valutazione numerica che prende il
nome di probabilità.
2
Caratteristiche degli esperimenti casuali
Incertezza del risultato:
Per le situazioni esaminate sono possibili più esiti, che possono
essere elencabili (es. le 6 facce del dado) o non elencabili
perché assimilabili a tutti i numeri compresi in un intervallo
reale (es. il tasso di inflazione nell’anno x)
Ripetibilità dell’esperimento:
L’esito si verificherà nuovamente nelle medesime circostanze?
In senso stretto, un esperimento reale è sempre irripetibile;
tuttavia, se si accetta di considerare circostanze simili,
mantenendo fisse le condizioni relative agli elementi ritenuti
essenziali ai fini del risultato.
Equiprobabilità dei risultati:
(Condizione non necessariamente verificata):
Esprime l’indifferenza rispetto al verificarsi di uno dei possibili
esiti, ossia che non esistono motivi per ritenere un risultato più
possibile di un altro.
3
Teoria e calcolo della probabilità
1.
Impostazione assiomatica:
a)
Concetti primitivi
“La prova genera l’evento con una certa probabilità”
i.
Prova: esperimento il cui risultato non è prevedibile con
certezza
ii.
Evento: possibile risultato di una prova
iii. Probabilita: numero associato al presentarsi di un evento
b)
2.
Assiomi: regole formali a cui deve sottostare una valutazione di
probabilità.
Impostazione classica:
classica la probabilità del verificarsi di un certo
risultato è data dal rapporto tra numero di casi favorevoli al
verificarsi di quel risultato ed il numero totale di casi possibili,
ammesso che questi possano essere considerati tutti ugualmente
possibili.
Critica: Non applicabile agli esperimenti i cui risultati non possono
ritenersi tutti ugualmente possibili
4
Concezioni alternative della probabilità
L’impostazione assiomatica permette di costruire tutta la teoria
della probabilità, a partire dagli assiomi (o postulati).
Nei casi più semplici la probabilità si calcola mediante
l’impostazione classica.
Quando questo non è possibile si ricorre a uno dei seguenti approcci:
3.
Impostazione soggettiva:
soggettiva la probabilità è l’espressione del grado
di fiducia che un individuo ripone nel verificarsi di un certo evento.
Critica: Le valutazioni della probabilità possono variare da individuo
ad individuo
4.
Impostazione frequentista:
frequentista all’aumentare del numero delle prove
(per n→∞) la probabilità del verificarsi di un certo risultato coincide
con la frequenza relativa di tale risultato.
n
Pr ≡ lim i
n →∞ n
a condizione che le prove si svolgano tutte nelle medesime condizioni.
Critica: Non sempre tutte le prove si svolgono nelle stesse
condizioni.
5
SPAZIO CAMPIONARIO
Ω
Insieme dei possibili risultati ottenibili da una prova.
Esempi:
1. Lancio di una moneta:
Ω = {T, C}
2. Lancio di un dado:
Ω = {1,2,3, 4,5, 6}
3. Numero di minuti in cui una lampadina resta accesa prima
di bruciarsi:
Ω = {x : x > 0}
N.B. Nei primi due esempi Ω ha cardinalità finita, nel terzo esempio
Ω ha cardinalità infinita.
6
Eventi
Un qualunque sottoinsieme dello spazio campionario Ω.
A ∈ Ω
Si realizza il risultato della prova
appartenente ad A.
Tipi di Eventi (es: lancio di un dado):
Eventi Elementari
{1} , {2 } , {3 } , {4 } , {5 } , {6 }
Eventi Composti
{1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6}
Evento Certo
Ω
∅
Evento Impossibile
Esempio: sottoinsiemi dell’evento “durata di una lampadina”
( Ω = {x : x > 0})
{x
: x > 5 0 0 };
{x
: 6 0 0 ≤ x ≤ 7 0 0}; .........
7
Assiomi (o postulati) del calcolo delle probabilità
Siano Ei, i = 1, 2, … eventi di Ω.
La probabilità di un evento Ei è una funzione degli elementi di un
insieme (dominio) che assume valori reali (codominio).
La probabilità è indicata con P(Ei) e soddisfa i seguenti assiomi:
i) 0 ≤ P (Ei ) ≤ 1
P(·) = funzione di probabilità
ii) P ( Ω ) = 1
iii) ∀i ≠ j P (Ei ∪ Ej ) = P (Ei ) + P (Ej )
se
Ei ∩ Ej = ∅
Le impostazioni classica e frequentista soddisfano gli assiomi.
Solitamente, nel misurare la probabilità si fa sempre riferimento
alla definizione classica.
L’assioma iii) permette di definire una misura della probabilità per
tutti gli eventi (elementari e composti).
8
Esempio
Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}
Ω
1
2
A = estrazione di numero pari
B = estrazione di numero > 7
P (Ω) =
3
4
5
8
6
9
10
7
numero totale di elementi di Ω
10
=
=1
numero totale di elementi di Ω
10
A
B
4
2
6
10
8
10
8
P (A) =
numero di elementi pari
5
=
= 0,5
numero totale di elementi di Ω 10
P (B ) =
numero di elementi > 7
3
=
= 0,3
numero totale di elementi di Ω 10
9
9
Operazioni sugli eventi
a)
Unione (o Somma Logica) fra due eventi A e B è l'evento C che si
verifica quando si verifica A oppure B oppure A e B
contemporaneamente:
Esempio:
Ω
1
2
A
3
4
5
8
6
9
B
4
10
2
7
6
8
10
10
8
9
A∪B
C = A∪B
4
6
10
2
8
P ( A ∪ B) =
6
= 0, 6
10
9
10
3° teorema del calcolo delle probabilità
Eventi elementari e composti
Eventi Elementari
{1} , {2 } , {3 } , {4 } , {5 } , {6 }
Non possono essere scritti come l’unione di altri
eventi elementari.
Tutti i possibili risultati di una prova sono eventi
elementari
Eventi Composti
{1,3} , {1,2, 6} ,… , {1,2,3, 4,5, 6}
Unione di più eventi elementari
E si è verificato
≡
si è verificato almeno un evento di cui E costituisce l’unione
11
b)
Intersezione (o Prodotto Logico) fra due eventi A e B è l'evento D
che si verifica quando si verificano sia A che B contemporaneamente:
Esempio:
Ω
1
2
A
3
4
5
8
6
9
B
4
10
2
7
8
10
6
10
8
9
A∩B
D = A∩B
4
6
8
10
9
2
P ( A ∩ B) =
2
= 0,2
10
Probabilità composte e
condizionate
12
c)
Negazione (o Complementazione) di un evento A è l'evento E che si
verifica allorquando A non si verifica:
A
A
Ω
Esempio:
Ω
1
2
B
3
5
8
B
4
6
9
1
2
3
5
8
10
10
7
( )
4
6
P B =
9
numero di elementi ≤ 7
7
=
= 0,7
numero totale di elementi di Ω 10
7
13
Proprietà delle operazioni tra eventi
Sono mutuate dall’algebra degli insiemi
Proprietà
Unione
Intersezione
Idempotenza
A∪A=A
A∩A=A
Elemento neutro
A∪∅=A
A∩Ω=A
Commutativa
A∪B=B∪A
A∩B=B∩A
Associativa
(A ∪ B ) ∪ C = A ∪ (B ∪ C)
(A ∩ B ) ∩ C = A ∩ (B ∩ C)
Distributiva
A ∩ (B ∪ C) = (A ∩ B ) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B ) ∩ (A ∩ C)
14
Leggi di De Morgan
Definiscono un legame tra le 3 operazioni
1. La negazione dell’intersezione è
uguale all’unione delle negazioni:
Ω
A ∪B
A
A ∩B
B
A ∩B = A ∪B
2. La negazione dell’unione è
uguale all’intersezione delle
negazioni:
Ω
A ∩B
A
A ∪B
B
A ∪B = A ∩B
15
Relazioni tra eventi
Ω
Eventi incompatibili
Non contengono elementi comuni e quindi la loro
intersezione da luogo all’evento impossibile.
B
A
A ∩B = ∅
A = {3,5} ;
B= {1,2, 4} ; incompatibili
A ∩B ≠ ∅
A = {3,5} ;
In pratica, il verificarsi dell’uno implica il non
verificarsi dell’altro in una prova.
B= {1,3, 6} ; compatibili
Partizione dello spazio campionario
Suddivisione di Ω in un insieme di eventi Ei necessari ed incompatibili
Ω
P (Ω) =
E3
E2
∑ P (E ) = 1
i
i
E1
E4
E5
16
Relazioni tra eventi
Inclusione: A ⊂ B
Un evento A è incluso nell’evento B se tutte le volte
che si verifica A certamente si verifica B
B
Esempio:
A
Ω
A: {x partorisce}
B: {x è di sesso femminile}
Differenza tra relazioni ed operazioni tra eventi:
Un’operazione è una funzione che assegna ad 1, 2, …, n eventi un
altro evento. Il risultato di un’operazione è un evento.
Una relazione è un’affermazione che crea un collegamento e/o un
ordinamento tra eventi. Una relazione può essere vera o falsa.
17
Principali teoremi del calcolo delle probabilità
/ =0
1) P(O)
2) P(A) = 1-P(A)
3) P(A ∪ B) = P(A) + P(B)-P(A ∩ B)
Ω
A
B
A ∩B
Generalizzazione al caso di 3 eventi
P(A ∪ B ∪ C)=
= P(A) + P(B) + P(C)-P(A ∩ B) − P (A ∩ C ) − P (B ∩ C ) + P (A ∩ B ∩ C )
Ω
A
B
C
A ∩B ∩C
B∩C
Il teorema è
generalizzabile al caso
di n eventi
18
Eventi subordinati
Tra 2 eventi A e B può sussistere una relazione per la quale,
sapendo che una prova ha generato un risultato che appartiene
a B, si è indotti a modificare la valutazione del verificarsi di A.
Esempi:
•probabilità che una certa squadra vinca una partita dopo che alla fine
del primo tempo è in vantaggio di 3 reti a 0;
•probabilità di estrarre un numero maggiore di 7 (B) sapendo che è pari
(E2)
Ω
E1
1
3
7
E2
B
2
4
5
9
6
10
8
10
9
8
P(B) = 3/10 = 0,3
P(B|E2) = 2/5 = 0,4
19
Probabilità condizionata
• B si è verificato
• B è il nuovo spazio campionario
A
B
Ω
qualsiasi evento deve essere incluso in B; la
sua probabilità è misurata non più rispetto
all’area di Ω ma rispetto all’area di B)
•la probabilità di A subordinata a B è data
dall’area dell’intersezione rispetto all’area di
B
La probabilità dell'evento B, dato che si è verificato l'evento A, è il rapporto
fra la probabilità del contemporaneo verificarsi di A e B e la probabilità
di A, se questa è diversa da zero:
P ( A | B) =
P (B | A ) =
P ( A ∩ B)
P (B )
P (B ∩ A )
P (A)
;
P (B ) > 0
;
P (A) > 0
20
Probabilità composte
Dati 2 eventi A e B per i quali P(A)>0 e P(B)>0, risulta:
P (A ∩ B ) = P (A |B ) × P (B ) = P (A ) × P (B |A )
Indipendenza stocastica
Se risulta:
P
P
(A
(B
| B
| A
)
)
= P
= P
(A );
(B ) .
allora A e B sono stocasticamente
indipendenti.
In questo caso:
P ( A ∩ B ) = P ( A ) × P (B )
Esempi:
•Probabilità che nasca una femmina dato che il primo figlio è maschio
•Probabilità di estrarre una carta di cuori dopo averne estratta una di cuori
ed averla reimmessa nel mazzo di carte.
21
Incompatibilità e indipendenza
Incompatibilità: relazione tra eventi
Conseguenza: la probabilità dell’unione di più eventi
incompatibili è la somma delle singole probabilità
Indipendenza: relazione tra probabilità
(non rappresentabile sui diagrammi di Venn)
Conseguenza: la probabilità dell’intersezione di più eventi
indipendenti è il prodotto delle singole probabilità
Legame tra indipendenza ed incompatibilità:
se due eventi sono incompatibili non possono essere indipendenti
22
Teorema 1
Se A e B sono indipendenti lo sono anche A eB, A e B A eB
Dimostrazione per A e
B:
(
A = ( A ∩ B) ∪ A ∩ B
)
Quindi:
(
)
)
P ( A ) = P ( A ) × P (B ) + P ( A ∩ B ) ; P ( A ) − P ( A ) × P ( B ) = P ( A ∩ B )
P ( A ) × 1 − P (B )  = P ( A ∩ B )
P ( A ) × P (B ) = P ( A ∩ B )
P ( A ) = P ( A ∩ B ) ∪ A ∩ B  ;


(
P ( A ) = P ( A ∩ B) + A ∩ B
23
Teorema 2
Se A e B sono eventi indipendenti, allora:
( ) ( )
P ( A ∪ B) = 1 − P A × P B
Dimostrazione:
(
P ( A ∪ B) = 1 − P A ∪ B
)
Poiché per la Legge di De Morgan:
A ∪B = A ∩B
(
)
= 1 − P ( A ) × P (B )
(
)
P ( A ∪ B) = 1 − P A ∪ B = 1 − P A ∩ B =
24
Teorema delle Probabilità Totali
Ω
E2
E3
E1
Ei ∩ Ej = ∅
∀i ≠ j
P (Ω) =
i
A
i
E5
E4
∑ P (E ) = 1
A⊂Ω
( ⇒ A ∩ Ei
≠ ∅)
Data una partizione di Ω in n eventi Ei (necessari ed incompatibili) e dato un
evento A ⊂ Ω, la probabilità di A può essere calcolata come:
(
)
(
)
(
)
P ( A ) = P A E1 × p (E1 ) + P A E2 × p (E2 ) + + P A En × p (En ) =
=
n
∑ P ( A E ) × p (E )
i
i
i =1
Interpretazione:
Ei = cause
A = effetto
La probabilità dell’effetto A è pari alla somma delle probabilità di A
condizionate a ciascuna delle cause Ei
25
Teorema di Bayes
È un’applicazione del teorema delle probabilità totali, dotata di
un’interpretazione di notevole importanza, tale da generare un’intera branca
della statistica, detta statistica Bayesiana, che si contrappone alla cosiddetta
statistica classica.
Il teorema è attribuito al rev. Thomas Bayes ed è stato utilizzato
soprattutto da Laplace nella sua impostazione della probabilità delle
cause. Su di esso si basa tutta la odierna teoria delle decisioni
statistiche
Indipendentemente dall’impostazione cui si aderisce, il teorema
costituisce una pietra miliare nella teoria della conoscenza su basi
statistiche, in quanto esplicita il ruolo delle differenti probabilità nella
scelta tra decisioni alternative
26
Teorema di Bayes
Ω
E2
E3
E1
Teorema delle
P (A) =
probabilità totali:
A = effetto
∀i ≠ j
P (Ω) =
i
A
P (Ei | A ) =
( ⇒ A ∩ Ei
A⊂Ω
≠ ∅)
k
∑ P (E ) ⋅ P ( A | E ) = P ( A ∩ E ) + P ( A ∩ E ) + … + P ( A ∩ E )
i
i
1
2
k
i =1
P(Ei) e P(A|Ei) note. Qual è P(Ei|A)?
In molti casi, posto che l’evento A si sia verificato, ci si può
chiedere quale sia la probabilità che, tra tutte le sue possibili
cause, sia stato l’evento Ei a determinarlo.
Poiché:
∑ P (E ) = 1
i
E5
E4
Ei = cause
Ei ∩ Ej = ∅
P (Ei ∩ A )
P (A)
Teorema di Bayes:
Esempi:
E1, E2, …, Ek
Malattie
Docenti
Macchine
:
P (Ei ∩ A ) = P (Ei ) ⋅ P ( A | Ei )
P (Ei | A ) =
A
Sintomi
Esito esame
Pezzi difettosi
:
P (Ei ) ⋅ P ( A | Ei )
k
∑ P (E ) ⋅ P ( A | E )
i
i =1
i
27
Teorema di Bayes
Ω
E2
E3
E1
P (Ei | A ) =
A
E4
P (Ei ) ⋅ P ( A | Ei )
k
∑ P (E ) ⋅ P ( A | E )
i
E5
i =1
P(Ei) = Probabilità a priori
Sono le probabilità delle singole cause e non
dipendono dal verificarsi o meno dall’effetto A.
P(A|Ei) = Verosimiglianze
Sono le probabilità con cui le singole cause Ei
determinano l’effetto A. Sono note o determinabili.
P(Ei|A) = Probabilità a posteriori
Sapendo che l’effetto A si è verificato, è la probabilità
con cui sia stato la causa Ei a determinarlo.
Il teorema di Bayes consente di correggere le informazioni a priori, P(Ei), sulla base
delle evidenze sperimentali, o verosimiglianze, P(A|Ei), fornendo le probabilità a
28
posteriori, P(Ei|A).
Quanto più la probabilità a posteriori P(Ei|A) è diversa dalla probabilità a priori P(Ei),
tanto più si può dire che la verosimiglianza ha modificato le informazioni a priori sulle
cause Ei.
i
Esempio
M1
30% della produzione
1% di pezzi difettosi
M2
25% della produzione
1,2% di pezzi difettosi
M3
45% della produzione
2% di pezzi difettosi
Ω
A
M1
M2
M3
Problema:
In una giornata si producono 10.000 pezzi. Si sceglie un pezzo a caso, e questo
risulta difettoso.
Qual è la probabilità che il pezzo sia stato prodotto da M1, M2 o M3?
Sappiamo:
A = pezzo difettoso
M1, M2, M3 = macchine produttrici
M1
M2
M3
Probabilità a priori:
P(M1)=0,30
P(M2)=0,25
P(M3)=0,45
Verosimiglianze:
P(A|M1)=0,01
P(A|M2)=0,012
P(A|M3)=0,02
P(M2|A)
P(M3|A)
Cerchiamo:
Probabilità a posteriori: P(M1|A)
Sapendo che:
P (Mi | A ) =
P (Mi ∩ A )
P (A)
=
P ( A | Mi ) ⋅ P (Mi )
P (A)
=
P ( A | Mi ) ⋅ P (Mi ) 29
∑ P ( A | Mi ) ⋅ P (Mi )
i
Soluzione:
P (M i | A ) =
P (M i ∩ A )
P (A )
P (M1 ∩ A ) = P ( A | M1 ) ⋅ P (M1 ) = 0, 010 × 0,30 = 0, 003
P (M2 ∩ A ) = P ( A | M2 ) ⋅ P (M2 ) = 0, 012 × 0,25 = 0, 003
P (M3 ∩ A ) = P ( A | M3 ) ⋅ P (M3 ) = 0, 020 × 0, 45 = 0, 009
Quindi:
P (M1 | A ) =
P (M2 | A ) =
P (M3 | A ) =
P (M1 ∩ A )
P (A)
P (M2 ∩ A )
P (A)
P (M3 ∩ A )
P (A)
=
0, 003
= 0,20
0, 015
=
0, 003
= 0,20
0, 015
=
0, 009
= 0, 60
0, 015
P ( A ) = P (M1 ∩ A ) + P (M2 ∩ A ) + P (M3 ∩ A )
= 0, 003 + 0, 003 + 0, 009 = 0, 015
Esempio
V = VIRUS:
V0
99,9 % della popolazione (sani)
V1
0,1 % della popolazione (malati)
Ω
T1
Tasso di penetrazione del virus V (1/1000 casi)
V0
V1
T = TEST CLINICO:
98% dei casi diagnostica correttamente la presenza del virus
1% dei casi diagnostica il Virus a soggetti sani (c.d. “falso positivo”)
Problema:
Sappiamo:
Una persona si sottopone al test e risulta positivo.
Qual è la probabilità che abbia il virus?
T0
Test diagnostica NO VIRUS
V0
Il soggetto NON HA il Virus
T1
Test diagnostica
V1
Il soggetto HA il Virus
VIRUS
V1
V0
Probabilità a priori:
P(V1)=0,001
P(V0)=0,999
Verosimiglianze:
P(T1|V1)=0,98
P(T1|V0)=0,01
Cerchiamo:
Probabilità a posteriori: P(V1|T1)
=
P ( V1 ) ⋅ P ( T1 | V1 )
P ( V1 ) ⋅ P ( T1 | V1 ) + P ( V0 ) ⋅ P ( T1 | V0 )
P(V0|T1)
=
Soluzione:
P ( V1 | T1 ) =
P ( V1 ∩ T1 )
P ( T1 )
0, 001 × 0,98
= 0, 089
0,001 × 0, 98 + 0, 999 × 0, 01
31
=
Probabilità composte e indipendenza stocastica su tabelle
doppie di frequenza
X
X1
X2
X3
X4
Totale
Y1
n11
n12
n13
N14
n1.
Y2
n21
n22
N23
N24
n2.
Totale
n.1
n.2
n.3
n.4
N
X1
X2
X3
X4
Totale
Y1
f11
f12
f13
f14
f1.
Y2
f21
f22
f23
f24
f2.
Totale
f.1
f.2
f.3
f.4
1
Y
X
Y
In caso di indipendenza tra X ed Y:
ˆ
nij =
ni•n• j
n
ossia
ˆ
fij = fi• f• j
P ( Yi ∩ Xj) = P ( Yi) ⋅ P ( Xj)
N.B.: Se X ed Y non sono stocasticamente indipendenti bisogna passare per le
probabilità condizionate (probabilità composta)
32
Esempio
La produzione di pneumatici in una fabbrica avviene in tre turni: il 50% di giorno – il 30%
di sera – il 20% di notte. Il controllo della conformità dei pneumatici prodotti si basa su un
campione di 200 pezzi, ripartiti secondo le proporzioni dei 3 turni di produzione, che ha
rivelato ciò che segue:
TURNO DI PRODUZIONE
ESITO
Giorno
Conformità
Non conformità
totale
Sera
totale
Notte
97
54
33
184
3
6
7
16
100
60
40
200
1) Calcolare la probabilità che un pneumatico scelto a caso:
a) sia difettoso;
b) sia difettoso e prodotto: b1) di giorno;
b2) di sera;
b3) di notte;
c) sia difettoso, sapendo che è stato prodotto: c1) di giorno;
c2) di sera;
c3) di notte;
d) sapendo che è difettoso, sia stato prodotto: d1) di giorno;
d2) di sera;
d3) di notte.
2) È lecito sostenere che la qualità del prodotto è influenzata dal turno di produzione?
33
Le probabilità cercate possono essere ottenute dalla tabella delle frequenze relative:
TURNO DI PRODUZIONE
ESITO
Giorno (G)
Notte (N)
totale
Conformità (C)
0,485
0,27
0,165
0,92
Non conformità (D)
0,015
0,03
0,035
0,08
0,5
0,3
0,2
1
totale
a)
Sera (S)
P(D) = 0,08 (difettoso)
b)
b.1 P(D ∩ G) = 0,015
b.2 P(D ∩ S) = 0,03
b.3 P(D ∩ N) = 0,035
(difettoso e prodotto di giorno)
(difettoso e prodotto di sera)
(difettoso e prodotto di notte)
c.1
P(D ∩ G) 0, 015
=
= 0, 03
P(D|G) = P(G)
0,5
c.2
P(D|S) =
P(D ∩ S) 0, 03
=
= 0,1
P(S)
0,3
c.3
P(D|N) =
P(D ∩ N) 0, 035
=
= 0,175
P(N)
0,2
c)
(che sia difettoso, sapendo che è
stato prodotto di giorno)
(che sia difettoso, sapendo che è
stato prodotto di sera)
(che sia difettoso, sapendo che è
stato prodotto di notte)
34
d)
d.1
P(G|D) =
P(D ∩ G) 0, 015
=
= 0,1875
P(D)
0, 08
(sapendo che è difettoso, sia prodotto
di giorno)
d.2
P(S|D) =
P(D ∩ S) 0, 03
=
= 0,375
P(D)
0,08
(sapendo che è difettoso, sia prodotto
di sera)
d.3
P(N|D) =
P(D ∩ N) 0, 035
=
= 0, 4375
P(D)
0, 08
(sapendo che è difettoso, sia prodotto
di notte)
N.B.: Ipotizzando un legame di causa-effetto tra turno di produzione (causa) ed
esito del controllo (effetto), il quesito d può essere interpretato in termini di
teorema di Bayes.
2)
Se la qualità del prodotto non fosse influenzata dal turno di produzione, si dovrebbe
avere:
P(D|G) = P(D|S) = P(D|N) = P(D)
ma evidentemente così non è.
35
Nell’esempio del virus:
La seguente tabella mostra la distribuzione doppia da cui provengono le probabilità a priori
e le verosimiglianze utilizzate nell’esempio precedente.
VIRUS
TEST
Positivo (V1)
Negativo (V0)
totale
98
99
1.097
2
98.900
98.903
100
99.900
100.000
Positivo (T1)
Negativo (T0)
totale
V1
V0
100
= 0,001
100.000
Probabilità a priori:
P ( V1 ) =
Verosimiglianze:
P ( T1 V1 ) =
98
= 0,98
100
Probabilità a posteriori: P ( V1 | T1 ) =
98
= 0, 089
1.097
P ( V0 ) =
99.900
= 0,999
100.000
P ( T1 V0 ) =
99
= 0,01
99.900