1.1 Probabilità
Prob
3. Teoremi sul calcolo della probabilità
Presentiamo alcuni teoremi utili per il calcolo della
probabilità; anche in presenza di eventi complessi, ovvero composti da più eventi
semplici di cui si conosce la probabilità. Ricordiamo che due eventi si dicono incompatibili quando non possono verificarsi simultaneamente in una data prova e per i
quali si ha \( (E_1 ∩ E_2) = Ø \) .
- Se gli eventi non sono incompatibili, ovvero hanno intersezione non vuota, allora la probabilità della loro unione è la somma delle loro probabilità meno la probabilità della loro intersezione:
\( p(E_1 \cup E_2) = p(E_1) + p(E_2) – p(E_1 ∩ E_2) \)
- La probabilità dell’unione di due o più eventi incompatibili è semplicemente la somma delle loro probabilità:
\(p(E_1 \cup E_2) = p(E_1) +
p(E_2)\)
- La
probabilità del complementare di un evento vale uno meno la probabilità
dell’evento stesso:
\(p( \overline{E} ) = 1 – p(E)\)
Ricordiamo inoltre che due eventi si si dicono complementari quando uno è la negazione dell'altro. Può
sembrare una banalità ma può capitare di commettere qualche errore. Ad esempio,
se si chiede il contrario di "Vincere sempre" si può avere come
risposta "Non vincere mai", mentre la riposta corretta è
"Perdere almeno una volta".
- La probabilità condizionata
La probabilità di un evento è un numero che misura il grado di
fiducia che noi abbiamo circa il realizzarsi di questo evento. È naturale
allora che la probabilità di uno stesso evento possa cambiare, se cambiano le
informazioni in nostro possesso. La scrittura \(p(E_1|E_2)\) indica la probabilità dell’evento \(E_1\)
condizionata all’evento \(E_2\), ossia la probabilità che si verifichi \(E_1\) sapendo
che si è già verificato \(E_2\).
La probabilità condizionata è uguale al seguente rapporto:
\( p(E_1|E_2) = \dfrac{p(E_1 ∩ E_2)}{p(E_2)} \)
- L’indipendenza tra eventi
Un altro concetto importante è quello di indipendenza tra eventi: due eventi \(E_1\) ed \(E_2\) sono indipendenti se il verificarsi di uno non influisce sulla probabilità dell’altro.
I due eventi \(E_1\) ed \(E_2\) sono indipendenti se e solo se vale:
\(p(E_1 ∩ E_2) = p(E_1) · p(E_2)\)
ossia la probabilità della loro intersezione è uguale al prodotto delle probabilità dei singoli eventi.
Nel caso di eventi indipendenti si ha:
\( p(E_1|E_2) = \dfrac{p(E_1 ∩ E_2)}{p(E_2)} = \dfrac{p(E_1) · p(E_2)}{p(E_2)} = p(E_1) \)
- La probabilità composta
Nel caso di due eventi dipendenti la probabilità composta è il prodotto della probabilità del primo evento per la probabilità del secondo condizionata al primo:
\( p(E_1 ∩ E_2) = p(E_1) · p(E_2|E_1) \)
Applicando la definizione vista prima, avremo che nel caso di due eventi indipendenti la probabilità composta è il prodotto delle probabilità dei singoli eventi:
\( p(E_1 ∩ E_2) = p(E_1) · p(E_2) \)
Le relazione si possono generalizzare anche a casi in cui ci sono tre o più eventi.