1.1 Probabilità

Visualizzare

Prob

3. Teoremi sul calcolo della probabilità

Presentiamo alcuni teoremi utili per il calcolo della probabilità; anche in presenza di eventi complessi, ovvero composti da più eventi semplici di cui si conosce la probabilità. Ricordiamo che due eventi si dicono incompatibili quando non possono verificarsi simultaneamente in una data prova e per i quali si ha \( (E_1 ∩ E_2) = Ø \) .


  • Se gli eventi non sono incompatibili, ovvero hanno intersezione non vuota, allora la probabilità della loro unione è la somma delle loro probabilità meno la probabilità della loro intersezione:

\( p(E_1 \cup E_2) = p(E_1) + p(E_2) – p(E_1 ∩ E_2) \)

  • La probabilità dell’unione di due o più eventi incompatibili è semplicemente la somma delle loro probabilità:

\(p(E_1 \cup E_2) = p(E_1) + p(E_2)\)          


  • La probabilità del complementare di un evento vale uno meno la probabilità dell’evento stesso:

\(p( \overline{E} ) = 1 – p(E)\)


Ricordiamo inoltre che due eventi si si dicono complementari quando uno è la negazione dell'altro. Può sembrare una banalità ma può capitare di commettere qualche errore. Ad esempio, se si chiede il contrario di "Vincere sempre" si può avere come risposta "Non vincere mai", mentre la riposta corretta è "Perdere almeno una volta".


  • La probabilità condizionata

La probabilità di un evento è un numero che misura il grado di fiducia che noi abbiamo circa il realizzarsi di questo evento. È naturale allora che la probabilità di uno stesso evento possa cambiare, se cambiano le informazioni in nostro possesso. La scrittura \(p(E_1|E_2)\) indica la probabilità dell’evento \(E_1\) condizionata all’evento \(E_2\), ossia la probabilità che si verifichi \(E_1\) sapendo che si è già verificato \(E_2\).

La probabilità condizionata è uguale al seguente rapporto:

\( p(E_1|E_2) = \dfrac{p(E_1 ∩ E_2)}{p(E_2)} \)


  • L’indipendenza tra eventi

Un altro concetto importante è quello di indipendenza tra eventi: due eventi \(E_1\) ed \(E_2\) sono indipendenti se il verificarsi di uno non influisce sulla probabilità dell’altro.

I due eventi \(E_1\) ed \(E_2\) sono indipendenti se e solo se vale:

\(p(E_1 ∩ E_2) = p(E_1) · p(E_2)\)

ossia la probabilità della loro intersezione è uguale al prodotto delle probabilità dei singoli eventi.

Nel caso di eventi indipendenti si ha:

\( p(E_1|E_2) = \dfrac{p(E_1 ∩ E_2)}{p(E_2)} = \dfrac{p(E_1) · p(E_2)}{p(E_2)} = p(E_1) \)


  • La probabilità composta

Nel caso di due eventi dipendenti la probabilità composta è il prodotto della probabilità del primo evento per la probabilità del secondo condizionata al primo:

\( p(E_1 ∩ E_2) = p(E_1) · p(E_2|E_1) \)

Applicando la definizione vista prima, avremo che nel caso di due eventi indipendenti la probabilità composta è il prodotto delle probabilità dei singoli eventi:

\( p(E_1 ∩ E_2) = p(E_1) · p(E_2) \)

Le relazione si possono generalizzare anche a casi in cui ci sono tre o più eventi.