Corso di Probabilità Statistica e Teoria degli Errori: 2 Teoria della Probabilità
Teoria della Probabilità
Obiettivi: comprendere concetti fondamentali, manipolare eventi e utilizzare il teorema di Bayes; esercitazioni pratiche con simulazioni.
1. Obiettivi didattici
Questo modulo ha tre scopi principali: (1) fornire una base teorica solida della probabilità (classica, frequentista e soggettiva), (2) sviluppare abilità nel trattare spazi campionari, eventi, probabilità composte e probabilità condizionata; (3) applicare questi concetti attraverso esempi numerici ed esercizi implementabili con semplici simulazioni.
2. Concetti fondamentali: spazi campionari ed eventi
Definiamo lo spazio campionario \( \Omega \) come l’insieme di tutti i possibili esiti di un esperimento casuale. Un evento è un sottoinsieme \( A \subseteq \Omega \).
Esempio elementare: lancio di un dado equo a sei facce: \( \Omega = \{1,2,3,4,5,6\} \). L’evento "esce un numero pari" si scrive \( A=\{2,4,6\} \).
3. Probabilità: definizioni e interpretazioni
Probabilità classica: quando i risultati sono equiprobabili, la probabilità di un evento \(A\) è
\(\displaystyle P(A)=\frac{|A|}{|\Omega|}\).
Frequentista: la probabilità è il limite della frequenza relativa in prove ripetute identiche, cioè se \(N\) è il numero di prove e \(n(A)\) i successi,
\(\displaystyle P(A)\approx\frac{n(A)}{N}\) per \(N\to\infty\).
Soggettiva (Bayesiana): la probabilità esprime il grado di fiducia razionale di un agente in una proposizione dati gli elementi informativi disponibili.
4. Eventi composti: unione, intersezione, complementare
Per due eventi \(A\) e \(B\):
- Intersezione: \(A\cap B\) — entrambi gli eventi occorrono.
- Unione: \(A\cup B\) — almeno uno dei due eventi occorre.
- Complementare: \(A^c = \Omega\setminus A\).
La regola generale per l’unione è
\(\displaystyle P(A\cup B)=P(A)+P(B)-P(A\cap B).\)
Se \(A\) e \(B\) sono incompatibili (mutualmente esclusivi), \(P(A\cap B)=0\) e quindi \(P(A\cup B)=P(A)+P(B)\).
5. Indipendenza e incompatibilità
Due eventi \(A\) e \(B\) sono indipendenti se la conoscenza dell’uno non influisce sulla probabilità dell’altro, formalmente
\(\displaystyle P(A\cap B)=P(A)\,P(B).\)
D’altro canto, sono incompatibili (o mutuamente esclusivi) se \(P(A\cap B)=0\).
6. Probabilità condizionata e Teorema di Bayes
La probabilità condizionata di \(A\) dato \(B\) è
\(\displaystyle P(A\mid B)=\frac{P(A\cap B)}{P(B)},\qquad P(B)>0.\)
Da questa definizione deriva il teorema di Bayes, cruciale per aggiornare credenze alla luce di nuove evidenze:
\(\displaystyle P(H\mid E)=\frac{P(E\mid H)\,P(H)}{P(E)}\)
dove \(H\) è un’ipotesi (o evento di causa) ed \(E\) è l’evidenza. Spesso si espande il denominatore con la regola totale:
\(\displaystyle P(E)=\sum_{i} P(E\mid H_i)P(H_i)\) per una partizione \(\{H_i\}\).
7. Esempi numerici svolti
7.1 Probabilità classica — dado
Evento \(A\): "uscita di 4" su un dado regolare. \(\Omega=\{1,\dots,6\}\) e \(|A|=1\). Quindi
\(\displaystyle P(A)=\frac{1}{6}\approx0.1667.\)
7.2 Unione e intersezione — due dadi
Esperimento: lancio di due dadi distinti. Evento \(A\): somma pari; evento \(B\): prima faccia è 4.
Calcolo: \(P(B)=1/6\). Per \(A\), ci sono 18 esiti su 36 che danno somma pari, dunque \(P(A)=18/36=1/2\). L’intersezione \(A\cap B\) — prima faccia 4 e somma pari — corrisponde a esiti {(4,2),(4,4),(4,6)} → 3 casi → \(P(A\cap B)=3/36=1/12\). Controllo della formula:
\(P(A\cup B)=P(A)+P(B)-P(A\cap B)=\tfrac{1}{2}+\tfrac{1}{6}-\tfrac{1}{12}=\tfrac{7}{12}.\)
7.3 Probabilità condizionata e Bayes — test medico (classico)
Supponiamo una malattia con prevalenza \(P(D)=0.01\) (1%). Test diagnostico: sensibilità \(P(+\mid D)=0.95\), specificità \(P(-\mid D^c)=0.90\) (quindi \(P(+\mid D^c)=0.10\)). Calcolare \(P(D\mid+)\).
Usiamo Bayes:
\(\displaystyle P(D\mid+)=\frac{0.95\times0.01}{0.95\times0.01+0.10\times0.99} =\frac{0.0095}{0.0095+0.099}= \frac{0.0095}{0.1085}\approx 0.0876.\)
Interpretazione: nonostante l’alta sensibilità, la bassa prevalenza fa sì che la probabilità a posteriori sia solo ~8.8%.
8. Attività pratiche e simulazioni (interattive)
Nella sezione seguente trovi strumenti per simulare esperimenti semplici: dado, moneta, roulette (semplificata). I risultati empirici mostrano la convergenza verso le probabilità teoriche (legge dei grandi numeri).
Simulazione: lancio di una moneta
Risultati: -
Simulazione: lancio di un dado
Risultati: -
Simulazione: roulette semplificata (0-36)
Risultati: -
Calcolatore Bayes interattivo
Inserisci prevalenza, sensibilità e specificità per ottenere \(P(D\mid+)\).
Risultato: -
9. Esercizi guidati (con soluzioni)
Esercizio A — Due lanci di moneta
Spazio campionari \( \Omega=\{HH,HT,TH,TT\} \). Calcola la probabilità di ottenere almeno una testa.
Soluzione: l’evento complementare è {TT} che ha probabilità \(1/4\). Quindi \(P(\text{almeno una testa})=1-1/4=3/4\).
Esercizio B — Estrazione senza reinserimento
Un'urna contiene 3 palline rosse e 2 blu. Estrazione di due palline senza reinserimento. Qual è la probabilità che entrambe siano rosse?
Soluzione: \(P(R_1\cap R_2)=\frac{3}{5}\times\frac{2}{4}=\frac{6}{20}=\frac{3}{10}.\)
Esercizio C — Bayes applicato (test di screening)
Riprendi l’esempio numerico della sezione 7.3 e spiega come cambia \(P(D\mid+)\) se la prevalenza passa da 1% a 10% mantenendo sensibilità e specificità invariate.
Soluzione sintetica: con prevalenza 0.10: numeratore = \(0.95\times0.10=0.095\). Denominatore = \(0.095+0.10\times0.90=0.095+0.09=0.185\). Quindi \(P(D\mid+)=0.095/0.185\approx0.514\) => ~51.4%.
10. Spunti avanzati e approfondimenti
Argomenti utili per continuare lo studio: legge dei grandi numeri, teorema centrale del limite, processi stocastici (catene di Markov), stima e inferenza bayesiana, teoria delle decisioni e rischio attuariale. Suggerisco esercitazioni con Python (NumPy/Random) o con fogli di calcolo per esplorare empiricamente la convergenza delle frequenze e la distribuzione di somme di variabili.
11. Bibliografia e risorse consigliate
- William Feller, An Introduction to Probability Theory and Its Applications
- Sheldon Ross, A First Course in Probability
- Grimmett & Stirzaker, Probability and Random Processes
- Risorse online: Khan Academy (probability), MIT OpenCourseWare (probability courses)

Commenti
Posta un commento