Corso di Probabilità Statistica e Teoria degli Errori: 2 Teoria della Probabilità

Teoria della Probabilità

Obiettivi: comprendere concetti fondamentali, manipolare eventi e utilizzare il teorema di Bayes; esercitazioni pratiche con simulazioni.

1. Obiettivi didattici

Questo modulo ha tre scopi principali: (1) fornire una base teorica solida della probabilità (classica, frequentista e soggettiva), (2) sviluppare abilità nel trattare spazi campionari, eventi, probabilità composte e probabilità condizionata; (3) applicare questi concetti attraverso esempi numerici ed esercizi implementabili con semplici simulazioni.

2. Concetti fondamentali: spazi campionari ed eventi

Definiamo lo spazio campionario \( \Omega \) come l’insieme di tutti i possibili esiti di un esperimento casuale. Un evento è un sottoinsieme \( A \subseteq \Omega \).

Esempio elementare: lancio di un dado equo a sei facce: \( \Omega = \{1,2,3,4,5,6\} \). L’evento "esce un numero pari" si scrive \( A=\{2,4,6\} \).

3. Probabilità: definizioni e interpretazioni

Probabilità classica: quando i risultati sono equiprobabili, la probabilità di un evento \(A\) è

\(\displaystyle P(A)=\frac{|A|}{|\Omega|}\).

Frequentista: la probabilità è il limite della frequenza relativa in prove ripetute identiche, cioè se \(N\) è il numero di prove e \(n(A)\) i successi,

\(\displaystyle P(A)\approx\frac{n(A)}{N}\) per \(N\to\infty\).

Soggettiva (Bayesiana): la probabilità esprime il grado di fiducia razionale di un agente in una proposizione dati gli elementi informativi disponibili.

4. Eventi composti: unione, intersezione, complementare

Per due eventi \(A\) e \(B\):

  • Intersezione: \(A\cap B\) — entrambi gli eventi occorrono.
  • Unione: \(A\cup B\) — almeno uno dei due eventi occorre.
  • Complementare: \(A^c = \Omega\setminus A\).

La regola generale per l’unione è

\(\displaystyle P(A\cup B)=P(A)+P(B)-P(A\cap B).\)

Se \(A\) e \(B\) sono incompatibili (mutualmente esclusivi), \(P(A\cap B)=0\) e quindi \(P(A\cup B)=P(A)+P(B)\).

5. Indipendenza e incompatibilità

Due eventi \(A\) e \(B\) sono indipendenti se la conoscenza dell’uno non influisce sulla probabilità dell’altro, formalmente

\(\displaystyle P(A\cap B)=P(A)\,P(B).\)

D’altro canto, sono incompatibili (o mutuamente esclusivi) se \(P(A\cap B)=0\).

6. Probabilità condizionata e Teorema di Bayes

La probabilità condizionata di \(A\) dato \(B\) è

\(\displaystyle P(A\mid B)=\frac{P(A\cap B)}{P(B)},\qquad P(B)>0.\)

Da questa definizione deriva il teorema di Bayes, cruciale per aggiornare credenze alla luce di nuove evidenze:

\(\displaystyle P(H\mid E)=\frac{P(E\mid H)\,P(H)}{P(E)}\)

dove \(H\) è un’ipotesi (o evento di causa) ed \(E\) è l’evidenza. Spesso si espande il denominatore con la regola totale:

\(\displaystyle P(E)=\sum_{i} P(E\mid H_i)P(H_i)\) per una partizione \(\{H_i\}\).

7. Esempi numerici svolti

7.1 Probabilità classica — dado

Evento \(A\): "uscita di 4" su un dado regolare. \(\Omega=\{1,\dots,6\}\) e \(|A|=1\). Quindi

\(\displaystyle P(A)=\frac{1}{6}\approx0.1667.\)

7.2 Unione e intersezione — due dadi

Esperimento: lancio di due dadi distinti. Evento \(A\): somma pari; evento \(B\): prima faccia è 4.

Calcolo: \(P(B)=1/6\). Per \(A\), ci sono 18 esiti su 36 che danno somma pari, dunque \(P(A)=18/36=1/2\). L’intersezione \(A\cap B\) — prima faccia 4 e somma pari — corrisponde a esiti {(4,2),(4,4),(4,6)} → 3 casi → \(P(A\cap B)=3/36=1/12\). Controllo della formula:

\(P(A\cup B)=P(A)+P(B)-P(A\cap B)=\tfrac{1}{2}+\tfrac{1}{6}-\tfrac{1}{12}=\tfrac{7}{12}.\)

7.3 Probabilità condizionata e Bayes — test medico (classico)

Supponiamo una malattia con prevalenza \(P(D)=0.01\) (1%). Test diagnostico: sensibilità \(P(+\mid D)=0.95\), specificità \(P(-\mid D^c)=0.90\) (quindi \(P(+\mid D^c)=0.10\)). Calcolare \(P(D\mid+)\).

Usiamo Bayes:

\(\displaystyle P(D\mid+)=\frac{0.95\times0.01}{0.95\times0.01+0.10\times0.99} =\frac{0.0095}{0.0095+0.099}= \frac{0.0095}{0.1085}\approx 0.0876.\)

Interpretazione: nonostante l’alta sensibilità, la bassa prevalenza fa sì che la probabilità a posteriori sia solo ~8.8%.

8. Attività pratiche e simulazioni (interattive)

Nella sezione seguente trovi strumenti per simulare esperimenti semplici: dado, moneta, roulette (semplificata). I risultati empirici mostrano la convergenza verso le probabilità teoriche (legge dei grandi numeri).

Simulazione: lancio di una moneta

Risultati: -

Simulazione: lancio di un dado

Risultati: -

Simulazione: roulette semplificata (0-36)

Risultati: -

Calcolatore Bayes interattivo

Inserisci prevalenza, sensibilità e specificità per ottenere \(P(D\mid+)\).




Risultato: -

9. Esercizi guidati (con soluzioni)

Esercizio A — Due lanci di moneta

Spazio campionari \( \Omega=\{HH,HT,TH,TT\} \). Calcola la probabilità di ottenere almeno una testa.

Soluzione: l’evento complementare è {TT} che ha probabilità \(1/4\). Quindi \(P(\text{almeno una testa})=1-1/4=3/4\).

Esercizio B — Estrazione senza reinserimento

Un'urna contiene 3 palline rosse e 2 blu. Estrazione di due palline senza reinserimento. Qual è la probabilità che entrambe siano rosse?

Soluzione: \(P(R_1\cap R_2)=\frac{3}{5}\times\frac{2}{4}=\frac{6}{20}=\frac{3}{10}.\)

Esercizio C — Bayes applicato (test di screening)

Riprendi l’esempio numerico della sezione 7.3 e spiega come cambia \(P(D\mid+)\) se la prevalenza passa da 1% a 10% mantenendo sensibilità e specificità invariate.

Soluzione sintetica: con prevalenza 0.10: numeratore = \(0.95\times0.10=0.095\). Denominatore = \(0.095+0.10\times0.90=0.095+0.09=0.185\). Quindi \(P(D\mid+)=0.095/0.185\approx0.514\) => ~51.4%.

10. Spunti avanzati e approfondimenti

Argomenti utili per continuare lo studio: legge dei grandi numeri, teorema centrale del limite, processi stocastici (catene di Markov), stima e inferenza bayesiana, teoria delle decisioni e rischio attuariale. Suggerisco esercitazioni con Python (NumPy/Random) o con fogli di calcolo per esplorare empiricamente la convergenza delle frequenze e la distribuzione di somme di variabili.

11. Bibliografia e risorse consigliate

  • William Feller, An Introduction to Probability Theory and Its Applications
  • Sheldon Ross, A First Course in Probability
  • Grimmett & Stirzaker, Probability and Random Processes
  • Risorse online: Khan Academy (probability), MIT OpenCourseWare (probability courses)


Commenti

Post popolari in questo blog

La scienza delle piccole grandi cose: Teoria della doppia copia: gravità e gauge a confronto

Corso di Algebra Elementare e Strutture Algebriche: 1 Polinomi

CORSO DI MECCANICA QUANTISTICA: 2 Misura Quantistica Sovrapposizione e Spin