Corso di matematica propedeutica alla fisica: 13 – Probabilità e statistica

13. Probabilità e Statistica 

1. Variabili casuali: definizioni essenziali

  • Una variabile casuale discreta XX assume un insieme numerabile di valori xix_i con probabilità P(X=xi)=piP(X=x_i)=p_i (PMF — probability mass function), con ipi=1\sum_i p_i = 1.

  • Una variabile casuale continua XX è descritta da una densità fX(x)f_X(x) (PDF — probability density function) tale che per ogni intervallo AA:
    P(XA)=AfX(x)dx,fX(x)0,fX(x)dx=1.P(X \in A) = \int_A f_X(x)\,dx, \qquad f_X(x)\ge 0,\quad \int_{-\infty}^{\infty} f_X(x)\,dx =1.


2. Valore atteso e varianza (discrete e continue)

Definizioni

  • Valore atteso (esperanza) di XX:

    • discreto: E[X]=ixipi\displaystyle \mathbb{E}[X] = \sum_i x_i p_i.

    • continuo: E[X]=xfX(x)dx.\displaystyle \mathbb{E}[X] = \int_{-\infty}^{\infty} x\, f_X(x)\,dx.

  • Varianza:

    Var(X)=E[(XE[X])2]=E[X2](E[X])2.\operatorname{Var}(X) = \mathbb{E}\big[(X - \mathbb{E}[X])^2\big] = \mathbb{E}[X^2] - \big(\mathbb{E}[X]\big)^2.

Proprietà utili

  • linearità dell’attesa: E[aX+bY+c]=aE[X]+bE[Y]+c\mathbb{E}[aX + bY + c] = a\mathbb{E}[X] + b\mathbb{E}[Y] + c.

  • se X,YX,Y indipendenti: Var(X+Y)=Var(X)+Var(Y)\operatorname{Var}(X+Y) = \operatorname{Var}(X) + \operatorname{Var}(Y).

Esempio (discreto — calcolo passo-passo)
Sia XX con valori 0,1,20,1,2 e probabilità 0.2,0.5,0.30.2,0.5,0.3.
Calcolo dell’aspettazione:

E[X]=00.2+10.5+20.3=0+0.5+0.6=1.1.\mathbb{E}[X] = 0\cdot 0.2 + 1\cdot 0.5 + 2\cdot 0.3 = 0 + 0.5 + 0.6 = 1.1.

Calcolo di E[X2]\mathbb{E}[X^2]:

E[X2]=020.2+120.5+220.3=0+0.5+1.2=1.7.\mathbb{E}[X^2] = 0^2\cdot0.2 + 1^2\cdot0.5 + 2^2\cdot0.3 = 0 + 0.5 + 1.2 = 1.7.

Varianza:

Var(X)=1.7(1.1)2=1.71.21=0.49.\operatorname{Var}(X)=1.7-(1.1)^2 = 1.7 - 1.21 = 0.49.

3. Distribuzioni principali

3.1 Bernoulli e Binomiale

  • XBern(p)X\sim\operatorname{Bern}(p):

    P(X=1)=p,P(X=0)=1p;E[X]=p,Var(X)=p(1p).P(X=1)=p,\quad P(X=0)=1-p;\quad \mathbb{E}[X]=p,\quad \operatorname{Var}(X)=p(1-p).
  • XBin(n,p)X\sim\operatorname{Bin}(n,p):

    P(X=k)=(nk)pk(1p)nk,k=0,,n.P(X=k)=\binom{n}{k} p^k (1-p)^{n-k},\quad k=0,\dots,n. E[X]=np,Var(X)=np(1p).\mathbb{E}[X]=np,\qquad \operatorname{Var}(X)=np(1-p).

Esempio (Binomiale): n=10n=10, p=0.3p=0.3. Probabilità di X=3X=3:

P(X=3)=(103)(0.3)3(0.7)70.266827932(0.2668).P(X=3)=\binom{10}{3} (0.3)^3 (0.7)^7 \approx 0.266827932 \quad(\approx 0.2668).

3.2 Poisson

  • XPois(λ)X\sim\operatorname{Pois}(\lambda):

    P(X=k)=eλλkk!,k=0,1,2,P(X=k)=\frac{e^{-\lambda}\lambda^k}{k!},\quad k=0,1,2,\dots E[X]=Var(X)=λ.\mathbb{E}[X]=\operatorname{Var}(X)=\lambda.
  • Limite: Binomiale B(n,p)B(n,p) con nn\to\infty, p0p\to0, npλnp\to\lambdaPois(λ)\operatorname{Pois}(\lambda).

Esempio: λ=3\lambda=3. Probabilità di osservare k=5k=5:

P(X=5)=e3355!0.1008188(10.08%).P(X=5) = e^{-3}\frac{3^5}{5!} \approx 0.1008188 \quad(\approx 10.08\%).

3.3 Esponenziale (tempo di attesa)

  • Se XX è il tempo fino a un evento (processo di Poisson) con parametro λ>0\lambda>0:

    fX(x)=λeλx,x0.f_X(x)=\lambda e^{-\lambda x},\quad x\ge 0. E[X]=1λ,Var(X)=1λ2.\mathbb{E}[X]=\frac{1}{\lambda},\qquad \operatorname{Var}(X)=\frac{1}{\lambda^2}.
  • Memoria nulla: P(X>t+sX>t)=P(X>s)P(X>t+s\mid X>t)=P(X>s).

Esempio: λ=0.5\lambda=0.5 (eventi medi ogni 2 ore). Probabilità che l’attesa superi 3 ore:

P(X>3)=e0.53=e1.50.22313.P(X>3)=e^{-0.5\cdot 3}=e^{-1.5}\approx 0.22313.

3.4 Normale (Gaussiana)

  • XN(μ,σ2)X\sim\mathcal{N}(\mu,\sigma^2):

    fX(x)=12πσ2exp ⁣((xμ)22σ2).f_X(x) = \frac{1}{\sqrt{2\pi\,\sigma^2}} \exp\!\Big(-\frac{(x-\mu)^2}{2\sigma^2}\Big). E[X]=μ,Var(X)=σ2.\mathbb{E}[X]=\mu,\qquad \operatorname{Var}(X)=\sigma^2.
  • Standardizzazione: Z=XμσN(0,1)Z=\dfrac{X-\mu}{\sigma}\sim\mathcal{N}(0,1).
    Usata per calcolare probabilità tramite tavole o funzioni cumulative Φ(z)\Phi(z).

Central Limit Theorem (CLT)
Sia X1,,XnX_1,\dots,X_n iid con media μ\mu e varianza finita σ2\sigma^2. Allora, per nn grande:

Xˉμσ/ndN(0,1).\frac{\bar X - \mu}{\sigma/\sqrt{n}} \xrightarrow{d} \mathcal{N}(0,1).

Questo giustifica le approssimazioni normali alle somme e alle medie campionarie.

Esempio (CLT applicato a proporzioni)
Sia XX binomiale con n=100n=100, p=0.3p=0.3. La proporzione campionaria p^=X/n\hat p = X/n ha approssimativamente

p^N ⁣(p,  p(1p)n).\hat p \approx \mathcal{N}\!\Big(p,\; \frac{p(1-p)}{n}\Big).

Probabilità che p^>0.35\hat p>0.35:

  • media =0.3=0.3,

  • deviazione standard =0.30.71000.045827= \sqrt{\frac{0.3\cdot0.7}{100}} \approx 0.045827,

  • z=0.350.30.0458271.09109z = \frac{0.35-0.3}{0.045827}\approx 1.09109.
    Da tavola: P(p^>0.35)0.1376P(\hat p>0.35)\approx 0.1376 (≈13.8%).


4. Cenni di statistica inferenziale

Stima puntuale e intervallare

  • Stimatore θ^\hat\theta (es.: media campionaria Xˉ\bar X) per parametro θ\theta.

  • Bias: Bias(θ^)=E[θ^]θ \operatorname{Bias}(\hat\theta) = \mathbb{E}[\hat\theta] - \theta. Stimatore non distorto se bias = 0.

  • Errore standard: deviazione standard dello stimatore; per la media campionaria, se la varianza della popolazione è σ2\sigma^2,

    SE(Xˉ)=σn.\operatorname{SE}(\bar X)=\frac{\sigma}{\sqrt{n}}.

Intervallo di confidenza per la media (σ noto)

Xˉ±zα/2σn.\bar X \pm z_{\alpha/2}\,\frac{\sigma}{\sqrt{n}}.

Esempio: Xˉ=5\bar X=5, σ=2\sigma=2, n=25n=25, livello 95%: z0.025=1.96z_{0.025}=1.96.

ME=1.96225=1.960.4=0.784.\mathrm{ME} = 1.96\cdot\frac{2}{\sqrt{25}} = 1.96\cdot 0.4 = 0.784.

Quindi CI =(50.784,  5+0.784)=(4.216,  5.784)= (5-0.784,\; 5+0.784) = (4.216,\; 5.784).

Test d’ipotesi (schema)

  • ipotesi nulla H0H_0 vs ipotesi alternativa HaH_a.

  • calcolo statistica del test (es.: zz o tt) e pp-value.

  • decisione con soglia α\alpha (es.: 0.05).

MLE (Maximum Likelihood Estimation) — esempio per esponenziale
Sia x1,,xnx_1,\dots,x_n campione da f(x;λ)=λeλxf(x;\lambda)=\lambda e^{-\lambda x} per x0x\ge 0.
Log-likelihood:

(λ)=nlnλλi=1nxi.\ell(\lambda)= n\ln\lambda - \lambda\sum_{i=1}^n x_i.

Derivando e imponendo zero:

ddλ=nλxi=0λ^=nixi.\frac{d\ell}{d\lambda}=\frac{n}{\lambda}-\sum x_i = 0 \quad\Rightarrow\quad \hat\lambda = \frac{n}{\sum_{i} x_i}.

Esempio numerico: dati 1.2,  0.8,  2.51.2,\;0.8,\;2.5 (ore). xi=4.5\sum x_i=4.5, n=3n=3λ^=3/4.50.6667\hat\lambda = 3/4.5 \approx 0.6667 (per ora).


5. Propagazione delle incertezze (teoria degli errori di misura)

Per una funzione y=f(x1,,xn)y=f(x_1,\dots,x_n) con misure indipendenti xix_i e varianze σxi2\sigma_{x_i}^2, la varianza approssimata di yy (prima approssimazione lineare) è:

Var(y)i=1n(fxi)2σxi2\operatorname{Var}(y) \approx \sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\right)^2 \sigma_{x_i}^2

(aggiungere termini di covarianza se le misure sono correlate).

Esempio: R=L/WR = L/W con L=10.0±0.1L=10.0\pm0.1 cm, W=2.0±0.05W=2.0\pm0.05 cm, indipendenti.

  • R=L/W=5.0R = L/W = 5.0.

  • R/L=1/W=0.5\partial R/\partial L = 1/W = 0.5.

  • R/W=L/W2=10/4=2.5\partial R/\partial W = -L/W^2 = -10/4 = -2.5.

Varianza di RR:

Var(R)(0.5)2(0.1)2+(2.5)2(0.05)2=0.250.01+6.250.0025=0.0025+0.015625=0.018125.\operatorname{Var}(R) \approx (0.5)^2(0.1)^2 + (-2.5)^2(0.05)^2 = 0.25\cdot 0.01 + 6.25\cdot 0.0025 = 0.0025 + 0.015625 = 0.018125.

Deviazione standard: σR0.0181250.13463\sigma_R \approx \sqrt{0.018125}\approx 0.13463.
Quindi R=5.00±0.13R = 5.00 \pm 0.13 (circa).

Errore standard della media (esempio)
Dati di misura: 10.2,  9.8,  10.5,  9.9,  10.110.2,\;9.8,\;10.5,\;9.9,\;10.1.

  • Media: xˉ=10.1\bar x = 10.1.

  • Deviazione standard campionaria s0.27386s \approx 0.27386.

  • Errore standard della media: SE=s/n0.27386/50.12247\mathrm{SE} = s/\sqrt{n} \approx 0.27386/\sqrt{5}\approx 0.12247.
    Quindi la stima della media è 10.1±0.1210.1 \pm 0.12 (SE).


6. Applicazioni fisiche

6.1 Meccanica statistica: distribuzioni termiche

Nel contesto di un gas ideale classico, la statistica di Maxwell–Boltzmann descrive la distribuzione delle velocità delle particelle.

Distribuzione delle velocità (modulo della velocità vv)

f(v)=4π(m2πkBT)3/2v2exp ⁣(mv22kBT),v0,f(v) = 4\pi \left(\frac{m}{2\pi k_B T}\right)^{3/2} v^2 \exp\!\Big(-\frac{m v^2}{2k_B T}\Big),\qquad v\ge 0,

dove mm è la massa della particella, kBk_B la costante di Boltzmann, TT la temperatura.

Momenti e velocità caratteristiche

  • velocità più probabile (moda):

    vmp=2kBTm.v_{\text{mp}} = \sqrt{\frac{2k_B T}{m}}.
  • velocità media:

    v=8kBTπm.\langle v \rangle = \sqrt{\frac{8 k_B T}{\pi m}}.
  • velocità quadratica media (rms):

    vrms=v2=3kBTm.v_{\text{rms}} = \sqrt{\langle v^2\rangle} = \sqrt{\frac{3 k_B T}{m}}.

Derivazione sintetica (utilizzo della funzione Γ)
Si usa l’integrale generale

0xneax2dx=12a(n+1)/2Γ ⁣(n+12),\int_0^\infty x^{n} e^{-a x^2}\,dx = \frac{1}{2} a^{-(n+1)/2}\,\Gamma\!\Big(\frac{n+1}{2}\Big),

per calcolare 0v2eav2dv\int_0^\infty v^{2} e^{-a v^2}\,dv, 0v3eav2dv\int_0^\infty v^{3} e^{-a v^2}\,dv, ecc.

Esempio numerico (aria secca: N2_2)
Per l’azoto molecolare N2N_2 (massa molare M=0.028 kg/molM=0.028\ \mathrm{kg/mol}), massa molecolare m=M/NAm=M/N_A con NAN_A numero di Avogadro. A T=300 KT=300\ \mathrm{K}:

  • vmp422.10 m/sv_{\text{mp}}\approx 422.10\ \mathrm{m/s},

  • v476.29 m/s\langle v \rangle\approx 476.29\ \mathrm{m/s},

  • vrms516.96 m/sv_{\text{rms}}\approx 516.96\ \mathrm{m/s}.

(I valori numerici si ottengono inserendo kB=1.380649×1023 J/Kk_B=1.380649\times10^{-23}\ \mathrm{J/K} e m=M/NAm=M/N_A.)


6.2 Distribuzione di Maxwell–Boltzmann e energia

L’energia cinetica per grado di libertà ha distribuzione esponenziale collegata all’energia media 12kBT\frac{1}{2}k_B T per grado di libertà (teorema dell’equipartizione dell’energia).


7. Esempi applicativi rapidi

  • Radioattività: numero di decadimenti in un intervallo tt spesso modellato come Poisson. Se il tasso medio è λ=3\lambda=3 decadimenti/minuto, la probabilità di 5 decadimenti in un minuto è 0.1008\approx0.1008.

  • Tempi di attesa: processi Poisson → tempi esponenziali; memoria nulla utile per modelli di code.

  • Misure sperimentali: utilizzare l’errore standard per combinare misure; la propagazione lineare degli errori è spesso sufficiente.

  • Campionamento e CLT: anche quando la distribuzione originale non è gaussiana, la media di molte osservazioni tende alla gaussiana; questo giustifica l’uso di CI normali per grandi nn.


Bibliografia essenziale (testi consigliati)

  • W. Feller, An Introduction to Probability Theory and Its Applications, vol.1 — classico sulla teoria delle probabilità.

  • A. Papoulis, S. Unnikrishna Pillai, Probability, Random Variables and Stochastic Processes — riferimento per applicazioni fisiche.

  • C. W. Gardiner, Handbook of Stochastic Methods — utile per processi continui e rumore.

  • K. Huang, Statistical Mechanics — per distribuzioni termiche e Maxwell–Boltzmann.

  • Testi di statistica applicata (es.: M. Casella & R. L. Berger, Statistical Inference) per inferenza e MLE.


Commenti

Post popolari in questo blog

Corso di matematica propedeutica alla fisica: 7 Studio di Funzione

Corso di chimica: Reazioni chimiche

Corso di chimica: Stati della materia