Corso di matematica propedeutica alla fisica: 2 Matrici e Sistemi Lineari

2 Matrici e Sistemi Lineari

In questa sezione affrontiamo i principali argomenti relativi alle matrici e ai sistemi lineari, con un approccio teorico e applicativo. Dopo ogni concetto vengono forniti esempi numerici dettagliati e, alla fine, esercizi svolti passo-passo.

1. Nozioni essenziali sulle matrici

Una matrice ARm×nA \in \mathbb{R}^{m \times n} è una tabella rettangolare di numeri con mm righe e nn colonne. La moltiplicazione tra matrici ABAB è definita se il numero di colonne di AA coincide con il numero di righe di BB.
Una proprietà utile è:

(AB)T=BTAT(AB)^T = B^T A^T

2. Determinante e invertibilità (caso 2×2)

Per una matrice quadrata 2×2:

A=(abcd)A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}

il determinante è

det(A)=adbc\det(A) = ad - bc

Se det(A)0\det(A) \neq 0, la matrice è invertibile e la sua inversa è:

A1=1det(A)(dbca)A^{-1} = \frac{1}{\det(A)} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}

Esempio 1 – Inversa di una matrice 2×2
Sia A=(2314)A = \begin{pmatrix} 2 & 3 \\ 1 & 4 \end{pmatrix}.

  1. Calcoliamo il determinante:
    det(A)=2431=83=5\det(A) = 2 \cdot 4 - 3 \cdot 1 = 8 - 3 = 5.

  2. Poiché det(A)0\det(A) \neq 0, A è invertibile.

  3. L’inversa è:

A1=15(4312)=(4/53/51/52/5)A^{-1} = \frac{1}{5} \begin{pmatrix} 4 & -3 \\ -1 & 2 \end{pmatrix} = \begin{pmatrix} 4/5 & -3/5 \\ -1/5 & 2/5 \end{pmatrix}

3. Risoluzione di sistemi lineari con l’inversa

Dato il sistema Ax=bAx = b con b=(5,6)Tb = (5,6)^T, la soluzione si ottiene tramite:

x=A1bx = A^{-1} b

Calcolando:

(4/53/51/52/5)(56)=(0.41.4)\begin{pmatrix} 4/5 & -3/5 \\ -1/5 & 2/5 \end{pmatrix} \begin{pmatrix} 5 \\ 6 \end{pmatrix} = \begin{pmatrix} 0.4 \\ 1.4 \end{pmatrix}

Verifica:

Ax=(2314)(0.41.4)=(56)A \cdot x = \begin{pmatrix} 2 & 3 \\ 1 & 4 \end{pmatrix} \begin{pmatrix} 0.4 \\ 1.4 \end{pmatrix} = \begin{pmatrix} 5 \\ 6 \end{pmatrix}

4. Eliminazione di Gauss (esempio 3×3)

Consideriamo il sistema:

{x+2yz=12xy+3z=4x+y+2z=1\begin{cases} x + 2y - z = 1\\ 2x - y + 3z = 4\\ -x + y + 2z = -1 \end{cases}

Costruiamo la matrice aumentata:

(121121341121)\begin{pmatrix} 1 & 2 & -1 & | & 1\\ 2 & -1 & 3 & | & 4\\ -1 & 1 & 2 & | & -1 \end{pmatrix}

Passaggi principali:

  1. Eliminazione sotto il primo pivot:

    • R2R22R1=(0,5,52)R_2 \leftarrow R_2 - 2R_1 = (0, -5, 5 | 2)

    • R3R3+R1=(0,3,10)R_3 \leftarrow R_3 + R_1 = (0, 3, 1 | 0)

  2. Eliminazione sotto il secondo pivot:

    • R3R3+35R2=(0,0,46/5)R_3 \leftarrow R_3 + \frac{3}{5} R_2 = (0, 0, 4 | 6/5)

  3. Risoluzione per z: 4z=6/5z=3/10=0.34z = 6/5 \Rightarrow z = 3/10 = 0.3

  4. Risaliamo: seconda riga 5y+5z=2y=1/10=0.1-5y + 5z = 2 \Rightarrow y = -1/10 = -0.1

  5. Prima riga: x+2yz=1x=3/2=1.5x + 2y - z = 1 \Rightarrow x = 3/2 = 1.5

Soluzione finale:

x=3/2,y=1/10,z=3/10x = 3/2, \quad y = -1/10, \quad z = 3/10

5. Trasformazioni lineari e matrici

Una mappa T:VWT: V \to W è lineare se:

T(u+v)=T(u)+T(v),T(αv)=αT(v)T(u+v) = T(u) + T(v), \quad T(\alpha v) = \alpha T(v)

Ogni trasformazione lineare può essere rappresentata da una matrice AA in una scelta opportuna di basi:

T(x)=AxT(x) = A x

Esempi di matrici elementari:

  1. Rotazione di un angolo θ in ℝ²:

Rθ=(cosθsinθsinθcosθ)R_\theta = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}
  1. Riflessione sull’asse x:

(1001)\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}
  1. Dilatazione lungo l’asse y di fattore k:

(100k)\begin{pmatrix} 1 & 0 \\ 0 & k \end{pmatrix}

Esempio applicativo:

Riflessione sull’asse x del vettore v=(3,4)v = (3,4):

(1001)(34)=(34)\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix} \begin{pmatrix} 3 \\ 4 \end{pmatrix} = \begin{pmatrix} 3 \\ -4 \end{pmatrix}

6. Rango e nucleo (rank e nullspace)

Il rango di A è il numero massimo di colonne linearmente indipendenti.
La nullità è la dimensione del nucleo (soluzioni di Ax=0Ax=0).

Teorema rango-nullità:

rank(A)+nullity(A)=n\text{rank}(A) + \text{nullity}(A) = n

Esempio:

A=(123246)A = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 4 & 6 \end{pmatrix}
  • Rango = 1

  • Nullità = 2

  • Una base del nucleo: {(-2,1,0), (-3,0,1)}

  • Soluzioni: x=s(2,1,0)+t(3,0,1),  s,tRx = s(-2,1,0) + t(-3,0,1), \; s,t \in \mathbb{R}

7. Autovalori e autovettori

Av=λvA v = \lambda v
  • λ\lambda = autovalore

  • vv = autovettore

Polinomio caratteristico: det(AλI)=0\det(A - \lambda I) = 0

Esempio:

A=(2112)A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}
  • Polinomio caratteristico: (2λ)21=λ24λ+3=0(2-\lambda)^2 -1 = \lambda^2 - 4\lambda +3 =0

  • Radici: λ1=1,λ2=3\lambda_1 =1, \lambda_2 =3

  • Autovettori: v1=(1,1),v2=(1,1)v_1 = (1,-1), v_2 = (1,1)

8. Ortogonalità e Gram–Schmidt

In ℝⁿ due vettori sono ortogonali se uv=0u \cdot v = 0.
Il procedimento di Gram–Schmidt genera una base ortonormale da vettori linearmente indipendenti.

Esempio:

v1=(1,1,0),  v2=(1,0,1),  v3=(0,1,1)v_1=(1,1,0),\; v_2=(1,0,1),\; v_3=(0,1,1)
  • u1=v1u_1 = v_1

  • u2=v2v2u1u12u1u_2 = v_2 - \frac{v_2 \cdot u_1}{||u_1||^2} u_1

  • u3=v3v3u1u12u1v3u2u22u2u_3 = v_3 - \frac{v_3 \cdot u_1}{||u_1||^2} u_1 - \frac{v_3 \cdot u_2}{||u_2||^2} u_2

Normalizzando otteniamo la base ortonormale:

e1=(1/2,1/2,0),e2=(1/6,1/6,2/6),e3=(1/3,1/3,1/3)e_1=(1/\sqrt{2},1/\sqrt{2},0), \quad e_2=(1/\sqrt{6},-1/\sqrt{6},2/\sqrt{6}), \quad e_3=(1/\sqrt{3},-1/\sqrt{3},-1/\sqrt{3})

9. Metodo dei minimi quadrati

Quando il sistema Ax=bAx=b è sovradeterminato, cerchiamo xx che minimizza Axb2||Ax-b||^2.
Soluzione:

ATAx=ATbA^T A x = A^T b

Esempio:

Punti: (1,2), (2,2.5), (3,4)

  • Equazione retta y=a+bxy = a + bx

  • Risolvendo ATAx=ATbA^T A x = A^T b si ottiene:

y=1.5+xy = 1.5 + x

10. Esercizi svolti

Esercizio 1 – Determinante e inversa
Calcolare determinante e inversa di A=(1234)A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}

  • det(A)=1423=2\det(A) = 1\cdot4 - 2\cdot3 = -2

  • A1=12(4231)=(211.50.5)A^{-1} = \frac{1}{-2} \begin{pmatrix}4 & -2 \\ -3 & 1 \end{pmatrix} = \begin{pmatrix}-2 & 1 \\ 1.5 & -0.5 \end{pmatrix}

Esercizio 2 – Autovalori
Trovare autovalori di A=(0123)A = \begin{pmatrix} 0 & 1 \\ -2 & -3 \end{pmatrix}

  • Polinomio caratteristico: det(AλI)=λ2+3λ+2=0\det(A-\lambda I) = \lambda^2 +3\lambda +2 =0

  • Soluzioni: λ1=1,λ2=2\lambda_1=-1, \lambda_2=-2

Esercizio 3 – Sistema lineare 3×3

{x+y+z=62xy+z=3x+2yz=4\begin{cases} x + y + z = 6 \\ 2x - y + z = 3 \\ x + 2y - z = 4 \end{cases}

Soluzione passo-passo con Gauss:

  • Matrice aumentata e riduzione:

    • Eliminazione: R2 → (0, -3, -1 | -9)

    • R3 → (0, 0, 2 | 1)

  • Risalendo:

    • z = 0.5

    • y = 2

    • x = 3.5

Soluzione: x=3.5,y=2,z=0.5x=3.5, y=2, z=0.5

11. Minimi quadrati avanzati

Quando un sistema lineare è sovradeterminato, ovvero ci sono più equazioni che incognite, non sempre esiste una soluzione esatta. In questi casi si cerca il vettore x\mathbf{x} che minimizza la norma dell’errore:

Axb2=min\| A \mathbf{x} - \mathbf{b} \|^2 = \text{min}

La soluzione è data dalle equazioni normali:

ATAx=ATbA^T A \mathbf{x} = A^T \mathbf{b}

Esempio avanzato – retta di regressione

Punti: (1,2), (2,2.5), (3,4), (4,5)

  1. Costruiamo la matrice dati AA e vettore osservazioni bb:

A=(11121314),b=(22.545)A = \begin{pmatrix} 1 & 1 \\ 1 & 2 \\ 1 & 3 \\ 1 & 4 \end{pmatrix}, \quad b = \begin{pmatrix} 2 \\ 2.5 \\ 4 \\ 5 \end{pmatrix}

  1. Equazioni normali:

ATA=(4101030),ATb=(13.539)A^T A = \begin{pmatrix} 4 & 10 \\ 10 & 30 \end{pmatrix}, \quad A^T b = \begin{pmatrix} 13.5 \\ 39 \end{pmatrix}

  1. Risolvendo (ATA)x=ATb(A^T A) x = A^T b otteniamo:

x=(cm)=(0.751)y=0.75+1xx = \begin{pmatrix} c \\ m \end{pmatrix} = \begin{pmatrix} 0.75 \\ 1 \end{pmatrix} \quad \Rightarrow y = 0.75 + 1 \cdot x

12. Cenni sulla SVD (Singular Value Decomposition)

La SVD permette di decomporre una matrice ARm×nA \in \mathbb{R}^{m \times n} in tre matrici:

A=UΣVTA = U \Sigma V^T

  • URm×mU \in \mathbb{R}^{m \times m} ortogonale

  • ΣRm×n\Sigma \in \mathbb{R}^{m \times n} diagonale con valori singolari σi0\sigma_i \ge 0

  • VRn×nV \in \mathbb{R}^{n \times n} ortogonale

Applicazioni pratiche della SVD:

  1. Riduzione dimensionale

  2. Compressione immagini

  3. Soluzione numerica stabile di sistemi lineari sovradeterminati o mal condizionati

Esempio semplificato

Matrice A=(310200)A = \begin{pmatrix} 3 & 1 \\ 0 & 2 \\ 0 & 0 \end{pmatrix}

  • Valori singolari approssimati: σ13.16,σ22.0\sigma_1 \approx 3.16, \sigma_2 \approx 2.0

  • Si costruiscono UU e VV ortogonali per ottenere la SVD.

13. Applicazioni pratiche delle matrici

13.1 Rotazioni e trasformazioni geometriche

  • Rotazione di punti in un piano: Rθ=(cosθsinθsinθcosθ)R_\theta = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}

  • Riflessi, dilatazioni e shearing: utili in grafica computerizzata e robotica

13.2 Sistemi di equazioni in economia e fisica

  • Modelli input-output di Leontief

  • Bilanci di forze e correnti in circuiti elettrici

  • Problemi di equilibrio termico e meccanico

13.3 Analisi dati e machine learning

  • Regressione lineare (minimi quadrati)

  • PCA (Principal Component Analysis) tramite SVD

  • Compressione di immagini e riduzione rumore

14. Esercizi avanzati svolti

Esercizio 1 – Regressione lineare con 4 punti

Punti: (0,1), (1,2), (2,2.5), (3,4)

  1. Matrice dati A=(10111213)A = \begin{pmatrix}1 & 0 \\ 1 & 1 \\ 1 & 2 \\ 1 & 3 \end{pmatrix}, vettore b=(122.54)b = \begin{pmatrix}1\\2\\2.5\\4\end{pmatrix}

  2. Equazioni normali: ATAx=ATbA^T A x = A^T b

ATA=(46614),ATb=(9.519.5)A^T A = \begin{pmatrix} 4 & 6 \\ 6 & 14 \end{pmatrix}, \quad A^T b = \begin{pmatrix} 9.5 \\ 19.5 \end{pmatrix}

  1. Risolvendo: x=(0.51.1)y=0.5+1.1xx = \begin{pmatrix} 0.5 \\ 1.1 \end{pmatrix} \Rightarrow y = 0.5 + 1.1 x

Esercizio 2 – Autovalori e diagonalizzazione

A=(4123)A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}

  1. Polinomio caratteristico: det(AλI)=(4λ)(3λ)2=λ27λ+10=0\det(A-\lambda I) = (4-\lambda)(3-\lambda)-2 = \lambda^2 -7\lambda +10 =0

  2. Soluzioni: λ1=5,λ2=2\lambda_1 = 5, \lambda_2 = 2

  3. Autovettori:

    • λ1=5v1=(1,1)\lambda_1 =5 \Rightarrow v_1 = (1,1)

    • λ2=2v2=(1,1)\lambda_2 =2 \Rightarrow v_2 = (-1,1)

  4. Diagonalizzazione: P1AP=DP^{-1} A P = D con P=[v1 v2]P = [v_1 \ v_2], D=diag(5,2)D = \text{diag}(5,2)

Esercizio 3 – Sistema sovradeterminato 3×2

Sistema:

{x+y=22xy=1x+3y=4\begin{cases} x + y = 2 \\ 2x - y = 1 \\ x + 3y = 4 \end{cases}

  1. Matrice dati A=(112113),b=(214)A = \begin{pmatrix}1 & 1 \\ 2 & -1 \\ 1 & 3\end{pmatrix}, b = \begin{pmatrix}2\\1\\4\end{pmatrix}

  2. Equazioni normali: ATAx=ATbA^T A x = A^T b

ATA=(62211),ATb=(913)A^T A = \begin{pmatrix}6 & 2 \\ 2 & 11 \end{pmatrix}, \quad A^T b = \begin{pmatrix}9 \\ 13 \end{pmatrix}

  1. Risolvendo: x=1,y=1x = 1, y = 1

  2. Minimo quadrato: il vettore soluzione minimizza Axb2||Ax-b||^2

15. Approfondimenti

15.1 Definizione e operazioni fondamentali

Una matrice AA di dimensione m×nm \times n è un insieme rettangolare di numeri disposti in righe e colonne:

A=[aij],i=1,,m,  j=1,,nA = [a_{ij}], \quad i=1,\dots,m,\; j=1,\dots,n

Operazioni principali:

  • Somma: A+B=[aij+bij]A+B = [a_{ij}+b_{ij}] (stesse dimensioni)

  • Moltiplicazione per scalare: λA=[λaij]\lambda A = [\lambda a_{ij}]

  • Prodotto matrice-vettore: Ax=bA\mathbf{x} = \mathbf{b}, con x\mathbf{x} vettore colonna compatibile

  • Prodotto tra matrici: AB=CAB = C, con cij=kaikbkjc_{ij} = \sum_k a_{ik}b_{kj}

15.2 Determinante

Il determinante è un numero associato a matrici quadrate e indica, tra l’altro, se la matrice è invertibile (det(A)0\det(A) \neq 0) e il volume del parallelepipedo generato dalle colonne.

Matrice 2×2

Per A=[abcd]A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}:

det(A)=adbc\det(A) = a\cdot d - b \cdot c

Esempio:

A=[2314]det(A)=2431=5A = \begin{bmatrix} 2 & 3 \\ 1 & 4 \end{bmatrix} \quad \Rightarrow \det(A) = 2\cdot4 - 3\cdot1 = 5

Matrice 3×3

Per B=[abcdefghi]B = \begin{bmatrix} a & b & c \\ d & e & f \\ g & h & i \end{bmatrix} si usa regola di Sarrus o sviluppo di Laplace:

det(B)=a(eifh)b(difg)+c(dheg)\det(B) = a(ei - fh) - b(di - fg) + c(dh - eg)

Esempio:

B=[123014560]B = \begin{bmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 5 & 6 & 0 \end{bmatrix} det(B)=1(1046)2(0045)+3(0615)=24+4015=1\det(B) = 1(1\cdot0 - 4\cdot6) - 2(0\cdot0 - 4\cdot5) + 3(0\cdot6 - 1\cdot5) = -24 + 40 - 15 = 1

15.3 Matrice inversa (2×2)

Se det(A)0\det(A) \neq 0, la matrice AA è invertibile. Per A=[abcd]A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}:

A1=1det(A)[dbca]A^{-1} = \frac{1}{\det(A)} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix}

Esempio:

A=[2314],det(A)=5A = \begin{bmatrix} 2 & 3 \\ 1 & 4 \end{bmatrix}, \quad \det(A)=5 A1=15[4312]A^{-1} = \frac{1}{5} \begin{bmatrix} 4 & -3 \\ -1 & 2 \end{bmatrix}

15.4 Sistemi lineari e rappresentazione matriciale

Un sistema lineare può essere scritto come:

Ax=bA \mathbf{x} = \mathbf{b}

dove AA è la matrice dei coefficienti, x\mathbf{x} il vettore incognito e b\mathbf{b} il vettore dei termini noti.

Metodo di eliminazione di Gauss (esempio 3×3)

Risolviamo:

{2xy=1x+2yz=0y+2z=1\begin{cases} 2x - y = 1 \\ -x + 2y - z = 0 \\ -y + 2z = 1 \end{cases}

Matrice aumentata [Ab][A|b]:

[210112100121]\begin{bmatrix} 2 & -1 & 0 & | & 1 \\ -1 & 2 & -1 & | & 0 \\ 0 & -1 & 2 & | & 1 \end{bmatrix}

Passo 1: eliminazione colonna 1 (r2 ← r2 + ½·r1)

r2=[1+1,2+(½),1+00+½]=[0,3/2,11/2]r2 = [-1+1, 2+(-½), -1+0 | 0+½] = [0, 3/2, -1 | 1/2]

Passo 2: eliminazione colonna 2 (r3 ← r3 + 2/3·r2)

r3=[0,1+1,22/31+1/3]=[0,0,4/34/3]r3 = [0, -1+1, 2-2/3 | 1 + 1/3] = [0,0,4/3 | 4/3]

Passo 3: back-substitution

z=1,y=1,x=1z = 1,\quad y = 1, \quad x = 1

Soluzione: x=y=z=1x=y=z=1

Regola di Cramer

Se AA è invertibile, la soluzione di Ax=bA \mathbf{x} = \mathbf{b} si può scrivere come:

xi=det(Ai)det(A)x_i = \frac{\det(A_i)}{\det(A)}

dove AiA_i è la matrice AA con la colonna ii-esima sostituita da b\mathbf{b}.

Osservazione: questo collega direttamente il concetto di determinante con la risoluzione di sistemi lineari, mostrando il legame tra algebra matriciale e geometria degli spazi vettoriali.

Connessione con la lezione sui vettori

  • Il determinante 3×3 misura il volume del parallelepipedo generato da tre vettori (prodotto misto).

  • L’inversa di una matrice 2×2 è analoga alla normalizzazione di un vettore nello spazio: entrambe richiedono det0\det \neq 0.

  • Il metodo di eliminazione di Gauss è una generalizzazione della decomposizione dei vettori in componenti ortogonali: si “isola” una variabile alla volta, analogamente a come il prodotto scalare proietta un vettore lungo una direzione.

16. Bibliografia

  • S. Salsa, A. Squellati, Algebra Lineare e Geometria, Zanichelli

  • C. Pignataro, Algebra Lineare, Hoepli

  • L. G. Casnati, Algebra Lineare e Geometria Analitica, CittàStudi

  • P. Marcellini, C. Sbordone, Elementi di Matematica, Liguori Editore

  • M. Forti, Algebra Lineare con Applicazioni, UTET Università

Matrici e Sistemi Lineari:
I "Contenitori Intelligenti" che Muovono il Mondo

Se ti dicessi che ogni volta che usi un filtro su Instagram, cerchi qualcosa su Google o giochi a un videogame, ci sono migliaia di matrici che lavorano per te, mi crederesti?

Sebbene possano sembrare solo tabelle di numeri, le matrici sono in realtà gli ingranaggi fondamentali della tecnologia moderna. Ecco una guida semplice per capire a cosa servono e come funzionano, senza usare nemmeno una formula.

1. Cos'è una Matrice? (Il foglio Excel dell'Universo)

Immagina una matrice come una tabella rettangolare organizzata in righe e colonne. È un modo ordinato per gestire grandi quantità di informazioni contemporaneamente.

  • In informatica, una matrice può rappresentare i pixel di un'immagine.

  • In economia, può contenere i costi di produzione di diversi prodotti in diverse fabbriche.

Le matrici non sono statiche: possono essere moltiplicate tra loro per combinare i dati o trasformarle, a patto che le loro dimensioni "si incastrino" correttamente.

2. Il "Determinante": Il Termometro della Matrice

Ogni matrice quadrata ha un numero speciale chiamato determinante. Consideralo come un segnale che ci dice due cose fondamentali:

  1. Esiste una soluzione? Se il determinante è diverso da zero, la nostra tabella è "sana" e ci permette di tornare indietro o risolvere un problema. Se è zero, l'informazione è "collassata" e non possiamo invertire il processo.

  2. Volume e Spazio: In geometria, il determinante ci dice quanto una trasformazione ingrandisce o rimpicciolisce un oggetto.

3. L'Inversa: Il tasto "Annulla"

In matematica, l'inversa è l'equivalente del tasto Undo (Ctrl+Z) del tuo computer. Se una matrice trasforma un oggetto (ad esempio lo ruota), la sua matrice inversa è quella che lo riporta esattamente nella posizione originale. È fondamentale per risolvere i sistemi di equazioni, ovvero per trovare i dati di partenza conoscendo solo il risultato finale.

4. I Sistemi Lineari: Risolvere Enigmi Intrecciati

Un sistema lineare è come un indovinello in cui diverse variabili sono collegate tra loro. Ad esempio: "Se due caffè e un cornetto costano 5 euro, e un caffè e tre cornetti costano 7 euro, quanto costa un singolo caffè?"

Per risolvere questi problemi con migliaia di variabili (come nel meteo o nella gestione del traffico), gli scienziati usano l'Eliminazione di Gauss. È una tecnica che permette di pulire la tabella riga dopo riga, semplificando le informazioni finché la risposta non diventa evidente.

5. Grafica e Rotazioni: Matrici in Movimento

Se sei un appassionato di videogiochi, sappi che ogni volta che muovi la visuale, il computer sta moltiplicando le coordinate del mondo per una matrice di rotazione.

  • Riflessione: Specchia un oggetto rispetto a un asse.

  • Dilatazione: Ingrandisce o rimpicciolisce un modello 3D.

  • Shearing: Inclina l'oggetto come se fosse una pila di carte che viene spinta lateralmente.

6. Autovalori e Autovettori: Il DNA della Matrice

Questi nomi complicati indicano in realtà le "direzioni preferite" di una trasformazione.

Immagina di stirare un tappeto elastico: alcune fibre verranno allungate (autovalori) ma manterranno la stessa direzione originale (autovettori). Questa tecnica è usata da Google (algoritmo PageRank) per capire quali siti web sono più importanti degli altri in base ai collegamenti.

7. Il Metodo dei Minimi Quadrati: La Migliore Approssimazione

Nella vita reale, i dati sono spesso sporchi o imprecisi. Se hai dei punti sparsi su un grafico che rappresentano l'andamento delle vendite, non esiste una linea perfetta che li attraversi tutti. Il metodo dei minimi quadrati trova la retta che "sbaglia di meno", fornendo la previsione più affidabile possibile. È la base di tutta l'analisi dati e dell'intelligenza artificiale.

8. SVD: La Scienza della Compressione

La SVD (Decomposizione ai Valori Singolari) è la tecnica che permette di prendere una matrice enorme e complicata e ridurla ai suoi componenti essenziali. È ciò che permette di:

  • Comprimere una foto pesante in un file JPEG leggero senza perdere troppa qualità.

  • Rimuovere il rumore di fondo da una registrazione audio.

In sintesi

Le matrici sono il linguaggio universale per descrivere il cambiamento e l'organizzazione. Che si tratti di bilanciare il budget di uno Stato o di far atterrare un razzo in verticale, dietro le quinte c'è sempre una tabella di numeri che lavora instancabilmente.


Commenti

Post popolari in questo blog

Corso di Geometria e Trigonometria: 1 Geometria Euclidea Fondamenti

Corso di matematica propedeutica alla fisica: 7 Studio di Funzione

Corso di Fondamenti di Matematica e Logica: 3 Insiemi Relazioni e Funzioni