Corso di matematica propedeutica alla fisica: 2 Matrici e Sistemi Lineari
2 Matrici e Sistemi Lineari
In questa sezione affrontiamo i principali argomenti relativi alle matrici e ai sistemi lineari, con un approccio teorico e applicativo. Dopo ogni concetto vengono forniti esempi numerici dettagliati e, alla fine, esercizi svolti passo-passo.
1. Nozioni essenziali sulle matrici
Una matrice è una tabella rettangolare di numeri con righe e colonne. La moltiplicazione tra matrici è definita se il numero di colonne di coincide con il numero di righe di .
Una proprietà utile è:
2. Determinante e invertibilità (caso 2×2)
Per una matrice quadrata 2×2:
il determinante è
Se , la matrice è invertibile e la sua inversa è:
Esempio 1 – Inversa di una matrice 2×2
Sia .
-
Calcoliamo il determinante:
. -
Poiché , A è invertibile.
-
L’inversa è:
3. Risoluzione di sistemi lineari con l’inversa
Dato il sistema con , la soluzione si ottiene tramite:
Calcolando:
Verifica:
4. Eliminazione di Gauss (esempio 3×3)
Consideriamo il sistema:
Costruiamo la matrice aumentata:
Passaggi principali:
-
Eliminazione sotto il primo pivot:
-
-
Eliminazione sotto il secondo pivot:
-
-
Risoluzione per z:
-
Risaliamo: seconda riga
-
Prima riga:
Soluzione finale:
5. Trasformazioni lineari e matrici
Una mappa è lineare se:
Ogni trasformazione lineare può essere rappresentata da una matrice in una scelta opportuna di basi:
Esempi di matrici elementari:
-
Rotazione di un angolo θ in ℝ²:
-
Riflessione sull’asse x:
-
Dilatazione lungo l’asse y di fattore k:
Esempio applicativo:
Riflessione sull’asse x del vettore :
6. Rango e nucleo (rank e nullspace)
Il rango di A è il numero massimo di colonne linearmente indipendenti.
La nullità è la dimensione del nucleo (soluzioni di ).
Teorema rango-nullità:
Esempio:
-
Rango = 1
-
Nullità = 2
-
Una base del nucleo: {(-2,1,0), (-3,0,1)}
-
Soluzioni:
7. Autovalori e autovettori
-
= autovalore
-
= autovettore
Polinomio caratteristico:
Esempio:
-
Polinomio caratteristico:
-
Radici:
-
Autovettori:
8. Ortogonalità e Gram–Schmidt
In ℝⁿ due vettori sono ortogonali se .
Il procedimento di Gram–Schmidt genera una base ortonormale da vettori linearmente indipendenti.
Esempio:
Normalizzando otteniamo la base ortonormale:
9. Metodo dei minimi quadrati
Quando il sistema è sovradeterminato, cerchiamo che minimizza .
Soluzione:
Esempio:
Punti: (1,2), (2,2.5), (3,4)
-
Equazione retta
-
Risolvendo si ottiene:
10. Esercizi svolti
Esercizio 1 – Determinante e inversa
Calcolare determinante e inversa di
Esercizio 2 – Autovalori
Trovare autovalori di
-
Polinomio caratteristico:
-
Soluzioni:
Esercizio 3 – Sistema lineare 3×3
Soluzione passo-passo con Gauss:
-
Matrice aumentata e riduzione:
-
Eliminazione: R2 → (0, -3, -1 | -9)
-
R3 → (0, 0, 2 | 1)
-
-
Risalendo:
-
z = 0.5
-
y = 2
-
x = 3.5
-
Soluzione:
11. Minimi quadrati avanzati
Quando un sistema lineare è sovradeterminato, ovvero ci sono più equazioni che incognite, non sempre esiste una soluzione esatta. In questi casi si cerca il vettore che minimizza la norma dell’errore:
La soluzione è data dalle equazioni normali:
Esempio avanzato – retta di regressione
Punti: (1,2), (2,2.5), (3,4), (4,5)
-
Costruiamo la matrice dati e vettore osservazioni :
-
Equazioni normali:
-
Risolvendo otteniamo:
12. Cenni sulla SVD (Singular Value Decomposition)
La SVD permette di decomporre una matrice in tre matrici:
-
ortogonale
-
diagonale con valori singolari
-
ortogonale
Applicazioni pratiche della SVD:
-
Riduzione dimensionale
-
Compressione immagini
-
Soluzione numerica stabile di sistemi lineari sovradeterminati o mal condizionati
Esempio semplificato
Matrice
-
Valori singolari approssimati:
-
Si costruiscono e ortogonali per ottenere la SVD.
13. Applicazioni pratiche delle matrici
13.1 Rotazioni e trasformazioni geometriche
-
Rotazione di punti in un piano:
-
Riflessi, dilatazioni e shearing: utili in grafica computerizzata e robotica
13.2 Sistemi di equazioni in economia e fisica
-
Modelli input-output di Leontief
-
Bilanci di forze e correnti in circuiti elettrici
-
Problemi di equilibrio termico e meccanico
13.3 Analisi dati e machine learning
-
Regressione lineare (minimi quadrati)
-
PCA (Principal Component Analysis) tramite SVD
-
Compressione di immagini e riduzione rumore
14. Esercizi avanzati svolti
Esercizio 1 – Regressione lineare con 4 punti
Punti: (0,1), (1,2), (2,2.5), (3,4)
-
Matrice dati , vettore
-
Equazioni normali:
-
Risolvendo:
Esercizio 2 – Autovalori e diagonalizzazione
-
Polinomio caratteristico:
-
Soluzioni:
-
Autovettori:
-
-
Diagonalizzazione: con ,
Esercizio 3 – Sistema sovradeterminato 3×2
Sistema:
-
Matrice dati
-
Equazioni normali:
-
Risolvendo:
-
Minimo quadrato: il vettore soluzione minimizza
15. Approfondimenti
15.1 Definizione e operazioni fondamentali
Una matrice di dimensione è un insieme rettangolare di numeri disposti in righe e colonne:
Operazioni principali:
-
Somma: (stesse dimensioni)
-
Moltiplicazione per scalare:
-
Prodotto matrice-vettore: , con vettore colonna compatibile
-
Prodotto tra matrici: , con
15.2 Determinante
Il determinante è un numero associato a matrici quadrate e indica, tra l’altro, se la matrice è invertibile () e il volume del parallelepipedo generato dalle colonne.
Matrice 2×2
Per :
Esempio:
Matrice 3×3
Per si usa regola di Sarrus o sviluppo di Laplace:
Esempio:
15.3 Matrice inversa (2×2)
Se , la matrice è invertibile. Per :
Esempio:
15.4 Sistemi lineari e rappresentazione matriciale
Un sistema lineare può essere scritto come:
dove è la matrice dei coefficienti, il vettore incognito e il vettore dei termini noti.
Metodo di eliminazione di Gauss (esempio 3×3)
Risolviamo:
Matrice aumentata :
Passo 1: eliminazione colonna 1 (r2 ← r2 + ½·r1)
Passo 2: eliminazione colonna 2 (r3 ← r3 + 2/3·r2)
Passo 3: back-substitution
Soluzione:
Regola di Cramer
Se è invertibile, la soluzione di si può scrivere come:
dove è la matrice con la colonna -esima sostituita da .
Osservazione: questo collega direttamente il concetto di determinante con la risoluzione di sistemi lineari, mostrando il legame tra algebra matriciale e geometria degli spazi vettoriali.
Connessione con la lezione sui vettori
-
Il determinante 3×3 misura il volume del parallelepipedo generato da tre vettori (prodotto misto).
-
L’inversa di una matrice 2×2 è analoga alla normalizzazione di un vettore nello spazio: entrambe richiedono .
-
Il metodo di eliminazione di Gauss è una generalizzazione della decomposizione dei vettori in componenti ortogonali: si “isola” una variabile alla volta, analogamente a come il prodotto scalare proietta un vettore lungo una direzione.
16. Bibliografia
S. Salsa, A. Squellati, Algebra Lineare e Geometria, Zanichelli
C. Pignataro, Algebra Lineare, Hoepli
L. G. Casnati, Algebra Lineare e Geometria Analitica, CittàStudi
P. Marcellini, C. Sbordone, Elementi di Matematica, Liguori Editore
M. Forti, Algebra Lineare con Applicazioni, UTET Università
Matrici e Sistemi Lineari:I "Contenitori Intelligenti" che Muovono il Mondo
Se ti dicessi che ogni volta che usi un filtro su Instagram, cerchi qualcosa su Google o giochi a un videogame, ci sono migliaia di matrici che lavorano per te, mi crederesti?
Sebbene possano sembrare solo tabelle di numeri, le matrici sono in realtà gli ingranaggi fondamentali della tecnologia moderna. Ecco una guida semplice per capire a cosa servono e come funzionano, senza usare nemmeno una formula.
1. Cos'è una Matrice? (Il foglio Excel dell'Universo)
Immagina una matrice come una tabella rettangolare organizzata in righe e colonne. È un modo ordinato per gestire grandi quantità di informazioni contemporaneamente.
In informatica, una matrice può rappresentare i pixel di un'immagine.
In economia, può contenere i costi di produzione di diversi prodotti in diverse fabbriche.
Le matrici non sono statiche: possono essere moltiplicate tra loro per combinare i dati o trasformarle, a patto che le loro dimensioni "si incastrino" correttamente.
2. Il "Determinante": Il Termometro della Matrice
Ogni matrice quadrata ha un numero speciale chiamato determinante. Consideralo come un segnale che ci dice due cose fondamentali:
Esiste una soluzione? Se il determinante è diverso da zero, la nostra tabella è "sana" e ci permette di tornare indietro o risolvere un problema. Se è zero, l'informazione è "collassata" e non possiamo invertire il processo.
Volume e Spazio: In geometria, il determinante ci dice quanto una trasformazione ingrandisce o rimpicciolisce un oggetto.
3. L'Inversa: Il tasto "Annulla"
In matematica, l'inversa è l'equivalente del tasto Undo (Ctrl+Z) del tuo computer. Se una matrice trasforma un oggetto (ad esempio lo ruota), la sua matrice inversa è quella che lo riporta esattamente nella posizione originale. È fondamentale per risolvere i sistemi di equazioni, ovvero per trovare i dati di partenza conoscendo solo il risultato finale.
4. I Sistemi Lineari: Risolvere Enigmi Intrecciati
Un sistema lineare è come un indovinello in cui diverse variabili sono collegate tra loro. Ad esempio: "Se due caffè e un cornetto costano 5 euro, e un caffè e tre cornetti costano 7 euro, quanto costa un singolo caffè?"
Per risolvere questi problemi con migliaia di variabili (come nel meteo o nella gestione del traffico), gli scienziati usano l'Eliminazione di Gauss. È una tecnica che permette di pulire la tabella riga dopo riga, semplificando le informazioni finché la risposta non diventa evidente.
5. Grafica e Rotazioni: Matrici in Movimento
Se sei un appassionato di videogiochi, sappi che ogni volta che muovi la visuale, il computer sta moltiplicando le coordinate del mondo per una matrice di rotazione.
Riflessione: Specchia un oggetto rispetto a un asse.
Dilatazione: Ingrandisce o rimpicciolisce un modello 3D.
Shearing: Inclina l'oggetto come se fosse una pila di carte che viene spinta lateralmente.
6. Autovalori e Autovettori: Il DNA della Matrice
Questi nomi complicati indicano in realtà le "direzioni preferite" di una trasformazione.
Immagina di stirare un tappeto elastico: alcune fibre verranno allungate (autovalori) ma manterranno la stessa direzione originale (autovettori). Questa tecnica è usata da Google (algoritmo PageRank) per capire quali siti web sono più importanti degli altri in base ai collegamenti.
7. Il Metodo dei Minimi Quadrati: La Migliore Approssimazione
Nella vita reale, i dati sono spesso sporchi o imprecisi. Se hai dei punti sparsi su un grafico che rappresentano l'andamento delle vendite, non esiste una linea perfetta che li attraversi tutti. Il metodo dei minimi quadrati trova la retta che "sbaglia di meno", fornendo la previsione più affidabile possibile. È la base di tutta l'analisi dati e dell'intelligenza artificiale.
8. SVD: La Scienza della Compressione
La SVD (Decomposizione ai Valori Singolari) è la tecnica che permette di prendere una matrice enorme e complicata e ridurla ai suoi componenti essenziali. È ciò che permette di:
Comprimere una foto pesante in un file JPEG leggero senza perdere troppa qualità.
Rimuovere il rumore di fondo da una registrazione audio.
In sintesi
Le matrici sono il linguaggio universale per descrivere il cambiamento e l'organizzazione. Che si tratti di bilanciare il budget di uno Stato o di far atterrare un razzo in verticale, dietro le quinte c'è sempre una tabella di numeri che lavora instancabilmente.

Commenti
Posta un commento