Home GE110

Corso GE110 - a.a. 2014/2015

DIARIO DELLE LEZIONI

Numero
Data
Argomenti svolti



 1
18/2
Organizzazione del corso. Introduzione agli argomenti.
 2
18/2
Matrici. Righe, colonne, la trasposta di una matrice. Matrici notevoli: diagonali, triangolari, identità, nulla. Lo spazio delle matrici. Somma di matrici, moltiplicazione di una matrice per un numero reale.
 3
20/2
Matrici simmetriche, antisimmetriche. Prodotto di matrici. Principali proprietà delle operazioni tra matrici: distributività, associatività del prodotto, trasposta del prodotto e della somma, la matrice identità è elemento neutro del prodotto. 
 4
20/2 Matrici invertibili, proprietà dell'inversa di una matrice, gruppo lineare, matrici ortogonali, gruppo ortogonale. Sistemi di equazioni lineari: forma generale, soluzioni, sistemi omogenei, sistema omogeneo associato ad un dato sistema. Sistemi compatibili ed incompatibili. Le soluzioni di un sistema compatibile sono ottenute da una data soluzione sommando tutte le soluzioni del sistema omogeneo associato.
 5
25/2
Matrice di un sistema, matrice orlata, sistema in forma matriciale. Sistemi a gradini, caso quadrato e caso generale, loro soluzioni ed infinità. Metodo di eliminazione di Gauss-Jordan. Operazioni elementari sui sistemi e sulla matrice orlata.
 6
25/2
Esempi di sistemi compatibili ed incompatibili a seconda dell'output del metodo di eliminazione di Gauss-Jordan. Sistemi quadrati con matrice invertibile, esistenza ed unicità della soluzione. Matrici elementari e loro inverse. Una matrice è invertibile se e solo se è prodotto di matrici elementari. 
 7
27/2
Calcolo della matrice inversa con operazioni elementari. I vettori geometrici. 
 8
27/2
La struttura di spazio vettoriale. Esempi di spazi vettoriali. Prime conseguenze degli assiomi. L'importanza delle definizioni astratte (A Revolution in Mathematics? What Really Happened a Century ago and why it matters today, Notices AMS, gennaio 2012). 
 9
4/3
Sottospazi. Esempi: il sottospazio generato da un vettore, un iperpiano per l'origine in \({\mathbb R^n}\), lo spazio dei polinomi di grado \(\leq d \), le soluzioni di un sistema lineare omogeneo. L'intersezione di sottospazi è un sottospazio. L'unione di sottospazi non è, in generale, un sottospazio. Somma di due sottospazi. Somma diretta.
10
4/3
Il prodotto cartesiano di due spazi vettoriali. Combinazioni lineari, il sottospazio generato da un numero finito di vettori. Dipendenza ed indipendenza lineare, esempi. 
11
6/3
Un vettore è linearmente dipendente se e solo se è nullo. Due vettori sono linearmente dipendenti se e solo se sono multipli (paralleli). Dei vettori sono linearmente dipendenti se e solo se uno è combinazione lineare degli altri. Se un insieme finito di vettori contiene il vettore nullo allora i vettori sono linearmente dipendenti. In un insieme finito di vettori linearmente indipendenti ogni sottoinsieme è costituito da vettori linearmente indipendenti. Generatori. Base finita di uno spazio vettoriale. Esempi, la base canonica di \({\mathbb R^n}\), la base canonica dello spazio delle matrici e dello spazio dei polinomi di grado \(\leq d\).
12
6/3
Spazi vettoriali che non hanno una base finita, lo spazio dei polinomi. Se uno spazio vettoriale ha \(n\) generatori allora ogni insieme di \(m > n\) vettori è costituito da vettori linearmente dipendenti.
13
11/3
Due basi finite hanno lo stesso numero di elementi. Dimensione di uno spazio vettoriale con base finita. La dimensione di \(\{0\}\) è \(0\). Esempi, la dimensione di \({\mathbb R^n}\), dello spazio delle matrici, dello spazio dei polinomi di grado \(\leq d\) e dello spazio delle soluzioni di un sistema lineare omogeneo. 
14
11/3
Coordinate di un vettore rispetto ad una base finita di uno spazio vettoriale. Se \(V\) è uno spazio vettoriale di dimensione \(n\) allora ogni insieme di \(n\) vettori linearmente indipendenti è una base di \(V\) ed ogni insieme di \(k\) vettori linearmente indipendenti è tale che \(k \leq n\) e può essere completato ad una base di \(V\). Se \(V\) è uno spazio vettoriale di dimensione finita e \(W\) è un sottospazio di \(V\), allora \(W\) ha dimensione finita, \(\dim W \leq \dim V\) e vale uguale se e solo se \(W = V\).
15
13/3
Esempi di completamento ad una base. La formula di Grassmann. Esempi.
16
13/3
Rango di un insieme di vettori, rango per righe e rango per colonne di una matrice, esempi. Il rango per righe coincide con il rango per colonne di una qualsiasi matrice. Prime proprietà del rango. Il rango di un insieme di vettori (e quindi di una matrice) non cambia con operazioni elementari di tipo I, II o III.
17 18/3 \(r(AB) \leq \min\{r(A), r(B)\}\); \(r(AB) = r(B)\) se \(A\) è invertibile (o \(r(AB) = r(A)\) se \(B\) è invertibile). Una matrice \(n \times n\) è invertibile se e solo se ha rango \(n\). Sottomatrici. Il rango di una sottomatrice è al più il rango della matrice. Il rango di una matrice è la massima dimensione delle sottomatrici invertibili.
18 18/3 Il teorema di Kronecker-Rouché-Capelli. Esempi.
19
20/3 Richiami sui gruppi di permutazioni. Il determinante di una matrice quadrata. Esempi. Prime proprietà del determinante: è lineare nelle righe (colonne), il determinate di una matrice è uguale a quello della sua trasposta, cambia segno se si scambiano due righe (colonne) ed è zero se ci sono due righe (colonne) uguali (dimostrazione da completare). Il determinante dell'identità è \(1\).
20
20/3 Completamento della dimostrazione precedente. Il determinante del prodotto di due matrici è uguale al prodotto dei determinanti. Il determinante dell'inversa di una matrice è l'inverso del determinante. Una matrice quadrata di ordine \(n\) ha rango \(n\) se e solo se ha determinante non nullo. Minori di una matrice. Il rango di una matrice è il massimo ordine dei suoi minori non nulli.
21
25/3
Il determinante di una matrice è nullo se la matrice ha una riga (o colonna) nulla; il determinante di una matrice non cambia se si effettua un'operazione elementare di tipo III tra le righe (colonne). Il cofattore di un elemento di una matrice, la matrice cofattore di una matrice, esempi. La formula di Laplace nel caso dello sviluppo per righe (colonne) del determinante, esempi.
22
25/3
Il prodotto di una matrice per la matrice trasposta della cofattore è uguale al prodotto dell'identità per il determinante della matrice. Matrice inversa calcolata con la matrice cofattore. La regola di Cramer, esempi. Si ricorda che venerdì 27 marzo, ore 11, si terrà una lezione di preparazione alla prima prova in itinere.
23
27/3
Esercizi di preparazione alla prima prova in itinere.
24
27/3
Esercizi di preparazione alla prima prova in itinere. Si ricorda che giovedì 9 aprile, ore 14, si svolgerà la prima prova in itinere nelle aule F e G. La prossima lezione sarà, come da calendario, mercoledì 15 aprile.
25 9/4 Prima prova in itinere.
26
9/4
Prima prova in itinere.
27
9/4
Prima prova in itinere.
28
15/4
Il principio dei minori orlati. Risoluzione di sistemi lineari con l'utilizzo del teorema di Kronecker-Rouché-Capelli, del principio dei minori orlati e della regola di Cramer. Esempi.
29
15/4
Spazi affini, definizione, prime conseguenze degli assiomi, dimensione. Esempi di spazi affini: rette, piani. Spazi vettoriali come spazi affini su se stessi, \(n\)-spazio affine numerico. Sistemi di riferimento affini, coordinate.
30
17/4
Sottospazi affini, giacitura, dimensione. Rette, piani, sottospazi generati da un numero finito di punti. Un sottospazio affine è individuato dalla sua giacitura e da un suo qualsiasi punto. Un sottospazio affine è uno spazio affine sulla sua giacitura. Equazioni parametriche di sottospazi affini, rette e piani.
31
17/4
Equazioni cartesiane di sottospazi vettoriali. In uno spazio affine di dimensione \(n\) con riferimento affine fissato, l'insieme delle soluzioni di un sistema lineare, se non vuoto, è un sottospazio affine di dimensione \(n - r\), dove \(r\) è rango della matrice dei coefficenti del sistema. Viceversa ogni sottospazio affine di dimensione \(s\) è l'insieme delle soluzioni di un sistema lineare con matrice di rango \(n-s\). Esempi.
32 22/4
Parallelismo, esempi. Siano \(S\) e \(T\) due sottospazi affini in uno spazio affine \(A\) tali che \(S \parallel T, \dim S \leq \dim T\) e \(S \cap T \neq \emptyset\). Allora \(S \subseteq T\) e vale \(=\) se e solo se \(\dim S = \dim T\). 
33 22/4
Il quinto postulato di Euclide negli spazi affini. Sottospazi affini sghembi ed incidenti. Siano \(S\) e \(T\) due sottospazi affini in uno spazio affine \(A\). Se \(S \cap T \neq \emptyset\) allora \(S \cap T\) è un sottospazio affine e \(\dim S + \dim T - \dim A \leq \dim S \cap T \leq \min\{\dim S, \dim T\}\). Siano \(S\) e \(T\) due sottospazi affini di rispettive giaciture \(W, U\) in uno spazio affine \(A\) su uno spazio vettoriale \(V\). Allora \(S \cap T \neq \emptyset\) e \(\dim S \cap T = \dim S + \dim T - \dim A\) se e solo se \(W+U=V\). Geometria in un piano affine, equazioni parametriche e cartesiane di rette.
34 24/4
Siano \(r : Ax+By+C=0\) e \(r' : A'x+B'y+C'=0\) due rette. Allora possono accadere i seguenti casi: (1) \(r \parallel r'\) se e solo se \(\left| \matrix{A & B \cr A' & B' \cr } \right| = 0\); (2) Se \(r \parallel r'\) allora \(r \cap r' = \emptyset\) se e solo se \(\hbox{r}\pmatrix{A & B & C \cr A' & B' & C' \cr} = 2\); (3) \(r \not\parallel r'\) se e solo se \(r \cap r'\) è un punto. Questo accade se e solo se \(\left| \matrix{A & B \cr A' & B' \cr } \right| \neq 0\). Geometria in uno spazio affine di dimensione tre, equazioni parametriche e cartesiane di rette e piani, giaciture, piano per tre punti non allineati.
35 24/4
Siano \(p : Ax+By+Cz+D=0\) e \(p' : A'x+B'y+C'z+D'=0\) due piani. Allora possono accadere i seguenti casi: (1) \(p \parallel p'\) se e solo se \(\hbox{r} \pmatrix{A & B & C \cr A' & B' & C' \cr } = 1\); (2) Se \(p \parallel p'\) allora \(p \cap p' = \emptyset\) se e solo se \(\hbox{r}\pmatrix{A & B & C & D \cr A' & B' & C' & D' \cr} = 2\); (3) \(p \not\parallel p'\) se e solo se \(p \cap p'\) è una retta. Questo accade se e solo se \(\hbox{r} \pmatrix{A & B & C \cr A' & B' & C' \cr } = 2\). In uno spazio affine di dimensione tre, siano \(r \)  una retta di equazioni parametriche \(x = a + lt, y=b+mt, z=c+nt\) e cartesiane \(Ax+By+Cz+D=0, A'x+B'y+C'z+D'=0\) e \(p\) un piano di equazione \(A''x+B''y+C''z+D''=0\). Allora possono accadere i seguenti casi: (1) \(r \parallel p\) se e solo se \(\left| \matrix{A & B & C \cr A' & B' & C' \cr A'' & B'' & C'' \cr } \right| = 0\) se e solo se \(A''l+B''m+C''n = 0\); (2) Se \(r \parallel p\) allora \(r \cap p = \emptyset\) se e solo se \(\hbox{r}\pmatrix{A & B & C & D \cr A' & B' & C' & D' \cr A'' & B'' & C'' & D'' \cr} = 3\); (3) \(r \not\parallel p\) se e solo se \(r \cap p\) è un punto. Questo accade se e solo se \(\left|\matrix{A & B & C \cr A' & B' & C' \cr A'' & B'' & C'' \cr } \right| \neq 0\) se e solo se \(A''l+B''m+C''n \neq 0\). Rette complanari. In uno spazio affine di dimensione tre due rette sono complanari se e solo se sono parallele o incidenti se e solo se non sono sghembe.
36
29/4
In uno spazio affine di dimensione tre due rette di equazioni cartesiane \(Ax+By+Cz+D=0, A'x+B'y+C'z+D'=0\), ovvero passante per \(Q(a, b, c)\) e parallela a \(le_1+me_2+ne_3\) e \(A_1x+B_1y+C_1z+D_1=0, A'_1x+B'_1y+C'_1z+D'_1=0\) ovvero passante per \(Q_1(a_1, b_1, c_1)\) e parallela a \(l_1e_1+m_1e_2+n_1e_3\) sono complanari se e solo se \(\left|\matrix{A & B & C & D \cr A' & B' & C' & D' \cr A_1 & B_1 & C_1 & D_1 \cr A'_1 & B'_1 & C'_1 & D'_1 \cr} \right| = 0\) se e solo se \(\left|\matrix{a-a_1 & b-b_1 & c-c_1 \cr l & m & n \cr l_1 & m_1 & n_1 \cr } \right| = 0\). Applicazioni lineari tra spazi vettoriali. Operatori lineari, funzionali lineari, isomorfismi. Spazi di applicazioni lineari: \(Hom(V,W), End(V), Aut(V)\). Lo spazio vettoriale duale di \(V\).
37
29/4
Esempi di applicazioni lineari tra spazi vettoriali: applicazione nulla, identità, coordinate, proiezioni. Se \(F:V \to W\) è un'applicazione lineare e \(v_1, \ldots, v_m \in V\) sono linearmente dipendenti allora anche  \(F(v_1), \ldots, F(v_m) \in W\) sono linearmente dipendenti. Sia \(\{e_1, \ldots, e_n\}\) una base di \(V\) e siano \(w_1, \ldots, w_n \in W\). Esiste un'unica applicazione lineare \(F:V \to W\) tale che \(F(e_i)=w_i\) per \(1 \leq i \leq n\).
38
6/5
Nucleo ed immagine di un'applicazione lineare, rango e nullità. Il teorema di rango-nullità: sia \(F : V \to W\) un'applicazione lineare e sia \(V\) di dimensione finita. Allora anche il nucleo \(N(F)\) e l'immagine \(Im(F)\) hanno dimensione finita e \(\dim N(F) + \dim Im(F) = \dim V\). Un'applicazione lineare è iniettiva se e solo se ha nucleo \(\{0\}\).  
39
6/5
Sia \(F : V \to W\) un'applicazione lineare e sia \(\dim V = \dim W\) finita. Allora \(F\) è iniettiva se e solo se è suriettiva se e solo se è un isomorfismo. Spazio vettoriale quoziente \(V/W\) di uno spazio vettoriale \(V\) modulo un sottospazio vettoriale \(W\). La mappa quoziente, \(\dim V/W = \dim V - \dim W\) se \(V\) ha dimensione finita. Il teorema dell'omomorfismo: sia \(F : V \to W\) un'applicazione lineare. Allora \(V/N(F) \cong Im(F)\) e c'è un isomorfismo \(F' : V/N(F) \to Im(F)\) tale che se \(p : V \to V/N(F)\) è la mappa quoziente e \(i : Im(F) \to W\) è l'inclusione, allora \(i \circ F' \circ p = F\).
40 8/5
Due spazi vettoriali di dimensione finita sono isomorfi se e solo se hanno la stessa dimensione. La struttura di spazio vettoriale su \(Hom(V,W)\). Isomorfismo tra uno spazio vettoriale \(V\) di dimensione finita ed il suo spazio duale, base duale. Siano \(V, W\) due spazi vettoriali e siano \(v = \{v_1, \ldots, v_n\}\) una base di \(V\) e \(w = \{w_1, \ldots, w_m\}\) una base di \(W\). L'applicazione lineare \(F_A : V \to W\) associata a una matrice \(A \in M_{m,n}\) e alle basi \(v, w\).
41 8/5
Matrice \(M_{w,v}(F)\) associata a un'applicazione lineare \(F:V \to W\) e a due basi \(v = \{v_1, \ldots, v_n\}\) di \(V\) e \(w = \{w_1, \ldots, w_m\}\) di \(W\). La matrice associata ad \(F\) calcola \(F\): se \(A=M_{w,v}(F)\) e \(\{x_1, \ldots, x_n\}\) sono le coordinate di \(u \in V\) nella base \(v\), allora le coordinate di \(F(u) \in W\) nella base \(w\) sono date da \(Y = AX\) dove \(X = ^t\hskip -.15cm (x_1, \ldots, x_n), Y = ^t\hskip -.15cm (y_1, \ldots, y_m)\). Esempi. Sia \(A \in M_{m,n}\) una matrice tale che se \(\{x_1, \ldots, x_n\}\) sono le coordinate di \(u \in V\) nella base \(v\), allora le coordinate di \(F(u) \in W\) nella base \(w\) sono date da \(Y = AX\) dove \(X = ^t\hskip -.15cm (x_1, \ldots, x_n), Y = ^t\hskip -.15cm (y_1, \ldots, y_m)\). Allora \(A = M_{w,v}(F)\).
42
13/5
Siano \(V, W\) due spazi vettoriali e siano \(v = \{v_1, \ldots, v_n\}\) una base di \(V\) e \(w = \{w_1, \ldots, w_m\}\) una base di \(W\). L'applicazione \(M_{w,v}: Hom(V,W) \to M_{m,n}\) che associa ad \(F\) la sua matrice \(M_{w,v}(F)\) è un isomorfismo di spazi vettoriali. Sia \(V\) uno spazio vettoriale con base \(\{e_1, \ldots, e_n\}\) e siano \(v_1, \ldots, v_m \in V\). Sia \(A = (a_{ij})\) la matrice che esprime i \(v_j\) in funzione della base, cioè \(v_j = a_{1j}e_1 + \ldots + a_{nj} e_n\). Allora \(r(v_1, \ldots, v_m) = r(A)\). Sia \(A = M_{w,v}(F)\) la matrice associata ad un'applicazione lineare \(F:V \to W\) ed a due basi \(v = \{v_1, \ldots, v_n\}\) di \(V\) e \(w = \{w_1, \ldots, w_m\}\) di \(W\). Allora \(r(F) = r(A)\). Matrice associata all'identità, ovvero matrice del cambio di base.
43 13/5
Siano \(G : U \to V\) e \(F : V \to W\) due applicazioni lineari. Allora \(M_{w,u}(F \circ G) = M_{w,v}(F)M_{v,u}(G)\). La matrice associata ad \(F\) è invertibile se e solo se \(F\) è un isomorfismo. Orientazione di spazi vettoriali. Il teorema di Kronecker-Rouché-Capelli rivisitato tramite le applicazioni lineari. La matrice di un endomorfismo. Trasformata della matrice di un endomorfismo al variare della base.
44 15/5 Matrici simili, determinante di un endomorfismo. Due matrici sono simili se e solo se sono le matrici di un opportuno endomorfismo in due basi. Diagonalizzazione di endomorfismi e di matrici, esempi.
45
15/5 Autovettori ed autovalori, esempi. Ad ogni autovettore è associato un unico autovalore. Autospazi. Autovettori associati ad autovalori distinti sono linearmente indipendenti. Un endomorfismo di uno spazio di dimensione \(n\) è diagonalizzabile se ha \(n\) autovalori distinti.
46
22/5
Sia \(F\) un endomorfismo di uno spazio vettoriale \(V\) di dimensione finita; allora \(\lambda \in {\mathbb R}\) è un autovalore di \(F\) se e solo se \(F - \lambda id_V\) non è un isomorfismo se e solo se \(\det(F - \lambda id_V)=0\). Il polinomio caratteristico di un endomorfismo. Gli autovalori di un endomorfismo sono le radici del polinomio caratteristico. Sia \(F\) un endomorfismo di uno spazio vettoriale \(V\) di dimensione finita; allora la somma delle dimensioni degli autospazi di \(F\) è al più \(\dim V\) e vale uguale se e solo se \(F\) è diagonalizzabile.
47
22/5
La molteplicità geometrica ed algebrica di un autovalore. La molteplicità geometrica di un autovalore è sempre al più la molteplicità algebrica e se vale la disuguaglianza stretta per almeno un autovalore, allora \(F\) non è diagonalizzabile. Esempi di calcolo di autovalori, autovettori, dimensioni di autospazi e diagonalizzabilità. Questa è l'ultima lezione del corso. Si ricorda che venerdì 29 maggio, ore 11, si terrà una lezione di preparazione al secondo esonero.
48
29/5
Esercizi di preparazione alla seconda prova in itinere.
49
29/5
Esercizi di preparazione alla seconda prova in itinere.
50
3/6 Seconda prova in itinere.
51
3/6 Seconda prova in itinere.
52
3/6 Seconda prova in itinere.