Organizing from the Inside Out: The Foolproof System for Organizing

Politecnico di Milano
Scuola di Ingegneria Industriale e dell’Informazione
Corso di Analisi e Geometria 2
Programma
Docente: Federico Lastaria
Anno accademico 2013-2014
Indice
1 Definizioni
1
2 Teoremi
2
1
Definizioni
1. Spazi vettoriali e applicazioni lineari. Sottospazi vettoriali. Sottospazio vettoriale Span(v1 , ..., vk ).
Somma e prodotto di matrici. Dipendenza lineare, basi, dimensione. Coordinate [v]B di un vettore v rispetto a una base B. Isomorfismi lineari. Matrici invertibili. Matrice che rappresenta
F
un’applicazione lineare V −→ V 0 , rispetto alle basi B di V e B 0 di V 0 . Nucleo, immagine, rango di
un’applicazione lineare e di una matrice. V = U1 ⊕ U2 (V `e somma diretta di due suoi sottospazi
vettoriali U1 e U2 ).
2. Prodotto interno (prodotto scalare definito positivo) in uno spazio vettoriale. (Spazio vettoriale
euclideo). Lunghezza di un vettore. ortogonalit`a. Complemento ortogonale. Angolo tra due
vettori. Basi ortonormali. Isometrie lineari. Rotazioni.
3. Determinante di una matrice quadrata. Determinante di un endomorfismo lineare di uno spazio
vettoriale finito-dimensionale.
4. Autovettori, autovalori, autospazi di un endomorfismo lineare (e di una matrice quadrata).
Polinomio caratteristico. Molteplicit`a algebrica e molteplicit`a geometrica di un autovalore. Endomorfismo diagonalizzabile. Matrice diagonalizzabile. Matrici simili.
5. Matrice reale simmetrica. Endomorfismo auto-aggiunto (o simmetrico).
6. Serie numerica convergente. Serie geometrica. Coefficienti della serie di Fourier di una funzione
periodica.
1
7. Derivate direzionali. Derivate parziali. Continuit`a di funzioni di pi`
u variabili. Funzione di pi`
u
variabili differenziabile. Il differenziale di una funzione in un punto. Il piano tangente. Funzioni
diclasse C k . Il gradiente di una funzione. Insiemi di livello. Matrice Jacobiana.
8. Polinomio di Taylor. Forme quadratiche (definite, semi-definite, indefinite). Matrice Hessiana.
9. Forme differenziali chiuse. Forme differenziali esatte su un aperto W . Campi vettoriali irrotazionali. Campi vettoriali conservativi su un aperto W . Integrale di una 1-forma, o di un
campo vettoriale, lungo un cammino orientato. Spazi sconnessi per archi. Spazi semplicemente
connessi.
10. Integrale doppio. Integrale triplo.
11. Superfici parametrizzate. Integrale di una funzione su una superficie.
12. Flusso di un campo vettoriale attraverso una superficie orientata. Rotore di un campo vettoriale.
2
Teoremi
1. Definizioni equivalenti di base.
Teorema 2.1. Siano v1 , ..., vn vettori in uno spazio vettoriale V . I due fatti seguenti sono
equivalenti:
(a) I vettori v1 , ..., vn generano V e sono linearmente indipendenti.
(b) Ogni vettore v in V si scrive in un modo, e in uno solo, come combinazione lineare di
v1 , ..., vn .
2. Rappresentazione delle applicazioni lineari Rn −→ Rm , rispetto alle basi canoniche.
Teorema 2.2 (Rappresentazione delle applicazioni lineari Rn −→ Rm , rispetto alle basi canoniche). .
(a) Fissiamo una qualunque matrice A di tipo m × n. Allora l’applicazione
L
A
Rn −→
Rm
X 7−→ AX
(X vettore colonna in Rn , AX vettore colonna in Rm ) `e lineare.
(b) Non ci sono altre funzioni lineari da Rn a Rm , al di fuori di quelle descritte sopra. Cio`e,
G
se Rn −→ Rm `e lineare, allora esiste un’unica matrice A, di tipo m × n, per la quale
G(X) = AX, per ogni vettore colonna X ∈ Rn .
3. Nucleo e immagine di un’applicazione lineare.
Teorema 2.3. Sia F : V −→ W un’applicazione lineare. Allora
a) Ker F = {v ∈ V | F (v) = 0} `e un sottospazio vettoriale di V ;
b) Im F = {w ∈ W | ∃v ∈ V
F (v) = w} `e un sottospazio vettoriale di W .
2
4. Teorema di Rouch´e-Capelli.
Teorema 2.4 (Rouch´e-Capelli). Il sistema lineare AX = b `e risolubile se e solo se il rango
della matrice A dei coefficienti `e uguale al rango della matrice completa [A, b]:
⇐⇒
AX = b risolubile
rk A = rk [A, b]
5. Struttura dello spazio delle soluzioni di un sistema lineare.
Teorema 2.5. Sia AX = b un qualunque sistema lineare non omogeneo di m equazioni in n
incognite. Supponiamo che il sistema abbia soluzioni e sia X0 una sua soluzione particolare (cio`e
un vettore di Rn tale che AX0 = b). Allora lo spazio Sol(A, b) delle soluzioni di AX = b `e dato
da
Sol(A, b) = Sol(A, 0) + X0
In altre parole, lo spazio affine Sol(A, b) si ottiene dallo spazio vettoriale Sol(A, 0) traslando
quest’ultimo di un vettore X0 , dove X0 `e una qualunque soluzione particolare del sistema AX =
b.
6.
∗
(Solo enunciato. Dimostrazione facoltativa). Spazi vettoriali isomorfi.
Teorema 2.6. Due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione.
7. Teorema delle dimensioni.
F
Teorema 2.7 (delle dimensioni, o “Nullit`a + Rango”). Sia V −→ W un’applicazione lineare,
con V finito-dimensionale. Allora:
dim V = dim(Ker F ) + dim(Im F )
8. Applicazioni lineari iniettive.
Teorema 2.8. Un’applicazione lineare F : V −→ W `e iniettiva se e solo se Ker F = 0.
9. Applicazioni lineari tra spazi con la stessa dimensione
Teorema 2.9. Sia F : V −→ W un’applicazione lineare e supponiamo dim V = dim W . Allora
le seguenti propriet`
a sono equivalenti:
1) F `e iniettiva;
2) F `e suriettiva;
10. L’applicazione composta di applicazioni lineari `e lineare
F
G
Teorema 2.10. Se V −→ W e W −→ Z sono applicazioni lineari, allora l’applicazione composta
G◦F
V −→ Z
F
V
W
G◦F
G
Z
3
`e lineare.
11.
∗
(Solo enunciato. Dimostrazione facoltativa).
Rango per righe e rango per colonne.
Teorema 2.11 (Rango per righe = rango per colonne). Sia A una matrice m × n. I due
sottospazi vettoriali
Span (Righe di A) ⊂ Rn ,
Span (Colonne di A) ⊂ Rm
sono isomorfi. In particolare,
dim Span (Colonne di A) = dim Span (Righe di A)
12.
∗
(Solo enunciato. Dimostrazione facoltativa nel caso n = 2 oppure n = 3). Determinanti.
Teorema 2.12. ∗ [Esistenza e unicit`
a del determinante] Esiste un’unica funzione, che si chiama
determinante e si denota det,
D
Mat(n × n) −→ R,
A = [A1 , ..., An ] 7−→ det[A1 , ..., An ],
(2.1)
che soddisfa le seguenti propriet`
a:
(a) Multilinearit`
a.
Se pensiamo alla funzione determinante det come a una funzione delle colonne di A, det
`e lineare in ogni colonna. Cio`e, se si fissano tutti gli argomenti Ai con i 6= j, la funzione
det `e lineare nell’argomento Aj :
det[..., λAj + λ0 A0j , ...] = λ det[..., Aj , ...] + λ0 det[..., A0j , ...]
(b) Alternanza.
Se si scambiano tra loro due colonne Ai , Aj , i 6= j, il valore del determinante cambia segno:
det[..., Ai , ..., Aj , ...] = − det[..., Aj , ..., Ai , ...]
In modo equivalente, se due colonne sono uguali, il determinante vale zero:
det(..., C, ...., C, ...) = 0
(c) Normalizzazione.
det I = 1, dove I = [E1 , ..., En ] = 1 0 · 0 0 1 · 0 a n × n.
`e la matrice identit`
· · · · 0 0 · 1 13. Determinante e dipendenza lineare
Teorema 2.13. Siano v1 , .., vn vettori arbitrari di Rn . Allora v1 , .., vn sono linearmente dipendenti se e solo se det(v1 , .., vn ) = 0.
14. Una matrice quadrata A `e invertibile se e solo se det A 6= 0.
4
Teorema 2.14. Una matrice quadrata A `e invertibile se e solo se det A 6= 0.
15.
∗
(Solo enunciato. Dimostrazione facoltativa). Cambio di base: come si trasformano le coordinate
di un vettore
Teorema 2.15 (Come cambiano le coordinate). V spazio vettoriale; B, B 0 basi di V ; v ∈ V .
Siano X, X 0 ∈ Rn i vettori colonna delle coordinate dello stesso vettore v rispetto alle due basi
B, B 0 :
X:
B-coordinate di v;
X 0:
B 0 -coordinate di v.
Allora la relazione tra i vettori colonna X e X 0 `e
X = P X 0,
X 0 = P −1 X
(2.2)
dove P `e la matrice che rappresenta l’identit`
a, quando si fissa la base B 0 nel dominio e la base B
nel codominio, ossia `e la matrice le cui colonne sono le B-coordinate dei vettori v10 , ..., vn0 della
base B 0 .
16.
∗
(Solo enunciato. Dimostrazione facoltativa). Cambio di base: come si trasforma la matrice
che rappresenta un endomorfismo
F
Teorema 2.16 (Come cambia la matrice di un endomorfismo). Sia V −→ V endomorfismo
lineare, B, B 0 basi di V ,
A = [F ]B matrice di F rispetto a B;
A0 = [F ]B0 matrice di F rispetto a B 0 .
Allora il legame tra A e A0 `e
A0 = P −1 AP
dove P `e la matrice che rappresenta l’identit`
a, quando si fissa la base B 0 nel dominio e la base B
nel codominio (ossia `e la matrice le cui colonne sono le B-coordinate dei vettori v10 , ..., vn0 della
base B 0 ).
17. Proiezione ortogonale di un vettore lungo un altro
Teorema 2.17 (Proiezione di un vettore lungo un altro). Sia V uno spazio vettoriale euclideo
e sia b ∈ V un vettore non nullo. Ogni vettore a ∈ V si scrive in modo unico come
a = ak + a⊥
con ak parallelo a b e a⊥ ortogonale a b.
Si ha:
ak =
a·b
b
b·b
In particolare, se b = u `e unitario (kuk = 1),
ak = (a · u) u
18. Teorema di Pitagora
5
(Se kuk = 1)
Teorema 2.18 (Teorema di Pitagora). Sia V uno spazio vettoriale euclideo. Se v, w ∈ V sono
ortogonali tra loro, allora
kv + wk2 = kvk2 + kwk2
19. Determinante dell’endomorfismo inverso
F
Teorema 2.19. Se un endomorfismo lineare Rn −→ Rn `e invertibile, allora
det (F −1 ) = (det F )−1
In termini di matrici:
Se una matrice A `e invertibile, allora det (A−1 ) = (det A)−1 .
20.
∗
(Solo enunciato. Dimostrazione facoltativa). Condizioni equivalenti a det A 6= 0
L
A
Rn l’endomorfismo associato.
Teorema 2.20. Sia A una matrice quadrata n × n e sia Rn −→
Allora le seguenti propriet`
a sono equivalenti:
(a) A `e invertibile;
(b) Esiste una matrice quadrata B per la quale AB = I;
(c) Esiste una matrice quadrata B per la quale BA = I;
(d) LA `e un isomorfismo;
(e) Ker A = 0;
(f ) rk A = n;
(g) det A 6= 0;
(h) Le colonne di A sono linearmente indipendenti;
(i) Le righe di A sono linearmente indipendenti;
21. Polinomio caratteristico
Teorema 2.21. Sia λ un numero reale e sia A una matrice quadrata. Allora λ `e autovalore di
A se e solo se `e radice del polinomio caratteristico det(A − λI).
22.
∗
(Solo enunciato. Dimostrazione facoltativa). Autovettori indipendenti
Teorema 2.22. Sia F : V −→ V un endomorfismo lineare.
Siano v1 , ..., vm autovettori di F , con rispettivi autovalori λ1 , ..., λm . Supponiamo che questi
autovalori siano a due a due distinti:
λi 6= λj
se i 6= j.
Allora v1 , ..., vm sono linearmente indipendenti.
23.
∗
(Solo enunciato. Dimostrazione facoltativa). Il teorema spettrale
Teorema 2.23 (Teorema spettrale). Sia A = At una matrice reale simmetrica n × n. Allora:
(a) Tutti gli autovalori λ1 , ..., λn di A sono reali.
6
(b) Autovettori relativi ad autovalori distinti sono ortogonali.
(c) A `e ortogonalmente diagonalizzabile. Questo significa che esiste una base ortonormale B 0
di Rn che `e formata da autovettori di A. Dunque, esiste una matrice invertibile P per la
quale
A0 = P −1 AP = diag (λ1 , ..., λn )
(2.3)
24. Equazione caratteristica di un’equazione lineare del secondo ordine.
Teorema 2.24 (Equazione caratteristica). L’esponenziale x(t) = eλt `e soluzione dell’equazione
a coefficienti costanti
00
x + a1 x0 + a0 x = 0
(2.4)
se e solo se λ `e una radice dell’equazione caratteristica
λ2 + a1 λ + a0 = 0
(2.5)
25. Sistema differenziali lineari e autovettori
Teorema 2.25 (Soluzioni su linea retta). Supponiamo che V1 ∈ Rn sia autovettore di una
matrice reale A, n × n, con autovalore reale λ1 . Allora
X(t) = eλ1 t V1
(2.6)
`e una soluzione del sistema diferenziale lineare X 0 = AX.
26. Condizione necessaria (non sufficiente) per la convergenza di una serie
Teorema 2.26. Se una serie numerica
+∞
X
an `e convergente, allora lim an = 0.
n→+∞
n=1
27. La serie geometrica Una serie geometrica di ragione q `e una somma infinita del tipo:
+∞
X
q n = 1 + q + q 2 + q 3 + q 4 + .... + q n + ....
(2.7)
n=0
Teorema 2.27. La serie geometrica
+∞
X
q n = 1 + q + q 2 + q 3 + q 4 + .... + q n + ....
n=0
ha il seguente carattere:
1
.
1−q
(b) Se q ≥ 1 diverge a +∞.
(a) Se |q| < 1 converge a
(c) Se q ≤ −1 `e indeterminata.
28.
∗
(Solo enunciato. Dimostrazione facoltativa). Criterio del confronto asintotico
7
(2.8)
Teorema 2.28. Siano
+∞
X
+∞
X
an e
n=1
bn due serie a termini positivi. Supponiamo che si abbia
n=1
an ∼ bn
(2.9)
per n → ∞. Allora le due serie hanno lo stesso carattere (vale a dire, entrambe convergono,
oppure entrambe divergono a +∞).
29. Criterio del rapporto
Teorema 2.29 (Criterio del rapporto di D’Alembert.). Sia
+∞
X
an una serie numerica a termini
n=0
positivi. Supponiamo che esista il limite
an+1
=α
n→+∞ an
(2.10)
lim
Allora:
(a) Se α < 1, la serie
(b) Se α > 1, la serie
+∞
X
n=0
+∞
X
an converge.
an diverge a +∞.
n=0
30.
∗
(Solo enunciato. Dimostrazione facoltativa). Criterio della radice
Teorema 2.30 (Criterio della radice). Sia
+∞
X
an una serie numerica a termini positivi. Sup-
n=1
poniamo che esista (finito o +∞)il limite
√
n
lim
n→+∞
an = α
(2.11)
Allora:
(a) Se α < 1, la serie
+∞
X
an converge.
n=1
(b) Se α > 1 (in particolare, se α = +∞), la serie
+∞
X
an diverge a +∞.
n=1
31.
∗
(Solo enunciato. Dimostrazione facoltativa). Serie a termini di segno alterno.
Le serie con termini di segno alterno sono del tipo
+∞
X
(−1)n an
(2.12)
n=0
con an > 0. Ad esempio,
+∞
X
(−1)n
n=1
1 1 1
1
= 1 − + − + ···
n+1
2 3 4
Vale il seguente criterio.
8
(2.13)
Teorema 2.31 (Criterio di Leibniz). Sia
+∞
X
(−1)n an = a0 − a1 + a2 − a3 + · · ·
n=0
con tutti gli an > 0, una serie a termini di segno alterno. Supponiamo che valgano entrambe le
seguenti condizioni:
(a) limn→+∞ an = 0
(b) La successione an `e decrescente:
an+1 ≤ an
per ogni n.
Allora la serie converge.
32. Differenziabilit`
a implica continuit`a
F
Teorema 2.32 (Differenziabilit`a implica continuit`a.). Sia Ω −→ R una funzione definita su un
aperto Ω di Rn . Se F `e differenziabile in un punto X0 ∈ Ω, allora F `e continua in X0 .
33. Il teorema del differenziale totale
f
Teorema 2.33 (del differenziale totale). Sia D −→ R, D ⊂ Rn , e sia P0 un punto interno a D.
Supponiamo che in un intorno del punto P0 esistano tutte le derivate parziali fxi , i = 1, ..., n, e
che esse siano continue in P0 . Allora f `e differenziabile in P0 .
34.
∗
(Solo enunciato. Dimostrazione facoltativa). Differenziale della funzione composta o regola
della catena (Chain Rule).
Teorema 2.34 (Differenziale della funzione composta o regola della catena (Chain Rule)).
F
1
G
Siano Rn −→ Rm e Rm −→ Rl funzioni differenziabili:
F
Rn
G◦F
Rm
G
Rl
Allora la funzione composta G ◦ F `e differenziabile e il differenziale della funzione composta si
ottiene componendo i differenziali. Precisamente, per ogni X0 in Rn ,
d(G ◦ F )X0 = dGF (X0 ) ◦ dFX0
(2.14)
35. Derivata di funzione composta. Formula del gradiente.
Teorema 2.35 (Derivata di funzione composta. Formula del gradiente.). Siano date due funzioni differenziabili γ(t) e f (x1 , ..., xn ) come nel diagramma
1
Teorema soltanto enunciato a lezione, senza dimostrazione.
9
γ
Rn
R
f ◦γ
f
R
d
Allora la funzione composta f ◦ γ `e differenziabile e dt
(f ◦ γ) (t) `e uguale al prodotto scalare del
gradiente di f , valutato nel punto γ(t), e del vettore γ 0 (t):
d
f (γ(t)) = (∇f )γ(t) · γ 0 (t)
dt
∂f
∂f
=
(γ(t))x01 (t) + · · · +
(γ(t))x0n (t)
∂x1
∂xn
(2.15)
(2.16)
36. Derivata lungo un vettore. Denotiamo con Tx0 Rn lo spazio vettoriale tangente a Rn nel punto
x0 , cio`e lo spazio vettoriale (isomorfo a Rn ) costituito da tutti i vettori di Rn uscenti dal punto
x0 .
Teorema 2.36 (Derivata lungo un vettore.). Se la funzione f (x1 , ..., xn ) `e definita in un intorno
del punto x0 ∈ Rn e v ∈ Tx0 Rn `e un vettore dello spazio tangente a Rn nel punto x0 , allora la
derivata di f lungo v `e data da:
Dv f (x0 ) = (∇f )x0 · v
(2.17)
37.
Teorema 2.37 (Il gradiente `e ortogonale agli insiemi di livello.). In ogni punto p della superficie
di livello S, il gradiente di g `e ortogonale a S.
38. Punti critici.
Teorema 2.38 (Punti critici). Se xo `e un punto di minimo (o di massimo) locale per la funzione
f
A −→ R, A ⊂ Rn , xo `e interno ad A e f `e differenziabile in xo , allora (∇f )xo = 0, ossia xo `e
un punto critico per f .
39.
∗
(Solo enunciato. Dimostrazione facoltativa). Studio dei punti critici con la forma quadratica.
f
Teorema 2.39 (Studio dei punti critici con la forma quadratica). Sia U −→ R una funzione di
classe C 2 su un intorno aperto U ⊂ Rn del punto X0 ∈ Rn , e sia X0 un punto critico per f . Se
nello sviluppo di Taylor di f nel punto X0 ,
f (X0 + H) − f (X0 ) =
n
1 X ∂2f
(X0 ) hi hj + o(|H|2 )
2!
∂xi ∂xj
(2.18)
i,j=1
il differenziale secondo valutato in X0 ,
2
d f
n
X
(h1 , h2 ) =
X0
i,j=1
(dove H = (h1 , ..., hn )) `e una forma quadratica
10
∂2f
(X0 ) hi hj
∂xi ∂xj
(2.19)
• definita positiva (definita negativa), allora X0 `e un punto di minimo locale (di massimo
locale) per f ;
• indefinita (cio`e assume sia valori positivi che negativi), allora X0 non `e punto di minimo
locale, n´e di massimo locale per f . (Si dice che X0 `e un punto di sella per f ).
40. Moltiplicatori di Lagrange.
Teorema 2.40 (Moltiplicatori di Lagrange). Supponiamo che p ∈ S sia punto di minimo o di
massimo locale per la funione f sulla superficie S. Allora il gradiente ∇f (p) `e ortogonale alla
superficie S nel punto p, ossia ∇f (p) `e multiplo del gradiente ∇g(p). Questo equivale a dire che
esiste un numero λ per il quale vale
∇f (p) = λ∇g(p)
(2.20)
41. Esatta implica chiusa.
Teorema 2.41 (Esatta implica chiusa). Se una 1-forma `e esatta, allora `e chiusa.
42. Conservativo implica irrotazionale.
Teorema 2.42. Ogni campo conservativo in R3 `e irrotazionale.
43. Indipendenza dal cammino
Teorema 2.43 (Indipendenza dal cammino). Sia ω una 1-forma continua su un aperto connesso
Ω di Rn . Le condizioni seguenti sono equivalenti:
f
(a) ω `e esatta, cio`e ω = df per una funzione Ω −→ R.
(b) L’integrale di ω lungo ogni cammino chiuso C contenuto in Ω `e zero:
Z
ω=0
C
R
(c) Comunque si fissino due punti P, Q in Ω, il valore dell’integrale C ω `e sempre lo stesso per
tutti i cammini orientati C (contenuti in Ω) da P a Q (cio`e, non dipende dalla scelta del
cammino orientato da P a Q).
44.
∗
(Solo enunciato. Dimostrazione facoltativa). Formula di Gauss-Green
Teorema 2.44 (Formula di Gauss-Green nel piano). Sia D un dominio compatto del piano R2
il cui bordo ∂D sia costituito da curve lisce (a tratti). Siano A(x, y) e B(x, y) due funzioni
qualunque di classe C 1 , definite su un aperto che contiene D e ∂D, Allora
Z
Z
∂B ∂A
(
−
) dx dy =
Adx + Bdy
(2.21)
∂y
D ∂x
∂D
Qui si intende che la regione D ha la stessa orientazione canonica di R2 e il bordo ∂D `e coerentemente orientato con l’orientazione indotta.
11
45.
∗
(Solo enunciato. Dimostrazione, facoltativa, caso in cui V sia un cubo. Interpretazione infinitesimale come densit`
a volumetrica di flusso.). Teorema della divergenza.
Teorema 2.45 (Teorema della divergenza (Gauss, 1813)). Sia V un dominio compatto in R3 , il
cui bordo ∂V = S sia una superficie liscia a tratti. Fissiamo sulla superficie ∂V l’orientazione
normale n che punta verso l’esterno. Sia F un campo vettoriale liscio su un aperto U ⊂ R3 che
includa V . Allora
Z
Z
F · n dS
div F dV
=
(2.22)
V
∂V
|
{z
}
Integrale triplo di div F sul volume V
| {z }
Flusso di F attraverso la superficie ∂V
46.
∗
(Solo enunciato). Teorema del rotore.
Teorema 2.46 (Teorema del rotore (Stokes, 1854)). Sia S una superficie liscia a tratti, compatta
e orientata in R3 . Sia F un campo vettoriale liscio su un aperto U ⊂ R3 che includa S. Allora
Z
Z
=
rot F · n dS
(2.23)
F
|∂S{z }
Lavoro di F lungo il cammino ∂S
|S
{z
}
Flusso di rot F attraverso la superficie S
dove l’orientazione sul bordo ∂S deve essere fissata in modo che sia coerente con l’orientazione
di S.
12