Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Ortogonalizzazione di Gram-Schmidt - Teknopedia
Ortogonalizzazione di Gram-Schmidt - Teknopedia

In matematica, e in particolare in algebra lineare, l'ortogonalizzazione Gram-Schmidt è un algoritmo che permette di ottenere un insieme di vettori ortogonali a partire da un generico insieme di vettori linearmente indipendenti in uno spazio vettoriale dotato di un prodotto scalare definito positivo.[1]

Storia

[modifica | modifica wikitesto]

Il procedimento è così chiamato in onore del matematico danese Jørgen Pedersen Gram (1850-1916) e del matematico tedesco Erhard Schmidt (1876-1959); esso però è stato introdotto precedentemente ai loro studi e si trova in lavori di Laplace e Cauchy.

Quando si implementa l'ortogonalizzazione su un computer, al processo di Gram-Schmidt di solito si preferisce la trasformazione di Householder, in quanto questa è numericamente più stabile, cioè gli errori causati dall'arrotondamento sono minori.

L'algoritmo

[modifica | modifica wikitesto]

Sia V {\displaystyle V} {\displaystyle V} uno spazio vettoriale reale con un prodotto scalare definito positivo. Siano v 1 , … , v n {\displaystyle \mathbf {v} _{1},\ldots ,\mathbf {v} _{n}} {\displaystyle \mathbf {v} _{1},\ldots ,\mathbf {v} _{n}} vettori linearmente indipendenti in V {\displaystyle V} {\displaystyle V}. L'algoritmo di Gram-Schmidt restituisce n {\displaystyle n} {\displaystyle n} vettori linearmente indipendenti e 1 , … , e n {\displaystyle \mathbf {e} _{1},\ldots ,\mathbf {e} _{n}} {\displaystyle \mathbf {e} _{1},\ldots ,\mathbf {e} _{n}} tali che:

Span ( v 1 , … , v i ) = Span ( e 1 , … , e i ) , ∀ i {\displaystyle {\mbox{Span}}(\mathbf {v} _{1},\ldots ,\mathbf {v} _{i})={\mbox{Span}}(\mathbf {e} _{1},\ldots ,\mathbf {e} _{i}),\qquad \forall i} {\displaystyle {\mbox{Span}}(\mathbf {v} _{1},\ldots ,\mathbf {v} _{i})={\mbox{Span}}(\mathbf {e} _{1},\ldots ,\mathbf {e} _{i}),\qquad \forall i}

e

⟨ e i , e j ⟩ = { 1 i = j , 0 i ≠ j , ‖ e i ‖ = 1 , ∀ i {\displaystyle \langle \mathbf {e} _{i},\mathbf {e} _{j}\rangle ={\begin{cases}1&i=j,\\0&i\neq j,\end{cases}}\qquad \|{e_{i}}\|=1,\qquad \forall i} {\displaystyle \langle \mathbf {e} _{i},\mathbf {e} _{j}\rangle ={\begin{cases}1&i=j,\\0&i\neq j,\end{cases}}\qquad \|{e_{i}}\|=1,\qquad \forall i}

In altre parole, i vettori restituiti sono ortonormali, ed i primi i {\displaystyle i} {\displaystyle i} generano lo stesso sottospazio dei primi i {\displaystyle i} {\displaystyle i} vettori iniziali.[1]

Procedimento

[modifica | modifica wikitesto]

La proiezione ortogonale è la funzione che "proietta" il vettore v {\displaystyle \mathbf {v} } {\displaystyle \mathbf {v} } in modo ortogonale su u {\displaystyle \mathbf {u} } {\displaystyle \mathbf {u} }:[2]

p r o j u ( v ) = ⟨ v , u ⟩ ⟨ u , u ⟩ u . {\displaystyle \mathrm {proj} _{\mathbf {u} }\,(\mathbf {v} )={\langle \mathbf {v} ,\mathbf {u} \rangle \over \langle \mathbf {u} ,\mathbf {u} \rangle }\mathbf {u} .} {\displaystyle \mathrm {proj} _{\mathbf {u} }\,(\mathbf {v} )={\langle \mathbf {v} ,\mathbf {u} \rangle  \over \langle \mathbf {u} ,\mathbf {u} \rangle }\mathbf {u} .}

Il procedimento di Gram–Schmidt permette di costruire una base ortogonale u 1 , … , u n {\displaystyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}} {\displaystyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}} a partire da una base generica v 1 , … , v n {\displaystyle \mathbf {v} _{1},\ldots ,\mathbf {v} _{n}} {\displaystyle \mathbf {v} _{1},\ldots ,\mathbf {v} _{n}}. Per calcolare u i {\displaystyle \mathbf {u} _{i}} {\displaystyle \mathbf {u} _{i}} si proietta v i {\displaystyle \mathbf {v} _{i}} {\displaystyle \mathbf {v} _{i}} ortogonalmente sul sottospazio U i − 1 {\displaystyle U_{i-1}} {\displaystyle U_{i-1}} generato da { u 1 , u 2 , … , u i − 1 } {\displaystyle \{\mathbf {u} _{1},\mathbf {u} _{2},\dots ,\mathbf {u} _{i-1}\}} {\displaystyle \{\mathbf {u} _{1},\mathbf {u} _{2},\dots ,\mathbf {u} _{i-1}\}}. Si definisce allora u i {\displaystyle \mathbf {u} _{i}} {\displaystyle \mathbf {u} _{i}} come differenza tra v i {\displaystyle \mathbf {v} _{i}} {\displaystyle \mathbf {v} _{i}} e questa proiezione, in modo che risulta garantito che esso sia ortogonale a tutti i vettori nel sottospazio U i − 1 {\displaystyle U_{i-1}} {\displaystyle U_{i-1}}. Normalizzando poi la base ortogonale (cioè dividendo ogni vettore u i {\displaystyle \mathbf {u} _{i}} {\displaystyle \mathbf {u} _{i}} che la compone per la propria norma ‖ u i ‖ {\displaystyle \|\mathbf {u} _{i}\|} {\displaystyle \|\mathbf {u} _{i}\|}) si ottiene una base ortonormale dello spazio.[3]

Nello specifico:

I primi due passi dell'algoritmo.
u 1 = v 1 , e 1 = u 1 ‖ u 1 ‖ u 2 = v 2 − p r o j u 1 ( v 2 ) , e 2 = u 2 ‖ u 2 ‖ u 3 = v 3 − p r o j u 1 ( v 3 ) − p r o j u 2 ( v 3 ) , e 3 = u 3 ‖ u 3 ‖ u 4 = v 4 − p r o j u 1 ( v 4 ) − p r o j u 2 ( v 4 ) − p r o j u 3 ( v 4 ) , e 4 = u 4 ‖ u 4 ‖     ⋮     ⋮ u k = v k − ∑ j = 1 k − 1 p r o j u j ( v k ) , e k = u k ‖ u k ‖ . {\displaystyle {\begin{aligned}\mathbf {u} _{1}&=\mathbf {v} _{1},&\mathbf {e} _{1}&={\mathbf {u} _{1} \over \|\mathbf {u} _{1}\|}\\\mathbf {u} _{2}&=\mathbf {v} _{2}-\mathrm {proj} _{\mathbf {u} _{1}}\,(\mathbf {v} _{2}),&\mathbf {e} _{2}&={\mathbf {u} _{2} \over \|\mathbf {u} _{2}\|}\\\mathbf {u} _{3}&=\mathbf {v} _{3}-\mathrm {proj} _{\mathbf {u} _{1}}\,(\mathbf {v} _{3})-\mathrm {proj} _{\mathbf {u} _{2}}\,(\mathbf {v} _{3}),&\mathbf {e} _{3}&={\mathbf {u} _{3} \over \|\mathbf {u} _{3}\|}\\\mathbf {u} _{4}&=\mathbf {v} _{4}-\mathrm {proj} _{\mathbf {u} _{1}}\,(\mathbf {v} _{4})-\mathrm {proj} _{\mathbf {u} _{2}}\,(\mathbf {v} _{4})-\mathrm {proj} _{\mathbf {u} _{3}}\,(\mathbf {v} _{4}),&\mathbf {e} _{4}&={\mathbf {u} _{4} \over \|\mathbf {u} _{4}\|}\\&{}\ \ \vdots &&{}\ \ \vdots \\\mathbf {u} _{k}&=\mathbf {v} _{k}-\sum _{j=1}^{k-1}\mathrm {proj} _{\mathbf {u} _{j}}\,(\mathbf {v} _{k}),&\mathbf {e} _{k}&={\mathbf {u} _{k} \over \|\mathbf {u} _{k}\|}.\end{aligned}}} {\displaystyle {\begin{aligned}\mathbf {u} _{1}&=\mathbf {v} _{1},&\mathbf {e} _{1}&={\mathbf {u} _{1} \over \|\mathbf {u} _{1}\|}\\\mathbf {u} _{2}&=\mathbf {v} _{2}-\mathrm {proj} _{\mathbf {u} _{1}}\,(\mathbf {v} _{2}),&\mathbf {e} _{2}&={\mathbf {u} _{2} \over \|\mathbf {u} _{2}\|}\\\mathbf {u} _{3}&=\mathbf {v} _{3}-\mathrm {proj} _{\mathbf {u} _{1}}\,(\mathbf {v} _{3})-\mathrm {proj} _{\mathbf {u} _{2}}\,(\mathbf {v} _{3}),&\mathbf {e} _{3}&={\mathbf {u} _{3} \over \|\mathbf {u} _{3}\|}\\\mathbf {u} _{4}&=\mathbf {v} _{4}-\mathrm {proj} _{\mathbf {u} _{1}}\,(\mathbf {v} _{4})-\mathrm {proj} _{\mathbf {u} _{2}}\,(\mathbf {v} _{4})-\mathrm {proj} _{\mathbf {u} _{3}}\,(\mathbf {v} _{4}),&\mathbf {e} _{4}&={\mathbf {u} _{4} \over \|\mathbf {u} _{4}\|}\\&{}\ \ \vdots &&{}\ \ \vdots \\\mathbf {u} _{k}&=\mathbf {v} _{k}-\sum _{j=1}^{k-1}\mathrm {proj} _{\mathbf {u} _{j}}\,(\mathbf {v} _{k}),&\mathbf {e} _{k}&={\mathbf {u} _{k} \over \|\mathbf {u} _{k}\|}.\end{aligned}}}

dove { e i } {\displaystyle \{\mathbf {e} _{i}\}} {\displaystyle \{\mathbf {e} _{i}\}} è la base normalizzata.

Una verifica immediata della correttezza del procedimento eseguito, ovvero che si è ottenuto un insieme di vettori mutuamente ortogonali, è il calcolo del prodotto scalare fra u i {\displaystyle \mathbf {u} _{i}} {\displaystyle \mathbf {u} _{i}} e e j {\displaystyle \mathbf {e} _{j}} {\displaystyle \mathbf {e} _{j}}.

Generalizzazioni

[modifica | modifica wikitesto]

Il processo di Gram-Schmidt si applica anche ad una successione infinita { v i } i {\displaystyle \{\mathbf {v} _{i}\}_{i}} {\displaystyle \{\mathbf {v} _{i}\}_{i}} di vettori linearmente indipendenti. Il risultato è sempre una successione { e i } i {\displaystyle \{\mathbf {e} _{i}\}_{i}} {\displaystyle \{\mathbf {e} _{i}\}_{i}} di vettori ortogonali e con norma unitaria, tale che:

Span ( v 1 , … , v i ) = Span ( e 1 , … , e i ) , ∀ i . {\displaystyle {\mbox{Span}}(\mathbf {v} _{1},\ldots ,\mathbf {v} _{i})={\mbox{Span}}(\mathbf {e} _{1},\ldots ,\mathbf {e} _{i}),\qquad \forall i.} {\displaystyle {\mbox{Span}}(\mathbf {v} _{1},\ldots ,\mathbf {v} _{i})={\mbox{Span}}(\mathbf {e} _{1},\ldots ,\mathbf {e} _{i}),\qquad \forall i.}

Scrittura per mezzo del determinante

[modifica | modifica wikitesto]

Il risultato del procedimento di Gram-Schmidt può essere espresso in modo non ricorsivo utilizzando il determinante:

e j = 1 D j − 1 D j | ⟨ v 1 , v 1 ⟩ ⟨ v 2 , v 1 ⟩ … ⟨ v j , v 1 ⟩ ⟨ v 1 , v 2 ⟩ ⟨ v 2 , v 2 ⟩ … ⟨ v j , v 2 ⟩ ⋮ ⋮ ⋱ ⋮ ⟨ v 1 , v j − 1 ⟩ ⟨ v 2 , v j − 1 ⟩ … ⟨ v j , v j − 1 ⟩ v 1 v 2 … v j | , {\displaystyle \mathbf {e} _{j}={\frac {1}{\sqrt {D_{j-1}D_{j}}}}{\begin{vmatrix}\langle \mathbf {v} _{1},\mathbf {v} _{1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{1}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{1}\rangle \\\langle \mathbf {v} _{1},\mathbf {v} _{2}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{2}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{2}\rangle \\\vdots &\vdots &\ddots &\vdots \\\langle \mathbf {v} _{1},\mathbf {v} _{j-1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{j-1}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{j-1}\rangle \\\mathbf {v} _{1}&\mathbf {v} _{2}&\dots &\mathbf {v} _{j}\end{vmatrix}},} {\displaystyle \mathbf {e} _{j}={\frac {1}{\sqrt {D_{j-1}D_{j}}}}{\begin{vmatrix}\langle \mathbf {v} _{1},\mathbf {v} _{1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{1}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{1}\rangle \\\langle \mathbf {v} _{1},\mathbf {v} _{2}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{2}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{2}\rangle \\\vdots &\vdots &\ddots &\vdots \\\langle \mathbf {v} _{1},\mathbf {v} _{j-1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{j-1}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{j-1}\rangle \\\mathbf {v} _{1}&\mathbf {v} _{2}&\dots &\mathbf {v} _{j}\end{vmatrix}},}
u j = 1 D j − 1 | ⟨ v 1 , v 1 ⟩ ⟨ v 2 , v 1 ⟩ ⋯ ⟨ v j , v 1 ⟩ ⟨ v 1 , v 2 ⟩ ⟨ v 2 , v 2 ⟩ ⋯ ⟨ v j , v 2 ⟩ ⋮ ⋮ ⋱ ⋮ ⟨ v 1 , v j − 1 ⟩ ⟨ v 2 , v j − 1 ⟩ ⋯ ⟨ v j , v j − 1 ⟩ v 1 v 2 ⋯ v j | , {\displaystyle {\displaystyle \mathbf {u} _{j}={\frac {1}{D_{j-1}}}{\begin{vmatrix}\langle \mathbf {v} _{1},\mathbf {v} _{1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{1}\rangle &\cdots &\langle \mathbf {v} _{j},\mathbf {v} _{1}\rangle \\\langle \mathbf {v} _{1},\mathbf {v} _{2}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{2}\rangle &\cdots &\langle \mathbf {v} _{j},\mathbf {v} _{2}\rangle \\\vdots &\vdots &\ddots &\vdots \\\langle \mathbf {v} _{1},\mathbf {v} _{j-1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{j-1}\rangle &\cdots &\langle \mathbf {v} _{j},\mathbf {v} _{j-1}\rangle \\\mathbf {v} _{1}&\mathbf {v} _{2}&\cdots &\mathbf {v} _{j}\end{vmatrix}}},} {\displaystyle {\displaystyle \mathbf {u} _{j}={\frac {1}{D_{j-1}}}{\begin{vmatrix}\langle \mathbf {v} _{1},\mathbf {v} _{1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{1}\rangle &\cdots &\langle \mathbf {v} _{j},\mathbf {v} _{1}\rangle \\\langle \mathbf {v} _{1},\mathbf {v} _{2}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{2}\rangle &\cdots &\langle \mathbf {v} _{j},\mathbf {v} _{2}\rangle \\\vdots &\vdots &\ddots &\vdots \\\langle \mathbf {v} _{1},\mathbf {v} _{j-1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{j-1}\rangle &\cdots &\langle \mathbf {v} _{j},\mathbf {v} _{j-1}\rangle \\\mathbf {v} _{1}&\mathbf {v} _{2}&\cdots &\mathbf {v} _{j}\end{vmatrix}}},}

dove D 0 = 1 {\displaystyle D_{0}=1} {\displaystyle D_{0}=1}, e per j ≥ 1 {\displaystyle j\geq 1} {\displaystyle j\geq 1} si indica con D j {\displaystyle D_{j}} {\displaystyle D_{j}} il determinante della matrice di Gram:

D j = | ⟨ v 1 , v 1 ⟩ ⟨ v 2 , v 1 ⟩ … ⟨ v j , v 1 ⟩ ⟨ v 1 , v 2 ⟩ ⟨ v 2 , v 2 ⟩ … ⟨ v j , v 2 ⟩ ⋮ ⋮ ⋱ ⋮ ⟨ v 1 , v j ⟩ ⟨ v 2 , v j ⟩ … ⟨ v j , v j ⟩ | . {\displaystyle D_{j}={\begin{vmatrix}\langle \mathbf {v} _{1},\mathbf {v} _{1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{1}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{1}\rangle \\\langle \mathbf {v} _{1},\mathbf {v} _{2}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{2}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{2}\rangle \\\vdots &\vdots &\ddots &\vdots \\\langle \mathbf {v} _{1},\mathbf {v} _{j}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{j}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{j}\rangle \end{vmatrix}}.} {\displaystyle D_{j}={\begin{vmatrix}\langle \mathbf {v} _{1},\mathbf {v} _{1}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{1}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{1}\rangle \\\langle \mathbf {v} _{1},\mathbf {v} _{2}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{2}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{2}\rangle \\\vdots &\vdots &\ddots &\vdots \\\langle \mathbf {v} _{1},\mathbf {v} _{j}\rangle &\langle \mathbf {v} _{2},\mathbf {v} _{j}\rangle &\dots &\langle \mathbf {v} _{j},\mathbf {v} _{j}\rangle \end{vmatrix}}.}

Esempio

[modifica | modifica wikitesto]

Dati i vettori v 1 = ( 3 , 1 ) {\displaystyle \mathbf {v} _{1}=(3,1)} {\displaystyle \mathbf {v} _{1}=(3,1)} e v 2 = ( 2 , 2 ) {\displaystyle \mathbf {v} _{2}=(2,2)} {\displaystyle \mathbf {v} _{2}=(2,2)} nel piano euclideo R 2 {\displaystyle \mathbb {R} ^{2}} {\displaystyle \mathbb {R} ^{2}} munito del prodotto scalare standard, applicando il procedimento di Gram-Schmidt si ha:

u 1 = v 1 , {\displaystyle \mathbf {u} _{1}=\mathbf {v} _{1},} {\displaystyle \mathbf {u} _{1}=\mathbf {v} _{1},}
u 2 = v 2 − p r o j u 1 ( v 2 ) = ( 2 , 2 ) − p r o j ( 3 , 1 ) ( 2 , 2 ) = ( − 2 / 5 , 6 / 5 ) , {\displaystyle \mathbf {u} _{2}=\mathbf {v} _{2}-\mathrm {proj} _{\mathbf {u} _{1}}(\mathbf {v} _{2})=(2,2)-\mathrm {proj} _{(3,1)}\,{(2,2)}=(-2/5,6/5),} {\displaystyle \mathbf {u} _{2}=\mathbf {v} _{2}-\mathrm {proj} _{\mathbf {u} _{1}}(\mathbf {v} _{2})=(2,2)-\mathrm {proj} _{(3,1)}\,{(2,2)}=(-2/5,6/5),}

ottenendo i vettori u 1 {\displaystyle \mathbf {u} _{1}} {\displaystyle \mathbf {u} _{1}} e u 2 {\displaystyle \mathbf {u} _{2}} {\displaystyle \mathbf {u} _{2}} che sono ortogonali fra loro, come mostra il loro prodotto scalare:

⟨ u 1 , u 2 ⟩ = ⟨ ( 3 , 1 ) , ( − 2 / 5 , 6 / 5 ) ⟩ = − 6 5 + 6 5 = 0. {\displaystyle \langle \mathbf {u} _{1},\mathbf {u} _{2}\rangle =\left\langle (3,1),(-2/5,6/5)\right\rangle =-{\frac {6}{5}}+{\frac {6}{5}}=0.} {\displaystyle \langle \mathbf {u} _{1},\mathbf {u} _{2}\rangle =\left\langle (3,1),(-2/5,6/5)\right\rangle =-{\frac {6}{5}}+{\frac {6}{5}}=0.}

Note

[modifica | modifica wikitesto]
  1. ^ a b Hoffman, Kunze, Pag. 280.
  2. ^ S. Lang, Pag. 152.
  3. ^ S. Lang, Pag. 154.

Bibliografia

[modifica | modifica wikitesto]
  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
  • (EN) Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971, ISBN 0-13-536821-9.
  • (EN) F.R. Gantmacher, The theory of matrices , 1 , Chelsea, reprint (1977)
  • (EN) A.G. Kurosh, Higher algebra , MIR (1972)

Voci correlate

[modifica | modifica wikitesto]
  • Algoritmo di Lagrange
  • Prodotto scalare
  • Teorema di Sylvester
  • Teorema spettrale

Collegamenti esterni

[modifica | modifica wikitesto]
  • (EN) Eric W. Weisstein, Gram-Schmidt Orthonormalization, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Ortogonalizzazione di Gram-Schmidt, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata
  • (EN) Harvey Mudd College Math Tutorial on the Gram-Schmidt algorithm (PDF), su math.hmc.edu. URL consultato il 18 febbraio 2015 (archiviato dall'url originale il 2 aprile 2016).
  • (EN) Earliest known uses of some of the words of mathematics: G, su jeff560.tripod.com.
  • (EN) Gram-Schmidt orthogonalization applet, su math.ucla.edu.
  • (EN) NAG Gram–Schmidt orthogonalization of n vectors of order m routine, su nag.co.uk.
  • (EN) Proof: Raymond Puzio, Keenan Kidwell. "proof of Gram-Schmidt orthogonalization algorithm" (version 8). PlanetMath.org.
  • (EN) Gram Schmidt process in plane, su bigsigma.com. URL consultato il 18 febbraio 2015 (archiviato dall'url originale il 7 maggio 2009).
  • (EN) Gram Schmidt process in space, su bigsigma.com. URL consultato il 18 febbraio 2015 (archiviato dall'url originale il 7 maggio 2009).
V · D · M
Algebra lineare
Spazio vettorialeVettore · Sottospazio vettoriale (Sottospazio generato) · Applicazione lineare (Nucleo · Immagine) · Base · Dimensione · Teorema della dimensione · Formula di Grassmann · Sistema lineare · Algoritmo di Gauss · Teorema di Rouché-Capelli · Regola di Cramer · Spazio duale · Spazio proiettivo · Spazio affine · Teorema della dimensione per spazi vettoriali
MatriciIdentità · Nulla · Quadrata · Invertibile · Simmetrica · Antisimmetrica · Trasposta · Diagonale · Triangolare · Di cambiamento di base · Ortogonale · Normale · Rotazione · Simplettica · Moltiplicazione di matrici · Rango · Teorema di Kronecker · Minore · Matrice dei cofattori · Determinante · Teorema di Binet · Teorema di Laplace · Radice quadrata di una matrice
DiagonalizzabilitàAutovettore e autovalore · Spettro · Polinomio caratteristico · Polinomio minimo · Teorema di Hamilton-Cayley · Matrice a blocchi · Forma canonica di Jordan · Teorema di diagonalizzabilità
Prodotto scalareForma bilineare · Sottospazio ortogonale · Spazio euclideo · Base ortonormale · Algoritmo di Lagrange · Segnatura · Teorema di Sylvester · Gram-Schmidt · Forma sesquilineare · Forma hermitiana · Teorema spettrale
  Portale Matematica: accedi alle voci di Teknopedia che trattano di matematica
Estratto da "https://it.wikipedia.org/w/index.php?title=Ortogonalizzazione_di_Gram-Schmidt&oldid=138875903"

  • Indonesia
  • English
  • Français
  • 日本語
  • Deutsch
  • Italiano
  • Español
  • Русский
  • فارسی
  • Polski
  • 中文
  • Nederlands
  • Português
  • العربية
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022