L'analisi delle componenti principali (in inglese principal component analysis o abbreviata PCA), anche nota come trasformata di Karhunen-Loève[1], è una tecnica per la semplificazione dei dati di riduzione della dimensionalità lineare utilizzata nell'ambito della statistica multivariata.[2] Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell'analisi fattoriale. La tecnica ha lo scopo principale di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni.[2]
Risoluzione lineare
[modifica | modifica wikitesto]La risoluzione lineare avviene tramite una trasformazione lineare delle variabili che proietta quelle originarie in un nuovo sistema cartesiano in cui la nuova variabile con la maggiore varianza viene proiettata sul primo asse, la variabile nuova, seconda per dimensione della varianza, sul secondo asse e così via.
La riduzione della complessità avviene limitandosi ad analizzare le principali, per varianza, tra le nuove variabili.
Diversamente da altre trasformazioni lineari di variabili praticate nell'ambito della statistica, in questa tecnica sono gli stessi dati che determinano i vettori di trasformazione.
Assumendo che a ciascuna delle variabili originarie venga sottratta la loro media e pertanto la nuova variabile abbia media nulla,
dove arg max indica l'insieme degli argomenti in cui è raggiunto il massimo. Con le prime componenti, la -esima componente può essere trovata sottraendo le prime componenti principali a :
e sostituendo questo
Risoluzione matriciale
[modifica | modifica wikitesto]Un metodo più semplice per calcolare la componente utilizza la matrice delle covarianze di . La stessa operazione può essere eseguita partendo dalla matrice dei coefficienti di correlazione anziché dalla matrice delle covarianze.[3]
Innanzitutto si devono trovare gli autovalori della matrice di covarianza o della matrice dei coefficienti di correlazione. Si ottengono tanti autovalori quante sono le variabili . Se viene utilizzata la matrice di correlazione, l'autovalore relativo alla prima componente principale, ossia quella con varianza massima, sarà pari a . In ogni caso l'autovalore con il maggiore valore corrisponde alla dimensione che ha la maggiore varianza: esso sarà dunque la varianza della componente principale 1. In ordine decrescente, il secondo autovalore sarà la varianza della componente principale 2, e così via per gli n autovalori. Per ciascun autovalore viene calcolato il corrispondente autovettore, ossia la matrice (riga vettore) dei coefficienti che moltiplicano le vecchie variabili nella combinazione lineare per l'ottenimento delle nuove variabili . Questi coefficienti sono anche definiti loading. La matrice degli autovettori, ossia la matrice che ha per riga ciascun autovettore prima calcolato, è la cosiddetta matrice di rotazione . Eseguendo l'operazione matriciale , dove è il vettore colonna avente come elementi le nuove variabili e è il vettore colonna avente come elementi le "vecchie variabili" , si possono trovare le coordinate di ciascun punto nel nuovo spazio vettoriale. Utilizzando le coordinate per ciascun punto relative alle componenti principali si costruisce il grafico denominato score plot. Se le componenti principali sono 3 si avrà un grafico tridimensionale, se sono 2 sarà bidimensionale, se invece si è scelta una sola componente principale lo score plot sarà allora monodimensionale. Mediante lo score plot è possibile verificare quali dati sono simili tra di loro e quindi si può ad esempio dedurre quali campioni presentano la medesima composizione.
In PCA esiste anche un altro tipo di grafico, definito loading plot, in cui sono le variabili ad essere riportate nel nuovo sistema avente per assi le componenti principali. Con questo tipo di grafico è possibile osservare se due variabili sono simili, e pertanto forniscono lo stesso tipo di informazione, oppure se sono distanti (e quindi non sono simili).
Quindi gli elementi dell'autovettore colonna corrispondente a un autovalore esprimono il legame tra le variabili di partenza e la componente considerata attraverso dei pesi. Il numero di variabili latenti da considerare come componenti principali si fonda sulla grandezza relativa di un autovalore rispetto agli altri. Invece nel caso in cui sia l'operatore a scegliere le componenti principali senza considerare la relativa varianza espressa dai rispettivi autovalori, si ha un supervised pattern recognition.
Si può costruire la matrice dei fattori, in pratica una matrice modale, che elenca per riga le variabili originarie e per colonna le variabili latenti: ogni valore, compreso tra 0 e 1, dice quanto le seconde incidano sulle prime.
Invece la matrice del punteggio fattoriale ha la stessa struttura della precedente, ma dice quanto le singole variabili originarie abbiano pesato sulla determinazione della grandezza di quelle latenti.
Esempio
[modifica | modifica wikitesto]Si supponga di disporre di un'indagine che riporta per 10 soggetti: voto medio (da 0 a 33), intelligenza (da 0 a 10), media ore studiate in un giorno e zona d'origine, che varia da 1 a 3. Si standardizzino i valori con la formula:
dove è la media aritmetica di e è la deviazione standard.
La matrice dei coefficienti di correlazione è:
Zscore (Voto medio) | Zscore (Intelligenza) | Zscore (Provenienza) | Zscore (Media ore di studio) | |
---|---|---|---|---|
Zscore (Voto medio) | 1,000 | 0,600 | -0,838 | 0,788 |
Zscore (Intelligenza) | 0,600 | 1,000 | -0,222 | 0,022 |
Zscore (Provenienza) | -0,838 | -0,222 | 1,000 | -0,918 |
Zscore (Media ore di studio) | 0,788 | 0,022 | -0,918 | 1,000 |
La diagonale principale è composta da valori uguali a perché è il coefficiente di correlazione di una variabile con sé stessa. La matrice è simmetrica perché il coefficiente di correlazione tra la variabile e la variabile è uguale a quello tra e . Si vede come ci sia un forte legame tra voto, media ore studio e provenienza.
Dall'analisi degli autovalori si possono trarre conclusioni:
Componente | Autovalori iniziali | Extraction sums of squared loadings | ||||
---|---|---|---|---|---|---|
Totale | Varianza % | % Cumulative | Totale | Varianza % | % Cumulative | |
1 | 2,828 | 70,708 | 70,708 | 2,828 | 70,708 | 70,708 |
2 | 1,070 | 26,755 | 97,463 | 1,070 | 26,755 | 97,496 |
3 | 0,084 | 2,088 | 99,551 | |||
4 | 0,018 | 0,449 | 100,000 |
Gli autovalori sono in ordine decrescente e il loro rapporto con la somma degli autovalori dà la percentuale di varianza che rappresentano. Sono stati selezionati arbitrariamente solo quelli che hanno valore maggiore di in quanto più significativi, che spiegano il 70,708% e il 26,755% rispettivamente.
Si osservi la matrice delle componenti principali:
Componente | ||
---|---|---|
1 | 2 | |
Zscore (Voto medio) | 0,966 | 0,204 |
Zscore (Intelligenza) | 0,442 | 0,894 |
Zscore (Provenienza) | -0,947 | 0,228 |
Zscore (Media ore di studio) | 0,897 | -0,420 |
Il fattore 1 pesa fortemente sul voto medio e, in maniera negativa, sulla variabile della zona di origine.
Si calcoli quindi la matrice di punteggio fattoriale:
Componente | ||
---|---|---|
1 | 2 | |
Zscore (Voto medio) | 0,341 | 0,191 |
Zscore (Intelligenza) | 0,156 | 0,836 |
Zscore (Provenienza) | -0,335 | 0,213 |
Zscore (Media ore di studio) | 0,317 | -0,392 |
Come si vede la variabile provenienza continua ad avere un influsso di segno negativo sull'autovalore principale. Le altre variabili invece hanno peso positivo.
Note
[modifica | modifica wikitesto]- ^ viene chiamata anche trasformata di Hotelling oppure decomposizione ortogonale propria
- ^ a b (EN) Stéphane Tufféry, Factor analysis, in Data mining and statistics for decision making, Wiley, 2011, pp. 175-180, ISBN 978-0-470-68829-8.
- ^ Paola Pozzolo, Analisi delle componenti principali: da dove partire, su Paola Pozzolo, 5 dicembre 2020. URL consultato il 28 luglio 2024.
Bibliografia
[modifica | modifica wikitesto]- Sergio Bolasco, Analisi multidimensionale dei dati. Metodi, strategie e criteri d'interpretazione, 6ª ed., Roma, Carocci, 2014 [1999], ISBN 88-430-1401-3.
- Roberto Todeschini, Introduzione alla chemiometria, 1ª ed., Napoli, EdiSES, 2003, ISBN 88-7959-146-0.
- (EN) Stéphane Tufféry, Data mining and statistics for decision making, Wiley, 2011, ISBN 978-0-470-68829-8.
Voci correlate
[modifica | modifica wikitesto]Altri progetti
[modifica | modifica wikitesto]- Wikimedia Commons contiene immagini o altri file sull'analisi delle componenti principali
Controllo di autorità | Thesaurus BNCF 52507 · LCCN (EN) sh85106729 · GND (DE) 4129174-8 · BNF (FR) cb11942895w (data) · J9U (EN, HE) 987007536366205171 |
---|