Algoritmo EM
In statistica, un algoritmo di aspettazione-massimizzazione o algoritmo expectation-maximization (EM)[1][2] è un metodo iterativo per trovare stime (locali) di massima verosimiglianza (o le stime del massimo a posteriori) dei parametri di modelli statistici che dipendono da variabili latenti (non osservate). L'iterazione di EM alterna l'esecuzione di un passo detto expectation (E), che crea una funzione per il valore atteso della verosimiglianza logaritmica calcolata usando la stima dei parametri corrente, e un passo detto maximization (M), che calcola nuove stime dei parametri massimizzando la funzione di verosimiglianza logaritmica attesa trovata al passo E. Tali stime dei parametri possono poi essere usate per determinare la distribuzione delle variabili latenti al passo E dell'iterata successiva.
Descrizione
[modifica | modifica wikitesto]Dato il modello statistico che genera un insieme di dati osservati, un insieme di dati latenti non osservati o dati mancanti, e un vettore di parametri incogniti assieme a una funzione di verosimiglianza , la stima di massima verosimiglianza (MLE) dei parametri sconosciuti viene determinata massimizzando la verosimiglianza marginale dei dati osservati
Tuttavia determinare questa quantità è spesso impossibile dato che non è osservato e la sua distribuzione è sconosciuta prima di determinare .
L'algoritmo EM cerca di trovare la stima della massima verosimiglianza marginale eseguendo iterativamente questi passi:
- Expectation (E step): Definire come il valore atteso della funzione di verosimiglianza logaritmica per , rispetto alla distribuzione di probabilità condizionata corrente di dati e le stime correnti dei parametri :
- Maximization (M step): Trovare i parametri che massimizzino questa quantità:
Tipici modelli cui si applica EM designano con la variabile latente che indica l'appartenenza a un gruppo in un insieme di gruppi:
I punti osservati possono essere discreti o continui a seconda che assumano valori da un dominio finito (o infinito numerabile) o infinito non numerabile. Si può associare a ogni punto un vettore di osservazioni.
I valori mancanti (e quindi le variabili latenti ) sono discreti, tratti da un numero prefissato di valori e con una variabile latente per ogni unità osservata.
I parametri sono continui e di due tipi: parametri associati a tutti i punti e parametri associati a uno specifico valore di una variabile latente (ossia associati a tutti i punti con quel valore per la corrispondente variabile).
Note
[modifica | modifica wikitesto]- ^ A. P. Dempster, N. M. Laird e D. B. Rubin, Maximum Likelihood from Incomplete Data Via the EM Algorithm, in Journal of the Royal Statistical Society: Series B (Methodological), vol. 39, n. 1, 1977-09, pp. 1–22, DOI:10.1111/j.2517-6161.1977.tb01600.x. URL consultato il 20 marzo 2022.
- ^ Richard A. Redner e Homer F. Walker, Mixture Densities, Maximum Likelihood and the EM Algorithm, in SIAM Review, vol. 26, n. 2, 1984-04, pp. 195–239, DOI:10.1137/1026034. URL consultato il 21 marzo 2022.