Il criterio d'informazione di Akaike (in inglese Akaike's information criterion, indicato come AIC), è un metodo per la valutazione e il confronto tra modelli statistici sviluppato dal matematico giapponese Hirotsugu Akaike nel 1971 e presentato alla comunità matematica nel 1974. Esso fornisce una misura della qualità della stima di un modello statistico tenendo conto sia della bontà di adattamento sia della complessità del modello.
Esso è basato sul concetto di entropia come misura di informazione, tramite la quale valuta la quantità di informazione persa quando un dato modello è usato per descrivere i dati.
La regola è quella di preferire i modelli con l'AIC più basso.
Tale criterio di valutazione risulta molto utile in quanto permette di confrontare tra loro anche modelli non annidati.
Definizione
[modifica | modifica wikitesto]Nel caso generale è definito come
dove è il numero di parametri nel modello statistico e è il valore massimizzato della funzione di verosimiglianza del modello stimato.
Bibliografia
[modifica | modifica wikitesto]- Akaike, H. (1973), "Information theory and an extension of the maximum likelihood principle", in Petrov, B. N.; Csáki, F. (a cura di), 2nd International Symposium on Information Theory, 1971, Budapest: Akadémiai Kiadó, pp. 267–281. Ripubblicato in Kotz, S.; Johnson, N. L., (a cura di). (1992), Breakthroughs in Statistics. Vol II, pp 610–624. Springer Series in Statistics. Springer, DOI: 10.1007/978-1-4612-0919-5_38