Variabile casuale normale (o di Gauss) | |
---|---|
Funzione di densità La linea in rosso si riferisce alla variabile casuale normale standardizzata | |
Funzione di ripartizione I colori corrispondono a quelli delle densità della figura precedente | |
Parametri | , |
Supporto | |
Funzione di densità | |
Funzione di ripartizione | |
Valore atteso | |
Mediana | |
Moda | |
Varianza | |
Indice di asimmetria | |
Curtosi | |
Entropia | |
Funzione generatrice dei momenti | |
Funzione caratteristica | |
La distribuzione normale (o distribuzione di Gauss dal nome del matematico tedesco Carl Friedrich Gauss, o distribuzione a Campana di Gauss), nella teoria della probabilità, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio.
Il grafico della funzione di densità di probabilità associata è simmetrico e ha una forma a campana, nota come "curva a campana", "curva normale", "curva gaussiana"[1] o "curva degli errori".[2]
Descrizione
[modifica | modifica wikitesto]La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema del limite centrale. Un insieme di valori dato potrebbe essere normale: per stabilirlo si può usare un test di normalità. Più specificamente, assumendo certe condizioni, la somma di variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali[3] come un semplice modello per fenomeni complessi.
La distribuzione normale dipende da due parametri, la media e la varianza , ed è indicata tradizionalmente con:
Metodologia
[modifica | modifica wikitesto]La distribuzione normale è caratterizzata dalla seguente funzione di densità di probabilità, cui spesso si fa riferimento con la dizione curva di Gauss o gaussiana:
dove è il valore atteso e la varianza.
Per dimostrare che è effettivamente una funzione di densità di probabilità si ricorre innanzi tutto alla standardizzazione (statistica) della variabile casuale, cioè alla trasformazione tale per cui risulta:
dove la variabile risultante ha anch'essa distribuzione normale con parametri e . L'integrale della funzione di densità di probabilità della variabile casuale standardizzata è il seguente:
Dato che deve necessariamente valere la condizione , allora risulta anche , quindi:
dove anche la variabile casuale ha distribuzione normale standardizzata. Per risolvere questo integrale doppio si ricorre alle coordinate polari e , dove e . La matrice jacobiana della trasformazione è
il cui determinante è uguale a . Sostituendo nell'integrale di cui sopra si ottiene:
La sua funzione generatrice dei momenti è
Il valore atteso e la varianza (che sono gli unici due parametri di questa variabile casuale) sono appunto e .
Non essendo possibile esprimere l'integrale della in forma chiusa mediante funzioni elementari, è necessario rendere disponibili in forma tabellare i valori della sua funzione di ripartizione. I più usati sono:
Essendo una funzione simmetrica, è sufficiente conoscere la funzione di ripartizione dei valori positivi per conoscere pure quella dei valori negativi (e viceversa).
Dalla variabile casuale Normale si possono ottenere altre variabili casuali, come la t di Student, la Chi Quadrato e la F di Fisher-Snedecor, nonché le loro "varianti" non centrali (t non centrale, chi quadrato non centrale e F non centrale).
Teoremi
[modifica | modifica wikitesto]Combinazione lineare di variabili gaussiane
[modifica | modifica wikitesto]- Se
- sono variabili casuali Normali tra di loro indipendenti, ciascuna con valore atteso e varianza ,
- allora
- la variabile casuale è a sua volta una variabile casuale Normale con valore atteso e varianza .
Altri teoremi: teorema di Cochran.
Relazioni con altre variabili casuali
[modifica | modifica wikitesto]La Normale come derivazione da altre voci
[modifica | modifica wikitesto]I teoremi del limite centrale sono una famiglia di teoremi che hanno in comune l'affermazione che la somma (normalizzata) di un grande numero di variabili casuali è distribuita approssimativamente come una variabile casuale normale.
Se è distribuita come una variabile casuale binomiale con molto grande (per dare un'idea di quanto grande, possiamo dire che deve essere ), e approssimativamente , allora la binomiale può essere approssimata con una Normale con valore atteso e varianza .
Se è distribuita come una variabile casuale poissoniana con il parametro molto grande (orientativamente ), allora la Poissoniana può essere approssimata con una Normale con valore atteso e varianza pari a .
Variabili casuali derivate dalla Normale
[modifica | modifica wikitesto]Date distribuzioni normali con media nulla e varianza unitaria indipendenti tra loro. Allora
è una variabile casuale chi quadro con gradi di libertà.
Siano variabili casuali indipendenti distribuite come una Normale con media nulla e varianza unitaria, e siano inoltre delle costanti tali che
allora si indica con la variabile casuale chi quadro non centrale con gradi di libertà costruita come
Se e tra loro indipendenti, allora è distribuita come una t di Student con gradi di libertà.
Se e è la v.c. media campionaria, mentre è la v.c. varianza campionaria non corretta, allora e , inoltre e sono indipendenti.
Se e , allora è una v.c. di Birnbaum-Saunders con i parametri e .
La normale nell'inferenza bayesiana
[modifica | modifica wikitesto]Variabile casuale Gamma come priori coniugati della normale
[modifica | modifica wikitesto]Nell'ambito dell'inferenza bayesiana si trova la seguente relazione tra la normale e la distribuzione Gamma.
Se è una distribuzione normale con parametri e
e il parametro ha una distribuzione con i parametri e
allora il parametro è distribuito a posteriori anch'esso come una variabile casuale Gamma, ma con parametri e :
Priori coniugati normale di una normale
[modifica | modifica wikitesto]Se è distribuita come una v.c. normale con parametri e
e il parametro è distribuito a priori come una v.c. normale con i parametri e
allora il parametro è distribuito a posteriori anch'esso come una v.c. Normale, ma con parametri:
- e
Storia
[modifica | modifica wikitesto]Abraham de Moivre, nell'ambito dei suoi studi sulla probabilità, introdusse per la prima volta la distribuzione normale in un articolo del 1733. Gauss, che a quel tempo non era ancora nato, ne fu invece un grande utilizzatore: egli propose la "distribuzione normale" studiando il moto dei corpi celesti[5]. Altri la usavano per descrivere fenomeni anche molto diversi come i colpi di sfortuna nel gioco d'azzardo o la distribuzione dei tiri attorno ai bersagli. Da qui i nomi "curva di Gauss" e "curva degli errori".
Nel 1809 il matematico americano Adrain pubblicò due derivazioni della legge normale di probabilità, simultaneamente e indipendentemente da Gauss[6] I suoi lavori rimasero ampiamente ignorati dalla comunità scientifica fino al 1871, allorché furono "riscoperti" da Cleveland Abbe.[7].
Nel 1835 Quételet pubblicò uno scritto nel quale, fra le altre cose, c'erano i dati riguardanti la misura del torace di soldati scozzesi e la statura dei militari di leva francesi. Quételet mostrò come tali dati si distribuivano come una "Gaussiana", ma non andò oltre.
Fu Galton a intuire che la curva in questione, da lui detta anche "ogiva", poteva essere applicata a fenomeni anche molto diversi, e non solo ad "errori". Questa idea di curva per descrivere i "dati" in generale portò ad usare il termine "Normale", in quanto rappresentava un substrato "normale" ovvero la "norma" per qualsiasi distribuzione presente in natura.
Nel tentativo di confrontare curve diverse, Galton - in mancanza di strumenti adeguati - si limitò ad usare due soli parametri: la media e la varianza, dando così inizio alla statistica parametrica.
Note
[modifica | modifica wikitesto]- ^ curva normale in "Enciclopedia della Matematica", su treccani.it. URL consultato il 27 gennaio 2022.
- ^ gaussiana, distribuzione in "Dizionario di Economia e Finanza", su treccani.it. URL consultato il 27 gennaio 2022.
- ^ Gale Encyclopedia of Psychology — Normal Distribution
- ^ Ross (2003), p. 170.
- ^ Tony Crilly, 50 grandi idee di matematica, EDIZIONI DEDALO, 1º gennaio 2009, ISBN 9788822068095. URL consultato il 26 febbraio 2017.
- ^ Stigler (1978), p. 243.
- ^ Stigler (1978), p. 244.
Bibliografia
[modifica | modifica wikitesto]- Sheldon Ross, Probabilità e statistica per l'ingegneria e le scienze, Apogeo, 2003, ISBN 9788873038979.
- Stephen M. Stigler, Mathematical Statistics in the Early States, in The Annals of Statistics, vol. 6, n. 2, 1º marzo 1978, pp. 239–265, DOI:10.1214/aos/1176344123.
Voci correlate
[modifica | modifica wikitesto]- Carl Friedrich Gauss
- Curva di Hubbert
- Distribuzione normale inversa
- Distribuzione normale multivariata
- Funzione gaussiana
- Integrale di Gauss
- Regola 68-95-99,7
- Statistica parametrica
- Teoria delle probabilità
- Teorema di Cochran
Altri progetti
[modifica | modifica wikitesto]- Wikimedia Commons contiene immagini o altri file sulla distribuzione normale
Collegamenti esterni
[modifica | modifica wikitesto]- (EN) normal distribution, su Enciclopedia Britannica, Encyclopædia Britannica, Inc.
- (EN) Eric W. Weisstein, Distribuzione normale, su MathWorld, Wolfram Research.
- (EN) Thermopedia, "Gaussian Distribution"
Controllo di autorità | Thesaurus BNCF 57810 · LCCN (EN) sh85053556 · GND (DE) 4075494-7 · BNF (FR) cb119421818 (data) · J9U (EN, HE) 987007560462505171 |
---|