Capacità di canale
La capacità di canale, in informatica e nella teoria dell'informazione, è "il più piccolo limite superiore" alla quantità di informazione che può essere trasmessa in maniera affidabile su un canale. Secondo il teorema della codifica di canale la capacità di canale di un certo canale è il massimo tasso di trasferimento di dati che può fornire il canale per un dato livello di rapporto segnale/rumore, con un tasso di errore piccolo a piacere. [1] [2]
La teoria dell'informazione, sviluppata da Claude Shannon durante la Seconda guerra mondiale, definisce la capacità di canale e fornisce un modello matematico per calcolarla. Il risultato principale stabilisce che la capacità di canale è data dal massimo dell'informazione mutua tra l'ingresso e l'uscita di un canale, dove la massimizzazione è condotta rispetto alla distribuzione del segnale d'ingresso[3].
Formule generali
[modifica | modifica wikitesto]- Segnale ideale
La capacità di canale si ricava con la seguente formula generica:
dove B è la banda. Questa formula è valida solo in presenza di un segnale ideale sprovvisto di codifica e di rumore.
- Segnale con codifica
Quando un segnale è libero da rumore ma in esso è presente una codifica, è valida la seguente formula:
dove B è la banda e M rappresenta il numero di livelli della codifica.
- Segnale con codifica e rumore
Quando in un canale è presente sia rumore che codifica, è valida la formula:
dove B è la banda, S rappresenta il segnale e N il rumore, quindi S/N rappresenta il rapporto segnale/rumore.
Definizione formale
[modifica | modifica wikitesto]Dati X, che rappresenta lo spazio dei segnali che possono essere trasmessi ed Y, che rappresenta lo spazio dei segnali ricevuti durante un blocco di tempo all'interno del canale. Sia
la funzione di probabilità condizionata di Y dato X. Modellando il canale come un sistema statistico noto, è una proprietà fissata che dipende dal canale di comunicazione (poiché rappresenta la natura del rumore al suo interno). Dunque la probabilità congiunta
di X e Y è completamente determinata dal canale e dalla scelta della probabilità marginale dei segnali all'ingresso del canale
La probabilità congiunta può esser ricavata utilizzando l'identità
Sotto questi vincoli, bisogna massimizzare la quantità di informazione che può essere comunicata attraverso il canale. Un'appropriata misura è dunque l'informazione mutua ; il massimo di questa informazione mutua è chiamata capacità di canale ed è data da
Legame con il teorema della codifica di canale
[modifica | modifica wikitesto]Secondo il teorema della codifica di canale per ogni ε > 0 e per ogni tasso R, minore della capacità di canale C, c'è uno schema di codifica e di decodifica che può essere utilizzato per assicurare che la probabilità d'errore sul blocco sia minore di ε per un codice sufficientemente lungo. Inoltre per ogni tasso superiore alla capacità di canale, la probabilità di errore sul blocco ricevuto tende ad uno quando la lunghezza del blocco tende ad infinito.
Legame con il teorema di Shannon-Hartley
[modifica | modifica wikitesto]Un'applicazione del concetto di capacità di canale al canale a rumore additivo gaussiano bianco di banda B Hz e rapporto segnale/rumore S/N è il teorema di Shannon-Hartley:
C è misurata in bit per secondo se il logaritmo è preso in base 2 o in Nat se è usato il logaritmo naturale; il rapporto segnale/rumore è un rapporto tra potenze, non in decibel.
Note
[modifica | modifica wikitesto]- ^ Saleem Bhatti, Channel capacity, su Lecture notes for M.Sc. Data Communication Networks and Distributed Systems D51 -- Basic Communications and Networks (archiviato dall'url originale il 21 agosto 2007).
- ^ Jim Lesurf, Signals look like noise!, su Information and Measurement, 2nd ed..
- ^ Thomas M. Cover, Joy A. Thomas, Elements of Information Theory, John Wiley & Sons, New York, 2006.
Bibliografia
[modifica | modifica wikitesto]- Claude E. Shannon A Mathematical Theory of Communication Archiviato il 31 gennaio 1998 in Internet Archive., Bell system Technical Journal, vol 27, lug e ott 1948
- Robert M. Fano, Transmission of information; a statistical theory of communications., M.I.T. Press, 1961.