In informatica e nella teoria dell'informazione, il bit è l'unità standard di misura dell'entropia, meglio nota come quantità di informazione.[1]
Il nome è una parola macedonia dei termini inglesi "binary" (binario) e "digit" (cifra).[2] Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di cifra binaria, che però formalmente è un concetto distinto.[3] Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultima codifica esattamente 1 bit di informazione.
Il concetto di bit è stato introdotto nel 1948 da Claude Shannon, fondando la teoria dell'informazione.[4][5] In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.[6] Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.[7]
Definizione
[modifica | modifica wikitesto]Nel suo articolo "A Mathematical Theory of Communication" Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto.
In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori.[5]
Da questa considerazione deriva l'intuizione della natura probabilistica dell'incertezza e quindi, dualmente, dell'informazione.
Dato il modello matematico di una sorgente di informazione discreta, risulta interessante poter misurare e quindi definire una grandezza per quanta informazione viene emessa da questa.
Shannon affronta questo problema introducendo il concetto di quantità di informazione, o anche entropia per via della similarità con alcune formulazioni del concetto di entropia in meccanica statistica.
[8]
Espressione dell'entropia di una sorgente d'informazione. Convenzionalmente si assume e . [9] [10]
Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come corollario che 1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi, come ad esempio l'esito del lancio di una moneta.[11] In simboli:
Sia una coppia di eventi indipendenti equiprobabili ( )
Interpretazione
[modifica | modifica wikitesto]Una quantità in bit può essere interpretata in 2 modi differenti: [12]
- come misura dell'informazione intrinseca
- come misura di incertezza
Le due interpretazioni sono duali. Per esempio assumiamo di avere un dato la cui entropia è pari a bit:
Se il valore del dato non è conosciuto allora è ragionevole interpretare l'entropia come misura di incertezza: ovvero il valore del dato potrebbe essere uno qualsiasi in un set di dimensione .[5]
Per rimuovere completamente questa incertezza sarà necessario accertarsi del valore effettivo del dato, e cioè equivalentemente scegliere un singolo valore tra quelli possibili.[5] Questa operazione implica ricevere bit di informazione. Alternativamente si può dire che il valore esatto "trasporta" ( o "possiede", o "rappresenta" ) bit di informazione.
Multipli e alternative
[modifica | modifica wikitesto]Essendo il bit un'unità di scala relativamente piccola risulta spesso poco ergonomica nel descrivere le quantità di informazione con cui spesso si ha a che fare nel mondo reale. Specialmente se si considerano i continui sviluppi della tecnologia e dell'era dell'informazione. Per questo motivo si è soliti adottare unità derivate che a vario titolo meglio si adattano a determinati usi.
Multipli diretti
[modifica | modifica wikitesto]Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'ingegneria delle telecomunicazioni e dei segnali più in generale.
Nibble
[modifica | modifica wikitesto]Il nibble è un'unità equivalente a 4 bit. Questa unità è spesso utilizzata nella rappresentazione esadecimale, poiché un nibble contiene la stessa quantità di informazione di una cifra esadecimale.[13]
Byte
[modifica | modifica wikitesto]Il byte con i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione di internet. Questo è dovuto alla popolarità delle piattaforme PC orientate ai byte, che tuttora rappresentano la tipologia dominante.
Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia, assume sempre il significato di otto bit. Un byte può quindi rappresentare 28 = 256 distinti valori, come ad esempio i numeri interi tra 0 e 255, o tra -128 e 127. Lo standard IEEE 1541-2002 stabilisce che "B" (lettera maiuscola) è il simbolo che indica il byte. I Byte, ed i multipli di essi, sono sempre utilizzati per indicare la grandezza di file e la capacità di memorizzazione di computer.
Parola o Word
[modifica | modifica wikitesto]Nell'architettura dei calcolatori la Parola ( in inglese Word ) è la minima quantità di informazione processabile atomicamente da un processore. Il numero di bit all'interno di una parola è legata alla grandezza dei registri della CPU ed alla larghezza dei bus usati per il trasferimento dei dati. Alcune architetture possono operare atomicamente su sequenze di più parole.[14]
Blocchi o pagine
[modifica | modifica wikitesto]Nell'ambito dell'architettura dei calcolatori ed in particolare della gerarchia delle memorie si è soliti ragionare in termini di blocchi o pagine. La definizione precisa dei due termini dipende strettamente dall'architettura del calcolatore di riferimento.[15]
La memorie cache di un computer generalmente opera su blocchi di memoria che consistono di diverse "parole" consecutive. Queste unità sono chiamate "blocchi" o "linee" di cache.[16] Il sistema di memoria virtuale partiziona la memoria principale del computer in unità ancora più grandi, tradizionalmente chiamate "pagine".[17] Sulle moderne architetture PC è tipico trovare pagine di 4 KiB.[18]
Note
[modifica | modifica wikitesto]- ^ Bit, in Treccani.it – Enciclopedie on line, Roma, Istituto dell'Enciclopedia Italiana.
- ^ Mackenzie 1980.
- ^ Bit, in Treccani.it – Vocabolario Treccani on line, Roma, Istituto dell'Enciclopedia Italiana.
- ^ History of Computing 1984.
- ^ a b c d Shannon 2001, p. 1.
- ^ History of Computing 1984, pp. 154-155.
- ^
(EN) Binit, su Oxford English Dictionary. URL consultato il 24 ottobre 2023;
Binit, su Collins English Dictionary. URL consultato il 24 ottobre 2023;
(EN) Binit, su Merriam-Webster Dictionary, Merriam-Webster. URL consultato il 24 ottobre 2023;
(EN) J. C. Hancock e J. L. Holsinger, Some Useful Coding Techniques for Binary Communication Systems, Lafayette, Indiana, Purdue University, 1º gennaio 1962. URL consultato il 24 ottobre 2023;
Anna Morpurgo e Annamaria Zanaboni, Lezione 2. Rappresentazione delle informazioni (PDF), in Stefano Andreon (a cura di), Slide dell'insegnamento di "Laboratorio di Informatica", Osservatorio Astronomico di Brera, 2002. URL consultato il 24 ottobre 2023. - ^ Shannon 2001, pp. 9-14.
- ^
Il parametro non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. (Shannon 2001, p. 10)
Nella pratica non viene mai usato come parte della formula dell'entropia, ma compare spesso all'esterno come costante di conversione: ad esempio per convertire da bit a byte. - ^
La scelta di determina l'uso del bit come unità di misura. (Shannon 2001, p. 1)
Sebbene Shannon ipotizzi anche l'uso di basi e quindi di unità alternative, la scelta del bit risulta particolarmente sensibile poiché ben si adatta all'uso oramai universale della teoria dell'informazione applicata ai sistemi elettronici digitali. - ^ Shannon 2001, p. 19.
- ^
"Grandezze della forma [...] giocano un ruolo centrale nella teoria dell'informazione come misure di informazione, scelta e incertezza".
(Shannon 2001, p. 10);
Scelta ed incertezza sono misure equivalenti. - ^ Nate Williams, What Is a Nibble in Computing, and What Does It Equal?, su history-computer.com, History-Computer. URL consultato il 30 settembre 2023.
- ^ Patterson, Hennessy 2015, p. 57.
- ^ Patterson, Hennessy 2015, capitolo 5.
- ^ Patterson, Hennessy 2015, p. 325.
- ^ Patterson, Hennessy 2015, pp. 374-375.
- ^ Patterson, Hennessy 2015, p. 376.
Bibliografia
[modifica | modifica wikitesto]- (EN) Origin of the term Bit, in Annals of the History of Computing, vol. 6, n. 2, IEEE, 1º aprile 1984, pp. 152-156, ISSN 0164-1239 .
- David Andrew Patterson e John LeRoy Hennessy, Struttura e progetto dei calcolatori, a cura di Alberto Borghese, 5ª ed., Bologna, Zanichelli, 2015, ISBN 978-88-08-35202-6.
- (EN) Claude Elwood Shannon, A mathematical theory of communication, in ACM SIGMOBILE Mobile Computing and Communications Review, vol. 5, n. 1, New York (NY, USA), Association for Computing Machinery, 1º gennaio 2001 [prima pubblicazione 1948], DOI:10.1145/584091.584093, ISSN 1559-1662 .
- (EN) Charles E. Mackenzie, Coded Character Sets: History and Development, Addison-Wesley Publishing Company, 1980, ISBN 978-0-201-14460-4.
Voci correlate
[modifica | modifica wikitesto]Altri progetti
[modifica | modifica wikitesto]- Wikizionario contiene il lemma di dizionario «bit»
Collegamenti esterni
[modifica | modifica wikitesto]- bit, su Treccani.it – Enciclopedie on line, Istituto dell'Enciclopedia Italiana.
- bit, su sapere.it, De Agostini.
- bit, in Enciclopedia della Matematica, Istituto dell'Enciclopedia Italiana, 2013.
- (EN) bit, su Enciclopedia Britannica, Encyclopædia Britannica, Inc.
- (EN) Opere riguardanti bit, su Open Library, Internet Archive.
- (EN) Eric W. Weisstein, Bit, su MathWorld, Wolfram Research.
- (EN) Bit, su Encyclopaedia of Mathematics, Springer e European Mathematical Society.
- (EN) Denis Howe, bit, in Free On-line Dictionary of Computing. Disponibile con licenza GFDL
Controllo di autorità | GND (DE) 4145760-2 |
---|