Questa voce rientra tra gli argomenti trattati dal progetto tematico sottoindicato. Puoi consultare le discussioni in corso, aprirne una nuova o segnalarne una avviata qui. | |||||
|
La voce è stata monitorata per definirne lo stato e aiutarne lo sviluppo. Ha ottenuto una valutazione di livello minimo (marzo 2022). | ||||||||||
| ||||||||||
Monitoraggio effettuato nel marzo 2022 |
Bit | |
---|---|
Argomento di scuola secondaria di II grado | |
Materia | informatica |
Dettagli | |
Dimensione della voce | 14 176 byte |
Progetto Teknopedia e scuola italiana |
Ho rimosso questo testo perchè possa essere inserito in bit (informazione) perché bit deve diventare una disambiguation page (non so come tradurre, anzi ogni suggerimento è benvenuto). Non potendo io scrivere nememno un'introduzione di bit (informazione), la metto qui perché penso che sia meglio prima introdurre il tema e poi aggiungere questo esempio (magari svolto in terza persona).
- Per esempio, il lancio di una moneta alle cui facce siano associati i simboli C (croce) e T (testa) produce un'incertezza che può essere totalmente risolta tramite 1 bit di informazione, così alla comunicazione dell'esito si conoscerà con esattezza lo stato dell'esperimento. Ma se uso una moneta opportunamente truccata che produce T solo una volta su venti la comunicazione è uscita testa" mi aggiungerà meno informazione che nell'esempio precedente: io già prevedevo con buona approssimazione che sarebbe uscita testa. Portando il ragionamento al limite, sapere il risultato del lancio di una moneta così pesantemente truccata da produrre sempre T non mi dà alcuna informazione.
- La branca della matematica (o meglio, dell'informatica, considerata oramai tanto estesa da fare scienza a sé) che tratta di queste questioni si chiama Teoria dell'informazione e fu fondata da Claude Elwood Shannon.
Siamo sicuri sicuri che questa storia dei binit sia vera? Mi pare strano essere quasi laureato in telecomunicazioni e non averne mai sentito parlare.. inoltre perfino una ricerca su google riporta 10 pagine e nessuna di quelle ne parla (binit è sempre riprotato come nome di ditta o altro). Io insomma dubito fortemente che binit sia sinonimo di "bit", o anche un suo sottoinsieme. Lapo Luchini 16:49, Dic 12, 2004 (UTC)
- Ho fatto altre ricerche, con riscontri pari allo zero, con l'unica eccezione di questa pagina che attribuisce a John Tukey l'invenzione della parola "bit" (si parla del 1949) e aggiunge che è evoluto dai primi tentativi "bigit" e "binit". Si parla di "archeologia" del 1949, per cui non mi pare assolutamente il caso di citarlo "con sicurezza" come è adesso. Al limite, e dico al limite, si può riportare come "voce" questa cosa di Tukey nel 1949 e comunque avendo UNA SOLA fonte nell'intera internet è quantomeno dubbioso, come dato. --Lapo Luchini 01:19, Apr 24, 2005 (CEST)
Accorpamento
[modifica wikitesto]Secondo me non c'e bisogno di creare una pagina di disambigua i 2 significati del termine possono tranquillamente stare entrambi sotto bit, basta solo spiegare che sono 2 cose diverse. Se poi la pagina cresciesse tanto da diventare troppo lunga allora si possono espandere le 2 voci in pagine a parte--ConteZero 12:34, Ago 8, 2005 (CEST)
Contenuto di bit (informazione)
[modifica wikitesto]Visto che si è deciso di accorpare e cancellare Bit (informazione), riporto qua il testo presente là --Cruccone (msg) 19:38, Ago 16, 2005 (CEST)
Il bit (contrazione di binary - digit) è l'unità di misura della quantità d'informazione. Non esistono sottomultipli del bit: la minima quantità d'informazione è pari a 1 bit ed equivale alla scelta tra due valori (sì/no, vero/falso, acceso/spento), quando questi hanno la stessa probabilità di essere scelti.
Il concetto di bit è stato introdotto dalla teoria dell'informazione di Claude Shannon.
Se le probabilità sono differenti, ad esempio se sappiamo a priori che un certo interruttore sarà accesso con il 75% di probabilità, la quantità di informazione che otteniamo esaminando il suo stato è inferiore al bit.
Allo stesso modo, la scelta tra quattro valori equiprobabili equivale a 2 bit e, in generale, alla scelta tra n valori corrisponde un'informazione pari al logaritmo in base 2 di n bit.
Il byte è pari a 8 bit e costituisce l'unità di misura più utilizzata in campo informatico.
Quad Word = 16 bytes?
[modifica wikitesto]Nella lista delle unità di misura, "Quad Word" dovrebbe essere uguale a 8 bytes = 64 bit, non 16 bytes. Avevo notato anche io l'errore vado a correggere--ConteZero 14:00, 9 dic 2005 (CET)
Word DWord QWord e altro
[modifica wikitesto]La lunghezza in bit di una word dipende strettamente dall'architettura del processore. Nella famiglia x86 la dimensione di una word viene originariamente definita in 16 bit al pari della dimensione del bus dati del processore 8086. In architetture architetture progettate, sin dalle origini, con un bus dati di 32 bit, come ad esempio i processori della famiglia MIPS, la word ha essa stessa una dimensione di 32 bit.
A complicare maggiormente le cose, in alcune architetture a 32 bit spesso si utilizza il termine half per descrivere un data type di 16 bit, mentre in alcune architetture a 64bit il termine word si riferisce a data type di 64 bit di lunghezza. Inoltre, dword e qword si riferiscono a multipli di word, pertanto, sono anchessi diversi per ogni architettura.
Per quanto esposto ritengo fuorvinate definire una lunghezza specifica per il data type word. Mi sembra più interessante invece definire le varie quantità kilo, mega, giga, ... in termini di potenze di 2.
--Perx76 16:35, 17 gen 2006 (CET)
- ho sistemato l'articolo. cmq su en.wiki ci sarebbero altre info interessanti. --Ft1 11:56, 24 gen 2006 (CET)
Ancora sul word come 16bit, api windows etc
[modifica wikitesto]Ritengo che questa nota sull'api di windows e il resto che sembra dire "poiché windows definisce una word come 16bit allora si intende spesso una word come 16bit" vada tolto. è più giusta la prima parte: dipende dall'architettura, quindi può essere tanto 16 quanto 32 e quanto 64.
Non si parla di "definizioni" tipo short, long (di C-esca memoria), per quanto ambigue (come del resto le altre) comunque presenti.
Inoltre, non è corretto dire che i termini word, dword e qword si usano in programmazione assembly; alcuni si usano anche in C per dire; non solo, ma dipende che processore; qui mi sembra si parla solo di x86. Per esempio sui motorola 680x0 si ha byte, word (16), long(word), 32 bit.
Ho messo tra parentesi queste parti, forse scorretto ma non mi andava di eliminarle. Ritengo però che non siano "generali" e "corrette".
--83.211.24.172 10:52, 23 ago 2006 (CEST)
Definizioni
[modifica wikitesto]"In informatica ed in teoria dell'informazione, la parola bit ha due significati molto diversi, a seconda del contesto in cui rispettivamente la si usa:
* un bit è l'unità di misura dell'informazione (dall'inglese "binary unit"), definita come la quantità minima di informazione che serve a discernere tra due possibili alternative equiprobabili. * un bit è una cifra binaria, (in inglese "binary digit") ovvero uno dei due simboli del sistema numerico binario, classicamente chiamati zero (0) e uno (1);"
RISPETTIVAMENTE? Non è il contrario, quindi la prima definizione per la Teoria dell'Informazione e la seconda per l'Informatica??
Luk.wk (msg) 16:19, 23 set 2010 (CEST)
Binit
[modifica wikitesto]segnalo la wikitalk.. --SurdusVII (istanza all'Arengo) 10:48, 11 nov 2024 (CET)