Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Codice (teoria dell'informazione) - Teknopedia
Codice (teoria dell'informazione) - Teknopedia
Disambiguazione – "Codifica" rimanda qui. Se stai cercando il processo di traduzione proteica delle informazioni contenute nei geni, vedi Codice genetico.
Pagine da unire
Questa pagina sull'argomento Informatica sembra trattare argomenti unificabili alla pagina Teoria dei codici.

Puoi contribuire unendo i contenuti in una pagina unica. Segui i suggerimenti del progetto di riferimento.
Niente fonti!
Questa voce o sezione sull'argomento teorie dell'informatica non cita le fonti necessarie o quelle presenti sono insufficienti.

Puoi migliorare questa voce aggiungendo citazioni da fonti attendibili secondo le linee guida sull'uso delle fonti.

Il codice, nella teoria dell'informazione, e specificatamente nelle telecomunicazioni, nell'elettronica e nell'informatica, è un sistema di segnali, segni o simboli convenzionalmente designati per rappresentare un'informazione.

Significati

[modifica | modifica wikitesto]

Il termine codice viene usato con due significati:

  • procedimento di codifica, riguarda la modalità seguita per assegnare univocamente ad ogni elemento dell'insieme da rappresentare una stringa che lo rappresenti. In questo significato, il codice è la forma prestabilita che assume un messaggio nel momento in cui viene trasmesso[1];
  • insieme delle codifiche, denota l'insieme delle stringhe rappresentative (questo è il significato utilizzato nella branca della matematica chiamata teoria dei codici (v. 94-XX).

Un codice si dice efficiente quando utilizza un numero di simboli strettamente necessario per codificare l'informazione, mentre all'opposto si dice ridondante quando usa un numero di simboli abbondanti, e quindi più di quelli necessari, ma utili per semplificare la generazione e la interpretazione delle informazioni.

Definizione formale

[modifica | modifica wikitesto]

Sia S un insieme finito di elementi detto alfabeto del codice, come ad esempio le due facce con una moneta (T, C). Un insieme A di sequenze costruite giustapponendo uno o più elementi di S è un codice. Ogni elemento di A è una parola del codice e il numero di elementi dell'alfabeto usati per costruirla ne indica la lunghezza. Perché un codice abbia utilità e senso, tuttavia, dev'essere associato con qualche meccanismo controllabile (formula, algoritmo, elenco ben definito, ...) a un insieme di possibili dati che deve rappresentare fedelmente e dunque averne la stessa cardinalità. Per esempio, l'insieme {T, C, TC, TT} è un codice e può essere usato come codifica dei numeri 0, 1, 2, 3.

Proprietà

[modifica | modifica wikitesto]

Giustapponendo più parole del codice si ha un messaggio costruito su tal codice, come ad esempio TTC o TCTC. Dipendentemente dal fatto che un qualsiasi messaggio possa essere scomposto in modo che esista un'unica serie di parole del codice che la compongano il codice si dice univocamente decodificabile o meno. Il codice di cui sopra non è univocamente decodificabile poiché il messaggio TT potrebbe essere scomposto come la ripetizione 2 volte della parola T o la parola stessa del codice TT. Al contrario, {C, TC, TTC, TTTC} è un codice univocamente decodificabile.

Un codice in cui tutte le parole hanno la stessa lunghezza si dice codice a blocchi o in caso contrario codice a lunghezza variabile. Altre proprietà di un codice sono la capacità di correggere errori, comprimere i messaggi, essere lineari o meno, essere utilizzabili in crittografia o essere istantanei. Lo studio dei codici in maniera sistematica come elementi fondamentali per la teoria dell'informazione e della trasmissione è nato nel 1948 con il lavoro di Claude Shannon.

Esempi

[modifica | modifica wikitesto]
Codice Morse, caratteri principali

Un esempio tradizionale di codice è il Morse, appartenente alla codifica di caratteri e utilizzato nei primi tempi della telegrafia (1840): in esso, ad ogni lettera dell'alfabeto latino (l'insieme di informazioni da rappresentare) viene assegnata una sequenza di punti e linee (gli elementi dell'alfabeto usato per la codifica).

Altre esempi di codifica sono la codifica digitale di un segnale analogico ovvero la conversione analogico-digitale, la codifica di sorgente e la codifica di canale.

Utilità

[modifica | modifica wikitesto]

L'unicità della rappresentazione gioca un ruolo cruciale in tutte le applicazioni della codifica (il procedimento di trasportare gli elementi dalla rappresentazione di partenza a quella definita dal codice) e di decodifica (l'inverso). I codici risultano utili quando la comunicazione verbale normale non è sufficiente o non è praticabile. Con un'opportuna codifica è possibile descrivere realtà ben più complesse del lessico del linguaggio naturale, come ad esempio un'immagine o una serie di suoni.

Con l'avvento dell'informatica e delle telecomunicazioni i codici hanno preso ulteriore piede per la trasmissione affidabile e la compressione dati, anche se già all'epoca del telegrafo venivano usate delle parole in codice per trasmettere frasi di uso particolarmente frequente, ad esempio:

  • BYOXO (Are you trying to weasel out of our deal? - Stai cercando di uscire dal nostro accordo?)
  • LIOUY (Why do you not answer my question? - Come mai non rispondi alla mia domanda?)
  • AYYLU (Not clearly coded, repeat more clearly. - Codificato male, per favore ripetere più chiaramente).

Codice di Gödel

[modifica | modifica wikitesto]

In matematica, la numerazione di Gödel è alla base della dimostrazione del Teorema di incompletezza. In tal caso, l'idea consiste nel trasformare la notazione matematica in un numero naturale.

Note

[modifica | modifica wikitesto]
  1. ^ Giuliano Vigini, Glossario di biblioteconomia, Editrice Bibliografica, 1986, pp. 35-36.

Voci correlate

[modifica | modifica wikitesto]
  • Codifica di caratteri
  • Codifica di sorgente
  • Codifica di canale
  • Codifica di linea
  • Codifica crittografica
  • Codice sorgente
  • Informazione
  • Comunicazione

Altri progetti

[modifica | modifica wikitesto]

Altri progetti

  • Wikizionario
  • Wikimedia Commons
  • Collabora a Wikizionario Wikizionario contiene il lemma di dizionario «codice»
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su codice

Collegamenti esterni

[modifica | modifica wikitesto]
  • (EN) code, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
Controllo di autoritàThesaurus BNCF 27681
  Portale Informatica
  Portale Ingegneria
  Portale Matematica
  Portale Telematica
Estratto da "https://it.wikipedia.org/w/index.php?title=Codice_(teoria_dell%27informazione)&oldid=146510410"

  • Indonesia
  • English
  • Français
  • 日本語
  • Deutsch
  • Italiano
  • Español
  • Русский
  • فارسی
  • Polski
  • 中文
  • Nederlands
  • Português
  • العربية
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022