L’informazione

I sistemi di comunicazione – Il
paradigma di Shannon

Un sistema di comunicazione trasmette messaggi da una sorgente a una destinazione attraverso un canale fisico. Il modello di Shannon analizza questo processo e identifica sei componenti: la sorgente di informazioni, il dispositivo di codifica, il canale di trasmissione, la sorgente di errori, il dispositivo di decodifica e il destinatario. L'obiettivo è garantire che il messaggio arrivi correttamente alla destinazione nonostante le interferenze nel canale.

La codifica delle informazioni

Durante la fase di codifica, il messaggio della sorgente viene convertito in un segnale fisico per la trasmissione nel canale. Il codificatore può essere un computer che converte il messaggio in cifre binarie o una persona che traduce pensieri in parole o testi. Un esempio è il codice ASCII, dove le parole codice sono lunghe 8 bit (1 byte), rappresentando lettere, numeri, simboli speciali e di controllo. Anche se la frequenza dei simboli varia, tutte le parole codice hanno la stessa lunghezza fissa di 8 bit, garantendo la rappresentazione di 256 simboli diversi.

Il Rumore

Durante la codifica, il messaggio
diventa un segnale fisico. Un esempio è
il codice ASCII, con parole codice di 8 bit,
rappresentando 256 simboli,
indipendentemente
dalla loro frequenza.

La decodifica delle informazioni

Nella fase di decodifica, il messaggio codificato trasmesso attraverso il canale viene riportato alla sua forma originale. Questo permette al destinatario di riceverlo e comprenderlo. Ad esempio, gli apparecchi telefonici convertono il segnale digitale in suoni, mentre i computer traducono la sequenza di bit in pixel per visualizzare un'immagine.

Destinatario del messaggio

Il destinatario è l'ultimo componente del modello di Shannon-Weaver, ricevendo il messaggio originariamente inviato dalla sorgente. Può essere una persona che legge una email o una navicella spaziale che riceve comandi di correzione dall'orbita terrestre.

La teoria dei codici

Una sorgente trasmette messaggi utilizzando simboli da un insieme discreto finito. Ogni messaggio è una sequenza di simboli dell'insieme S. L'insieme di tutti i possibili messaggi è indicato con S∗, dove ogni sottoinsieme Sk contiene le stringhe di lunghezza k. Ad esempio, se la sorgente trasmette i risultati di lanci di due dadi, l'insieme S contiene tutte le possibili coppie di risultati. Se i lanci sono indipendenti e i dadi non truccati, la probabilità di ottenere una specifica coppia di risultati è uniforme.

La codifica di un messaggio implica la sostituzione con un altro, motivata da ottimizzazione, affidabilità e sicurezza. La brevità economizza e riduce gli errori. Alcuni codici rilevano e correggono errori. Per la sicurezza, la crittografia protegge la confidenzialità. Questi concetti sottendono compressione, correzione degli errori e crittografia.

La codifica e la compressione dei dati

La compressione dei dati riduce il numero di bit necessari per rappresentare un messaggio o un archivio digitale senza perdita di informazioni. Sfrutta la ridondanza presente nei dati reali. Nei database, riduce lo spazio di memoria richiesto, mentre nelle reti di computer accelera il trasferimento dati e utilizza meglio la banda disponibile.

Informazione ed entropia

La Teoria dell'informazione si concentra sulla quantità di informazione trasmissibile in un canale, senza considerare il suo significato. L'entropia è la funzione principale per calcolare questa quantità, basata sul Calcolo delle probabilità. Alcune definizioni e proprietà dell'entropia includono la misurazione della casualità e la massimizzazione dell'informazione trasmessa.

click to edit

La sorgente delle informazioni

Il sistema di comunicazione comprende la sorgente dell'informazione, che può essere umana o tecnologica, e la destinazione, separate fisicamente o temporalmente, con il messaggio trasferito attraverso un canale. La sorgente produce informazioni di vari tipi, come testi, suoni, immagini, ecc., sia discreti che continui. L'informazione continua può essere convertita in forma discreta tramite il campionamento di Shannon-Nyquist. Il campionamento coinvolge la registrazione periodica dei valori del segnale analogico, garantendo la perfetta ricostruzione del segnale originale. Una sorgente discreta produce una sequenza finita di simboli, definiti nell'alfabeto della sorgente.

Una sorgente S produce una sequenza di simboli, come lettere, bit o sequenze di DNA. Un messaggio di lunghezza m è una stringa di m simboli. Formalmente, una sorgente è un processo stocastico discreto {Xn}, dove ogni variabile aleatoria Xn può assumere valori dall'alfabeto S con una distribuzione di probabilità data. La sorgente può essere stazionaria se le probabilità dei simboli non cambiano nel tempo, senza memoria se le variabili aleatorie sono indipendenti e discreta se l'alfabeto è finito o numerabile. Se l'alfabeto ha solo due simboli, la sorgente è binaria.