Claude Shannon, eclettico matematico e ingegnere del Novecento, è considerato il padre della teoria dell’informazione, perché offrì una definizione formale, quantitativamente misurabile, di questo concetto, assimilandolo a quello di altre grandezze fisiche che possono essere descritte e calcolate matematicamente. Dimostrò poi fino a che punto l’informazione contenuta in un messaggio possa essere compressa, in modo da aumentare la velocità di trasmissione. Il secondo e fondamentale risultato di Shannon riguarda invece il canale di trasmissione, un qualunque mezzo attraverso il quale il messaggio viaggia e che può degradare parte dei contenuti trasmessi se il tasso di trasmissione supera la capacità del canale. Entrano in gioco quindi grandezze come l’errore, che si può ridurre inserendo nel messaggio strumenti matematici di correzione, e la stessa entropia, concetto sviluppato nella termodinamica ma che può riguardare anche la trasmissione delle informazioni, quale misura dell’incertezza di un risultato (la probabilità che sia quello giusto). Per esempio, in un testo italiano, la «e» è più probabile di una «z» e la stringa «le banche hanno un anno di tempo» è più probabile di «le banche anno un hanno di tempo». La teoria dell’informazione di Shannon è alla base di tutta la comunicazione digitale, che utilizza strumenti matematici per la compressione dei segnali, oggi indispensabile, per la riduzione degli errori di tramissione e per la gestione delle reti.
Rivoluzioni matematiche: I Teoremi di Shannon
Carfora, Maria Francesca
2024
Abstract
Claude Shannon, eclettico matematico e ingegnere del Novecento, è considerato il padre della teoria dell’informazione, perché offrì una definizione formale, quantitativamente misurabile, di questo concetto, assimilandolo a quello di altre grandezze fisiche che possono essere descritte e calcolate matematicamente. Dimostrò poi fino a che punto l’informazione contenuta in un messaggio possa essere compressa, in modo da aumentare la velocità di trasmissione. Il secondo e fondamentale risultato di Shannon riguarda invece il canale di trasmissione, un qualunque mezzo attraverso il quale il messaggio viaggia e che può degradare parte dei contenuti trasmessi se il tasso di trasmissione supera la capacità del canale. Entrano in gioco quindi grandezze come l’errore, che si può ridurre inserendo nel messaggio strumenti matematici di correzione, e la stessa entropia, concetto sviluppato nella termodinamica ma che può riguardare anche la trasmissione delle informazioni, quale misura dell’incertezza di un risultato (la probabilità che sia quello giusto). Per esempio, in un testo italiano, la «e» è più probabile di una «z» e la stringa «le banche hanno un anno di tempo» è più probabile di «le banche anno un hanno di tempo». La teoria dell’informazione di Shannon è alla base di tutta la comunicazione digitale, che utilizza strumenti matematici per la compressione dei segnali, oggi indispensabile, per la riduzione degli errori di tramissione e per la gestione delle reti.File | Dimensione | Formato | |
---|---|---|---|
shannon_24apr.pdf
solo utenti autorizzati
Tipologia:
Documento in Pre-print
Licenza:
NON PUBBLICO - Accesso privato/ristretto
Dimensione
626.31 kB
Formato
Adobe PDF
|
626.31 kB | Adobe PDF | Visualizza/Apri Richiedi una copia |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.