Claude Shannon

Nasce il 30 aprile 1916 a Petoskey nel Michigan
Claude Elwood Shannon ingegnere e matematico definito “il padre della teoria dell’informazione”


Claude Shannon, lontano parente di Thomas Edison, nasce a Petoskey, una piccola città del Michigan.
Dopo aver lavorato da ragazzo come telegrafista per la Western Union sotto la guida di Andrew Coltrey, nel 1932 inizia gli studi presso l’Università del Michigan, dove, nel 1936, consegue due lauree triennali: in matematica e in ingegneria elettronica.

Shannon si iscrive quindi al MIT.
Qui frequenta, tra l’altro, il laboratorio nel quale, sotto la direzione di Vannevar Bush, si lavorava alla realizzazione dell’analizzatore differenziale, un calcolatore analogico.
Nel 1938 consegue il titolo di Master of Science in ingegneria elettronica presentando la tesi Un’analisi simbolica dei relè e dei circuiti.
In questo studio Shannon dimostra che il fluire di un segnale elettrico attraverso una rete di interruttori – cioè dispositivi che possono essere in uno di due stati – segue esattamente le regole dell’algebra di Boole, se si fanno corrispondere i due valori di verità – VERO e FALSO – della logica simbolica allo stato APERTO o CHIUSO di un interruttore.
Pertanto un circuito digitale può essere descritto da un’espressione booleana, la quale può poi essere manipolata secondo le regole di questa algebra.
Shannon definisce così un potente metodo, ancora oggi usato, per l’analisi e la progettazione dei sistemi digitali di elaborazione dell’informazione. (…)

Nel 1956 è eletto membro della National Academy of Sciences.
Dal 1958 al 1978 professore al MIT.


Muore a Medford il 24 febbraio 2001.


Approfondisci in wikipedia >


La teoria dell’informazione è una disciplina dell’informatica e delle telecomunicazioni il cui oggetto è l’analisi e l’elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione

La grandezza che misura la quantità di dati prende il nome di entropia ed è solitamente espressa come numero di bit necessari per immagazzinare o trasmettere l’informazione. Ad esempio, se un alfabeto ha un’entropia pari a 4 bit, allora, preso un numero sufficiente di parole costruite con tale alfabeto, in media sono necessari 4 bit per rappresentare ogni lettera.

L’applicazione dei concetti fondamentali della teoria dell’informazione include la compressione senza perdite dei file (es. zip), la codifica con perdita (es. mp3) e le modulazioni digitali utilizzate nelle trasmissioni ethernet. La teoria dell’informazione si pone a metà strada tra la matematica applicata, la statistica, la fisica applicata, le telecomunicazioni e l’informatica. Il suo impatto è stato fondamentale nelle missioni spaziali, nell’invenzione del CD, dei telefonini, di Internet, nello studio della linguistica ed in numerosissimi altri campi.