Il corso si propone come corso breve per il percorso di eccellenza. Dopo un richiamo del significato di entropia in termodinamica e meccanica statistica, si introdurrà la nozione più generale di entropia di Shannon. Si discuterà  la relazione tra entropia e informazione e l’uso di compressori per la stima dell’entropia e dell’entropia relativa tra due sorgenti. Si introdurrà poi la nozione di Complessità Algoritmica e si accennerà alla relazione tra (im)predicibilità in sistemi caotici deterministici e l’entropia di sequenze simboliche ad essi associati (entropia di Kolmogorov-Sinai).

IMPORTANTE: i giorni e le ore indicate sono indicativi. Possono essere modificati per venire incontro a problemi di sovrapposizioni con altri corsi. Per questo motivo pregherei gli studenti interessati di contattarmi all’indirizzo email: francesca.tria@roma1.infn.it