Entropie.
Il concetto di entropia tra termodinamica, meccanica statistica, teoria dell'informazione, meccanica quantistica, sistemi dinamici caotici, sistemi complessi frustrati.
Entropia macroscopica (di Clausius) in termodinamica.
Entropia microscopia (di Boltzmann, di Gibbs) in meccanica statistica.
Entropia (di Shannon) in teoria dell’informazione.
Entropia (di Kolmogorov-Sinai) nei sistemi dinamici caotici, produzione di entropia.
Entropia e teoria delle grandi deviazioni nel calcolo delle probabilità.
Entropia configurazionale nei sistemi complessi multi-equilibrio (altrimenti detta complessità).
Entropia (di von Neumann) in meccanica quantistica.
- Docente: Luca Leuzzi