entropìa
Indice[sec. XIX dal greco entropḗ, conversione]. In termodinamica, funzione di stato di un sistema che misura il suo grado di disfacimento, o degradazione o disordine. Fu introdotta per la prima volta nel 1854 da R. J. Clausius, il quale lavorava a una riformulazione del secondo principio della termodinamica. Se si considerano due stati assai vicini di un sistema e alcuni cammini reversibili che li collegano, si nota sperimentalmente che, pur essendo diverso per i diversi cammini il calore fornito al sistema, tuttavia il rapporto tra il calore fornito e la temperatura assoluta T del sistema, in un punto qualsiasi del cammino, rimane costante. In altre parole, per una variazione infinitesima si ha dQ/T=costante. Se si sommano tali rapporti per tutti i punti, si trova che tale somma è costante. In termini analitici ʃ dQ/T=costante. Questo integrale definisce, dunque, una funzione la cui variazione dipende soltanto dallo stato iniziale e da quello finale e non dal cammino prescelto. Tale funzione, S, è appunto l'entropia. Una conseguenza matematica del concetto di entropia è il fatto che, in un complesso concomitante di trasformazioni, gli aumenti di entropia sono sempre maggiori delle diminuzioni: per l'entropia dunque non vale alcun principio di conservazione. Ciò significa che tutte le trasformazioni che avvengono in natura, nel loro complesso, seguono una certa direzione di svolgimento. Tale direzione fa sì che, pur mantenendosi costante la quantità totale di energia nell'Universo, la frazione di questa trasformabile in lavoro diminuisce finché non sarà più possibile trasformare energia: ciò significa la “morte termica” dell'Universo, prevista da Clausius e accettata dai fisici della seconda metà del sec. XIX. Il concetto di entropia pose anche il problema di una sua traducibilità all'interno di una teoria meccanica del calore (teoria cinetica), analogamente a quanto si era fatto e si stava facendo per i concetti di temperatura, di calore, ecc. Nell'ambito di tale teoria meccanica, un sistema termodinamico è considerato un sistema macroscopico caratterizzato da certi parametri, quali la pressione, il volume, la temperatura, al quale corrisponde un certo numero di sistemi microscopici, cioè un insieme di molecole ciascuna avente certe velocità e certe posizioni. L. Boltzmann dimostrò che il numero di sistemi microscopici corrispondenti a un dato sistema macroscopico rappresenta la probabilità, chiamata termodinamica, dello stesso sistema. Il logaritmo di tale probabilità, in questo ordine di idee, risulta proporzionale all'entropia del sistema. Questa riduzione dell'entropia nell'ambito della teoria indicata consente di considerare la morte dell'Universo non più come una legge ineluttabile di natura, ma come una legge altamente probabile. Il concetto di entropia, nato con la termodinamica, trovò ampia possibilità di utile impiego in altri settori della scienza, fra i quali è da segnalare quello dell'informatica durante gli anni Trenta del sec. XX. Il sistema termodinamico è qui sostituito dal messaggio informativo, mentre il microsistema è costituito dalla particolare codificazione o linguaggio adottati. A una diminuzione dell'entropia di un sistema corrisponde un maggiore ordine tra le parti e quindi un aumento della quantità di informazione sul sistema stesso.
Bibliografia
A. Sommerfeld, Thermodynamics and Statistical Mechanics, Londra, 1952; L. Brillouin, La science et la théorie de l'information, Parigi, 1959; J. D. Fast, Entropie, Parigi, 1961; P. Chambadal, Èvolution et applications du concept d'entropie, Parigi, 1963; E. Fermi, Termodinamica, Torino, 1968; M. Agostinelli (a cura di), Energia, entropia, ecologia, Perugia, 1990.