Informazione vs Entropia
All'interno della teoria del caos vari autori hanno evidenziato che l’informazione costituisce una delle caratteristiche fondamentali degli attrattori, e all’informazione molti autori collegano la capacità di ridurre l’entropia. L’esempio classico che descrive la capacità dell’informazione di ridurre l’entropia di un qualsiasi sistema è quello dei computer: il primo computer Eniac realizzava pochi calcoli con consumi paragonabili a quelli di una cittadina media di 30.000 abitanti; oggi, i computer moderni eseguono una mole incredibile di elaborazioni, con consumi paragonabili a quelli di una lampadina da tavolo. Questa drastica riduzione dell’entropia è stata possibile proprio grazie all’aumento di informazione presente nel progetto dei computer moderni.
Possiamo
dunque definire con il termine informazione
ogni elemento in grado di ridurre l’entropia di un qualsiasi sistema.
In base a queste considerazioni, Ludwig von Bertalanffy, padre della teoria
generale dei sistemi, evidenzia che l’informazione presente nel progetto,
nell’organizzazione e nel sistema, riduce l’entropia. Per questo
motivo, Bertalanffy associa l’informazione ad una nuova qualità
da lui denominata negh-entropia (cioè
entropia con segno negativo).
Ma lo sforzo più sistematico per articolare tra loro entropia e informazione
si deve a Léon Brillouin, uno scienziato assai brillante e versatile.
La sua profonda competenza nel campo della meccanica statistica e il suo appassionato
interesse per le telecomunicazioni gli fecero immediatamente cogliere l’importanza,
per la fisica, della nascente teoria dell’informazione (e in particolare
degli studi di von Neumann, Shannon e Wiener). In un libro di grande successo,
Science and Information Theory, egli codificò appunto, nel 1960, il legame
tra entropia e informazione, affermando che esiste una precisa relazione tra
la variazione dell’entropia di un sistema e l’acquisizione di informazioni
relative al sistema stesso. Si può dunque interpretare l’entropia
come mancanza di informazione sul sistema considerato.
«L’entropia è considerata in generale come espressione del disordine di un sistema fisico. Più precisamente, si può dire che l’entropia misura la mancanza di informazione sulla struttura effettiva del sistema. Questa mancanza di informazione implica la possibilità di una grande varietà di strutture microscopiche diverse che sono, in pratica, impossibili da distinguere le une dalle altre. Poiché una qualunque di queste strutture può esistere realmente a un istante dato, la mancanza di informazione corrisponde ad un disordine reale.» (L. Brillouin)
«L’entropia è una misura della mancanza di informazione dettagliata relativamente a un sistema fisico: più grande è l’informazione, più piccola sarà l’entropia. L’informazione rappresenta un termine negativo nell’entropia di un sistema, sicché si può definire l’informazione come entropia negativa.» (L. Brillouin)