Tutto quello che avreste dovuto sapere sulla fisica del XX secolo, ma nessuno vi ha mai raccontato || Telefoni, monete e la morte termica dell’universo
Sul finire dei suoi primi dieci anni, qui compiamo una piccola rivoluzione, abbandonando il nostro formato classico – quello del magazine culturale a cadenza vagamente quotidiana – per presentare ogni mese un solo saggio e un solo racconto. Da queste pagine 24 autori ogni anno proporranno il loro filtro sul reale, manipolando inevitabilmente la personalità di Dude mag: ed è una cosa che ci rende enormemente curiosi.
2022
01 gennaio
Dude Mag
03 marzo
Alessio Giacometti
05 giugno
Simone Vacatello
07 novembre
Marco Montanaro e Gilles Nicoli
09 gennaio
TBA
TBA
10 febbraio
TBA
TBA
11 marzo
TBA
TBA
12 aprile
TBA
TBA
×
×
È arrivato il momento di iscriverti
Segui Dude Mag, dai!
3630
https://www.dudemag.it/letteratura/tutto-quello-che-avreste-dovuto-sapere-sulla-fisica-del-xx-secolo-ma-nessuno-vi-ha-mai-raccontato-telefoni-monete-e-la-morte-termica-dell-universo/

Tutto quello che avreste dovuto sapere sulla fisica del XX secolo, ma nessuno vi ha mai raccontato || Telefoni, monete e la morte termica dell’universo

Il concetto di entropia è una bestia feroce e multiforme.

Illustrazione di Fill Illustration

Il concetto di entropia è una bestia feroce e multiforme. Tutte le vaghe idee che l’uomo della strada ha sull’entropia sono in qualche modo sbagliate e in qualche modo vere al tempo stesso. L’entropia è difficile, sfuggevole. Al confronto, la matematica dello spaziotempo curvo o l’effetto Hall quantistico sono semplici passatempi matematici. Qualche professore egocentrico non manca mai di affermare con baldanza che solo due persone capiscono davvero l’entropia: lui stesso e Dio. Che il professore in questione capisca davvero l’entropia, posso forse accettarlo. Che invece la capisca Dio, creatore di un universo destinato a una morte entropica, ho invece seri dubbi. Ma ogni cosa a suo tempo.

Il concetto di entropia fu introdotto da Rudolf Clausius, fisico e matematico tedesco di metà Ottocento. Clausius era uno di quei personaggi con una faccia che sta bene sulle banconote di medio taglio, di quelli che ci si immagina circondati di alambicchi, sfere d’ottone e piani inclinati, intenti a sperimentare in quegli anni di confine che hanno raffinato la fisica classica e al tempo stesso le hanno dato il colpo di grazia, spianando il terreno per l’avvento della teoria della relatività e la meccanica quantistica agli albori del XX secolo. L’entropia di Clausius era un’idea squisitamente alchemica, racchiusa sibillinamente nelle varie formulazioni del secondo principio della termodinamica: lo scambio di energia tra due corpi, diviso la temperatura di equilibrio, è ciò che chiameremo entropia. Che l’entropia di un sistema isolato tenda a crescere si può dimostrare equivalente a dire che il calore non può fluire da un corpo freddo a un corpo caldo. Nelle interazioni termiche, l’energia scambiata in qualche modo si conserva ma la sua qualità degrada. È come avere una banconota da cento euro o cento euro in monete da un centesimo. Nonostante i due casi siano nominalmente equivalenti, è piuttosto ovvio come il secondo sia molto meno pratico del primo – e i cento euro in monete, in pratica, più difficili da spendere.

Poco altro ci resterà, oltre all’entropia di Clausius, alla fine dei tempi?quando tutta l’energia sarà stata scambiata, tutti i processi che producono e consumano calore si saranno estinti in un universale, uniforme, rarefatto tepore. Immaginate un universo privo di vita, spoglio ormai di stelle degne di questo nome, in cui il disordine è massimo e l’entropia regna sovrana. È la morte termica dell’universo, quella che Lord Kelvin, già nel 1852, descriveva più o meno così: in un universo della cui materia è impossibile concepire il confine, la scienza suggerisce una lenta, graduale trasformazione di tutta l’energia in movimento palpabile e calore. Un universo destinato a un blando annientamento entropico, piuttosto che uno che si scarichi come un orologio e che, un giorno, si fermi per sempre.

Claude Shannon era un brillante trentenne che amava correre per i corridoi dei Bell Labs in monociclo, esibendosi a volte in numeri di giocoleria.

L’entropia non appartiene al bestiario dei profondi concetti fisico-matematici dell’era moderna. L’entropia è un intero bestiario a sé. È un grimaldello concettuale passato di mano in mano da Clausius a Boltzmann e Gibbs e von Helmholtz negli anni ’70 dell’Ottocento e a tutta una schiera di fisici, chimici e matematici nei decenni a seguire. È un’idea che ha attraversato illesa le rivoluzioni paradigmatiche dei primi del Novecento, riempiendo capillarmente l’intelaiatura matematica di ogni branca della fisica statistica, fino a spuntare un bel giorno, non annunciata, tra le colline del New Jersey alla fine della Seconda guerra mondiale. Nello specifico, nelle stanze della Bell, la compagnia dei telefoni, i cui gloriosi laboratori di ricerca hanno donato al mondo il transistor, le celle fotovoltaiche e il laser – oltre al moderno concetto di entropia. Claude Shannon era un brillante trentenne che amava correre per i corridoi dei Bell Labs in monociclo, esibendosi a volte in numeri di giocoleria. Shannon, da esperto tanto di matematica quanto di ingegneria elettrica, si dette il compito di valutare formalmente la quantità di informazione persa nelle trasmissioni telefoniche. L’idea stessa di “informazione” era all’epoca una nozione indefinita che fluttuava mollemente nel lessico collettivo nell’attesa di essere catturata, dissezionata e resa un utile concetto scientifico. In una sezione di un suo libro sulla nascente teoria dell’informazione chiamata «Decidibilità, incertezza ed entropia», Shannon fornisce una solida base astratta, matematica di concetti liminali come il dubbio, l’incertezza e la densità di informazione. Fu von Neumann, uno dei massimi matematici e fisici teorici dello scorso secolo, a convincere Shannon a non parlare di «incertezza». «Dovresti chiamarla entropia», von Neumann gli disse. «Quella che tu chiami funzione di incertezza è stata usata in meccanica statistica sotto forma di entropia da anni. E, ancora più importante, nessuno sa cosa sia davvero l’entropia: in un dibattito, quindi, avrai sempre il coltello dalla parte del manico». Il concetto di entropia è il vero spartiacque culturale tra la fine del XIX secolo e la scienza moderna, quella dell’era dell’informazione.

Se questo articolo ti è piaciuto leggi le altre puntate de Tutto quello che avreste dovuto sapere sulla fisica del XX secolo, ma nessuno vi ha mai raccontato. 

Episodio 1 – Vicky Cristina Copenaghen

Episodio 2 – C’è tutto un universo a sinistra dell’uguale

Episodio 3 – Telefoni, monete e la morte termica dell’universo

Episodio 4 – Quando Einstein aveva torto

Daniel Giovannini
Segui Dude Mag, dai!
Dude Mag è un progetto promosso da Dude