CHE COS’E’ L’ENTROPIA di Enzo Tiezzi (Università degli studi di Siena)

http://www.liceorussell.eu/STXUpload/CHECOSELENTROPIA1.pdf

prof. Enzo TiezziDie Energie der Welt ist Konstant (L’energia del mondo è costante; R. Clausius 1865). La prima legge della termodinamica ci dice che l’energia totale esistente nell’universo sotto varie forme è invariata; essa può solo trasformarsi da una forma all’altra in modo tale, però, che il totale delle varie forme rimanga costante: questo è l’enunciato del cosiddetto «I° principio» o principio generale di conservazione dell’energia.

Il I° principio ci dice che non può esistere una macchina capace di creare energia. Di macchine, appunto, e dei loro rendimenti energetici si occupava l’ingegnere francese Lazare Carnot tra una riorganizzazione e l’altra delle armate della Repubblica. Il figlio, Sadi Carnot, pensò bene di seguire le orme paterne occupandosi dei rendimenti energetici delle macchine termiche e scoprì così il «II° principio» della termodinamica, in apparente conflitto col I° principio. Questa seconda legge ci dice che l’energia non può trasformarsi liberamente da una forma all’altra e che l’energia termica (calore) può passare liberamente da una sorgente calda a una più fredda, ma non in direzione opposta. Il processo di conversione del calore in lavoro non può aver luogo se non sussiste una differenza di temperatura. Il II° principio della termodinamica ci dice che non può esistere una macchina che trasferisca calore da un corpo freddo a uno caldo senza spendere lavoro. Tutte le volte che si produce lavoro dal calore, contemporaneamente ha luogo un passaggio di calore da un corpo

più caldo a uno più freddo. L’esperienza di tutti i giorni (dai motori al rasoio elettrico) ci mostra che la produzione di lavoro è accompagnata da un ineluttabile riscaldamento dell’oggetto (certamente non costruito per essere riscaldato). C’è una tendenza nell’universo verso la «forma calore» dell’energia e il calore è una forma «degradata» di energia perché non si lascia riconvertire totalmente. Non tutto il calore infatti si trasforma in lavoro; non si può recuperare liberamente calore da una sorgente più fredda: per esempio l’oceano è un immenso serbatoio di calore, contiene una enorme quantità di energia, ma non possiamo usarla «gratuitamente». Nonostante infatti contenga calore in quantità infinitamente più grande del calore del nostro corpo, non possiamo scaldarci le mani al suo calore perché l’oceano è una sorgente più fredda delle nostre mani e il calore non può passare da un corpo più freddo a uno più caldo spontaneamente.

La prima legge della termodinamica si occupa solo del bilancio generale dell’energia e ci dice che questa non può essere né creata né distrutta. La seconda legge, invece, si occupa dell’uso dell’energia, della sua disponibilità a compiere lavoro e della sua tendenza in natura ad andare verso forme degradate, inutili, non più utilizzabili. Ciò che diminuisce nel mondo non è l’energia, ma la sua capacità a compiere lavoro. Da questo punto di vista ha ragione Einstein a considerare la seconda legge della termodinamica come la legge fondamentale della scienza; ha ragione Commoner a definirla come la nostra più profonda intuizione scientifica sul funzionamento della natura; ha ragione, infine, C. P. Snow ad affermare (in Le due culture) che non conoscere il significato del secondo principio della termodinamica è come ammettere, in termini culturali, di non aver letto nemmeno un’opera di Shakespeare.

La tendenza spontanea alla degradazione dell’energia, alla sua dispersione nell’ambiente è evidente nei fenomeni della vita quotidiana: l’evoluzione dei rimbalzi di una palla sul pavimento va nella direzione di rimbalzi sempre più bassi e di dispersione di calore ceduto all’ambiente; la

brocca che cade a terra si rompe in vari frammenti (dispersione) e il processo inverso, che si può teoricamente vedere proiettando all’incontrario il film della caduta, non avviene in natura; il profumo esce dalla bottiglia e si spande nella stanza e non ci è dato osservare il riempimento spontaneo della bottiglia vuota.

Tendenza alla forma calore allora, ma anche alla dispersione. La funzione termodinamica entropia (che di solito si indica con S) misura questo grado di dispersione dell’energia: le trasformazioni tendono a verificarsi spontaneamente in direzione dell’entropia crescente, del massimo grado di dispersione. E’ insita nel concetto di entropia l’idea del tempo che scorre, della direzione della trasformazione. Il termine, coniato da Clausius, deriva da τροπη (trasformazione) o da εντροπη (conversione, mutazione o anche confusione).

E’ ora possibile, con l’introduzione del concetto di entropia, riformulare con Clausius la seconda legge della termodinamica in una visione più ampia e universale: Die Entropie der Welt strebt einem Maximum zu (L’entropia del mondo tende verso un massimo; R. Clausius 1865).

Il massimo di entropia, che corrisponde allo stato di equilibrio di un sistema, è uno stato in cui l’energia è completamente degradata e non è più capace di fornire lavoro.

L’entropia é quindi quel concetto che ci indica la direzione degli eventi.

Commoner fa notare che i castelli di sabbia (ordine) spontaneamente non si formano, possono soltanto scomparire (disordine); che una capanna di legno col tempo si riduce a un disordinato ammasso di assi e tavole e che il processo inverso in cui le assi e le tavole si riordinano spontaneamente fino a formare una capanna non avviene. La direzione è quindi dall’ordine al disordine e l’entropia è là a indicare questo ineluttabile processo, quel processo che ha la massima probabilità di avvenire. Si coniugano così nel concetto di entropia i concetti di disordine e di probabilità. Anzi l‘entropia è la misura del disordine e della probabilità. Ma, per capire meglio questa identità di concetti, è utile descrivere un’esperienza modello, quella della miscelazione dei gas.

Supponiamo di avere due gas, uno rosso e uno giallo, in due contenitori separati da una parete divisoria. Se tolgo la parete osservo che i due gas si miscelano fino a raggiungere una distribuzione uniforme: il colore arancione. Se essi fossero originalmente mescolati non mi aspetterei mai di osservare la loro spontanea separazione e la formazione del rosso da una parte e del giallo dall’altra a partire dall’arancione. La situazione «arancione» è la situazione del più grande disordine, è la situazione di maggiore entropia perché è stata raggiunta spontaneamente dalla situazione di ordine iniziale. L’entropia è la misura del grado di disordine del sistema.

Il «IIIº principio» della termodinamica ci dice, secondo l’enunciato di W. Nernst, che l’entropia di ogni sistema alla temperatura dello zero assoluto, può sempre essere posta uguale a zero. Ne consegue che «allo stato termodinamico di un sistema allo zero assoluto corrisponde un solo stato dinamico, precisamente lo stato dinamico di minima energia compatibile con la data struttura cristallina o con lo stato di aggregazione del sistema» (Enrico Fermi).

Ovviamente la terza legge è una legge limite che attribuisce soltanto alle sostanze idealmente cristalline allo zero assoluto un’entropia nulla. Ne consegue che tutto ciò che esiste ha una qualche entropia positiva.

Il punto centrale resta quello dell’introduzione dell’idea di entropia. Ha scritto giustamente A. Eddington che «dal punto di vista della filosofia della scienza, la concezione dell’entropia deve considerarsi come il più gran contributo del secolo XIX al pensiero scientifico».

L’universalità della legge dell’aumento dell’entropia fu sottolineata da Clausius nel senso che l’energia subisce una degradazione da un capo all’altro dell’universo e che la sua disponibilità diventa via via minore nel tempo, fino alla Wärmetode, la «morte termica» dell’universo.

L’evoluzione verso la morte termica dell’universo è oggi oggetto di discussioni. Passare dal contesto planetario al contesto cosmico significa introdurre effetti non ancora conosciuti, come quelli della gravitazione. Se da una parte gli sviluppi dell’astrofisica sembrano indicare un universo in espansione, originato da una grande esplosione primordiale (big-bang), a partire da uno stato di bassa entropia, dall’altra i limiti dei modelli teorici termodinamici sono tali da non permettere conferme o evidenze.

Su un altro piano si assiste a un ulteriore approfondimento degli studi sull’entropia: l’applicazione di questo fondamentale concetto alla linguistica e alla codificazione dei linguaggi, alla teoria della musica e a quella dell’informazione.

La termodinamica ci ha offerto due affascinanti lezioni: quella dell’energia che non si può né creare né distruggere, caratterizzata com’è dalla sua conservazione e quella dell’entropia in continua crescita, che scandisce le ore dell’orologio cosmico ricordando che nelle azioni dell’uomo, oltre all’energia-materia, c’è il tempo e che il futuro è distinto dal passato, caratterizzato com’è da un valore più grande di S.

I sistemi biologici sembrerebbero una manifesta violazione del principio: presentano strutture estremamente ordinate che si evolvono nella direzione di un più elevato ordine, di una minore entropia. In realtà, la contraddizione è solo apparente. Il bilancio entropico deve essere globale e deve includere sia l’organismo (pianta o animale, uomo compreso) sia l’ambiente col quale l’organismo scambia continuamente energia e materia. Questo è un caso in cui è all’opera quel che abbiamo chiamato un “intervento esterno”: l’albero cresce grazie all’energia solare, gli animali si nutrono e si riproducono grazie all’energia chimica contenuta negli alimenti; gli organismi si sviluppano e vivono dunque in virtù dell’aumento di entropia che essi provocano nell’ambiente circostante. Se le piante crescendo diminuiscono la propria entropia, quella dell’ambiente aumenta in misura ancora maggiore, così che la variazione di entropia totale del sistema pianta + ambiente è positiva. L’entropia dell’Universo è dunque aumentata; il secondo principio non è stato violato.

Il fatto è che bisogna distinguere tra sistemi isolati (che non possono scambiare né energia né materia con il cosiddetto “ambiente esterno”), sistemi chiusi (che possono scambiare energia e non materia) e sistemi aperti (che possono scambiare sia energia sia materia). Una città o un organismo, evidentemente, sono esempi di sistemi aperti. Per i sistemi aperti è fondamentale calcolare, per una corretta interpretazione dei processi, oltre all’entropia negativa (cioè l’ordine) prodotta all’interno del sistema, anche l’entropia positiva (cioè il disordine) creata dal nostro sistema nell’ambiente esterno: si vedrà così che l’aumento di ordine è solo apparente e che la sua

produzione avviene a spese di quello esistente nell’ambiente circostante. In media, il disordine aumenta.

Molti assumono il 1944 come data di inizio della biofisica, quando Erwin Schrödinger, premio Nobel per la fisica, padre fondatore della meccanica quantistica, pubblicò le sue lezioni di Dublino sui problemi biologici in Che cos’è la vita?

Qui riporto, di seguito, il testo di Schrödinger che introduce il concetto di “neghentropia”, sottolineando, laddove ce ne fosse bisogno, che ovviamente si tratta di una variazione negativa di entropia a partire da un valore originario (la nascita dell’individuo, l’origine della vita, l’inizio dell’evoluzione biologica) e non di entropia negativa in assoluto, dato che per il terzo principio dellatermodinamica non può esistere un’entropia minore di zero.

Come possiamo esprimere in termini di teoria statistica la meravigliosa facoltà di un organismo vivente, mediante la quale esso ritarda il raggiungimento dell’equilibrio termodinamico (morte)? Abbiamo detto […]: l’organismo si alimenta di entropia negativa, attraendo su di sé un flusso di entropia negativa per compensare l’aumento di entropia che esso produce vivendo, con il che riesce a mantenersi a un livello di entropiastazionario notevolmente basso.

“Quando Schrödinger dice che l’organismo si ciba di neghentropia – sottolinea Morowitz – egli vuoi semplicemente significare che la sua esistenza dipende dall’incremento dell’entropia del resto dell’Universo”.

Questo è valido sia per i sistemi termodinamici aperti (gli organismi viventi) sia per sistemi termodinamici chiusi (il pianeta Terra, almeno in prima approssimazione), mentre non è valido ovviamente per sistemi termodinamici isolati, destinati alla “morte termica” per aumento di entropia.

Nell’asserzione di Schrödinger sta il segreto dell’origine della vita sulla Terra, la storia dell’evoluzione biologica, una storia che ha un protagonista: la fotosintesi, il “talismano verde” del prossimo capitolo. E la storia di un pianeta particolare che ha imparato a catturare l’energia solare e a nutrirsi di neghentropia dall’Universo per creare le strutture ordinate e dissipative che

sono gli organismi viventi.

Nella realtà naturale abbiamo a che fare con sistemi fisici completamente diversi, in contatto con più sorgenti e, con più serbatoi di scarico, e con flussi di materia ed energia dalle sorgenti, attraverso i sistemi, fino ai serbatoi o pozzi di scarico.

Consideriamo lo schema dovuto a Morowitz:

sorgente di energia (Sole) —->sistema intermedio (Biosfera) —>serbatoi di scarico (Universo Esterno)

Consideriamo ora il sistema diviso in due parti:

1. sorgenti + serbatoi (s)

2. sistema intermedio (int).

Seguendo l’approccio di Morowitz si ha:

                                                    dSs + dSint 0

dove Ss si riferisce all’entropia di sorgente + serbatoio e Sint si riferisce all’entropia del sistema intermedio.

Il flusso di energia dalla sorgente al serbatoio porterà sempre a un aumento di entropia:

                                                             dSs > 0

mentre la sola restrinzione posta dal secondo principio della termodinamica classica dSint è che:

                                                           −dsint dSs

quindi l’entropia dello stato intermedio (nel nostro caso la biosfera) può diminuire se è presente un flusso di energia.

Il flusso di energia mette continuamente a disposizione del sistema intermedio la creazione di stati lontani dall’equilibrio, cioè lontani dalla morte entropica.

Più il sistema di non equilibrio è lontano dall’equilibrio, più è ordinato.

Lo stato ordinato di un sistema biologico decadrebbe, se lasciato a sé stesso, verso lo stato il più possibile disordinato: per questa ragione deve continuamente essere fatto del lavoro per ordinare il sistema. Il che richiede, come abbiamo visto, una sorgente calda e un serbatoio freddo: il Sole e lo spazio esterno.

La superficie della Terra (sistema intermedio) riceve dalla sorgente solare un flusso di energia originalmente a 5800°K (questa è la temperatura della superficie solare; l’interno del Sole è milioni di gradi più caldo) e lo restituisce allo spazio esterno (serbatoio di scarico) a 3°K: in questo enorme intervallo di temperature sta il segreto della vita e la possibilità di un lavoro che previene la tendenza verso l’equilibrio entropico muovendo il sistema vivente sempre indietro, lontano dall’equilibrio, verso stati ordinati, neghentropici, vivi.

Il sistema vivente viene mantenuto dal flusso di energia E, in uno stato stazionario, il più lontano possibile dall’equilibrio.

La diminuzione di entropia nella biosfera dipende dalla capacità di catturare energia dal Sole e di reirradiarla nello spazio esterno sotto forma di energia infrarossa. Se questo secondo processo fosse impedito, cioè se il Pianeta fosse avvolto da una membrana adiabatica (effetto serra), tutti i processi viventi cesserebbero di esistere in tempi bravissimi e il sistema decadrebbe verso lo stato di equilibrio, cioè verso la morte entropica. Un serbatoio di scarico è necessario alla vita tanta quanto una sorgente di energia! Sottolinea ancora Morowitz:

Tutti i processi biologici dipendono dall’assorbimento dei fotoni solari e dal trasferimento di calore ai serbatoi celesti [celestial sinks]. Il Sole non sarebbe una sorgente di neghentropia, se non ci fosse un serbatoio di scarico per il flusso dell’energia termica. La superficie terrestre rimane a energia totale costante, reirradiando tanta energia quanta ne prende. La sottile differenza è che non è l’energia di per sé che fa continuare la vita, ma il flusso di energia attraverso il sistema. Il sistema ecologico globale, cioè la biosfera, può essere definito come quella parte della superficie terrestre che viene ordinata da un flusso di energia, tramite i processi fotosintetici.

Il secondo principio della Termodinamica, una delle fondamentali leggi della natura, indica le strade da evitare perché la vita sulla Terra possa continuare ad esistere. In particolare evidenzia la tendenza universale ineluttabile verso il disordine (in termodinamica, la tendenza verso la massima entropia), che è anche perdita dell’informazione e della disponibilità di energia utile. Questa tendenza, chiamata da Clausius la “morte termica”, porta al cosiddetto “equilibrio termodinamico”, che è appunto la morte dei sistemi biologici e degli ecosistemi, attraverso la distruzione delle diversità.

Due sono le strade che possono portare a questa situazione:

a) quando, scambiando energia sotto forma di calore, le differenze di temperatura vengono meno, portando alla livellizzazione delle energie e all’impossibilità pratica di fare qualsiasi cosa, perché lo scambio di energia utile è impedito;

b) quando un sistema rimane isolato e, consumando le proprie risorse, porta a un grande aumento di entropia interna e, in ultima analisi, alla propria auto-distruzione.

Per questa ragione i sistemi viventi cercano di evitare la situazione di “equilibrio termodinamico”, mantenendosi il più lontano possibile da questo, auto-organizzandosi grazie ai flussi di materia e di energia, che ricevono dall’esterno e da sistemi in condizioni di temperatura e di energia diverse

dalle loro.

L’economia e la società non possono ignorare il secondo principio della termodinamica. Ne consegue che la globalizzazione, la distruzione delle diversità (sia biologiche che culturali), l’omogeneizzazione, il pensiero unico portano ineluttabilmente alla morte termica (o, come l’abbiamo chiamata, all’eutanasia entropica), alla distruzione finale e, nello stesso modo, un paese, una nazione, un sistema che fa del proprio isolamento, del rifiuto della contaminazione culturale (o meglio della “cross-fertilization”), dell’arroccamento su posizioni fondamentaliste di conservazione, un dogma politico, farà la stessa fine.

La difesa eccessiva della propria diversità o la perdita delle diversità sono due aspetti della stessa stupidaggine termodinamica.

Bibliografia

E.Tiezzi:"Tempi storici, tempi biologici"; Garzanti, Milano, 1984.

E. Tiezzi:"L’Equilibrio – I due aspetti di un unico concetto"; CUEN, Napoli, 1995.

E.Tiezzi:"Fermare il tempo – Un’interpretazione estetico-scientifica della natura"; Raffaello Cortina, Milano, 1996 (con una prefazione del premio Nobel professor Ilya Prigogine).

E. Tiezzi: "The End of Time"; WIT Press, Southampton, 2003.

E. Tiezzi: "The Essence of Time"; WIT Press, Southampton, 2003.

E. Tiezzi: "Beauty and Science"; WIT Press, Southampton, 2005.

E.Tiezzi:"Tempi storici, tempi biologici. Venticinque anni dopo"; Donzelli, Roma, 2005.

E. Tiezzi: "Steps Towards an Evolutionary Physics"; WIT Press, Southampton, 2006.

E. Tiezzi: "Verso una fisica evolutiva"; Donzelli Editore, Roma, 2006.

entropia 2Curso de Ciências e Técnicas Nucleares-UFMG
Concentração em Planejamento Energético

1 – Introdução

Aplicar leis da Física na análise de problemas sócio-econômicos é uma tentação freqüente que se justifica pela sensação de segurança que elas nos inspiram. Essas leis são discutidas pelas melhores inteligências e a sua aceitação só fica em risco quando aparece um fato novo não explicável pela teoria em voga.

A Segunda Lei da Termodinâmica, a Lei da Entropia apresenta uma extraordinária resistência ao longo dos anos sendo amplamente acatada e até mesmo usada em outras áreas de conhecimento, como a Psicologia, a Sociologia, a Teoria da Comunicação, etc.

A aplicação extensiva das leis e dos métodos da Física requer certos cuidados pois o comportamento humano é regido por critérios mais restritivos, de caráter ético, social e religioso. Há, entretanto, situações especiais em que é possível extrair conclusões genéricas sobre os fenômenos que envolvem os humanos, em geral aquelas situações em que os condicionamentos físicos são muito fortes, como, por exemplo, alguns problemas da macroeconomia.

Propomos aqui uma avaliação da tendência da economia sob a ótica da entropia e uma especulação sobre os efeitos na organização da sociedade. Este esforço parece-nos oportuno à vista dos inquietantes novos rumos da economia mundial e dos desafios que eles trazem (globalização da economia, desemprego estrutural, etc.).

2 – Economia e energia

Os modelos econômicos clássicos não incluem a energia explicitamente entre os fatores de produção, embora façam referência marginal a parâmetros energéticos (intensidade energética, custos da energia, etc.). Entretanto, existe uma correlação praticamente linear entre o produto de uma nação industrializada e o uso da energia. Mesmo para economias pré-industriais alguma correlação existe, como mostra a coincidência dos surtos de crescimento econômico com a introdução de novos conversores energéticos (1). A avaliação correta da influência da energia na produção talvez seja dificultada pelo uso de energia não-comercial (resíduos agrícolas e industriais, lenha catada, estrume de gado, etc.) principalmente nos países de menor renda, bem como do controle exercido pelos governos sobre os preços da energia, o que constitui reconhecimento tácito da sua importância estratégica. Na atualidade, assistimos ao esforço mundial para manter o preço do petróleo em nível compatível com a estabilidade da economia e em passado recente vimos a perturbação causada pelos dois choques dos preços do petróleo que resultou inclusive em frustração do plano brasileiro de desenvolvimento (2).

Existe quem pense que a razão de não poder-se invocar um " determinismo energético" na economia reside na falta de um modelo abrangente, tanto econômico como energético, capaz de cobrir desde a atividade econômica de subsistência até o estágio mais avançado das economias de consumo conhecidas. Fisicamente a causalidade parece bem estabelecida pois não existe atividade que não ponha em jogo alguma forma de energia.

Tomamos, portanto, como postulado que o uso da energia é um dos fatores determinantes da atividade econômica. Assim sendo, estudamos os condicionantes energéticos como condicionantes econômicos. A análise segue, em linhas gerais, o modelo delineado por Ayres (3).

3 – Metodologia

As bases para a análise são as leis da Termodinâmica. O sistema econômico, melhor dizendo o sistema produtivo, para se abstrair das complicações da moeda, é um sistema aberto que troca massa e energia com a Terra, da qual são extraídas a matéria prima e a energia. A Terra ou, a Biosfera na qual se localiza e opera o sistema produtivo, é um sistema fechado que troca energia com o restante do Universo mas não troca massa.

O sistema produtivo opera, em primeira análise, em regime quase permanente. Portanto, as variáveis energéticas estariam evoluindo lentamente com o tempo segundo leis conhecidas. Um diagrama do sistema produtivo representado na Figura 1 ajuda a fixar as idéias

FIGURA 1

onde m é a massa de recursos naturais entrando no sistema, U e S são a energia interna e entropia dos mesmos e m,U, S os valores correspondentes na saída do sistema… W e Q são o trabalho efetuado pelo sistema para extrair, circular, transformar e rejeitar os recursos e a quantidade de calor rejeitada pelo sistema para a vizinhança (a temperatura média do sistema é superior à da vizinhança, To).

A massa que sai é, para simplificar, suposta igual à que entra. A longo prazo o sistema transforma os produtos em rejeitos.

Para um processo elementar, as leis da Termodinâmica se escrevem :

1) d Q = dU + d W 1ª Lei

2) dS + dSo = ds 2ª Lei

onde ds , variação total da entropia do sistema e da vizinhança, é nulo para processo reversível e positivo para processo irreversível. Ainda para simplificar, supõe-se que ds se refira ao sistema e à sua vizinhança imediata (Biosfera) pois a variação de entropia da Biosfera é que experimenta de imediato os efeitos da troca de calor com o sistema. Como usual, d Q é considerado como negativo se o calor deixa o sistema. Assim,

3) dSo = –

As três equações se reduzem a

4) W = -dU + TodS – Tods

e, como U, S e s são propriedades termodinâmicas, pode-se integrar a equação 4 para processo finito, obtendo-se

W = – D U + To D S – To D s

Como os processos reais são irreversíveis, ds > 0.

Se considerarmos as taxas de variação das propriedades termodinâmicas, teremos

Uma hipótese interessante é a da constância da demanda por produtos (população estabilizada e consumo per capita invariável). Devido à progressiva exaustão dos recursos naturais mais próximos e mais fáceis de se extrair, o trabalho requerido pela produção aumenta, ao passo que o rendimento energético diminui (pelo aumento da entropia), ou seja, aumenta a demanda por recursos energéticos.

Na situação real da economia moderna, a população está aumentando e o consumo é cada vez mais refinado (maior variedade de produtos), de forma que a demanda de energia cresce mais depressa do que na hipótese anterior. A exaustão dos recursos naturais, principalmente dos recursos energéticos, se acelera e a entropia também, chegando-se assim a um círculo vicioso.

A solução imaginada para o vício é o desenvolvimento tecnológico dirigido para os seguintes objetivos principais : a) diminuição da transferência de calor para a vizinhança por meio de melhor isolamento de ambientes e de equipamentos e, ainda, pelo aumento da eficiência das máquinas térmicas; b) substituição de materiais tradicionais por outros de menor custo de produção (p.ex., vidro e aço por plásticos); c) diminuição da taxa de entropização .

As providências a e b têm alcance limitado devido a restrições físicas (limite superior para o rendimento térmico, propriedades dos materiais, etc.) e apenas permitem desafogo transitório para o crescimento da entropia.

A diminuição da taxa de entropização só pode aplicar-se sobre o próprio sistema, de vez que a vizinhança não está sob controle. Pretendemos mostrar que os problemas sociais de hoje se devem às tentativas de controlar a entropia do sistema produtivo.

4 – Implicações sociais da Lei da Entropia

Duas empresas que produzam o mesmo bem com a mesma tecnologia, usando a mesma matéria prima e o mesmo recurso energético podem ter custos de produção diferentes. Este fato, que é a base da concorrência, deve-se a diferentes graus de entropização entre elas. Os fatores imagináveis da entropização seriam, por exemplo, a idade dos equipamentos e instalações, a qualificação da mão de obra, os métodos gerenciais, a adequação do projeto das instalações à tecnologia usada, o dimensionamento das máquinas em relação à vazão de massa através do sistema, etc.

Pelo menos do ponto de vista conceitual seria possível aferir o grau de entropização de uma empresa em relação à outra pela diferença dos custos de produção "ceteris paribus".

Organizar bem uma empresa significa reduzir ao mínimo a sua taxa de entropização. As providências geralmente adotadas têm por motivação o ajuste dos tempos de intervenção das diversas funções (por exemplo, o sistema "just in time" para reduzir a ociosidade dos estoques), a adequação das práticas operacionais (sistema de qualidade), a diminuição do número de interações entre os atores da produção (centralização das decisões), etc.

Essas providências são amplamente facilitadas pela automação dos processos produtivos e do fluxo de informações (informatização) e implicam a crescente substituição dos processos de produção baseados na combustão (controle lento) pelos processos baseados no uso da eletricidade (controle rápido). Está é uma das razões do maior crescimento da demanda de energia elétrica em relação à das demais formas de energia.

Porém, a conversão do estoque de energia interna da Biosfera (recursos fósseis, físseis e "fundíveis") passa necessariamente, ao menos na tecnologia conhecida, pelo ciclo térmico irreversível e portanto acelera a entropização (uma exceção a esta regra é a célula de combustível).

O efeito negativo das medidas de organização é o desemprego. O trabalhador tem vontade e, por isso, tende a dificultar a organização, além de ser um consumidor. O desemprego, portanto, ataca duas faces do problema energético : facilita a organização e diminui o consumo.

Surtos de desemprego estão, em geral, associados à mecanização ou automação (teares automáticos, colheitadeiras mecânicas, robôs, computador, etc.).O reconhecimento da existência de desemprego estrutural parece indicar que a sociedade está enfrentando um gargalo de entropia.

5 – Os novos conversores energéticos

Outra forma de se abordar o problema energético é a substituição dos hidrocarbonetos por conversores de maior energia interna específica (cf. equação 4) As vantagens vêm da redução do trabalho de circulação do próprio recurso energético e da maior facilidade de estocagem. Nesta linha de raciocínio o candidato à sucessão dos hidrocarbonetos é o urânio (fissão).

A tecnologia da fissão está quase toda dominada tecnicamente, a menos do problema de disposição segura dos rejeitos de todo o ciclo.

Deixando de lado os problemas de segurança, a tecnologia da fissão nuclear mostra um elenco de desvantagens em relação à tecnologia dos hidrocarbonetos :

· o urânio não é matéria prima industrial

· a economia de nêutrons impõe um tamanho mínimo para o reator, limitando a aplicação à geração de energia elétrica e de calor industrial e à propulsão naval

· a eficiência na conversão da energia potencial do núcleo fissionado, levadas em conta as irreversibilidades ao longo do ciclo do combustível nuclear (eficiência exergética), é de cerca de 20% para a central PWR enquanto para a termoeléctrica convencional, de grande porte, chega a 39% (4). A central PWR é um excelente gerador de entropia.

· a energia total que se pode extrair das reservas conhecidas de urânio (3 a 6 ´ 106 toneladas, segundo diferentes estimativas) depende estreitamente da tecnologia adotada. Com as centrais do tipo PWR ("pressurized water reactor") predominantes no cenário mundial, as reservas correspondem à produção de 37 G tEP. Comparada com a extração acumulada de petróleo e gás natural, estimadas para 1990 (5)* em 126 G tEP, aquela cifra é bastante modesta. A introdução das centrais de 3ª geração, com reatores regeneradores ("breeders") permitiria chegar a 1850 G tEP, cerca de 15 vezes a energia extraída até 1990 dos hidrocarbonetos. A passagem das centrais PWR para as centrais com reatores regeneradores exigirá enorme esforço de desenvolvimento tecnológico que terá que ser bancado pela economia baseada nos hidrocarbonetos.

A questão da energia de fissão ultrapassa os limites econômicos e torna-se uma questão de sobrevivência do conceito de estado nacional, que dominou a cena política mundial até o término da 2ª Guerra Mundial. A formação das alianças militares (OTAN, Pacto de Varsóvia) prenunciou a formação dos blocos econômicos (OECD, COMECON, União Européia, NAFTA, MERCOSUL, …). Estes movimentos de reorganização da sociedade humana parecem indicar a subordinação dos conceitos econômicos e políticos à questão energética, pois correspondem às previsões de decadência da extração dos hidrocarbonetos. Todos estes sintomas, combinados com os alarmes sobre a questão ambiental (efeito estufa, chuvas ácidas) parecem indicar que a humanidade sente a necessidade de uma redefinição de propostas, na medida em que a eficiência do processo econômico compromete os requisitos básicos de sobrevivência.

6 – Conclusões

Não há modo de impedir o crescimento da entropia e, em conseqüência, o decréscimo do rendimento econômico. As medidas comentadas são paliativas e, em alguns casos, contraproducentes. Aumentar o consumo de uma minoria de cidadãos em detrimento dos demais, via desemprego, não combina com as declarações de amor à democracia e muito menos com as de amor ao próximo.

Também não adianta culpar os governos pois eles não têm nenhum poder no caso. Não se pode revogar a Lei da Entropia.

As novas tecnologias se desenvolvem à custa de aumento prévio da entropia e elas duram cada vez menos que as anteriores (6).

A situação do Brasil, nesta análise, deve ser estudada como caso especial. Nossa vizinhança imediata não está ainda tão entropizada como a dos países ricos e, portanto, nosso modelo de desenvolvimento não precisa ser uma réplica do modelo alheio. Se a entropização é uma fatalidade, podemos pelo menos nos valer da experiência dos outros para prevenir, a tempo, os problemas futuros. Não há necessidade de se aderir tão entusiasticamente ao modelo consumista e competitivo pois o resultado será a antecipação do tempo das vacas magras e das espigas secas.

Bibliografia

1. Uma história da energia
Daniel Hemery, Jean-Claude Debier, Jean-Paul Deléage
Trad. Sérgio de Salvo Brito
Edunb/1993
Título do original em francês : "Les servitudes de la puissance : une historie de l’énergie"
Flamarion/1986

2. Brasil : o crescimento possível
Carlos Feu Alvim et al.
Editora Bertrand/1996

3. "Resources, environment and economics"
Ayres, R.U
John Wiley/1978

4. "Exergy analysis of thermal, chemical and metallurgical processes"
Jan Szargut, David R. Morris, Frank R. Steward
Hemisphere Publishing Corporation/1988

5. "Energy for tomorrow’s world"
World Energy Council
St. Martins Press/1993

6. "The future"
Cesare Marchetti
International Institute for Applied Systems Analysis/1986

7. "Second Law Analysis of Energy Processes"
Brzustowsky, T.A
Trans. Can. Soc. Mech. Eng/1980

Isabella CHIARI, Ridondanza e linguaggio, un principio costitutivo delle lingue

Prefazione di Tullio De Mauro

Carocci editore, 2002

 

recensione di  Daniela De Meo ( http://nemus.provincia.venezia.it/recens/chiari_txt.htm )

Una parola di più non è necessariamente una parola di troppo.

                                                                                
                                                                                   
Jan Feller

 

semioticaL’autrice, nel presente volume, si interroga sul significato di ridondanza e su come essa si manifesti nelle diverse semiotiche, attraverso una ricerca condotta sia da un punto di vista storico che teorico e applicativo.

 Il testo si articola in tre sezioni:

 –  La storia linguistica della ridondanza

 –  Una considerazione linguistica della ridondanza

 –  Analisi e misurazione di alcuni tipi di ridondanza

 La prima parte si apre con l’analisi del concetto di ridondanza all’interno della teoria dell’informazione (nelle varie definizioni teoriche  e formulazioni matematiche proposte dagli specialisti del settore) in relazione ai concetti generali di comunicazione, informazione ed entropia, e a quelli particolari di incertezza,  disturbo, rumore, equivocazione, codice, crittografia, per citare i più significativi.

La sintesi fornisce un quadro cronologico completo dei metodi proposti dai vari autori citati nel testo, per estendere il concetto di ridondanza dal campo della teoria dell’informazione a quello più specificatamente linguistico; e si articola nell’esposizione dei contributi teoretici fondamentali in relazione alle strutture statistiche del linguaggio, all’economia linguistica, ai bisogni espressivi e alle dinamiche di equilibrio diacronico.

 Obiettivo fondamentale per i teorici dell’informazione è quello di riuscire ad individuare gli strumenti per rendere ottimale la trasmissione di informazione attraverso canali dalla capacità limitata sia dal punto di vista quantitativo che rispetto alla velocità di trasmissione.

 Altro obiettivo importante è quello di dotarsi del migliore sistema di decodificazione possibile in quanto alla potenza e  alla capacità.

I parametri più idonei allo scopo sono individuati nella completezza e nell’economia

 L’informazione è quantificata in una misura H, ed  il messaggio è definito come un modello che trasmette da una sorgente ad un ricevente.
La misura dei mutamenti della nostra conoscenza corrisponde all’informazione contenuta nel messaggio.

 Rilevante di un evento informativo  è il suo grado di imprevedibilità.

 O, in altre parole, il numero di passi indispensabile per identificare la comunicazione fra le altre possibilità.

 In questo senso l’informazione non coincide col “significato”del messaggio, che può risultare irrilevante ai fini della quantificazione dell’informazione.

 Se n eventi possibili hanno p  = 1/n probabilità di realizzarsi, la misura H dell’informazione cresce al crescere di n.

 Se un messaggio è composto da q < n segni, dove gli “n” segni sono tutti equiprobabili in un certo sistema, allora la quantità di informazione trasportata dai “q” segni risulta:

 H = q log n

 Se poi un insieme M contiene “m” segni equiprobabili e quindi  p = 1/m, ogni segno porta una quantità di informazione pari a:

 H = K log m = -K log 1/m = – K log p.

  Se invece  le possibilità non sono tutte uguali, allora la quantità di informazione potenziale risulta uguale a:

 H =KSi pi log pi ,   con K costante positiva dipendente dall’unità di misura.

 Questa formula, che  rappresenta l’informazione, la scelta e l’incertezza di ciascun evento possibile,  come osserva Shannon è, a meno del segno della costante K,  formalmente identica a quella che, in meccanica statistica,  definisce l’entropia di un sistema dinamico e che costituisce il  teorema fondamentale di Bolzmann:

 D s = (S2  –  S1) = K log W ,   dove  D s = S2  –  S1 è la variazione di entropia in una trasformazione di un sistema  termodinamico e  W è la probabilità che il sistema  si trovi in un certo stato.

 

Questa scoperta costituisce il più grande risultato teorico ottenuto da Shannon in teoria dell’informazione.

 

Entropia o energia negativa è la grandezza che in meccanica statistica misura il grado di disordine di un sistema.

 

Più aumenta l’entropia di un sistema dinamico e più diminuisce l’ordine interno del sistema.

 E,  volutamente ridondanti :

più  ordinato è un sistema e minore è la sua entropia interna.

Maggiore è l’incertezza e dunque l’entropia e maggiore risulta la quantità di informazione.

 Meno ordinato è un messaggio e maggiore è la quantità di informazione che fornisce.

Un messaggio scelto tra dieci possibili trasmette una quantità di informazione minore di uno scelto tra mille possibili.

Sono gli eventi meno probabili a fornire un maggior grado di informazione.

Il risultato di una comunicazione è certo  se tutte le possibilità meno una, sono uguali a zero.

Mentre si ha la massima incertezza quando tutte la probabilità sono uguali a 1/n  (una su n possibili)

 Shannon definisce entropia relativa, il rapporto  tra l’entropia della sorgente e il valore massimo di entropia possibile se il messaggio fosse ri-codificato, con lo stesso sistema di simboli,  equalizzando tutte le possibilità di transizione  e rendendo i simboli indipendenti tra loro.

Essa viene definita nella formula:

H / H’  =  H / log n

 dove n rappresenta  il numero dei diversi simboli del testo  e log n  l’entropia massima.

L’ entropia relativa  sarà tanto minore quanto minore è l’informazione contenuta nel messaggio e uguale a 1 quando l’entropia effettiva e quella massima coincidono.

Shannon definisce ridondanza :

1 – H / H’ =  1 – H / log n  (: uno  meno  l’entropia relativa ) 

Essa indica l’indice del gradiente delle frequenze (probabilità) dei fonemi (lettere) in un linguaggio; in realtà  è un indice di struttura interna .

 Minore è l’entropia H e maggiormente strutturato sarà il sistema, mentre l’entropia H’ (equidistribuzione delle probabilità) è indice di mancanza di struttura.

 La ridondanza dunque è legata alla struttura del linguaggio ed è tanto maggiore quanto minore è l’entropia H e quanto maggiore è l’ordine.

 L’ analisi di tutti i concetti legati a quelli di  informazione e ridondanza  (per i quali si rinvia al testo) che Isabella Chiari conduce nel primo capitolo “La ridondanza e la teoria dell’informazione “ del suo saggio, è dettagliata,  ricca  di citazioni e puntuali riferimenti bibliografici .

 Passando all’analisi dei capitoli successivi,

per quanto riguarda “La ridondanza e la teoria del linguaggio”,

Tullio De Mauro (che cura la prefazione del volume) sottolinea più volte il ruolo fondamentale della ridondanza come meccanismo antirumore, come dispositivo  di precorrezione degli errori e come garanzia  per la comprensione degli enunciati.

Il fenomeno della ridondanza produce l’espansibilità della massa lessicale.

 L’approccio del linguista Zipf  invece si concentra sul ruolo della frequenza : studia il rapporto tra la lunghezza delle parole e la loro frequenza d’uso, ed afferma che la lunghezza delle parole tende a mantenersi in un rapporto inverso al numero di occorrenze nei testi.

In relazione ai significati le parole più frequenti risultano semanticamente più generiche.

 Esiste poi una economia della produzione e una della ricezione, le due economie si muovono in direzioni opposte e sono dunque in conflitto:

vi è infatti una "forza" determinata dal desiderio di essere compresi (forza sociale) che conduce all’introduzione della ridondanza, e  un’altra "forza" di pigrizia (forza individuale) che conduce alla brevità e alla semplificazione.

Entrambi questi principi contribuiscono al mantenimento di un equilibrio dinamico con un massimo di economia.

 Martinet specifica ulteriormente la nozione di economia e afferma che l’evoluzione linguistica è retta dall’antinomia permanente tra le esigenze di comunicazione dell’uomo e la sua tendenza a ridurre al minimo sforzo la sua attività mentale e fisica.

 Per De Mauro la ridondanza ha una funzione di stabilizzazione del sistema linguistico nel tempo perché garantisce alle lingue la possibilità di restare stabili in diacronia facendo fronte, col minor numero di innovazioni, al continuo affiorare di nuove esigenze.

Per Dressler la ridondanza è un elemento costitutivo di ogni lingua , nello sviluppo di una lingua la ridondanza deve in sostanza essere conservata.

Il linguista tedesco mira al confronto tra entropia e ridondanza  in lingue naturali e in lingue artificiali e  contribuisce alla chiarificazione della nozione di ridondanza sintagmatica, che risulterebbe dalla diversa frequenza degli elementi di un livello (ad esempio grafemi) ed è riconducibile alla teoria dell’informazione e ai suoi tentativi di misurazione dell’entropia delle lingue.

 La ridondanza paradigmatica è la ridondanza dell’inventario, dipende dal repertorio di elementi del sistema, in altre parole dal grado di saturazione di un sistema linguistico.

 Pulgram osserva che ogni lingua naturale possiede ridondanze, luoghi  dove un significato essenziale per la comprensione del messaggio è veicolato da più di un segnale.

 Il termine ridondanza è variamente presente nelle trattazioni linguistiche delle varie lingue.

La radice etimologica sembra risalire ad una antica forma indoeuropea che sta per "onda".

 In italiano, francese e inglese è "rid-ondante" tutto ciò che sovrabbonda, che eccede, in senso retorico come sinonimo di pleonastico e ripetitivo.

 Nella linguistica contemporanea "ridondanza" significa reiterazione di parole, marche; elementi ridondanti contengono un numero di indici superiore al numero strettamente necessario per l’informazione, gli indici ridondanti sovra-caratterizzano il contenuto.

L’autrice distingue la ridondanza grammaticale dalla ridondanza enunciativa; la prima dipende dalla strutturazione del sistema linguistico prima che esso venga messo in atto nel concreto parlare,  mentre la seconda mette in gioco tutti quei fattori che sono determinati nell’uso linguistico situazionale contestualizzato.

 Alla domanda sulla possibilità delle lingue di non essere ridondanti l’autrice risponde affermando che la ridondanza così come da lei studiata e descritta sia una caratteristica ineliminabile di ogni lingua naturale.

 I bisogni comunicativi, la struttura pluridimensionale delle lingue, il fatto che il processo di comunicazione  non avviene mai nel vuoto o comunque in condizioni ottimali, questi e altri fattori richiedono la presenza di dispositivi che possano garantire il successo della interazione comunicativa.

 In questo senso va intesa la ridondanza come principio costitutivo e regolativo della competenza linguistica.  

 

(Isabella Chiari è dottore di ricerca in Filosofia del linguaggio e collabora con la cattedra di Linguistica generale dell’Università  “la Sapienza” di Roma.)

 

ENTROPIA di Kendros ( http://theperfectstorm.splinder.com/ )

Avvertenza: Questo post è il collage di più commenti di Kendros sul blog di Asmenos(http://ilrasoiodiockham.splinder.com/).

Alcune frasi sono risposte ad altri commenti e appaiono perciò decontestualizzate.

 Il concetto di entropia si applica solo a sistemi termodinamici.
L’entropia non è un concetto filosofico trascendentale, è una grandezza fisica ben precisa, che vale Q/T (calore su temperatura termodinamica assoluta).
A essere più precisi sarebbe l’integrale fatto su un processo termodinamico di ogni scambio infinitesimo di calore fratto la temperatura a cui avviene.
A livello macroscopico è definita a meno di una costante, mentre è universalmente definita la sua variazione, che si misura in Joule/Kelvin. A livello quantistico invece è universalmente definita (microstati elettrodinamici).

entropiaL’entropia inoltre NON è perdita di energia. Se pongo due materiali a contatto a temperature diverse questi giungendo a equilibrarsi termicamente aumentano la loro entropia, ma non perdono energia (dove l’energia interna in questo caso è una funzione dipendende dalla temperatura). Aumenta il disordine, questo è vero.

Ma attenzione a come consideriamo anche il disordine: se ho una tazzina di caffè calma e prendo un cucchiaino e comincio a girarla mettendo il caffè in movimento, quello che in realtà sembrerebbe un aumento del disordine in realtà è un aumento dell’ordine (infatti spendo lavoro per ottenerlo), poichè nello stato in quiete le molecole si muovono all’interno del fluido con direzione e verso casuali, e la somma di tanti moti disordinati crea uno stato di quiete, ma non di ordine, mentre mentre giro il cucchiaino nella tazzina le molecole seguono tutte la stessa direzione, e si muovono quindi ordinatamente.

E’ poi vero che l’entropia è legata alla probabilità di un evento, ma parliamo pur sempre di eventi termodinamici.

Inoltre lo scenario di morte termica dell’universo al momento non è assolutamente tra i più scientificamente accreditati.

Ma anche volendo ammettere che gli stati di organizzazione degli organismi viventi siano stati termodinamici, e se anche fosse valida la teoria della "morte termica", considerata la dimensione della terra nell’universo, considerato il fatto che l’entropia è legata alla probabilità di un evento da una costante di ordine di grandezza 10^-23 (la costante di Boltzmann), considerato il tempo di vita di un organismo vivente se rapportato al tempo ipotetico in cui l’universo arriverebbe alla cosiddetta "morte termica", l’aumento di "organizzazione" delle specie viventi non invalida minimamente il concetto di aumento dell’entropia.
E’ un "infinitesimo di ordine trascurabile" rispetto al totale degli eventi termodinamici nell’universo.

C’è un approfondimento sul legame tra entropia e probabilità di un evento sul mio blog (seconda parte del post "La scienza esatta… o quasi"). C’è qualche spiegazione più dettagliata se vi interessa.

Luna, ti sbagli. Come ho spiegato prima il secondo principio di aumento dell’entropia si applica ai processi termodinamici e SOLO a quelli.

Se metti un uomo bianco vicino a un uomo di colore mica diventano tutti e due grigi…
L’aumento dell’organizzazione in biologia è perfettamente spiegabile dalle leggi che regolano la suddetta disciplina scientifica.
Io non sono un biologo, quindi non entro nel merito. In compenso sono un fisico, quindi entro nel merito per quanto riguarda la fisica, e l’ho fatto nel mio commento precedente.

Oltretutto la teoria dell’evoluzione non parla di "organizzazione crescente" ma di "differenziazione delle specie mediante processi casuali" che è l’esatto opposto di organizzazione.

Ma in ogni caso non è un fenomeno termodinamico.
Cerchiamo di capirci: dove la vedi l’entropia in un processo evolutivo? Viene scambiato calore? L’entropia è una funzione di stato del processo?? NO, pertanto NON E’ un processo termodinamico.
Pertanto il secondo principio della TERMODINAMICA non va applicato.

E’ come se io prendessi la Bibbia e cercassi di usarla come manuale di istruzioni per un computer.

[Kendros !]

PS: Non vi appellate alle leggi della fisica per cercare di dimostrare teorie a favore di un disegno intelligente. Un disegno intelligente violerebbe TUTTE le leggi esistenti, quindi sarebbe ancora più contraddittorio.

 

[@Luna:] anche volendo ammettere di trattare gli esseri viventi come sistemi termodinamici, l’entropia è definita all’interno di un universo termodinamico.
La definizione di universo termodinamico è quella di sitema isolato, ossia di sistema che non scambia nè materia nè energia con l’esterno.
In senso assoluto l’universo è l’unico universo termodinamico esistente, ma possiamo utilizzare delle approssimazioni per ragionare su altri universi termodinamici (il sistema solare, la terra, un bioma, un appartamento, un contenitore adiabatico all’interno di un laboratorio).
Se un universo termodinamico contenesse solo sè stesso non potrebbero esserci scambi di calore al suo interno. Quindi in ogni universo termodinamico si hanno una serie di sistemi interni non isolati, e un ambiente che li circonda costituito da tutta quella parte di universo termodinamico non facente parte di alcuno dei sistemi interni.
L’interazione tra i sistemi e l’ambiente è quella che permette gli scambi di energia.
Il secondo principio della termodinamica, nella sua forma più generale (vi risparmio enunciati sulle macchine termiche, teorema di Carnot, teorema di Clausius etc.) afferma che all’interno di un UNIVERSO termodinamico l’entropia deve aumentare.
In qualsiasi macchina frigorifera l’entropia del sistema (dove per sistema intendiamo la macchina che assorbendo lavoro elettrico raffredda un ambiente) DIMINUISCE, ma quella dell’ambiente AUMENTA in maniera maggiore rispetto a quanto quella del sistema diminuisca.
Se anche ammettiamo che gli esseri viventi siano sistemi termodinamici il cui grado di organizzazione aumenta bisogna considerare l’aumento dell’entropia nell’ambiente circostante (e questo già invalida qualsiasi pretesa di utilizzare l’evoluzionismo contro il secondo principio: l’ambiente terra con cui interagiscono gli esseri viventi è enormemente più grande degli stessi e ciononostante c’è uno stato di degrado visibile, l’entropia è aumentata a passi da gigante direi…).
Se ancora non ti bastasse aggiungiamo che la terra NON è un universo termodinamico in quanto è un sistema chiuso, ma non isolato, poichè non scambia materia con l’esterno, ma scambia energia.

E ancora ripeto che per come è costruita la legge che regola la probabilità entropica degli eventi S=k log(P) dove P è la probabilità di un evento, S è l’entropia associata a quell’evento e k è la costante di Boltzmann, se anche sulla terra si avesse una violazione del principio di aumento dell’entropia (ma non è così e il perchè l’ho scritto prima) considerata la dimensione infinitesima della terra rispetto all’universo è un evento che sarebbe perfettamente accettabile.
Sarebbe la realizzazione di una probabilità infinitesima (ma non nulla) all’interno di una scala di eventi praticamente infiniti. Come una scala reale a poker: estremamente improbabile, ma se fai un milione di miliardi di miliardi di mani vedrai che ti esce.

La vita e l’evoluzione su un pianeta sono lo stesso, solo che l’ordine di grandezza della probabilità è milioni di volte più piccolo. Quello dell’universo è miliardi di volte più grande.

[Alkall io non ammetto un bel nulla.]
Gli esseri viventi NON sono sistemi termodinamici. Ma dato che Luna parte da questo presupposto (falso) è funzionale al discorso accettare il suo presupposto per dimostrarle che comunque non implica nessuna contraddizione tra il secondo principio della termodinamica e la teoria dell’evoluzione.

Detto ciò per favore se non vuoi che torniamo a insultarci risparmiati certe affermazioni prive di qualsiasi senso.

"In realtà tutta l’energia che può diventare calore (o cambiare stato di energia), è un sistema entropico…"

Ma mi spieghi cosa vuol dire?? Cambiare stato di energia è una espressione priva di senso.
L’energia può cambiare forma, ma non cambia "stato". Ma non vuol dire che tutta l’energia possa essere trattata termodinamicamente.
Nemmeno per sbaglio.
Cosa sarebbe poi un "sistema entropico"?? Un sistema termodinamico volevi dire forse??

Sul fatto che la terra non scambi materia col resto dell’universo a meno di infinitesimi di ordine trascurabile è una frase assolutamente vera.

Anche l’espressione "e neppure che lo scambio di energia non sia in relazione e dipendenza con le altre dimensioni fisiche" è di nuovo una cosa che non ha alcun senso.
Da un punto di vista proprio del significato della frase.
E stavolta non riesco nemmeno a capire cosa avresti voluto dire, non capisco che significato dai all’espressione "dimensioni fisiche" perchè ti giuro che il significato che io associo a queste parole non c’entra una fava col resto del discorso.

Detto ciò vediamo di fare una precisazione per chiudere il discorso.

Il secondo principio della termodinamica afferma che:
"E’ impossibile costruire una macchina che abbia come UNICO risultato la trasformazione integrale di calore in lavoro."
"E’ impossibile costruire una macchina che abbia come UNICO risultato il passaggio di calore da un corpo più freddo a uno più caldo."

Enunciati successivi che introdussero la grandezza entropia (che ricordiamolo, si misura in Joule fratto Kelvin, non è un concetto filosofico) affermarono che:

"In un processo termodinamico la variazione di entropia è sempre maggiore di zero se il processo è irreversibile, uguale a zero se il processo è reversibile."

E anche:
"All’interno di un universo termodinamico l’entropia non può mai diminuire e tutti i processi termodinamici spontanei avvengono sempre nel verso di maggior aumento dell’entropia."

Questi sono tutti gli enunciati del secondo principio della termodinamica. Essi hanno senso SOLO se si considera l’entropia come CALORE/TEMPERATURA.
Essendo che questo principio ha delle interessanti conseguenze a livello filosofico viene spesso tirato in ballo A SPROPOSITO in campi dove NON dovrebbe essere applicato.
Allo stesso modo grandezze chiamate "entropia" che misurano lo stato di disordine di un sistema sono state introdotte in vari campi, come l’economia, la linguistica e a quanto pare stando a Luna anche in biologia. Ma finchè non viene definita l’entropia dal punto di vista fisico applicare il secondo principio della termodinamica è una stronzata. Perchè se io dico "l’entropia è il disordine e il disordine aumenta sempre" dico una cosa FALSA.
Che l’entropia sia un indice del grado di disordine è vero, ma il grado di disordine riguarda il moto browniano delle molecole, in altre parole è un disordine termico.
Allora in economia si è ridefinita l’entropia attraverso delle grandezze tipiche del campo, e si è cercato di capire se anche in economia ci fosse un principio di aumento dell’entropia in atto (e ci stanno ancora lavorando), ma a questo punto parliamo di due grandezze diverse con lo stesso nome, per le quali NON è detto che valgano gli stessi principi.
Lo stesso vale per la linguistica (dove il principio entropico peraltro vale esattamente al contrario, per l’appunto).

Luna, io non so quale sia il libro che stai leggendo, ma mi piacerebbe saperlo, perchè contiene una serie di affermazioni false e una serie di affermazioni molto discutibili.
Compresa questa:
"la seconda legge della termodinamica costituisce la legge più generale delle scienze naturali".

FALSISSIMO.
Innanzitutto non è una legge, è un principio. E sai qual’è la differenza??

Esattamente questa: una legge (fisica) ha validità in qualunque contesto tu la applichi.
Un principio (fisico) ha validità solo nel contesto in cui è stato enunciato (la termodinamica in questo caso).
Anch’io spesso confondo i due significati con abuso di linguaggio, questo perchè spesso mi prendo una libertà che la lingua italiana mi concede anche se il linguaggio tecnico non me la concederebbe.
Con questo spero che il discorso sia chiaro.