Entropía

De Wikipedia, la enciclopedia libre.
Saltar a navegación Saltar a búsqueda
Nota de desambiguación.svg Desambiguación : si está buscando otros significados, consulte Entropía (desambiguación) .
El derretimiento del hielo se produce con un aumento de la entropía.

La entropía (del griego antiguo ἐν en , "interior", y τροπή tropé , "transformación") es, en mecánica estadística , una cantidad (más específicamente una coordenada generalizada ) que se interpreta como una medida del desorden presente en un sistema. físico , incluido, como caso extremo, el Universo . Generalmente está representado por la letra . En el Sistema Internacional se mide en julios dividido por kelvin (J / K).

En la termodinámica clásica , el primer campo en el que se introdujo la entropía, es una función de estado de un sistema en equilibrio termodinámico , que, al cuantificar la indisponibilidad de un sistema para producir trabajo , se introduce junto con la segunda ley de la termodinámica . Sobre la base de esta definición se puede decir, de forma no rigurosa pero explicativa, que cuando un sistema pasa de un estado de equilibrio ordenado a uno desordenado , su entropía aumenta; este hecho proporciona indicaciones sobre la dirección en la que un sistema evoluciona espontáneamente.

El enfoque molecular de la mecánica estadística generaliza la entropía a los estados de no equilibrio, correlacionándola más estrechamente con el concepto de orden, precisamente con las posibles disposiciones diferentes de los niveles moleculares y, por lo tanto, las diferentes probabilidades de los estados en los que un sistema puede encontrarse macroscópicamente [1 ] .

El concepto de entropía se ha extendido a áreas que no son estrictamente físicas, como las ciencias sociales , la teoría de señales , la teoría de la información , ganando una gran popularidad.

Entropía y desorden

El concepto de "entropía" es bastante complejo y se requiere al menos un conocimiento básico de termodinámica y mecánica cuántica para comprender completamente su significado; de hecho, existen al menos dos definiciones rigurosas de entropía: una definición macroscópica, proporcionada por la termodinámica y una definición microscópica, proporcionada por la mecánica cuántica.

Sin embargo, es posible dar una explicación simplificada de la entropía, interpretándola como el "grado de desorden" de un sistema . Así, un aumento del "desorden" de un sistema se asocia con un aumento de la entropía, mientras que una disminución del "desorden" de un sistema se asocia con una disminución de la entropía; sin embargo, es necesario aclarar que el trastorno es relativo, por lo que la explicación simplificada no equivale a la exacta; sin embargo, esto sirve para representar el concepto.

Para mayor claridad, la siguiente figura muestra tres configuraciones del mismo sistema que consta de 24 objetos, en los que hay un aumento del desorden (es decir, un aumento de la entropía) que va de izquierda a derecha y una disminución del desorden (es decir, una disminución de la entropía). ) yendo de derecha a izquierda.

Representación del grado de desorden de un sistema: ordenado (a), con bajo grado de desorden (b) y desordenado (c).

La siguiente figura muestra un ejemplo práctico en termodinámica en el que hay un aumento del desorden (es decir, un aumento de la entropía). En este caso los "objetos" son moléculas de dos gases (cada gas tiene un color diferente), por ejemplo supongamos que las bolas azules son moléculas de oxígeno y las bolas rojas son moléculas de nitrógeno.

Representación de un sistema (formado por dos gases diferentes) en el que aumenta la entropía.

Inicialmente, los gases se ubican en dos compartimentos sellados, de modo que solo están presentes moléculas del mismo tipo de gas en cada compartimento. Si los dos compartimentos se ponen en comunicación (por ejemplo, abriendo una válvula ), los dos gases se mezclan entre sí y hay un aumento del desorden, o un aumento de la entropía (que en este caso se llama "cambio en la entropía de la mezcla ").

En el ejemplo anterior asistimos a un aumento "espontáneo" de la entropía (fue suficiente para poner los dos compartimentos en comunicación). Este aumento de entropía espontáneo siempre ocurre en la naturaleza, mientras que no ocurre una disminución de entropía espontánea. Este hallazgo empírico se traduce en el hecho de que las configuraciones "desordenadas" son las más probables y corresponden a la llamada " Segunda Ley de la Termodinámica ".

Otros sistemas que pueden asumir diversos grados de desorden son los materiales metálicos . De hecho, pueden asumir las siguientes estructuras:

  • estructura cristalina (ordenada): los átomos están dispuestos de manera ordenada; una estructura cristalina está formada por varias "células" todas idénticas entre sí, que se repiten en el espacio; en este caso hablamos de "orden de largo alcance";
  • estructura policristalina (parcialmente ordenada): hay más "cristales" (estructuras ordenadas) dentro del material; en este caso hablamos de "orden de corto alcance";
  • estructura amorfa (desordenada): los átomos están dispuestos de manera completamente desordenada; no hay orden de corto alcance ni de largo alcance.
Posibles estructuras de un material metálico: estructura cristalina (izquierda), estructura policristalina (centro) y estructura amorfa (derecha).

El desorden de las estructuras de los materiales metálicos también aumenta en presencia de los denominados " defectos cristalinos " (incluida la inclusión de otro tipo de átomos o la falta de un átomo en una posición de la red), cuya presencia determina una aumento del contenido entrópico del material.

Historia y definición

El concepto de entropía se introdujo a principios del siglo XIX , en el campo de la termodinámica, para describir una característica (cuya generalidad fue observada por primera vez por Sadi Carnot en 1824) de todos los sistemas entonces conocidos, en la que Se observó que las transformaciones ocurrieron espontáneamente en una sola dirección, la hacia el mayor desorden.

En particular, el término "entropía" fue introducido por Rudolf Clausius en su Abhandlungen über die mechanische Wärmetheorie ( Tratado sobre la teoría mecánica del calor ), publicado en 1864. En alemán, Entropie deriva del griego ἐν en , "inside", y de τροπή tropé , "cambio", "punto de inflexión", "agitación" (en el modelo de Energie , " energía "): para Clausius indicaba dónde termina la energía suministrada a un sistema. Propiamente Clausius quiso referirse al vínculo entre el movimiento interno (al cuerpo o sistema) y la energía interna o el calor, vínculo que hizo explícita la gran intuición de la Ilustración , que de alguna manera el calor debería referirse al movimiento mecánico de partículas en el interior. el cuerpo. De hecho, lo definió como la relación entre la suma de los pequeños ( infinitesimales ) incrementos de calor , dividida por la temperatura absoluta durante el cambio de estado.

Para aclarar el concepto de entropía podemos presentar algunos ejemplos:

  • Si dejamos caer una gota de tinta en un vaso de agua , podemos observar que, en lugar de quedar una gota más o menos separada del resto del ambiente (que era por tanto un estado completamente ordenado), la tinta comienza a difundirse y, en un tiempo determinado, determina una mezcla uniforme (estado completamente desordenado). Es una experiencia común que, si bien este proceso ocurre espontáneamente, el proceso inverso, separar el agua y la tinta, requiere energía externa.
  • Imaginemos un perfume contenido en una botella llena como un conjunto de moléculas puntuales con una cierta velocidad derivada de la temperatura del perfume. Mientras la botella esté tapada con corcho, es decir, aislada del resto del universo, las moléculas quedan encerradas en su interior y, al no tener espacio porque la botella está llena, permanecen bastante ordenadas ( estado líquido ); pero al descorchar la botella, las moléculas de la superficie del líquido comienzan a desprenderse de las demás y, al chocar accidentalmente entre sí y contra las paredes de la botella, salen de la misma dispersándose hacia el exterior ( evaporación ). Después de algún tiempo, todas las moléculas habrán salido y se habrán dispersado. En ese punto, incluso si algunas moléculas hubieran vuelto a entrar accidentalmente en la botella, el sistema general ahora está desordenado y la energía térmica que puso en movimiento el fenómeno se dispersa y, por lo tanto, ya no es recuperable (hay un equilibrio dinámico ).

El concepto de entropía ha experimentado una gran popularidad en los siglos XIX y XX, gracias a la gran cantidad de fenómenos que ayuda a describir, hasta dejar la esfera puramente física y ser adoptado por las ciencias sociales, en la teoría de señales , en informática teórica y en la economía . Sin embargo, cabe señalar que existe una clase de fenómenos, denominados fenómenos no lineales (por ejemplo, fenómenos caóticos ) para los que las leyes de la termodinámica (y por tanto también de la entropía) deben revisarse profundamente y ya no tienen validez general.

Postulado de la entropía

Una propiedad fundamental, también llamada (incorrectamente [2] ) el postulado de la entropía , establece que en un sistema aislado la entropía del sistema nunca disminuye y, durante un proceso ordinario irreversible, aumenta. La prueba es la siguiente: considere un sistema aislado tanto mecánica como térmicamente que, debido a una perturbación interna, se mueve de un estado a un estado . Dado que la entropía es una función de estado, por definición su variación no depende del camino seguido, sino solo del estado inicial y final, es posible concebir un proceso reversible que nos devuelva de para . Para la desigualdad de Clausius tenemos:

Pero este circuito se puede dividir en la suma de las dos integrales por el estado al y viceversa:

La primera integral es cero ya que el proceso es adiabático , es decir, al estar aislado el sistema no sufre transferencias de calor con el exterior. La segunda integral se puede escribir en la forma:

Luego:

Es decir:

Definición termodinámica

La variación de la función de estado de entropía. fue introducido en 1864 por Rudolf Clausius en el campo de la termodinámica como: [3]

Dónde está es la cantidad de calor absorbido o liberado de manera reversible e isotérmica por el sistema a temperatura .

En forma diferencial, la ley se ve así: [4]

Aunque no es un diferencial exacto , divídelo por la temperatura lo hace así: por tanto, es el factor de integración . Es más, es una diferencia exacta si y solo si la segunda ley de la termodinámica es válida.

En una de sus varias formulaciones, la segunda ley de la termodinámica establece que en un sistema aislado la entropía solo puede aumentar, o al menos permanecer constante durante ciclos termodinámicos reversibles.

Gases perfectos

Transformación isotérmica reversible

La energía interna es para un gas ideal. en función de la temperatura únicamente, en condiciones isotérmicas , por tanto, aplicando el primer principio de la termodinámica tenemos la igualdad de calor y trabajo intercambiados, es decir:

se sigue que para una transformación entre estados Y en ausencia de trabajo isocórico , tenemos:

[5]

para un mol de gas ideal, de la ecuación de estado de los gases ideales :

es decir:

asi que:

Podemos reescribir la ecuación anterior en función de la presión, si consideramos que en este caso particular (transformación isotérmica reversible de un gas ideal) [6] .

es decir:

asi que:

Transformación isocórica reversible

De la definición de entropía:

en el cual es el calor específico molar a volumen constante (función de la temperatura) e es su promedio entre temperaturas Y .

Entonces, para un mol de gas perfecto:

Transformación isobárica reversible

Siguiendo el mismo procedimiento, podemos escribir:

en el cual es el calor específico molar a presión constante (función de la temperatura) e es su promedio entre temperaturas Y .

Entonces, para un mol de gas perfecto:

Transformación reversible

La entropía es una función de estado, considerando cualquier transformación reversible de un estado a uno , con presión , temperatura y volumen ocupado definidos, es posible calcular la variación de entropía realizando la integral de Clausius

en cualquier camino reversible , por ejemplo en la composición de una isócoro reversible con una isoterma reversible. Se obtiene por n moles (dependiendo solo de los estados Y ):

de lo cual, aplicando la noción de función de estado , obtenemos una formulación analítica para la entropía en función de las variables de estado, hasta una constante aditiva:

Equivale, mediante la ecuación de estado de los gases ideales , a las otras dos formas, a veces útiles, siempre definidas hasta una constante aditiva:

En el cual es el coeficiente de politrópico . Por tanto, se observa que en las transformaciones adiabáticas reversibles la entropía permanece constante (por esta razón también se denominan isentrópicas).

Sistemas de materiales

Para calcular la entropía asociada a los sistemas materiales, es posible realizar una integración que también tenga en cuenta las contribuciones por cambios de estado. Para una sustancia gaseosa a una temperatura , la entropía molar se puede derivar de

Dónde está , , son respectivamente los calores específicos de la sustancia en estado sólido, líquido y gaseoso mientras , son el calor latente de fusión y el calor latente de ebullición, respectivamente .

Energía y entropía

Suponiendo que todo el universo es un sistema aislado , es decir, un sistema para el que es imposible intercambiar materia y energía con el exterior, el primer y segundo principios de la termodinámica se pueden resumir de la siguiente manera:

la energía total del universo es constante y la entropía total aumenta continuamente hasta que se alcanza un equilibrio

declaración válida para cualquier sistema aislado.

Esto significa que la energía no solo no se puede crear ni destruir, sino que no se puede transformar completamente de una forma a otra sin que una parte se disipe en forma de calor.

Por ejemplo, si se quema un trozo de carbón , su energía se conserva y se convierte en energía contenida en dióxido de carbono , dióxido de azufre y otros residuos de combustión, así como en forma de calor. Aunque no se perdió energía en el proceso, no podemos revertir el proceso de combustión y recrear la pieza original de carbón a partir de sus desechos.

Por tanto, la segunda ley de la termodinámica puede redefinirse de la siguiente manera: «Es imposible realizar una transformación cuyo único resultado sea la conversión en trabajo de todo el calor absorbido por una fuente homogénea» (formulación de Kelvin-Planck).

El estado en el que la entropía alcanza su valor máximo y no hay más energía libre disponible para realizar el trabajo se denomina estado de equilibrio. Para todo el universo, concebido como un sistema aislado, esto significa que la conversión progresiva del trabajo en calor (por el principio de aumentar la entropía total), frente a una masa de universo finita, conducirá finalmente a un estado en el que la todo el universo estará en condiciones de temperatura uniforme; la llamada muerte térmica del Universo .

La entropía caracteriza la dirección de cualquier transformación real como una transformación irreversible: de hecho, incluso volviendo de un estado final a uno idéntico al estado inicial para temperatura, volumen, presión u otros parámetros, como ocurre continuamente en los ciclos de una máquina térmica, al menos una variable física diferiría del punto de partida: la entropía (que inevitablemente ha aumentado).

Cualquier transformación real es una transformación irreversible porque aumenta la entropía; viceversa, la hipótesis de idealidad es equivalente a la hipótesis de una variación de entropía cero.

Definición cuántica de entropía

Mientras que en la visión antrópica la entropía siempre se expresa en términos de variación, y nunca en términos absolutos, en la mecánica cuántica es posible definir la entropía en términos absolutos, por ejemplo a través del entrelazamiento .

Considere dos sistemas Y , cada uno con un espacio Hilbert asociado , . El estado del sistema compuesto es entonces:

En general, no es posible asociar un estado puro con el componente . Sin embargo, todavía es posible asociarle una matriz de densidad . Definamos el operador de proyección

.

El estado de es el rastro parcial de sobre la base del sistema :

.

Por ejemplo, para el "clásico" estado entrelazado de Y , cada uno de los cuales consta de dos estados puros "0" y "1"

la matriz de densidad es

y la matriz de densidad de estado puro de Y

que es simplemente la proyección del operador . Tenga en cuenta que la matriz de densidad del sistema compuesto, , tiene la misma forma. Esto no es sorprendente, ya que el estado entrelazado clásico es un estado puro.

Dada cualquier matriz de cualquier densidad, , podemos calcular la cantidad

Dónde está es la constante de Boltzmann , y la traza se toma en el espacio donde se define . Parece que es exactamente la entropía del sistema correspondiente a .

La entropía de cualquier estado puro es cero, ya que no hay incertidumbre sobre el estado del sistema. La entropía de cada uno de los dos subsistemas. Y enredado es simplemente , el máximo permitido para un sistema de dos estados.

Si el sistema en su conjunto es puro, la entropía de cada subsistema puede usarse para medir el grado de "entrelazamiento" con los otros subsistemas.

También se puede mostrar cómo los operadores unitarios que actúan sobre un estado, como el operador de evolución temporal obtenido de la ecuación de Schrödinger , dejan la entropía sin cambios. Por tanto, la reversibilidad de un proceso está asociada a su variación de entropía, confirmando así la teoría termodinámica y, al mismo tiempo, la entropía de una señal según la teoría de la información .

Definición estadística

En mecánica estadística, el estudio de la entropía es un medio para obtener información macroscópica a partir de configuraciones microscópicas. Se imagina intuitivamente que a una determinada condición de equilibrio macroscópico del sistema (estado macroestado o termodinámico del sistema, definido por valores precisos de cantidades como presión y temperatura), corresponden diferentes configuraciones microscópicas (estados dinámicos o microestados, definidos únicamente si se conocen la posición y la velocidad de todas las moléculas del sistema).

Tales configuraciones microscópicas ocupan un volumen en el espacio de fase que se indica con . Entonces podemos definir la entropía de acuerdo con el principio de Boltzmann como: [3] [7]

Dónde está es la constante de Boltzmann .

Podemos definir como la medida del conjunto de todos los arreglos posibles (o probabilidades macroscópicas) de niveles moleculares: por lo tanto, representa el número total de estados accesibles al sistema a la temperatura . Esta medida tiene en cuenta la indistinguibilidad entre partículas al introducir el factor de corrección de Gibbs.

Para comprender el significado físico de tomemos como ejemplo un caso de entropía mezclando refiriéndose a un cristal de átomos . Supongamos que insertamos átomos (similar en tamaño y desde un punto de vista electrónico) en los sitios de por simple sustitución: de esta manera tenemos un número de átomos y varios átomos che si distribuiscono nei siti del cristallo. Man mano che introduciamo gli atomi nei siti di aumenta il numero delle configurazioni possibili tra gli atomi e , cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazioni corrisponde al numero di modi possibili di distribuire a caso e oggetti su siti e vale:

In generale, se nel cristallo di A vengono introdotti diversi tipi di atomi simili ( , , ecc.), il numero massimo di configurazioni possibili vale:

A temperature ordinarie, nei gas, queste disposizioni seguono la distribuzione di Maxwell-Boltzmann , ma l'approccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige l'indistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allo zero assoluto , le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella di Fermi-Dirac o di Bose-Einstein (a seconda del fatto che ricadano o meno sotto il principio di esclusione di Pauli ).

La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del 1896, si è dimostrata l'espressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per l'entropia in termodinamica classica.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica e in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale a una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) di agitazione molecolare .

Dall'equazione , con alcune considerazioni combinatorie su e dalla distribuzione di Boltzmann degli stati possibili, si giunge alla:

dove è la temperatura , energia termica , costante dei gas , la funzione di partizione , e la costante di Avogadro .
La formula torna utile per il calcolo di nei gas.

Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto a una delle sue variabili naturali , e (energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sull' ipotesi ergodica che postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sull'ensemble -Gibbs- ).

Entropia di Gibbs

Lo stato macroscopico di un sistema è descrivibile dalla distribuzione di una serie di microstati . L'entropia di questo sistema è calcolata con la formula di Willard Gibbs .
Per un sistema della fisica classica (es. una collezione di particelle) avente un numero discreto di microstati, se indichiamo con l'energia dell'i-esimo microstato, e con la relativa probabilità che si verifichi durante le fluttuazioni del sistema, allora l'entropia di tale sistema è data da:

,

dove:
la quantità è la costante di Boltzmann, che, come l'entropia, è misurata in unità di capacità termica , mentre il logaritmo è un numero adimensionale.
Questa entropia è chiamata indifferentemente anche entropia statistica , oppure entropia termodinamica . Tale formula è la versione discreta dell' Entropia di Shannon . L'entropia di von Neumann è a sua volta una estensione dell'Entropia di Gibbs al fenomeno quanto-meccanico .
È stato dimostrato [8] che l'Entropia di Gibbs è del tutto equivalente alla definizione classica di entropia:

Equazione di bilancio

In un sistema isolato , ilsecondo principio della termodinamica asserisce che l'entropia può solo aumentare. In un sistema aperto , in cui quantità come calore, energia e massa possono fluire verso e dall'esterno, l'entropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere una equazione di bilancio .

Un sistema aperto è generalmente definito da un volume di controllo , ovvero una porzione dello spazio che determina il sistema in esame. Tutto ciò che non è contenuto in questo volume è esterno al sistema. L'entropia del sistema varia nel tempo, e la sua derivata è determinata da un'equazione di bilancio del tipo

dove , denotano rispettivamente la corrente di entropia netta e quella generata all'interno del sistema. Tutte queste quantità sono derivate temporali. In una equazione di bilancio normalmente il secondo termine può essere negativo, qui invece no conformemente alsecondo principio della termodinamica .

I termini di bilancio possono essere esplicitati nel modo seguente:

In questa espressione ciascuna delle correnti di entropia è spezzata in due addendi:

  • il termine conduttivo tiene conto dello scambio di calore con una sorgente termica esterna a temperatura .
  • il termine convettivo tiene conto della variazione di entropia dovuta a masse entranti o uscenti dal sistema; il termine indica la variazione di massa e l'entropia per unità di massa;

In un sistema chiuso il termine convettivo è nullo, per cui la relazione diventa:

In un sistema isolato si annullano anche i termini entropici legati al flusso termico, per cui:

Entropia nell'informazione

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Entropia (teoria dell'informazione) .

Si deve a Claude Shannon lo studio dell'entropia nella teoria dell'informazione, il suo primo lavoro sull'argomento si trova nell'articolo Una teoria matematica della comunicazione del 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media.

Nella teoria dell'informazione - e in rapporto alla teoria dei segnali - l'entropia misura dunque la quantità di incertezza o informazione presente in un segnale aleatorio, che può essere interpretata anche come la minima complessità descrittiva di una variabile aleatoria , ovvero il limite inferiore della compressione dei dati. La connessione con l'entropia termodinamica sta allora nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi l'aumento della compressione. L'entropia dell'informazione raggiunge un minimo, che in generale è diverso da zero, al contrario dell'entropia termodinamica (vedi terzo principio della termodinamica ).

Tale risultato era implicito nella definizione statistica dell'entropia di John Von Neumann , anche se lo stesso Von Neumann, interrogato al riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione. Come ricordò Shannon più tardi a proposito del risultato da lui trovato:

«La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione , ma la parola era fin troppo usata, così decisi di chiamarla incertezza . Quando discussi della cosa con John Von Neumann, lui ebbe un'idea migliore. Mi disse che avrei dovuto chiamarla entropia , per due motivi: "Innanzitutto, la tua funzione d'incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l' entropia , così in una discussione sarai sempre in vantaggio"»

Entropia nell'economia

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Entropia (economia) .

Georgescu-Roegen applicando il secondo principio della termodinamica all' economia , e in particolare all' economia della produzione, ha introdotto una teoria economica che discute i fondamentali della decrescita : ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) l'entropia del sistema- Terra : tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato sull'ambiente.

Note

  1. ^ Gordon M. Barrow, Physical Chemistry , WCB, McGraw-Hill, 1979
  2. ^ Poiché è dimostrabile, non è un vero postulato .
  3. ^ a b ( EN ) IUPAC Gold Book, "entropy"
  4. ^ ( EN ) JM Smith, HCVan Ness; MM Abbot, Introduction to Chemical Engineering Thermodynamics , 4ª ed., McGraw-Hill, 1987, p. 150. ISBN 0-07-100303-7
  5. ^ indica il volume molare, pari al volume rapportato al numero di moli, ovvero:
  6. ^ Infatti, dalla definizione dell' entalpia : ; e in termini differenziali: . Ma dU e dH sono nulli essendo la trasformazione a temperatura costante, quindi , ovvero
  7. ^ ( EN ) JM Smith, HCVan Ness; MM Abbot, Introduction to Chemical Engineering Thermodynamics , 4ª ed., McGraw-Hill, 1987, pp. 159-163. ISBN 0-07-100303-7
  8. ^ ET Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Controllo di autorità Thesaurus BNCF 19353 · LCCN ( EN ) sh85044150 · GND ( DE ) 4014894-4 · BNF ( FR ) cb12099111d (data) · BNE ( ES ) XX528989 (data) · NDL ( EN , JA ) 00562019