Entropía termodinámica y entropía de información

 

1.1    La igualdad entre entropía termodinámica y entropía de la información

El conocido físico israelí Jakob D. Bekenstein nos contaba, allá por 2006, en un artículo publicado en Investigación y Ciencia, que en determinadas condiciones, la entropía de la información de Shannon se igualaría a la entropía termodinámica de Boltzmann, cuando considerásemos los bits de información contenidos en la naturaleza de la materia más elemental. Recordamos que Bekenstein calculó la entropía de un agujero negro[1]

S=kBc3A/4Għ

Utilizando los resultados de Hawking sobre la temperatura de agujero negro[2]

T=hc3/(16πkBGM)

Lo que implicaba que necesariamente un agujero negro tuviera entropía (antes se creía que no la tenían, pues no tendrían temperatura).

Basándose en el concepto del universo holográfico, la conjetura de Maldacena juega un papel fundamental aquí, establece una ligazón entre la entropía termodinámica dada arriba con la entropía de la información de Shannon, concluyendo que ambas serán iguales en los niveles fundamentales de la naturaleza (aún cuando asume que tales niveles nos son aún desconocidos), mostrando tal correspondencia.

¿Igualdad entre entropía de Shannon y entropía de Boltzmann-Gibbs?

 

Shannon:                     H(X) = -Σ p(x) log(p(x)). 

Boltzmann-Gibbs:     S = kB Σ pi ln(pi) o S = kB ln(Ω). 

¿Cómo puede ser que ambas entropías den el mismo resultado?

¿Y por qué no dan el mismo resultado cuando las calculamos para un sistema físico dado?

En principio la entropía de Shannon se refiere a un grado de libertad que puede variar entre dos estados posibles, en cambio la entropía de Boltzmann se refiere a tres (espacio), o seis (espacio-velocidades) que pueden variar entre un número infinito (o, por lo menos muy grande) de estados (valores) posibles.

¿Pero qué pasaría si en realidad los bits de información pudieran variar entre infinitos estados posibles (o, por lo menos muchos)?

Ya el logaritmo debería dejar de tener base 2, pues no serían dos posibles estados, y la base sería e, el número de Neper. Esto dejaría

H(x) = - p(x)ln(p(x))

Pero entonces si

S= kB∙∑piln(pi)

Encontramos una similitud sorprendente entre ambas, pues bastaría hacer que

p(x)=kBpi

Ahora hay que desentrañar qué es p(x).

p(x): Es la probabilidad de un suceso específico "x" que puede ocurrir en la variable aleatoria X.

y por su parte, pi en la entropía de Boltzmann es

pi representa la probabilidad de que el sistema se encuentre en el i-ésimo microestado.

O sea, con diferentes palabras, son lo mismo, o casi.

Comentarios

Entradas populares de este blog

¿Por qué se usa una bobina superconductora para generar el campo magnético más grande del mundo y no una bobina de cobre?

La idea es simple (pero todo lo que implica de trabajo)