Entropía termodinámica y entropía de información
1.1 La igualdad entre entropía termodinámica y entropía de la información
El conocido físico israelí Jakob D. Bekenstein nos contaba,
allá por 2006, en un artículo publicado en Investigación y Ciencia, que en
determinadas condiciones, la entropía de la información de Shannon se igualaría
a la entropía termodinámica de Boltzmann, cuando considerásemos los bits de
información contenidos en la naturaleza de la materia más elemental. Recordamos
que Bekenstein calculó la entropía de un agujero negro[1]
S=kBc3A/4Għ
Utilizando los resultados de Hawking sobre la temperatura de
agujero negro[2]
T=hc3/(16πkBGM)
Lo que implicaba que
necesariamente un agujero negro tuviera entropía (antes se creía que no la
tenían, pues no tendrían temperatura).
Basándose en el concepto
del universo holográfico, la conjetura de Maldacena juega un papel fundamental
aquí, establece una ligazón entre la entropía termodinámica dada arriba con la
entropía de la información de Shannon, concluyendo que ambas serán iguales en
los niveles fundamentales de la naturaleza (aún cuando asume que tales niveles
nos son aún desconocidos), mostrando tal correspondencia.
¿Igualdad entre entropía de Shannon y entropía de Boltzmann-Gibbs?
Shannon: H(X) = -Σ p(x) log₂(p(x)).
Boltzmann-Gibbs: S = kB Σ pi ln(pi)
o S = kB ln(Ω).
¿Cómo puede ser que ambas entropías den el mismo resultado?
¿Y por qué no dan el mismo resultado cuando las calculamos
para un sistema físico dado?
En principio la entropía de Shannon se refiere a un grado de
libertad que puede variar entre dos estados posibles, en cambio la entropía de
Boltzmann se refiere a tres (espacio), o seis (espacio-velocidades) que pueden
variar entre un número infinito (o, por lo menos muy grande) de estados
(valores) posibles.
¿Pero qué pasaría si en realidad los bits de información
pudieran variar entre infinitos estados posibles (o, por lo menos muchos)?
Ya el logaritmo debería dejar de tener base 2, pues no serían
dos posibles estados, y la base sería e, el número de Neper. Esto dejaría
H(x) = -∑ p(x)∙ln(p(x))
Pero entonces si
S= kB∙∑pi∙ln(pi)
Encontramos una similitud sorprendente entre ambas, pues bastaría
hacer que
p(x)=kB∙pi
Ahora hay que desentrañar qué es p(x).
p(x): Es la
probabilidad de un suceso específico "x" que puede ocurrir en la
variable aleatoria X.
y por su parte, pi en la entropía de Boltzmann es
pi representa la probabilidad de que el sistema
se encuentre en el i-ésimo microestado.
O
sea, con diferentes palabras, son lo mismo, o casi.
[1] Ver apéndice B.
[2] Ver apéndice A.
El artículo y los apéndices, aquí 👇
Igualdad entre entropía termodinámica y entropía de informacion.docx
Igualdad entre entropía termodinámica y entropía de informacion.pdf
Comentarios
Publicar un comentario