Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

La entropía

12/24
Recursos

Aportes 9

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Hola a todos. Cuando se habla de entropía se tiende a pensar en el grado de desorden, siendo éste debido a la gran cantidad de estados que se encuentran en un sistema. Pero la entropía realmente se debe pensar directamente en la cantidad de estados presentes en un sistema, y que dependiendo de éstos estados hay o no desorden. De hecho la definición de entropía dada por Boltzmann es proporcional al logaritmo del número de estados presentes en el sistema.
Saludos!!

Sobre todo en teoría de la información, es mas conveniente y acertado pensar en la entropía como una medida probabilística de la perdida de información en los estados de un sistema. El ejemplo de la baraja es bastante bueno, en una mano de poker el estado dado por la combinación única de una “escalera real” es muy poco probable comparado por ejemplo con la mano “par” que consta de dos cartas del mismo valor de cualquiera de los palos y tres cartas diferentes arbitrarias. Si digo: tengo una escalera real, está claro que cartas poseo con toda certeza (probabilidad de incertidumbre cero), en cambio si digo: tengo un “par”, no se sabe el valor ni los palos que tiene el par y mucho menos las tres cartas restantes (probabilidad de incertidumbre alta). Al haber mas combinaciones posibles de cartas (configuraciones o micro-estados) que den lugar a un “par” (macro-estado) la hace una mano mas frecuente y por tanto mas probable y es lógico que tenga menor valor en el juego de poker. Todos los sistemas evolucionan hacia macro-estados mas probables, es decir donde el número de micro-estados compatibles con ese macro estado sea mas grande y consecuentemente con más incertidumbre (sin importar si estos estados parecen mas ordenados o no). Todo los sistemas evolucionan hacia la desinformación.

Una pequeña corrección en el slide de von Newmann, aunque \rho esta relacionada con los estados cuánticos de un sistema, esta se define como la matriz densidad, más no como los estados cuánticos. De hecho es una matriz, ya que de no serlo no se puede calcular la traza que es la operación que aparece en la ecuación.
Saludos!!

“En el principio creó Dios los cielos y la tierra. Y la tierra estaba desordenada y vacía…” Génesis 1:1-2 El estado de desorden era lo más probable. Luego, un agente externo (Dios) hizo algo (creación) para cambiar el estado de las cosas, disminuyendo la entropía.

Es como más apropiado pensar en entropía como el “número de preguntas” que debes hacerte para conocer un estado de un sistema… pensémoslo como un grado de ignorancia que se tiene sobre algo, por ejemplo si toman una distribución de probabilidad homogénea esta tendrá la máxima entropía, en cambio una distribución muy picuda, nos da casi una determinación total del sistema.

++
ENTROPIA : el grado en que las relaciones entre los elementos componentes de cualquier agregado de ellos están mezcladas indiscernidas e indiferenciadas y son impredecibles y aleatorias++

Si la entropía es una medida de las posibilidades de un sistema. A más entropía más información, y más desorden. A menor entropía más orden, aunque también menor información.
Si estoy equivocado por favor, corríjanme