A entropia é definida como a medida quantitativa de desordem ou aleatoriedade em um sistema. O conceito sai de termodinâmica, que trata da transferência de energia termica dentro de um sistema. Em vez de falar sobre alguma forma de "entropia absoluta", os físicos geralmente discutem a mudança na entropia que ocorre em uma determinada processo termodinâmico.
Principais tópicos: calculando a entropia
- A entropia é uma medida da probabilidade e do distúrbio molecular de um sistema macroscópico.
- Se cada configuração é igualmente provável, a entropia é o logaritmo natural do número de configurações, multiplicado pela constante de Boltzmann: S = kB em W
- Para que a entropia diminua, você deve transferir energia de algum lugar fora do sistema.
Como calcular a entropia
Em um processo isotérmico, a mudança na entropia (delta-S) é a mudança de calor (Q) dividido pelo temperatura absoluta (T):
delta-S = Q/T
Em qualquer processo termodinâmico reversível, ele pode ser representado no cálculo como a integral do estado inicial de um processo ao seu estado final de
dQ/T. Em um sentido mais geral, a entropia é uma medida da probabilidade e do distúrbio molecular de um sistema macroscópico. Em um sistema que pode ser descrito por variáveis, essas variáveis podem assumir um certo número de configurações. Se cada configuração é igualmente provável, a entropia é o logaritmo natural do número de configurações, multiplicado pela constante de Boltzmann:S = kB em W
onde S é entropia, kB é a constante de Boltzmann, ln é o logaritmo natural e W representa o número de estados possíveis. A constante de Boltzmann é igual a 1.38065 × 10−23 J / K.
Unidades de Entropia
A entropia é considerada uma propriedade extensiva da matéria, expressa em termos de energia dividida pela temperatura. o Unidades SI de entropia são J / K (joules / graus Kelvin).
Entropia e a Segunda Lei da Termodinâmica
Uma maneira de declarar o segunda lei da termodinâmica é o seguinte: em qualquer Sistema fechado, a entropia do sistema permanecerá constante ou aumentará.
Você pode ver isso da seguinte maneira: adicionar calor a um sistema faz com que as moléculas e átomos acelerem. Pode ser possível (embora complicado) reverter o processo em um sistema fechado sem extrair energia ou liberar energia em outro lugar para atingir o estado inicial. Você nunca pode obter todo o sistema "menos energético" do que quando ele foi iniciado. A energia não tem para onde ir. Para processos irreversíveis, a entropia combinada do sistema e seu ambiente sempre aumenta.
Equívocos sobre Entropia
Essa visão da segunda lei da termodinâmica é muito popular e foi mal utilizada. Alguns argumentam que a segunda lei da termodinâmica significa que um sistema nunca pode se tornar mais ordenado. Isso é falso. Significa apenas que, para se tornar mais ordenado (para que a entropia diminua), você deve transferir energia de algum lugar fora do sistema, como quando uma mulher grávida extrai energia dos alimentos para fazer com que o óvulo fertilizado se forme bebê. Isso está completamente de acordo com as disposições da segunda lei.
A entropia também é conhecida como desordem, caos e aleatoriedade, embora todos os três sinônimos sejam imprecisos.
Entropia absoluta
Um termo relacionado é "entropia absoluta", que é denotado por S ao invés de ΔS. A entropia absoluta é definida de acordo com a terceira lei da termodinâmica. Aqui é aplicada uma constante que faz com que a entropia no zero absoluto seja definida como zero.