Autor: Raphael Y. Diniz.
Termoquímica: Entropia
Introdução
Definições:
Na natureza é comum a percepção de que a energia e a matéria tendem a desordem, sendo esse fato de fundamental importância para a dinâmica da vida. Nesse viés, observa-se que essa ideia é representada, na linguagem termodinâmica, pela entropia (), uma propriedade que quantifica o grau de desordem de um sistema, possuindo, assim, as seguintes relações possíveis:
- Aumento de desordem
- Diminuição de desordem
- Sistema isentrópico ( constante)
Ademais, temos que a espontaneidade é outro aspecto aspecto fundamental para a química, em decorrência dela estabelecer uma relação entre as propriedades do sistema e da vizinhança. Desse modo, é possível constatar duas situações prévias:
- Mudança espontânea: Tende a ocorrer sem nenhuma indução externa.
- Mudança não espontânea: Tende a ocorrer somente com indução externa.
As variações e comparações da entropia:
A entropia aumenta por meio de dois aspectos:
- : Aumento no número de microestados do sistema (número de prováveis posições que as partículas do sistema podem ocupar).
- : Aumento da intensificação dos movimentos das partículas (graus de liberdade), os quais correspondem a 3 tipos: translacional, rotacional e vibracional.
Nessa perspectiva, podemos constatar que a entropia aumenta da seguinte forma em determinadas situações:
- Estados físicos: Levando em conta uma mesma quantidade de matéria, ocorrerá um aumento conforme diminua as interações intermoleculares, logo:
- Temperatura: A entropia aumenta com o crescimento da temperatura.
- Volume: A entropia aumenta com o crescimento do volume.
- Complexidade da molécula: A entropia aumenta com o crescimento na complexidade da estrutura (maior número de átomos).
- Geometria molecular: A entropia vai aumentar conforme os aspectos que estão sendo analisados nas estruturas. Exemplo:
Isso ocorre por conta da presença de uma angulação na molécula de , tendo, assim, um maior número de graus de liberdade.
- Cadeias orgânicas: A entropia aumenta conforme a abertura da cadeia, logo:
- Átomos: A entropia aumenta conforme o tamanho do átomo e o número de elétrons. Exemplo:
Cálculo das variações de entropia
Como a entropia é uma propriedade de estado (será provado no ciclo de carnot), temos que sua definição matemática é assim representada:
Abaixo será mostrado a transformação dessa expressão para as condições descritas:
Isotérmica:
Para um gás ideal:
Isobárica:
Isocórica:
Adiabática reversível:
Adiabática irreversível:
Divide-se a transformação em etapas reversíveis e calcula-se a soma dos . Logo:
Expressões gerais para gases ideais (válidas para quaisquer transformações):
Realizando a adição de e em :
Levando em conta a relação de mayer:
Como:
Temos:
Variação de temperatura em líquidos e sólidos:
Mudanças de fase:
- Fusão:
-
- Um fato curioso, todos os são positivos, exceto o do .
- Vapor:
-
- Com relação ao vapor, temos a consideração de que ele se comporte como um gás ideal, desse modo, a diferença de entropia de vaporização reflete a desorganização no estado líquido.
- Alguns líquidos possuem um aumento praticamente idêntico no . Com isso, Trouton os definiu como líquidos organizados (exemplo: benzeno, tolueno e heptano) e quantificou o como a constante de Trouton:
-
-
- Para líquidos mais organizados do que o previsto por Trouton (exemplo: água):
-
-
-
- Para líquidos menos organizados do que o previsto por Trouton:
-
Ciclo de Carnot
Considere um ciclo termodinâmico reversível constituído de 4 etapas, contidas em e , de modo que :
- Expansão isotérmica: A
- Expansão adiabática: B
- Compressão isotérmica: C
- Compressão adiabática: D
A soma de todos os calores envolvidos no ciclo:
Levando em conta que em adiabáticas reversíveis o calor é igual a zero e que em etapas isotérmicas o calor é igual ao trabalho, temos que:
(Área do gráfico)
Logo:
Dessa forma, concluímos que o calor não é uma função de estado.
Agora, vamos realizar o somatório de ao longo do ciclo:
Adicionando e em :
Realizando uma análise mais aprofundada em cada etapa, temos:
- A:
- B:
- C:
- D:
Multiplicando as expressões , , e , e depois eliminando os termos iguais, vamos obter:
é obrigatoriamente maior que 1
Substituindo em :
Dessa maneira, com esse resultado, é possível observar que é uma propriedade de estado, mesmo que o calor não seja. Sob tal perspectiva, é possível, por meio de todas essas demonstrações, constatar que o somatório de é nulo para qualquer ciclo reversível, em decorrência dele poder ser dividido em infinitos ciclos de carnot. Com isso, podemos obter a seguinte definição matemática da entropia (mostrando que ela é uma propriedade de estado):
lei da termodinâmica
Definições:
Segundo a segunda lei da termodinâmica, a entropia em sistemas isolados aumenta até alcançar o valor máximo, pensando dessa forma, podemos chegar na conclusão de que a entropia do universo está sempre aumentando. Com isso, é necessário realizar uma divisão nas porções estudadas, visando um melhor estudo da entropia deles:
Demonstração:
Considere uma transformação entre os estados e por dois meios, um reversível e outro irreversível:
propriedade de estado
Como , temos que:
Desta forma, é possível concluir que a variação de entropia de um processo varia segundo os parâmetros da desigualdade de Clausius , gerando a seguinte expressão:
Desse modo, para sistemas isolados (), teremos:
Logo, concluímos:
- Processo espontâneo irreversível
- Equilíbrio reversível
- Processo não espontâneo
lei da termodinâmica
Definição:
Segundo a terceira lei da termodinâmica, a entropia de cristais perfeitos (estrutura em que todos os átomos estão em um arranjo perfeitamente ordenado, sem desordem posicional) de uma substância pura no zero absoluto de temperatura é igual a zero. Com isso, e levando em conta o que foi visto sobre a entropia até o momento, chegamos a conclusão que é impossível alcançarmos o zero absoluto. Nessa perspectiva, a entropia absoluta de uma substância pura em uma temperatura corresponde a variação de entropia para levá-lo do até :
Como a entropia é uma função de estado, podemos dividir esse cálculo com alguma temperatura que sejamos capaz de alcançar:
Área do do gráfico
Como não conseguimos atingir o zero absoluto, não somos capazes de obtermos diretamente as medidas necessárias nessa temperatura. Nesse viés, é possível recorrermos ao recurso matemático denominado extrapolação gráfica, o qual é descrito no gráfico acima, que consiste em utilizar as variáveis que temos e a respectiva equação para estimarmos o valor dos termos desconhecidos.
Entropia e suas relações
Entropia padrão molar ():
Consiste na entropia associado a 1 mol de uma substância em condições padronizadas, normalmente nos tratamos em , de maneira que para demais temperaturas é realizada uma transformação (veremos melhor no decorrer da aula). Nessa perspectiva, temos que ela aumenta de forma gradual com o crescimento da temperatura, entretanto, em momentos de transição de fase ela realiza grandes escalonamentos:
Entropia padrão de reação
Consiste na entropia padrão associada a uma reação química, de modo que ela é calculada pela subtração dos valores de entropia padrão dos produtos menos as dos reagentes:
Consequências da lei da termodinâmica e análise da vizinhança
Levando em conta a análise da segunda lei sobre os sistemas isolados, percebemos a necessidade de vermos de maneira mais ampla as porções envolvidas, com isso surge a seguinte relação:
- : Se refere a porção ´´Universo``, a qual inclui o sistema e a vizinhança, sendo, assim, a representação do sistema isolado, o qual tem que sua entropia tende a sempre aumentar.
- : Se refere ao sistema, sendo, assim, mais associado a entropia posicional.
- : Se refere a porção da vizinhança, sendo, assim, mais associado ao movimento térmico.
Com relação ao movimento térmico contido na vizinhança, temos que, por conta da vizinhança ser grande, sua temperatura será praticamente constante e terá uma transferência de calor ínfima, a ponto de permitir que o processo ser visto como praticamente reversível. Logo:
Caso seja considerado que o processo ocorra em pressão constante, teremos:
Essa expressão é válida para e constantes.
Cálculo de entropia em temperaturas diferentes
Levando em conta uma reação em que tenhamos os valores de entropia para e seja necessário os valores para , de maneira que , será necessário calcularmos a entropia associada ao aquecimento de cada substância entre essas temperaturas e somarmos aos respectivo valores iniciais de entropia, para, assim, conseguirmos obter uma entropia reacionária válida em outra temperatura. Com isso:
- Entropia de reação em :
- Entropia de aquecimento:
Com isso, temos:
- Entropia de reação em :
lembre-se de levar em conta o número de mols.
Entropia probabilística
A definição termodinâmica nos permite calcular apenas o , porém não o de algum estado ou substância, em decorrência de seu direcionamento ao estudo dos comportamentos da matéria. Sob tal óptica, vê-se o nascimento de uma análise estatística dos aspectos abordados pela termodinâmica, a qual possibilita o estudo dos comportamentos das partículas, permitindo o calculo das propriedades existentes em um respectivo instante, como o caso da entropia (Note que podemos encontrar o por meio da perspectiva da estatística, utilizando a mecânica quântica como ferramenta). Desse modo, podemos calcular de maneira indireta a entropia ´´estática`` no zero absoluto por meio da equação de Ludwig Boltzmann:
- : Entropia estática.
- : Constante de Boltzmann.
- .
- : Número de microestados.
- Corresponde aos diferentes arranjos que átomos e moléculas podem assumir com mesma energia.
- Os microestados possuem um tempo de duração muito curto, por conta disso, quando realizamos uma medida, estamos recebendo dados referentes a média dos microestados existentes no período.
- Observe que quanto maior o número de microestados, maior será a entropia absoluta.
- Normalmente calculamos da seguinte forma:
-
-
- : Número de orientações com em .
- : Número de partículas.
- Com isso, podemos concluir que é possível comparar a entropia entre moléculas e átomos, basta constatar que um maior número de partículas irá originar uma maior entropia.
-
Um outro aspecto relevante é a entropia residual (calculada com a equação de Boltzmann), que corresponde a entropia medida em cristais em temperaturas próximas de , representando, assim, a desordem residual que persistiu até estás temperaturas. Nesse viés, é visto, ao compararmos as entropias estática e residual, dois cenários possíveis:
- Se os valores forem próximos: A estrutura tem um arranjo praticamente aleatório (indica que não foi possível diferenciar a estrutura).
- Se os valores forem distantes: A estrutura tem um arranjo praticamente ordenado (indica que foi possível diferenciar a estrutura).