EQUAÇÃO DE GRACELI.. PARA INTERAÇÕES DE ONDAS E INTERAÇÕES DAS FORÇAS FUNDAMENTAIS.
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
1 / G* = = [ ] ω , , / T] c [ [x,t] ] [-1] =
G* = = OPERADOR DE GRACELI = Em mecânica quântica, o OPERADOR DE GRACELI [ G* =operador cujo observável corresponde à ENERGIA TOTAL DO SIS ] é um TEMA , TODAS AS INTERAÇÕES INCLUINDO TODAS AS INTERAÇÕES DAS FORÇAS FUNDAMENTAIS [AS QUATRO FORÇAS] [ELETROMAGNÉTICA, FORTE, FRACA E GRAVITACIONAL], INTERAÇÕES SPINS-ÓRBITAS, ESTRUTURRA ELETRÔNICA DOS ELEMENTOS QUÍMICOS, TRANSFORMAÇÕES, SISTEMAS DE ONDAS QUÂNTICAS, MOMENTUM MAGNÉTICO de cada elemento químico e partícula, NÍVEIS DE ENERGIA , número quântico , e o sistema GENERALIZADO GRACELI.
COMO TAMBÉM ESTÁ RELACIONADO A TODO SISTEMA CATEGORIAL GRACELI, TENSORIAL GRACELI DIMENSIONAL DE GRACELI..
Em mecânica estatística, a estatística Maxwell–Boltzmann descreve a distribuição estatística de partículas materiais em vários estados de energia em equilíbrio térmico, quando a temperatura é alta o suficiente e a densidade é baixa suficiente para tornar os efeitos quânticos negligenciáveis. A estatística Maxwell–Boltzmann é consequentemente aplicável a quase qualquer fenômeno terrestre para os quais a temperatura está acima de poucas dezenas de kelvins.[1][2]
O número esperado de partículas com energia para a estatística de Maxwell–Boltzmann é onde:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
onde:
- é o número de partículas no estado i
- é a energia do estado i-ésimo
- é a degenerescência do nível de energia i, o número de estados dos partículas (excluindo o estado de "partícula livre") com energia
- é o potencial químico
- é a constante de Boltzmann
- é a temperatura absoluta
- é o número total de partículas
- é a função partição
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
- é a função exponencial, sendo e o número de Euler
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
A distribuição de Maxwell-Boltzmann tem sido aplicada especialmente à teoria cinética dos gases, e outros sistemas físicos, além de em econofísica para predizer a distribuição da renda. Na realidade a distribuição de Maxwell-Boltzmann é aplicável a qualquer sistema formado por N "partículas" ou "indivíduos" que interacambiam estacionariamente entre si uma certa magnitude e cada um deles têm uma quantidade da magnitude e ao longo do tempo ocorre que .
/
G* = = [ ] ω , , / T] c [ [x,t] ] = aplicação
Para um sistema de partículas quânticas, a hipótese de que seja substancialmente menor que para os estados diferentes do fundamental em geral não se cumprirá e é necessário recorrer-se à estatística de Bose-Einstein se as partículas são bosônicas ou à estatística de Fermi-Dirac se as partículas são fermiônicas.
As estatísticas de Bose–Einstein e Fermi–Dirac podem ser expressas como:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Assumindo que o valor mínimo de é bastante pequeno, se pode verificar que a condição na qual a distribuição de Maxwell-Boltzmann é válida é quando se cumpre que:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Para um gás ideal, podemos calcular os potenciais químicos utilizando o desenvolvimento da equação de Sackur–Tetrode para demonstrar que:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
onde é a energia interna total, é a entropia, é o volume, e é o comprimento de onda térmico de de Broglie. A condição de aplicação para a distribuição Maxwell-Boltzmann em um gás ideal resulta:
Em um sistema quântico constituído de muitas partículas idênticas com spin inteiro, a estatística de Bose-Einstein, ou estatística BE, é utilizada para descrever o sistema e calcular os valores médios das grandezas físicas.
Em um sistema de bósons idênticos de massa , que possuem interação mútua desprezível, contidos em um recipiente de volume , a uma temperatura , em equilíbrio, o número médio de partículas num estado de energia é dado por
,
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
em que é a degenerescência quântica do estado , é a energia do estado , é o potencial químico, e , em que é a constante de Boltzmann[1].
Em mecânica estatística, a estatística de Fermi-Dirac é uma estatística quântica que descreve o comportamento de sistemas de partículas com spin semi-inteiro, os férmions. Leva o nome de dois eminentes físicos: Enrico Fermi e Paul Adrien Maurice Dirac cada um dos quais descobriu o método de forma independente (embora Fermi tenha definido as estatísticas antes de Dirac).[1][2] Antes do estudo da estatística de Fermi-Dirac é necessário compreender algumas diferenças entre sistemas clássicos e quânticos. Sistemas clássicos são formados, a priori, por partículas distinguíveis, ou seja, é possível identificar e diferenciar tais partículas individualmente e nestes sistemas os efeitos quânticos são desprezíveis, sendo o sistema descrito pela estatística de Maxwell–Boltzmann. Já sistemas quânticos são formados por partículas indistinguíveis, devido à superposição de suas funções de onda, ou seja é impossível descrevê-las individualmente e neste sistema os efeitos quânticos devem ser considerados. Sistemas quânticos podem ser descritos pelas estatísticas de Fermi-Dirac ou de Bose-Einstein, dependendo do spin das partículas.[3][4]
Formulação matemática
Como as partículas são indistinguíveis na estatística de Fermi-Dirac, a especificação do número de partículas é suficiente para determinarmos o estado do gás. Como os férmions obedecem ao princípio de exclusão de Pauli, não é possível que mais de uma partícula esteja no mesmo estado, se faz apenas necessário somar sobre todos os números possíveis de partículas em um único estado, ou seja, os dois possíveis valores [5]:
- para cada
Quando o número total de partículas
é fixado, a soma sobre todos os valores possíveis de , com segue a seguinte relação/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Dado um sistema com equilíbrio térmico a uma temperatura arbitrária , o número médio de partículas em um estado particular com energia é obtido através da distribuição canônica, logo[5]
férmions em/
G* = = [ ] ω , , / T] c [ [x,t] ] =
no qual constante de Boltzmann. Podemos renomear alguns termos na expressão acima, de forma que obtemos
, sendo a/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Somando sobre
= 0 e 1, temos/
G* = = [ ] ω , , / T] c [ [x,t] ] =
ou, ainda, podemos simplificar:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Na condição em que
, podemos escrever/
G* = = [ ] ω , , / T] c [ [x,t] ] =
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
com
. Como é uma soma sobre muitos estados, a variação de seu logaritmo com o número de partículas total não é afetado por qual estado particular foi omitido no somatório. Portanto, podemos fazer uma aproximação em que é independente de :Ainda, podemos aproximar em termos da derivada da função partição sobre todos os estados, assim[5]:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Se utilizarmos na aproximação, encontraremos a distribuição de Fermi-Dirac[5]:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Ainda, o parâmetro pode ser determinado pela primeira condição feita nesta dedução, em que
ou
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Da relação entre a função partição e a energia livre de Helmholtz , sabemos que , logo:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
onde é o potencial químico. Então outra forma de se definir a distribuição de Fermi-Dirac é[5]:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Quando os níveis de energia são muito próximos, de modo que podemos considerar que formam um contínuo, o número médio de partículas com energia entre [5]
e , pode ser escrito como/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Onde densidade de estados, de modo que fornece o número de estados com energia entre e . E é a chama função de Fermi, dada por[5]
é a/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Termodinâmica estatística ou mecânica estatística[notas 1] é um ramo da física que une as propriedades macroscópicas e microscópicas da matéria demonstrando e interpretando atomicamente alguns porquês da termodinâmica como trabalho, calor, energia livre e entropia. Por trabalhar com um número extenso de entidades microscópicas (átomos, moléculas ou íons), faz uso de mecânica clássica, mecânica quântica e do ferramental matemático da estatística, esta última utilizada principalmente para determinar os valores médios das populações.
A quantidade requerida de informações para descrever uma partícula, átomo, molécula ou íon (no contexto da mecânica clássica) implica o estabelecimento de 6 coordenadas para cada uma das entidades microscópicas (3 posições e 3 velocidades), o que representa um número expressivo de dados quando levamos em conta um número relativamente grande de entidades como um mol (6,022x10²³), por exemplo.
A termodinâmica estatística possui uma capacidade de previsão das grandezas macroscópicas por trabalhar com os dados espectroscópicos de moléculas individuais, apresentando assim uma vantagem nesse quesito com relação à termodinâmica clássica. Ambas, porém são regidas pela segunda lei da termodinâmica por meio da entropia. No entanto, a entropia em termodinâmica clássica só pode ser conhecida empiricamente, enquanto que na mecânica estatística, é uma função da distribuição do sistema nos seus microestados.
A termodinâmica estatística é então, uma ponte que explica a termodinâmica clássica (que analisa a parte sensível aos sentidos, ou seja, pressão, temperatura...) utilizando-se da mecânica quântica (que trabalha com a parte atômica, ou seja, colisões intermoleculares, velocidades dos átomos, equipartição da energia...) da mecânica clássica (de onde vem a definição de momento, força, trabalho) e da estatística (utilizada para se obter sistemas simplificados sem a perda da confiabilidade).
Aplicações
A termodinâmica estatística, pode ser usada para explicar diversos fenômenos físicos do cotidiano, dentre os quais a dedução da lei dos gases ideais, a transferência de calor entre dois corpos e a troca de estado físico dos materiais, destacando aqui a evaporação.
Dedução da lei dos gases
Imagine uma caixa cúbica de lado contendo moléculas de um gás dentro dela. Considere o gás como ideal (não há interações moleculares) e, num primeiro momento, analise apenas uma molécula desse gás, onde e são respectivamente a massa e a velocidade da molécula. Essa molécula realiza apenas colisões elásticas com as paredes (a energia do sistema é conservada e a cada colisão apenas uma componente da velocidade é alterada). Nesse caso, a cada colisão, teremos uma variação de momento dado por:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
A molécula então, choca-se várias vezes com uma certa parede, sendo que é o intervalo de tempo para que a molécula consiga se deslocar até a parede oposta e voltar para a parede em questão, ou seja, percorrer uma distância de . Nesse caso, o intervalo de tempo é igual a distância percorrida dividida pela velocidade.
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Da segunda lei de Newton, sabemos que a força é a derivada do momento em relação ao tempo. Nesse caso, a força que é transferida para a parede é igual a soma da contribuição do momento de cada molécula, levando em conta a que elas podem ter velocidades diferentes. Sabemos que a pressão é igual a força dividida pela área da parede . Assim usando a equação anterior, temos que o somatório das moléculas será:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Sendo a constante de Avogadro, podemos fazer a substituição . O somatório então pode ser visto como , onde é o valor médio do quadrado da componente x da velocidade de todas as moléculas:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Além disso, é igual a massa molar do gás e é igual ao volume do gás.
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Podemos pensar agora, que para qualquer molécula . Isso é válido pois como possuimos muitas moléculas e elas se movem em direções aleatórias os valores médios dos quadrados das componentes da velocidade são iguais, de modo que : e então:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Substituímos então pela velocidade quadrática média, definida como , onde é a constante universal dos gases e é a temperatura.
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Isolando é fácil ver que a lei de um gás ideal é então:
onde: é a pressão, é o volume, é o número de mols, é a constante universal dos gases perfeitos e a temperatura.[1]
Transições de fase
As transições de fase dependem diretamente das forças intermoleculares (que são de natureza elétrica). A módulo da força de atração é o que determina em que fase a amostra se encontra. Na fase gasosa, as moléculas estão muito separadas e com uma energia cinética quadrática média muito alta, logo as forças de atração são fracas. Na fase líquida e sólida, diminuí-se o espaço entre as moléculas, logo tem-se um aumento das interações de atração, o que faz com que as moléculas se movam cada vez menos diminuindo sua energia cinética.
Segundo o teorema da equipartição da energia, a temperatura é proporcional à energia média de cada grau de liberdade, logo aumentando a temperatura (e mantendo a pressão constante), aumentamos a energia cinética da amostra, o que favorece o afastamento das moléculas. Esse aumento nos módulos das velocidades é similar a distribuição de Maxwell, logo conseguimos inferir sobre a evaporação através dessa distribuição.
Evaporação
Considere uma molécula que está com uma energia cinética maior do que a energia da tensão superficial do líquido ao qual faz parte. Nesse caso, ao chegar próximo a superfície do líquido, ela irá escapar e nesse caso, diminuir a energia cinética média do sistema, ou seja, o sistema irá perder temperatura em decorrência da evaporação. Pela distribuição de Maxwell, temos moléculas com velocidades de zero a infinito independentemente da temperatura do sistema, logo a evaporação sempre existirá. Contudo, se aumentarmos a energia cinética quadrática média, aumentaremos a probabilidade de encontrarmos moléculas com energia suficiente e a direção correta para escapar do líquido.[2]
Transferência de calor
Um processo similar pode explicar a troca de calor entre dois corpos. Imagine um corpo A quente e um corpo B frio. Colocando as duas superfícies em contato, as moléculas da superfície de A colidirão com as moléculas da superfície de B, transmitindo energia, valendo a recíproca. Como a energia cinética quadrática média em A é maior, é plausível pensarmos que as moléculas de A cederão energia para as moléculas de B, e nesse processo A esfrie enquanto B aquece. O ar é um bom isolante térmico pois sendo um gás contém poucas moléculas em comparação com os outros estados físicos, logo a taxa de transferência de energia é menor (considerando um sistema sem convecção).
História
Em 1738, o físico e matemático holandês Daniel Bernoulli publicou Hydrodynamica que estabeleceu a base da teoria cinética dos gases. Em seu trabalho, Bernoulli postulou o argumento, ainda utilizado nos dias de hoje, que afirma que a energia cinética das colisões moleculares dos gases (constituídos de um grande número de moléculas que se movem em todas as direções), é a pressão do gás que sentimos, e o que experimentamos como o calor também é energia cinética do movimento molecular.
Em 1859, depois de ler um artigo sobre difusão das moléculas de Rudolf Clausius, o físico escocês James Clerk Maxwell formulou a distribuição de Maxwell para velocidades moleculares, que mostra a proporção de moléculas com uma certa velocidade em um certo espaço. Esta foi a primeira utilização da estatística na física.[3] Cinco anos mais tarde, em 1864, Ludwig Boltzmann, um jovem estudante de Viena, utilizou os artigos de Maxwell como inspiração para desenvolver um tema adicional, durante sua vida.
Assim, os fundamentos da termodinâmica estatística foram estabelecidas no final de 1800 por aqueles que, como Maxwell, Boltzmann, Max Planck , Clausius, e Josiah Willard Gibbs , começaram a aplicar estatística na teoria quântica atômica para corpos de gases ideais. Predominantemente, no entanto, foram Maxwell e Boltzmann, trabalhando de forma independente, que chegaram a conclusões semelhantes quanto à natureza estatística dos corpos gasosos. No entanto, deve-se considerar Boltzmann como o "pai" da termodinâmica estatística com sua derivação em 1875 da relação entre entropia S e multiplicidade Ω, apresentando o número de arranjos microscópicos que produzem o mesmo estado macroscópico para um determinado sistema.[4]
Ludwig Boltzmann então publicou em 1896 o artigo Lectures on Gas Theory.[5] contendo mais de 2000 páginas interpretando termodinâmica estatística e os seguintes fatores H-teorema, teoria do transporte, equilíbrio térmico, e equação de estado dos gases. O termo "termodinâmica estatística" foi proposto para utilização na termodinâmica pelo físico e químico americano J. Willard Gibbs em 1902. Segundo Gibbs, o termo "estatística", i.e. mecânica estatística, foi usado pela primeira vez pelo físico escocês James Clerk Maxwell em 1871. "Mecânica probabilística" pode parecer um termo mais apropriado, mas hoje em dia, "mecânica estatística" está firmemente enraizada.[6]
Introdução
O problema essencial na termodinâmica estatística é o de calcular a distribuição de uma dada quantidade de energia E em relação aos N sistemas.[7] Enquanto que seu objetivo se foca em compreender e interpretar as propriedades macroscópicas dos materiais em termos das propriedades das suas partículas constituintes e das interações entre elas. Isso se dá através da ligação entre funções termodinâmicas e as equações da mecânica quântica. Três quantidades centrais em termodinâmica estatística são o teorema do limite central o fator de Boltzmann e a função de partição.
A definição mais importante de um sistema termodinâmico é a perspectiva da chamada interpretação estatística da entropia, que é definida como:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
onde kB é constante de Boltzmann 1.38066×10−23 J K−1 e Ω é o número de microestados correspondentes à observação do macroestado.
Esta equação só é válida se cada microestado é igualmente acessível (cada microestado tem igual probabilidade de ocorrência).
Distribuição de Boltzmann
Se um sistema for grande podemos utilizar a distribuição de Boltzmann, que é um resultado aproximado dado por:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
onde ni representa o número de partículas ocupando um estado de energia i ou o número de microestados ocupando o macroestado i; Ui é a energia potencial do estado i; T é a temperatura; e kB é a constante de Boltzmann.
Se N é o número total de partículas ou microestados, a função distribuição densidade de probabilidade segue:
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
onde o denominador é a soma de todos os níveis.
Postulado fundamental
O postulado fundamental em termodinâmica estatística é o seguinte:
- Dado um sistema isolado em equilíbrio, o sistema tem a mesma probabilidade de estar em qualquer um de seus microestados acessíveis.
Este postulado é um pressuposto fundamental na mecânica estatística - afirma que um sistema em equilíbrio não tem qualquer preferência por qualquer um de seus microestados disponíveis. Dado Ω microestados com um certo nível de energia, a probabilidade de encontrar o sistema micro em particular é p = 1/Ω.
Este postulado é necessário porque permite concluir que, para um sistema em equilíbrio, o estado termodinâmico (macroestado), que pode resultar do maior número de microestados é também o macroestado mais provável do sistema.
O postulado é justificado em partes (para um sistema clássico) pelo Teorema de Liouville (mecânica hamiltoniana)), visto que, se a distribuição dos pontos do sistema através do espaço fásico é uniforme em algum momento, ele permanecerá assim em momentos posteriores.
Isso permite a definição da função de informação (no contexto da teoria da informação):
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Quando todas as probabilidades ρi são iguais, I é máximo, e nós possuímos o mínimo de informações sobre o sistema. Logo, em um sistema isolado em equilíbrio, a entropia é máxima (entropia pode ser considerada como uma medida da desordem: uma maior desordem, maior desinformação e, portanto, um valor inferior de I.
Esta função de informação é a mesma que a função entropia reduzida em termodinâmica..
Mark Srednicki argumentou que o postulado fundamental pode ser derivado, assumindo apenas que a conjectura de Berry (em homenagem a Michael Berry ) aplica-se ao sistema em questão.[8][9] A conjectura de Berry é apenas para sistemas caóticos, e quando os autoestados tem sua energia distribuída como uma distribuição normal. Como todos os sistemas realistas tem um punhado de graus de liberdade então estes deverão ser caótico, o que converge para o postulado fundamental. A conjectura de Berry também tem sido demonstrada na teoria da informação pelo princípio do viés.[10]
Ensembles canônicos
A formulação moderna desta teoria é baseada na descrição de um sistema físico ter um elenco de comum de estados representando todas as configurações possíveis e as probabilidades de ocorrência de cada uma das configurações.
Cada estado está associado a uma função de partição , por manipulações matemáticas, para que então se extraia os valores termodinâmicos do sistema. De acordo com a relação do sistema com o resto do universo, são normalmente identificados três tipos de estados, em ordem crescente de complexidade:
- Ensemble microcanônico descreve um estado completamente isolado, que possui uma energia constante, não trocando energia ou partículas com o resto do Universo;
- Ensemble canônico descreve um sistema em equilíbrio térmico que só pode trocar energia como a transferência de calor para o exterior;
- Ensemble grande canônico descreve sistemas abertos que permitem a troca de partículas com o exterior.
Resumo dos ensembles Ensembles Ensemble microcanônico Ensemble canônico Ensemble grande canônico Constantes E, N, V T, N, V T, μ, V Características microscópicas Número de microestados
Função de partição canônica
Grande função de partição canônica
Funções macroscópicas
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
/
G* = = [ ] ω , , / T] c [ [x,t] ] =
Comentários
Postar um comentário