Artigos

UNIFICAÇÕES NA FÍSICA

Por Renato da Silva Oliveira

Este texto foi gerado em meados dos anos 90 para uma revista de divulgação científica e foi adaptado ligeiramente para o site da AsterDomus em 2003, porém ficou sem ser publicado por muitos anos. Parte dele foi aproveitado numa contribuição à TV Escola por volta de 2006.

A busca incessante dos físicos por leis gerais, aplicáveis a todo o Universo, e à causa última de todos os fenômenos, leva-os naturalmente, através de reducionismo e generalização, a teorias cada vez mais abrangentes e completas. Reduzir hipóteses e causas e generalizar a abrangência de suas consequências tem sido a tarefe hercúlea e heroica de gerações de cientistas genias, principalmente de físicos e matemáticos, que tornaram nossa história uma epopeia digna de ser contada e celebrada. As sementes da Ciência foram plantadas ainda em nossa pré-história por gênios humanos desconhecidos mas o seu primeiro florescimento aconteceu somente na Grécia Antiga, por volta do séc. VI a.C., entre os povos jônios que tinham Mileto, na costa oriental da Ásia Menor, como sua capital cultural. A maneira de pensar fortemente fundada em raciocínio lógico, inquirições e deduções objetivas, curiosidade e ceticismo, e que viria a ser típica da Ciência até nossos dias surgiu ali de maneira explícita, através de pensadores fenomenais como Tales de Mileto, Anaximandro, Anaxímenes e tantos outros que se atreveram a prever eclipses e a medir a distância e o tamanho do Sol há mais de 2500 anos! Por mais de meio milênio os frutos portentosos desse primeiro florescimento puderam ser saboreados pela Civilização Grega e por sua sucessora e herdeira Civilização Romana. Depois de breve outono e de um longo inverno de quase mil anos, um novo florescimento muito mais intenso ocorreu na Europa, ainda enfronhada em pensamentos mágicos e místicos. Esse renascimento do modo de pensar daqueles jônios antigos deu-nos, através de gênios como Kepler e Galileo, a conformação da Ciência praticamente como ela é hoje. Nós somos os maiores beneficiários desse florescimento, intenso e abundante, que ainda não cessou. É um pouco sobre a parte final dessa história épica da Ciência, especificamente de sua manifestação mais rigorosa e metódica que é a Física, que trata o texto a seguir.

O MUNDO DA FÍSICA NO INÍCIO DO SÉCULO XX

Até meados do século XIX, os físicos tratavam dos fenômenos naturais com a Mecânica de Newton e suas formulações mais generalizadas (Mecânica Lagrangiana e, depois, Mecânica Hamiltoniana) e através de mais 4 teorias físicas e seus modelamentos específicos dos fenômenos, cada uma com seus métodos matemáticos e com suas hipóteses peculiares:

    • fenômenos ópticos eram tratados pela Óptica Ondulatória;
    • fenômenos de calor eram tratados pela Termodinâmica;
    • fenômenos elétricos eram tratados pela Eletricidade;
    • fenômenos magnéticos eram tratados pelo Magnetismo.

Mesmo dentro de cada uma dessas 4 teorias básicas havia a necessidade de modelos específicos para tratar certos fenômenos, de modo que elas não eram satisfatórias quando comparadas com a Mecânica de Newton. Não eram tão profundas em suas explicações de certos fenômenos e nem eram tão abrangentes mesmo dentro de seus escopos, deixando outros certos fenômenos sem explicações.
Dois séculos antes, Newton havia realizado a grande unificação da física terrestre de Galileo (uma Física terrestre, cinemática) com a física celeste de Kepler, reduzindo-lhes as causas e generalizando-lhes a aplicação. Os dois fundamentos sobre os quais a mecânica newtoniana se assentam são a Lei da Gravitação Universal ( F = G . M.m / d2 ) e a Lei Fundamental da Dinâmica ( F = m.a ). A primeira a afirma que entre dois corpos de massas M e m distantes d um do outro há uma força atrativa proporcional (G) ao produto das massas e inversamente proporcional ao quadrado da distância; a segunda afirma que a força F sobre um corpo é igual ao produtos de sua massa m por sua aceleração a.

O modelo de Ciência oferecido pela teoria mecânica de Newton havia obtido grandes sucessos em explicar, prever e condicionar muitos fenômenos naturais: as marés oceânicas, a precessão dos equinócios (“bamboleio” da Terra), os movimentos planetários, a descoberta de novos planetas, a determinação das órbitas e previsão de passagens de cometas, etc. E para descrever completamente um sistema físico mecânico e sua evolução temporal bastaria saber as posições de seus elementos, suas massas e suas velocidades. Assim, conhecidos esses parâmetros, o sistema estaria total e completamente determinado mecanicamente , podendo-se calcular qualquer outro estado no passado ou no futuro. Esse determinismo do modelo de mundo newtoniano ensejou uma conhecida frase do grande matemático, físico e astrônomo francês Pierre-Simon de Laplace que dizia que “Podemos considerar o presente estado do universo como resultado de seu passado e a causa do seu futuro. Se um intelecto em certo momento tiver conhecimento de todas as forças que colocam a natureza em movimento, e a posição de todos os itens dos quais a natureza é composta, e se esse intelecto for grandioso o bastante para submeter tais dados à análise, ele incluiria numa única fórmula os movimentos dos maiores corpos do universo e também os dos átomos mais diminutos; para tal intelecto nada seria incerto e o futuro, assim como o passado, estaria ao alcance de seus olhos.”

Pierre-Simon, Marquês de Laplace, um dos grandes cientistas franceses do final do século XVIII e início do século XIX. Sua obra é fundamental para a Física e a Astronomia até nossos dias.

Os físicos do século XIX estavam insatisfeitos com as outras teorias e a Mecânica de Newton não servia para tratar os fenômenos (ópticos, térmicos, elétricos e magnéticos) dos quais elas se ocupavam. A Mecânica de Newton, ainda que em diferentes formulações matemáticas (Lagrangiana e Hamiltoniana), chegou às portas do século XX como a mais completa e mais aplicável teoria da Física.

O ELETROMAGNETISMO DE MAXWELL

A eletricidade e o magnetismo eram tratados através de diversas “leis” específicas e ao inseri-las dentro de uma teoria mais ampla, James Clerk Maxwell as reformulou e as completou de modo a se constituírem numa única teoria, num único modelo, coerente e completo.
Eram muitas as equações que lidavam com os fenômenos elétricos e magnéticos e quase todas eram empíricas, extraídas das muitas observação de experimentos em laboratórios e de fenômenos da natureza: Lei de Ohm, lei de Biot-Savart, Lei de Ampére, Lei de Coulomb, Leis de Kirchoff, Lei de Faraday, Lei de Lens, Lei de Faraday-Neumann, etc. Para cada fenômeno elétrico ou magnéticos, existia alguma lei específica extraída diretamente de observações ou com auxílio de algum arcabouço teórico limitado. De resto, sabia-se, das observações, que fenômenos elétricos e magnéticos estavam relacionados entre si.

James Clerk Maxwell foi um dos mais notáveis físicos matemáticos britânico do século XIX, responsável pela fabulosa síntese do eletromagnetismo e por trabalhos pioneiros na mecânica estatística.

Maxwell, em meados do século XIX, consegui extrair desses conhecimentos específicos um conjunto suscinto de 4 leis gerais do eletromagnetismo, conhecidas como “Equações de Maxwell”, reduzindo a eletricidade e o magnetismo a um mesmo arcabouço teórico. Além de sua capacidade de síntese e de conseguir extrair o que era essencial de todo o conhecimento acumulado sobre os fenômenos elétricos e magnéticos, a contribuição original a essas leis foi uma generalização da Lei de Faraday e uma complementação (fundamental) na Lei de Ampére.
Podemos nomear e escrever as quatro Equações de Maxwell de diversas maneiras sendo as mais comuns as formas diferencial e integral mostradas adiante.

Podemos, grosseiramente, interpretar as equações de Maxwell como segue:

  • A primeira das Equações de Maxwell, a Lei de Gauss, diz que toda carga elétrica produz um campo elétrico em seu entorno e que a intensidade do campo num determinado ponto depende da intensidade da carga e da distância a ela.
  • A segunda diz que não exitem cargas magnéticas (não existem monopolos magnéticos).
  • A terceira, a Lei de Faraday-Maxwell, diz que um campo elétrico (rotacional) pode ser produzido por um campo magnético variável.
  • E a quarta, a Lei de Ampére-Maxwell, diz que um campo magnético (rotacional) pode ser gerado por um campo elétrico variável e/ou por uma corrente elétrica.

Essas Equações de Maxwell, além de se aplicarem a todos os fenômenos elétricos e magnéticos, mostraram-se muito mais abrangentes. Uma consequência direta das leis de Faraday-Maxwell e de Ampére-Maxwell é a possibilidade de ondas eletromagnéticas que podem se propagar no vácuo e com velocidade constante, bem estabelecida. Daí, foram apenas mais alguns passos para concluir que os fenômenos ópticos conhecidos até então também podiam ser, fundamentalmente, explicados por elas e reduzidos a fenômenos eletromagnéticos. A existência de ondas eletromagnéticas com velocidade constante foi, depois, fundamental pra o desenvolvimento da Teoria da Relatividade por Einstein.
As Equações de Maxwell constituíram-se em grandiosa unificação (ou síntese) ocorrida na Física: reduzindo conceitos e generalizando-lhes a aplicação.
No início do século XX, e desde o final do século XIX, eletricidade, magnetismo e óptica, podiam ser estudados dentro de uma mesma teoria: o Eletromagnetismo de Maxwell.

TERMODINÂMICA: CALOR E TEMPERATURA

O final do século XIX viu, ainda, uma outra unificação, não tão grandiosa, que foi a incorporação da Termodinâmica à mecânica, dando origem à Mecânica Estatística.
A termodinâmica era também uma área fundamentalmente experimental, onde muitas leis específicas proliferavam (Lei do Resfriamento de Newton, Lei de Boyle-|Mariotte, Lei de Gay-Lussac, Lei de Charles, Lei de Dalton, Lei Geral dos Gases, Lei de Clapeyron, Lei de Joule para Gases Perfeitos, Equação do Rendimento das Máquinas Térmicas, etc.) mas sem um arcabouço teórico que as explicasse a partir de uma compreensão mais profunda dos fenômenos. Até então, mesmo os conceitos e ideias acerca de estrutura da matéria em seus diferente estados ainda eram mal estabelecidos e nem a ideia de átomo e molécula e nem a teoria química da matéria estavam bem desenvolvidas.
Ao perceberem que a temperatura é uma manifestação aparente (macroscópica) da energia cinética média das moléculas dos corpos e que o calor é, de fato, produzido pela troca das energias cinéticas entre as moléculas dos corpos, os físicos puderam estudar esses fenômenos sob o prisma da teoria mecânica, apenas incorporando a ela o ferramental matemático da estatística. Todas as equações conhecidas da termodinâmica podiam, então, serem deduzidas a partir de ideias mais fundamentais.
Entre os principais responsáveis por essa unificação estava novamente Maxwell, com seu trabalho pioneiro e basilar sobre a distribuição das velocidades das moléculas de um gás em função de sua temperatura, depois consolidado pelos trabalhos de Ludwig Boltzmann e Josiah Willard Gibbs. Essa “redução” da termodinâmica à mecânica permitiu a “generalização” de suas consequências e uma compreensão mais profunda dos fenômenos.

Ludwig Eduard Boltzmann foi expoente dentre os físicos austríacos do século XIX. Juntamente com Gibbs e Maxwell, é considerado fundador da mecânica estatística.

A termodinâmica pode ser entendida a partir de 4 leis fundamentais, curiosamente e por razões históricas, sendo uma delas nomeada de “Lei Zero”.

  • Lei Zero da Termodinâmica: se dois corpos separados estão em equilíbrio térmico com um terceiro corpo, então estão em equilíbrio térmico entre si. Essa lei permite a definição de escalas termométrica e seu uso nos termômetros.
  • Primeira Lei da Termodinâmica: também conhecida como Princípio de Joule, é uma maneira de expressar um princípio muito mais geral e fundamental, a Lei da Conservação da Energia (a energia total em um sistema físico isolado é constante no tempo, ou, energia não pode ser criada nem destruída, ou, como consequência, a energia do Universo se conserva). No início do século XX pode-se demonstrar a Lei da Conservação da Energia como uma lei de simetria, a partir de um teorema fundamental da física, o Teorema de Noether.
    Uma maneira usual de exprimir o Princípio de Joule é ΔQ = ΔU + ΔW, ou a energia acrescentada a um sistema físico (ΔQ) é igual à variação da energia interna do sistema (ΔU) mais a energia perdida pelo sistema (transformada) na forma de trabalho (ΔW).
  • Segunda Lei da Termodinâmica: ou Princípio da Entropia, é uma das leis mais fundamentais da Física e da natureza. Existem muitas maneiras equivalentes de enuncia-la e a mais simples é dizer que a entropia num sistema físico isolado sempre aumenta até um valor máximo, quando o equilíbrio termodinâmico é atingido (matematicamente, ΔS/Δt >= 0). Outra maneira simples é dizer que a energia interna de um sistema físico isolado tende a distribuir-se igualmente, ou ainda, que todo sistema físico isolado tende ao equilíbrio termodinâmico (todos os pontos com a mesma temperatura), ou ainda, grosseiramente, que o calor flui sempre de quente para o frio, ou ainda, que não existe máquina de rendimento 100% (moto contínuo ou moto perpétuo é fisicamente impossível). A maneira mais geral e abrangente de expressar a Segunda Lei da Termodinâmica é dizendo que a entropia total do Universo sempre aumenta (ele tende irreversivelmente para o equilíbrio termodinâmico).
    Em todas essas expressões, a ideia de entropia está presente. Por entropia podemos entender a medida de quão próximo um sistema encontra-se do equilíbrio termodinâmico. Quanto maior a entropia de um sistema, mais próximo do equilíbrio termodinâmico ele se encontra. E lembremos que no equilíbrio termodinâmico todos os pontos do sistema estão a uma mesma temperatura, e a energia interna está homogeneamente distribuída. A expressão para a entropia de um sistema também tem diversas formas, sendo uma das mais conhecidas a expressão de Boltzmann, S = k.lnΩ, a entropia S é proporcional (k é chamada de constante de Boltzmann) ao logarítimo natural da quantidade de microestados possíveis no sistema Ω. Outra formulação, de Rudolf Clausius (que foi quem primeiro usou o termo “entropia”), indica que a variação da entropia ΔS é dada pela razão entre a energia fornecida a um sistema na forma de calor Q e a temperatura absoluta do sistema: ΔS = Q/T
  • A Terceira Lei da Termodinâmica: ou Lei de Nernst, diz que é impossível (num número finito de etapas) atingir o zero absoluto, isto é, um sistema físico, na prática, nunca pode ter temperatura nula.

A termodinâmica e todas as teorias sobre calor e temperatura tiveram desenvolvimentos influenciados, certamente, pelas necessidades e disponibilidades tecnológicas da época que corresponde justamente à da Revolução Industrial, com o advento de muitas máquinas térmicas à vapor (combustão externa) e, depois, à explosão (combustão interna). As caldeirarias, as máquinas a vapor, etc. precederam as teorias que lhes explicavam o funcionamento. Mas quando as teorias físicas foram elaboradas, essas máquinas puderam incorporar melhoramentos não cogitados pelos construtores mais práticos.
Com a redução da Termodinâmica à Mecânica (e incorporando noções mais precisas de átomo, moléculas, partículas, elementos e substâncias, estados físicos, etc.) suas quatro leis puderam ser interpretadas como consequências necessárias do princípio da conservação da energia (que é quase explícito na 1ª lei) ou, ainda mais fundamentalmente, de uma lei de simetria fundamental (teorema de Noether), e de considerações lógicas e matemáticas (probabilidade e estatística) acerca das probabilidades de seus possíveis estados. No início do século XX a termodinâmica pôde ser entendida e a partir da mecânica e foi a ela incorporada como parte da Mecânica Estatística.

PARA QUE SERVE A CIÊNCIA

O estudo da eletricidade e do magnetismo, por outro lado, até o início do século XIX, era apenas uma curiosidade. Mesmo quando Michel Faraday já produzira grande parte de suas pesquisas práticas sobre eletricidade, seu uso para alguma finalidade tecnológica era difícil de ser imaginado. Há uma história pitoresca a esse respeito que diz que após assistir a uma demonstração de Faraday, com raios e descargas elétricas, uma personagem da nobreza inglesa (a própria Rainha Vitória, segundo alguns) comentou que achava tudo aquilo muito interessante mas questionou Faraday sobre sua utilidade, ao que ele respondeu com outra pergunta: “Para que serve um bebê recém nascido?”

Michael Faraday, um dos maiores físicos e químicos britânicos do século XIX (e todos os tempos), realizou trabalhos fundamentais para o desenvolvimento do eletromagnetismo e da eletroquímica.

Pois bem, as curiosidade acadêmicas de Faraday e dos outros físicos que se dedicaram ao estudo da eletricidade e do magnetismo, propiciaram, já no final do século XIX, a construção de dínamos, usinas termelétricas e o uso da eletricidade na indústria, nos espaços públicos e nas residências, fomentando de maneira essencial a segunda revolução industrial, com a “Revolução da Eletricidade”.

A FÍSICA MODERNA

O século XX viu surgir, em seus primeiros anos, três novas teorias que revolucionaram de maneira irreversível não apenas a física, mas toda a Ciência e a filosofia: as Teorias da Relatividade (Restrita e Geral) e a Teoria Quântica da Energia e da Matéria. Essas teorias — e as que a elas seguiram-se como desenvolvimento natural — constituem-se no que chamamos de Física Moderna.

A TEORIA DA RELATIVIDADE RESTRITA

A Teoria da Relatividade Restrita foi desenvolvida por Einstein e apresentada ao mundo em 1905. Ela surge como um desenvolvimento lógico do Eletromagnetismo de Maxwell e baseia-se em apenas 2 princípios, que lhe são fundamentais:

  1. Todas as leis físicas são as mesmas em quaisquer referenciais inerciais;
  2. A velocidade da luz no vácuo é a mesma quando medida por quaisquer observadores em referenciais inerciais.
Explosão da bomba atômica sobre Hiroshima em 1945.

O primeiro desses princípios, conhecido como “Princípio da Relatividade”, é apenas uma generalização do princípio de relatividade galileano, que os físicos há muito já conheciam: “as leis da mecânica são as mesmas em quaisquer referenciais inerciais”.
O que Einstein pretendeu com a TRR foi incorporar as leis do eletromagnetismo — as Equações de Maxwell — no princípio de relatividade de Galileo.
Já o segundo princípio, conhecido como “Princípio da Constância da Velocidade da Luz”, é muito menos aceitável. De fato, vai absolutamente contra nossa intuição. Ao aceitá-lo, violentamos nosso senso comum. Entretanto, ele é uma conseqüência lógica das Equações de Maxwell e não podemos nos furtar a ele.
A partir dos dois princípios da relatividade restrita é simples deduzir sua mais famosa expressão matemática E = mc² que diz que a energia E equivalente de uma massa m é dada pelo produto da massa m pelo quadrado da velocidade da luz no vácuo. Essa equação, do início do século XX, fomentou nas suas primeiras décadas o desenvolvimento de reatores de fissão nuclear, das bombas atômica (bomba A) de fissão nuclear e das bombas de fusão nuclear (bomba H ou bomba de hidrogênio).
Na mecânica clássica o tempo a massa e o comprimento dos corpos são invariantes com a velocidade. Na TRR, a Teoria da Relatividade Restrita (ou Especial) essas grandezas variam com a velocidade de acordo com as equações:

A TRR, Teoria da Relatividade Restrita (aos referenciais inerciais), também chamada de Teoria da Relatividade Especial (TRE), é matematicamente bastante simples. Sua operacionalização matemática poderia ser ensinada até na 7ª ou 8ª do Ensino Fundamental, pois envolve apenas as operações elementares. Conceitualmente, ela também não é muito complicada, se deixarmos de lado o incômodo causado pelo seu afastamento do senso comum que advém da velocidade da luz ser constante.

A TEORIA DA RELATIVIDADE GERAL

A Teoria da Relatividade Geral só surgiu 10 anos depois, em 1915, como resultado de um intenso trabalho de pesquisa de Einstein e é bem mais complicada que a Teoria Restrita. O que Einstein pretendeu foi uma generalização da Relatividade Restrita a todos os referenciais, e não apenas para os inerciais. Einstein assumiu 2 novos princípios:

  1. O Universo é “localmente” (em cada ponto, puntualmente) inercial;
  2. Um referencial puntual uniformemente acelerado é indistinguível de um referencial puntual sujeito a um campo gravitacional.
Albert Einstein foi um dos maiores físicos de todos os tempos, nascido na Alemanha, no final do século XIX. Seus trabalhos, realizados do início até meados do século XX, abrangem praticamente todas as áreas da Física mas ele é mais conhecido por sua revolucionária Teoria da Relatividade.

Matematicamente muito complicada, a Teoria da Relatividade Geral (TRG) não é operacionalizada nem num curso universitário padrão de bacharelado em física, ficando restrita a cursos de especialização ou a pós-graduação. Uma representação muito sintética da equação fundamental da TRG indica uma equivalência causal entre a dinâmica de uma massa e a conformação do espaço em seu entorno: Rμν = ΧTμν

Lê-se “Érre mi ni é igual a quisi tê mi ni”. Essa representação aparentemente simples esconde uma enorme complexicidade, onde o primeiro membro indica como o espaço-tempo é curvado pela matéria (tensor de Ricci) e o segundo membro indica como a matéria pode posicionar-se e mover-se no espaço tempo (tensor de energia-momento).

Todo o empreendimento de Einstein ao desenvolver as duas Teorias da Relatividade pode ser visto como uma tentativa de unificar o Eletromagnetismo de Maxwell com a Mecânica de Newton. Seus resultados mostraram que a Mecânica era incompatível com o Eletromagnetismo e que ela funcionava bem apenas como uma aproximação para as situações que envolviam velocidades muito menores que a da luz. Nas duas primeiras décadas do século XX esse projeto de unificação falhou, ainda que seus frutos tenham tido consequências grandiosas. Einsten fez muitas outras contribuições importantes para o desenvolvimento das suas teorias da relatividade, sempre no sentido de reduzir as causas e generalizar as consequências. As teorias da relatividade, ainda que violem nosso senso comum, ainda mantinham aquele rigoroso determinismo explicitado por Laplace, porque mesmo dentro de seu arcabouço, conhecendo a posição, a massa e a velocidade dos elementos de um sistema físico, pode-se calcular (determinar) seus estados passados e futuros.

A TEORIA QUÂNTICA

A Teoria Quântica começa a surgir, de fato, no último ano do século XIX, em 1900, quando Max Planck resolveu um conhecido problema que atormentava os físicos da época, a explicação para o espectro de corpo negro. Há anos esse problema era abordado com aproximações empíricas (lei do deslocamento de Wien) que funcionavam razoalvelmente bem. Mas quando se calculava como as coisas deveriam ser utilizando os conhecimentos estabelecidos do eletromagnetismo e da termodinâmica (lei de Rayleig-Jeans) os dados desviavam infinitamente na região de irradiação próxima ao ultravioleta (“catástrofe” do ultravioleta). Planck fez algumas alterações na lei de Wien e conseguiu fazê-la adaptar-se quase perfeitamente aos dados experimentais conhecidos. Mas ainda não tinha como explicar o porque dessa nova lei de radiação funcionar tão bem e muito menos conseguia deduzi-la a partir da lei de Rayleigh-Jeans.

Max Karl Ernst Ludwig Planck foi um proeminente físico alemão considerado o pai da física quântica. Ainda que temja nascido em meados do século XIX, é considerado um dos físicos mais importantes do século XX.

Décadas antes, Boltzmann já sugerira intuitivamente que os estados possíveis de energia num sistema físico deveriam assumir apenas valores discretos. |Pensando sobre como explicar sua equação bem sucedida, Planck fez a suposição ousada, arrojadíssima, e contra-intuitiva, de que qualquer radiação só poderia ser emitida pelos elementos do sistema físico em quantidades discretas, de maneira descontínua, como se fossem “pacotinhos” de energia, que mais tarde foram chamados de quanta (plural de quantum em latim) de valores bem estabelecidos. Com essa suposição, ele conseguiu deduzi-la rigorosamente, corrigindo a lei de Rayleigh-Jeans, a partir da termodinâmica e do eletromagnetismo. Com isso, ele estabelecia a fundação do que seria conhecida como Teoria Quântica da luz e da matéria, uma revolucionária maneira de explicar o mundo, e que se mostraria ao longo dos anos cada vez mais surpreendente, contra-intuitiva e o mesmo tempo impressionantemente bem sucedida.
Poucos anos depois, em 1905, Einstein publicou um trabalho para explicar outro fenômeno muito conhecido mas ainda então não explicado, o efeito fotoelétrico, onde assumiu que toda radiação eletromagnética propaga-se através de “pacotes” — quantidade discretas e descontínuas — de energia, que ele chamou de fótons. E esse modelo teórico do Einstein, que lhe valeu um prêmio Nobel em 1921, estava de acordo com o que se observava. Era um excelente modelo, que reforçava a ideia de que a energia radiante era constituída de “pacotes” de energia, posteriormente denominados de “fótons”. A luz tinha, então, um comportamento inusitado, ora podendo ser tratada como uma onda eletromagnética, como em toda a óptica física e no eletromagnetismo, e ora podia ser tratada como uma torrente de partículas, os fótons. Esse comportamento “dual”, onda-partícula, da luz era a segunda “coisa muito estranha” (a primeira era a quantização da energia introduzida por Planck) com que os físicos se depararam no início do século XX.
Com os trabalhos de Planck e Einstein a quantização das radiações estava estabelecida teoricamente e corroborada por dados obtidos em experimentos de grande precisão.
Em 1913, Niels Bohr apresenta um modelo para o átomo do hidrogênio com a carga elétrica positiva concentrada num núcleo central e com a carga negativa orbitando-o, conhecido como “modelo atômico planetário”, em que a emissão ou absorção de radiações eletromagnéticas só podia ocorrer, também, em “pacotes” de energia e onde a matéria era assumidamente quantizada, em suas cargas gravitacionais (massas) e elétricas (elétrons e prótons). Com esse modelo ele conseguiu explicar como eram formadas as linhas espectrais de emissão do átomo de hidrogênio. Esse modelo foi, logo em seguida, melhorado por Sommerfeld com a introdução de “órbitas elípticas” no modelo planetário de Bohr. Estava então estabelecida uma teoria em que a emissão e absorção de energia pela matéria era, também, descontínua e em “pacotes”, isto é, quantizada.

Niels Henrik David Bohr foi um dos mais importantes físicos dinamarqueses. Conhecido por seu “modelo atômico planetário”, seus trabalhos foram fundamentais para a compreensão da estrutura da matéria e para o desenvolvimento da Teoria Quântica.

Essa maneira descontínua (quântica) de tratar as radiações e a matéria foi rapidamente desenvolvida até os anos 30 e constituindo-se no que conhecemos com Teoria Quântica da luz e da matéria. O conhecido experimento de Millikan, ou experimento da gota de óleo, entre 1907 e 1914, que estabeleceu com sucesso a carga do elétron, e a partir da razão já conhecida entre sua carga e sua massa pode calcular esta última, não teria explicação adequada sem o arcabouço da explicação quântica do efeito fotoelétrico dada quase uma década antes por Einstein e sem a assunção da quantização também da matéria.

O modelo atômico planetário com órbitas bem estabelecidas e com indicação da emissão de um fóton (carregando energia) quando um elétron sai de uma órbita mais externa (com maior energia) e vai para uma órbita mais interna (com menor energia).

Nos anos 20 a explicação possível para o Efeito Compton também se fundava sobre a quantização da matéria e das radiações. E até fenômenos triviais, como o amarelamento paulatino do papel nas páginas de livros ou descolorimento gradual de papel de seda exposto a luz só tiveram explicações plausíveis a partir da assunção de que matéria e radiação são quantizadas. Nessa mesma década, Louis de Broglie, dentro do arcabouço teórico da quantização da luz e da matéria e das Teorias da Relatividade, propôs arrojadamente a ideia de ondas de matéria, o que teve confirmação experimental com a observação de difração de elétrons, e esta foi mais uma daquelas “coisas muito estranhas”. Logo a seguir, dois outros físicos, Werner Heisenberg e Erwin Schrödinger, conseguiram estabelecer independentemente e por caminhos diferente uma Mecânica Quântica que, descrevia a evolução do estado quântico de um sistema físico (algo mais ou menos equivalente ao que a Lei Fundamental da Dinâmica, F=m.a, representa na Mecânica Newtoniana).

Representação esquemática do átomo de hidrogênio no modelo planetário de Bohr e no modelo de Louis de Broglie, em que o elétron, uma partícula matéria, tem propriedades ondulatórias e pode ser representado por uma onda.

Apenas como curiosidade abaixo está uma das possíveis formulações da famosa Equação de Schrödinger. Neste ponto, é importante frisar, a descrição da realidade pelas leis físicas já não era mais determinística no mesmo sentido em que o eram a mecânica newtoniana e a mecânica relativística. Tanto a mecânica matricial de Heisenberg como a mecânica ondulatória de Schrödinger descrevem apenas probabilidades acerca dos estados de  um sistema.

Equação de Schrödinger independente do tempo.

Werner Heisenberg, em 1927, ao deduzir que nos sistemas quânticos era impossível conhecer rigorosamente a posição e a velocidade das partículas (mais uma coisa estranhíssima) estabeleceu de maneira explícita o Princípio da Incerteza, como um dos fundamentos da Teoria Quântica. Levando esse princípio em conta, o indeterminismo intrínseco nas leis físicas da Teoria Quântica fica ainda mais explícito, uma vez que o próprio estado do sistema (posição e a velocidade) passa a ser intrinsecamente indeterminado. Laplace certamente ficaria aturdido com essas conclusões.

O desenvolvimento dos métodos e modelos da Teoria Quântica, por vezes mesclados parcialmente com modelos e métodos das Teorias da Relatividade, fizeram surgir, a partir de meados do século XX, a Eletrodinâmica Quântica (QED) — que é até hoje a mais precisa teoria física já elaborada, fazendo previsões comprovadas pelos experimentos com precisão maior do que de 1 parte em 10 bilhões — e, logo depois, a Cromodinâmica Quântica (QCD) mais conhecida pelo seu modelo de quarks para explicar as diversas partículas elementares. Essas teorias dão conta de explicar, num nível fundamental, praticamente todos os fenômenos químicos conhecidos. Pode-se dizer que a partir da QCD toda a Química pode ser “reduzida”, em suas explicações causais, à Física. De maneira análoga, quando pensamos sobre os fenômenos biológicos em termos de genes, hormônios, proteínas, etc, a Biologia pode ser “reduzida” à Química e, em conseqüência, à Física.

Um aspecto importante a considerar da Teoria Quântica é que ela surgiu a partir de considerações sobre o comportamento de coisa muuito, muuuuito pequenas, como átomos e fótons, e se aplica muito bem para explicar e prever o comportamento dessas coisas. Ela é como que uma teoria acerca das menores coisas que conhecemos (microcosmo), que são também as mais elementares. As teorias da relatividade, diferentemente, se aplicam a coisas grandes (macrocosmo) e tão grandes quanto o Universo inteiro (a Teoria do Big Bang e toda a cosmologia, por exemplo, a tem em seus fundamentos).

Coisas muito estranhas da Teoria Quântica:

    • Quantização da radiação e da matéria: a matéria é feita de moléculas, que são conjuntos de átomos, que são formados por partículas elementares como prótons, nêutrons e elétrons, e algumas delas são formadas por quarks, que não existem isolados, mas apenas em grupos de 2 ou 3 que sempre estão muito fortemente unidos.
    • Natureza dual da luz (partículas e ondas): a luz e todas as demais radiações eletromagnéticas (raios-X, raios ultravioleta, raios infravermelhos, raios gama, rádio, microondas, etc) apresentam comportamentos ondulatórios e de partículas, que se manifestam mais ou menos em diferentes  situações.
    • Natureza dual da matéria (ondas de matéria): a matéria,  isto é, os átomos, moléculas, partículas elementares, etc., tal como a luz, apresentam comportamentos de partículas e ondulatório, que se manifestam mais ou menos em diferentes situações.
    • O estado de um sistema, e de seus elementos, não podem ser determinados com precisão mas apenas em termos de probabilidades de posição, carga (massa) e velocidade. Quanto mais se consegue determinar a velocidade, menos se consegue determinar sua posição e vice-versa.
    • Princípio da Incerteza de Heisenberg: a própria natureza é intrinsecamente indeterminada, sendo posição e velocidade parâmetros apenas probabilísticos.
    • Gato de Schröedinger: tendo em conta o princípio da incerteza, Schrödinger imaginou um experimento mental no qual um gato dentro de uma caixa tem seu estado (vivo ou morto) determinado por um dispositivo que funcione como um “gatilho” quântico, que pode ou não iniciar um processo que leve à morte do gato. Olhando apenas a caixa fechada, o estado do gato é intrinsecamente indeterminado, tanto quanto o processo quântico que funciona como “gatilho” e ele está simultaneamente vivo e morto.
    • Entrelaçamento quântico: este estranhíssimo fenômeno, também nomeado de emaranhamento quântico, implica na transmissão instantânea de informação entre sistemas físicos distantes (mesmo a grandes distâncias).

A UNIFICAÇÃO DAS TEORIAS FÍSICAS

O próprio Einstein e outros físicos do início e de meados do século XX percebiam que, após os relativos sucesso das unificações da mecânica, do eletromagnetismo e da mecânica estatística, a física moderna apresentava resultados espetaculares mas fundados em duas teorias que não se combinavam. Antes, as incompatibilidades mais evidentes eram as que existiam entre a abordagem da mecânica e a do eletromagnetismo. Agora, além disso, a relatividade e teoria quântica se mostravam incompatíveis em muitos aspectos.

A relatividade e a mecânica quântica abordavam problemas de maneiras distintas, com ferramentais teóricos, matemáticos e hipóteses diferentes. Havia o desejo tácito de unificar ambas em uma única teoria, mais completa, mais abrangente em seus escopos e aplicações e mais reduzida em hipóteses e explicações causais. Essa teoria teria que dar conta de todos os fenômenos mecânicos e termodinâmicos (o que a relatividade fazia, tendo a teoria newtoniana como uma simplificação para casos específicos), todos os fenômenos eletromagnéticos (que as equações de maxwell tão bem elucidavam) e também fenômenos que apenas a relatividade e a teoria quântica tratavam adequadamente.

Muitas tentativas foram empreendidas pelos físicos, como os esboços de uma Teoria do Campo Unificado do próprio Einstein que tentava acomodar a gravitação e os fenômenos mecânicos com a eletricidade e os fenômenos eletromagnéticos num único arcabouço teórico (Einsten faleceu em meados do século XX trabalhando nessa teoria). Antes de Einstein dois outros físicos matemáticos, Theodor Kaluza e Oskar Klein, também tentaram juntar a relatividade e o eletromagnetismo e essas teorias de Kaluza-Klein, ainda que inicialmente não tenham ido muito longe, a partir do final do século XX voltaram a ter importância relevante.

Em meados dos anos 60, os físicos reconheciam, dentro da maneira quântica de pensar, apenas 4 tipos diferentes de interações: a gravitacional, a eletromagnética, e as nucleares forte e fraca. Para cada tipo de interação, uma teoria específica era requerida. A tentativa de reduzir conceitos e generalizar suas aplicações levou, em fins dos anos 60 a uma espetacular unificação parcial delas e que valeu um prêmio Nobel aos físicos Sheldon Glashow, Steven Weinberg e Abdus Salam. Mas não no mesmo caminho que Einsten, Kaluza e Klein tinha trilhado, de unificar a gravitação com o eletromagnetismo, mas sim com a unificação do eletromagnetismo com a força nuclear fraca. Essa “pequena unificação” reduzia de 4 para 3 as teorias fundamentais da Física e levou, ainda no início dos anos 70, à compreensão das dezenas de partículas elementares (elétrons, fótons, prótons, nêutrons, múons, píons, pósitrons, etc) dentro de um mesmo arcabouço teórico, o Modelo Padrão.

Em meados dos anos 1970, então, podia-se olhar o Universo como resultado de interações de 3 tipos, apenas: gravitacional, eletro-fraca e nuclear forte.

Mais recentemente, a partir dos anos 80, os físicos conseguiram unificações parciais das interações nuclear forte com a eletro-fraca. Os resultados obtidos até agora mostram-se promissores e muitos físicos esperam para breve (talvez poucas décadas) resultados mais positivos e mais conclusivos, com o consequente o surgimento de uma Teoria de Grande Unificação (GUT), onde as interações eletro-fraca e nuclear forte estejam unificadas.
O grande desafio, desde o início do século XX, tem se mostrado ser a unificação da gravitação com as demais interações e, mesmo isso, já aparece distante num horizonte de possibilidades, através de modelos conhecidos como Teorias de Super-Cordas.

As teorias de cordas afloraram na física nos anos 70 para abordagens sobre as partículas elementares. Nos anos 70 e 80, a partir daqueles trabalhos pioneiros de Einstein, Kaluza e Klein, os físicos perceberam que elas poderiam abordar também a gravitação, incluindo dimensões espaciais extras em suas equações e essas novas teorias de cordas foram chamadas de teorias de super-cordas. Em meados dos anos 90, as Teorias de Super-Cordas passaram a ser abordadas como casos especiais de uma teoria mais geral ainda, a Teoria-M que é ainda apenas um sonho distante.

Uma tal teoria desse tipo, ainda inexistente mas cogitada, capaz de explicar todos os fenômenos em todo o Universo e em todas as escalas é chamada de “Teoria de Tudo” ou “Teoria Final”. Ela seria o ápice do empreendimento reducionista e generalizante da Física desde seus primórdios, na Grécia antiga, há mais de 2500 anos.

PARA QUE SERVE UM BEBÊ RECÉM NASCIDO?

Se, neste ponto, nos perguntarmos: “E para que serve tudo isso?”
Podemos responder a nós mesmos com a mesma pergunta que Michel Faraday usou como resposta há mais de um século: “Para que serve um bebê recém nascido?

Compartilhe nas mídias:

Facebook
WhatsApp
Telegram

Comente o que achou:

Outros artigos: