Instituto de Química de São Carlos- Campus de São Carlos- Universidade de São Paulo(USP)-Brasil __________________________________________________
 

Tutoriais do Professor Edson Rodrigues

Este Curso é oferecido, pela Comissão de Cultura e Extensão Universitária do Instituto de Química de São Carlos-USP, à comunidade, estudantes secundários e universitários, professores de ensino médio ou qualquer interessado.
Esta iniciativa é uma homenagem à ação pioneira e exemplar de Vicente Coelho de Seabra. Nascido em Minas Gerais, como professor da Universidade de Coimbra, publicou, em 1788, dois volumes de um tratado de Química com uma visão ampla e profunda desta ciência, na época de Lavoisier, oferecendo-o para um Curso de Química da Sociedade Literária do Rio de Janeiro, como indicado no frontispício da obra.
 
 
___________________________________________________________________________
 
 
Exercícios propostos: Use o Bing | Use o Cuil
 
Uma Introdução à Química Geral
 

Primeiro Módulo - 1a.Parte

Nesta primeira parte estudaremos algumas noções básicas da Química e da Física, desenvolvidas a partir do século 17, e necessárias para o entendimento dos grandes progressos alcançados no século 20.

Conteúdo :
_____________________________________________________________
1. Introdução
2. O que é a Química
3. O Método Científico e a Química
4. Natureza Atômica da Matéria
5. Evidência Experimental da Existência dos Átomos
6. Dimensão dos Átomos
7. Peso Relativo dos Átomos
8. Lei da Conservação das Massas
9. Leis Volumétricas dos Gases
10. Lei da Combinação dos Gases
11. Lei das Proporções Múltiplas
12. Teoria Cinética dos Gases
13. Teoria Atômica de Dalton
14. Hipótese de Avogadro e Volume Molar
15. Lei Periódica dos Elementos
16. Espectroscopia e Espectros Atômicos
17. Descoberta do Elétron
18. Descoberta dos Raios-X
19. Descoberta da Radioatividade
20. Radioatividade Natural
21. Eletrólise
22. Natureza Atômica da Eletricidade
23. Maxwell e o Eletromagnetismo
24. Movimento Browniano

Século XX

25. 1900-Teoria Quântica de Planck.Leis da radiação do corpo negro
26. 1905-Lei do Efeito Fotoelétrico, de Einstein
27. 1911-Modelo nuclear do átomo, de Rutherford
28. 1913-Teoria do átomo de hidrogênio, de Bohr
29. 1914-Experiência de Frank e Hertz
30. 1914-Moseley e a Reforma da Tabela Periódica
31. 1916-Dedução da lei da radiação de um corpo negro, de Planck, por Einstein
32. 1921-Experiência de Stern-Gerlach
33. 1923-de Broglie propõe associar ondas às partículas materiais
34. 1925-Heisenberg:artigo básico para o desenvolvimento de uma mecânica matricial
35. 1925-Spin do elétron e os quatro números quânticos de Pauli
36. 1926-Schrödinger propõe uma nova mecânica chamada de ondulatória
37. 1927-Davisson , Germer e Thomson confirmam experimentalmente a natureza ondulatória da matéria
38. 1927-Heisenberg enuncia o princípio da incerteza no comportamento quântico da matéria
39. 1928-Dirac: Mecânica Quântica Relativística e Anti-Matéria




_________________________________________________________
 
 
No alumínio metálico os átomos se dispõem no espaço na forma de um cubo elementar(célula unitária) de faces centradas.A repetição deste arranjo nas três dimensões do espaço nos dá a estrutura atômica de um cristal macroscópico.A disposição espacial dos átomos de um sólido é obtida por meio da difração de raios-X (Cristalografia de raios-X).A Cristalografia é um campo amplo de pesquisas: estuda não só a estrutura de cristais mas também a física e a química dos cristais, as alterações geométricas das transformações de fase do estado sólido, e outros temas de interesse. Um aspecto significativo, atualmente, é a predição de estruturas cristalográficas a partir de princípios básicos e fundamentais, físicos,químicos e geométricos. ________________________________________________________ ____________________Molécula do DNA____________________ As duas fitas helicoidais da molécula do DNA são mantidas juntas por moléculas chamadas de "bases" a saber:(A)Adenina que se liga com a Timina(T);Citosina(C) que se liga com a Guanina(G). Estes dois pares de moléculas constituem as "letras do código da vida" do genoma dos seres vivos.O DNA do genoma humano apresenta cerca de três bilhões de letras. A estrutura da molécula do DNA foi determinada por difração de raios-X.
 
 
Exercícios propostos:
 
O que é a Química
 

Primeira tabela de pesos atômicos de Dalton

O que é a Química?

No estudo do Universo em que está imerso, o homem foi levado a caracterizar o seu conhecimento subdividindo-o, inicialmente, em áreas específicas que foram sendo desenvolvidas ao longo dos séculos.

O conhecimento empírico da Natureza deu lugar às chamadas Ciências Exatas, caracterizadas pela metodologia utilizada no seu desenvolvimento e progresso.

A Química, uma destas áreas, foi reconhecida como uma ciência há cerca de 300 anos atrás.

Ela estuda as propriedades, a composição, a estrutura das substâncias (que podem ser os elementos, as substâncias mais simples, e os compostos (combinação de elementos)) e suas transformações ou combinações (reações químicas), na produção de outras (síntese), e a energia (mecânica, térmica, elétrica, magnética, eletromagnética, etc.) envolvida nestes processos.

A Física, que se desenvolveu simultânea e paralelamente à Química e com a qual mantém íntima relação, é uma área mais abrangente do conhecimento na qual se procura o conhecimento básico das leis do universo e da matéria e suas consequencias.

De um modo geral as ciências são interdependentes, partilhando muitas vezes os mesmos conceitos, métodos, instrumentação e aplicações. Por exemplo, a formulação da teoria atômica da matéria, no começo do século 19, foi obra de um meteorologista (Dalton), a organização da tabela periódica dos elementos, em 1867, foi feita por químicos (Mendeleyev), e sua natureza empírica explicada por físicos (Moseley), em 1916.

A Química, desde tempos imemoriais, como Alquimia ou tecnologia química rudimentar, é uma ciência eminentemente empírica, tendo seus praticantes desenvolvido uma maneira e vocabulário específicos, estabelecido conceitos e leis naturais e estabelecido um sistema complexo de representação visual qualitativa, quantitativa e frequentemente estrutural (geometricamente, no plano ou no espaço) das transformações que resultam da interação de átomos e ou moléculas, na produção de novas substâncias.

A partir do início do século 20, com o aparecimento do modelo teórico do átomo de hidrogênio (Bohr), que permitiu explicar a origem do espectro da luz emitida pelo átomo de hidrogênio, quando excitado energeticamente, e com o desenvolvimento ulterior da Mecânica Quântica, finalmente formulada na sua forma definitiva em 1928, e aplicável a qualquer átomo ou molécula, e suas formas condensadas, o empiricismo da química começou a ser entendido e interpretado.

No século 20, o desenvolvimento do computador e seu uso no processamento numérico, permitiu o surgimento de modelos teóricos hipotéticos-dedutivos das transformações químicas baseados (parcialmente) em leis empíricas e leis físicas ou somente em leis físicas, que permitem predizer e orientar a produção empírica de novas substâncias, no laboratório ou na indústria.

A modelagem teórica é tão complexa que há necessidade de supercomputadores extremamente potentes para a obtenção dos resultados. Esta atividade (Química Computacional) intensificou-se no final do século 20 e atualmente está em franca expansão.

A Química é uma ciência básica abrangente que permeia todos os aspectos das transformações químicas da matéria que envolvem átomos, moléculas e radiação e suas interações e os aspectos físicos pertinentes.

A Química e os químicos

O desenvolvimento da Química, a partir do século 19, suscitou o aparecimento de subdivisões em áreas de interesse conhecidas como áreas acadêmicas tradicionais ou clássicas: Química Analítica, Bioquímica, Fisico-Química, Química Inorgânica, Química Orgânica e Química Teórica. São áreas abrangentes que se expandiram e desdobraram em uma variedade de especialidades, entrelaçando-se, com frequencia, de forma dinâmica.

Academicamente a Engenharia Química compreende sub-áreas tais como Química Aplicada, Cinética e Reações, Processos de Transporte e Separação, Engenharia de Processos de Sistemas, Avaliação de Propriedades Químicas, e Termodinâmica. Tais subdivisões são convenientes para o treinamento básico de engenheiros químicos que iniciam uma vida profissional na indústria.

As áreas acadêmicas sofreram tremenda expansão no século 20 com grande superposição de suas fronteiras e profunda especialização de seus temas.

De fato todas elas estão interligadas e repousam sobre um denominador comum : o conhecimento das leis básicas do comportamento dos átomos e das moléculas, tanto individualmente quanto em associação, para formar as substâncias naturais ou obtidas por síntese.

O interesse central dos químicos é o de correlacionar as propriedades destas substâncias, naturais ou sintéticas, com a composição química e o arranjo de seus átomos ou moléculas. Este conhecimento permite inventar novas substâncias e desenvolver novos procedimentos para sua obtenção, para uso na medicina, na indústria, para preservação ambiental, na agricultura, controle de pestes e da poluição, produção de energia, etc..


O objeto da Química é não só conhecer as leis do mundo material e a natureza de suas transformações mas também entender como os átomos e as moléculas se organizam em sistemas complexos, como encontrados nos seres vivos, sua estabilidade e suas transformações.

 
 
Espectro de linhas de alguns elementos.
O espectro de linhas de um elemento químico é uma característica própria de cada um o que permite identificá-lo.Por exemplo, analizando a luz proveniente de estrelas, galáxias e de nuvens gasosas do espaço cósmico podemos identificar os elementos químicos aí presentes.
 
 
 
O Método Científico e a Química
 

O objetivo da ciência, ou da atividade científica, é o de encontrar explicações satisfatórias para os fatos conhecidos que estudamos ou observamos.

Tais explicações são um conjunto de afirmações referentes ao que se observa, de caráter geral, isto é, aplicáveis a todos os casos conhecidos e tais que supostamente sejam verdadeiras ou melhor, não sejam falsas, e passíveis de serem testadas por procedimentos que excluam ocorrências lógicas tais como situações ad hoc (circunscrita ao caso examinado) ou circularidade ( afirmações recíprocas de implicação).

Também devem ter consequências que possam ser testadas não só no sistema sob estudo mas em outros diferentes.

As afirmações devem ter o caráter de leis universais, ou da natureza, que possam ser submetidas a testes, em todos os casos e ocasiões, e possivelmente refutáveis.

O sucesso desta estratégia de aquisição de conhecimentos nas ciências exatas é atestado pela rapidez do avanço das descobertas científicas desde que foi preconizada e praticada a partir do século XVI.

A metodologia da aquisição de conhecimentos científicos inclui:

     ■definição clara do problema a ser investigado
     ■aquisição de toda evidência disponível
     ■estabelecimento de hipóteses de trabalho
     ■testes experimentais destas hipóteses e obtenção de dados
     ■derivação de uma conclusão a partir dos dados
     ■teste  da conclusão e aplicá-la a todos os casos possíveis

Um exemplo clássico é o do estabelecimento da primeira teoria das reações químicas por Georg Ernst Stahl, em 1697, conhecida como a teoria do flogisto. Observações empíricas tinham mostrado que:

     ■Os metais conhecidos apresentavam propriedades químicas específicas semelhantes.
     ■Ao serem aquecidos transformavam-se produzindo um resíduo (cal, na nomenclatura do século 17)
        pulverulento.
     ■O cal produzido tinha densidade muito menor do que a dos metais que o originavam.
     ■Muitas vezes o cal ocorria livre na natureza e a partir dele - com fusão com carvão - produzia-se o
        metal correspondente.


A partir destes fatos Stahl propôs uma teoria para explicar o fenômeno da combustão. Ficou conhecida como teoria do flogisto (do Grego phlogistos " queimar"). Supôs, então, que:

     ■O flogisto seria uma substância constituinte de todos os corpos e, portanto, tinha peso.
     ■Ao ser queimado um corpo perdia flogisto deixando um resíduo mais leve (cal).
     ■Alguns corpos, como o carvão, possuíam muito flogisto porque quando queimados deixavam
        pouco cal.
     ■Os metais quando queimados perdem flogisto e formam cal.
     ■Aquecendo-se um corpo rico em flogisto, como o carvão, com um cal produz-se um metal.

Esta teoria deu grande impulso à experimentação e levou aqueles que a defendiam a realizar explicações engenhosas para explicar muitas reações químicas, inclusive intensificou o uso da balança no estudo destas. Perdurou por quase um século até Lavoisier, no século 18, demonstrar que ela é inconsistente propondo uma teoria da oxidação envolvendo o oxigênio do ar como sendo responsável pelos fenômenos observados nos metais.E também uma lei mais geral (lei de conservação das massas) que se aplica às reações químicas de qualquer tipo.

A teoria do flogisto foi uma teoria rudimentar, baseada em fatos empíricos limitados, que não levou a nenhuma generalização, tendo, portanto validade e vida limitadas.

A teoria da oxidação de Lavoisier, muito mais geral e mais ampla, explica os fenômenos empíricos em que se baseou a teoria de Stahl e permite fazer previsões acerca de qualquer reação química que se considere.

Modernamente, a partir da Teoria da Relatividade Geral de Albert Einstein, em 1916, o conceito de teoria proposto por ele tem sido adotado: uma teoria é uma invenção livre do espírito humano que com a ajuda de uma estrutura matemática permite formular leis gerais que se aplicam ao universo. Casos particulares da formulação geral da teoria estão relacionados com os fenômenos observados e servem de guia para a realização de novos experimentos.

Na atualidade a teoria que tem tido grande sucesso em explicar os fenômenos químicos e as propriedades dos sólidos,líquidos e gases é a Teoria Quântica de Max Planck.

Através da Mecânica Quântica é possível calcular as propriedades químicas dos átomos e moléculas e seus estados agregados, estudar a ligação química entre átomos e através de modelos computacionais específicos calcular as propriedades de sistemas de interesse.

Este processo tem sido utilizado com sucesso no desenvolvimento de substâncias farmacológicas e de interesse biológico, além de suas aplicações a todos os ramos da química, e na indústria.

O desenvolvimento destas aplicações, que dependem do avanço no desenvolvimento de supercomputadores para cálculos numéricos, levou ao desenvolvimento de uma nova área da química, a Química Computacional.
_______________________________________________________________________
 

 
Procurar no Google:"supercomputer quantum chemistry"(sem as aspas).
********************************************************
Estudos recentes do átomo de carbono: Átomos de carbono formam as famosas bolas, chamadas de fulerenos, com até 60 átomos interconectados entre si.Tais bolas, intensamente estudadas, prenunciam aplicações tecnológicas revolucionárias na micro-eletrônica. Além de se organizarem em camadas, como no grafite comum, os átomos de carbono podem formar tubos, fechados em uma extremidade, como mostra a figura .Os tubos podem ter parede singela ou múltiplas, enquanto seu diâmetro é de cerca de 3 nanometros  e seu comprimento pode chegar a milímetros. Estes tubos possuem a propriedade de auto-montagem sob condições extremas. São sistemas quase uni-dimensionais  que raramente apresentam defeitos e apresentam número grande de fenômenos extraordinários.Não só o carbono apresenta-se sob a forma de nano tubos : nano tubos de lipídios,peptídeos, polímeros e DNA,são conhecidos.A química dos nano tubos é uma área nova e de intensa pesquisa.Desde 2004, quando foi descoberto, o grafeno,uma camada da espessura de um átomo e de
estrutura alveolar(um nanotubo aberto longitudinalmente) revelou-se um material de propriedades extraordinárias (a rede formada é mais forte que o aço e conduz eletricidade melhor que o cobre).
Representação geométrica do átomo de carbono- no século 19, usando-se somente resultados de reações químicas,chegou-se à conclusão que o carbono é tetravalente,isto é, tem valência 4, formando compostos como o metano (CH4).
Também apresentam a propriedade de formar cadeias, curtas e longas, ligando-se entre si. Por exemplo, dois átomos de carbono podem se unir e combinar-se com proporções diferentes de hidrogênio para formar o etano (C2H6), o eteno (C2H4), e o etino (C2H2). Resultados como estes levaram os cientistas a representar o carbono como um tetraedro, como indicado na figura (a), em que as ligações químicas fazem um ângulo de 109.5º graus entre si. Para formar o etano, os tetraedros ligam-se  por um vértice, no eteno, por uma aresta e no etino,por uma face. Este e outros fatos levaram ao conceito de ligação simples(b), duplas (c) e triplas (-C
≡C-) entre os átomos de carbono. A química do átomo de carbono constitui uma parte extremamente importante da Química, denominada de Química Orgânica.

                                                                                                                            

                                                                                                                     

 
 
Natureza Atômica da Matéria
 

Átomos do elemento Germânio em um cristal
Uma das grandes conquistas científicas do homem foi reconhecer, empiricamente, a existência de partículas extremamente pequenas como constituintes da matéria.

Tais partículas, agregadas, formam todos os objetos que nos rodeiam.

São os átomos que constituem uma variedade de substâncias de caráter especial, os elementos químicos, cujo número é um pouco maior do que 90, encontrados na natureza, e outros, produzidos artificialmente em laboratórios especiais.

Os elementos são constituídos de átomos do mesmo tipo : cobre, ferro, alumínio, são metais constituídos de átomos de cobre, ferro, alumínio, respectivamente.

Assim cada elemento possui um nome (e um símbolo) que é o nome do átomo que o constitui.

Os elementos são diferentes entre sí mas apresentam propriedades químicas ( isto é, a propriedade de se combinarem uns com os outros, formando substâncias diferentes das originais) semelhantes mas de ocorrência periódica quando ordenados sequencialmente segundo um critério experimental estabelecido (peso atômico,originalmente,número atômico,atualmente).

Isto foi descoberto na segunda metade do século XIX o que levou ao estabelecimento da Tabela Periódica dos Elementos.

Os átomos apresentam uma estrutura interna : um átomo isolado apresenta-se sob a forma esférica, tendo uma parte central, portadora de carga elétrica positiva, ou núcleo, que é rodeado por partículas portadoras de carga elétrica negativa, os elétrons.

Os elétrons orbitam em torno do núcleo e se distribuem em camadas ou níveis energéticos de onde podem ser promovidos a níveis superiores (ou inferiores) ou mesmo retirados do átomo por processos específicos.

A massa de um átomo concentra-se no núcleo: por exemplo, no átomo mais leve, o hidrogênio, a massa do núcleo é 1836 vezes maior do que a do elétron.

Os núcleos dos átomos consistem de dois tipos de partículas de massas quase iguais, os protons e os neutrons.

Os protons são responsáveis pela carga elétrica positiva do núcleo. A carga elétrica de um proton é igual a de um elétron, com sinal contrário, mas a magnitude das cargas é a mesma.

Os neutrons não possuem carga elétrica. O núcleo do átomo mais leve, o hidrogênio, possui só um proton e nenhum neutron.

Todos os outros núcleos possuem uma mistura de neutrons e protons com a proporção de neutrons aumentando para átomos mais pesados. Por exemplo, o átomo de urânio natural possui 92 protons e 146 neutrons no núcleo, que é cercado por 92 eletrons distribuídos ao seu redor.

Os átomos da grande maioria dos elementos são estáveis, mas há uma certa variedade de elementos, encontrados na natureza, que apresentam átomos instáveis.

Seus núcleos sofrem transformações espontâneas, que podem ser sucessivas, com emissão de particulas carregadas eletricamente ( partículas alfa e beta) ou neutras( neutrons de pequena energia ou lentos e neutrons de grande energia ou rápidos) e radiação eletromagnética que pode atravessar os objetos com facilidade (raios gama e raios-X).

Tais elementos são chamados de elementos radioativos. Este fenômeno, chamado de radioatividade, foi descoberto no final do século XIX por Becquerel, em um pedaço de minério, a pitchblenda.

O primeiro elemento radioativo foi isolado e caracterizado por Marie Curie e Pierre Curie, recebendo o nome de Radium.

No século XX elementos radioativos foram produzidos artificialmente às centenas e na atualidade, isto ocorre nos reatores nucleares ou pilhas atômicas e em máquinas especiais chamadas ciclotron.

A área de conhecimento que envolve tais fenômenos é conhecida como Física Nuclear e Química Nuclear.

A partir do começo do século XIX, quando foi proposta uma teoria atômica por Dalton, as propriedades características dos átomos eram determinadas usando-se amostras macroscópicas.

Neste começo do século XXI, com a evolução da instrumentação eletrônica, já é possível manipular átomos individualmente.

A perspectiva que se pretende concretizar é juntá-los e construir objetos de dimensões da ordem do bilionésimo do metro. Esta área, em pleno desenvolvimento na atualidade, é chamada de Nanotecnologia.

 
 
O primeiro "carro" nanométrico formado por uma única molécula obtida pela manipulação de átomos individuais.(Rice University, Estados Unidos).

Carro molecular "elétrico"


O que é Nanotecnologia?
Nanotecnologia é uma área em pleno desenvolvimento na qual se utilizam métodos e processos de manipulação direta de átomos e moléculas para produzir materiais e objetos estruturados,de dimensões atômicas ou moleculares, até cerca de 100 nanômetros (100 bilionésimos do metro).
Tais objetos apresentam funcionalidade e performance extraordinárias que tornam possível a
obtenção de novos dispositivos que exibem ampla gama de aplicações. Por exemplo,combinando nanometricamente metais com propriedades magnéticas foi possível construir discos de computadores de imensa capacidade de armazenamento, da ordem de um milhão de vezes maior do que nos processos tradicionais.
Estes materiais híbridos,em que se usam materiais diferentes, como os óxidos de metais de transição,obtidos pela manipulação de algumas camadas de átomos e moléculas, na superfície de contato entre os mesmos(interface) e nas regiões próximas,permitem o transporte, de forma controlada, de elétrons, spins e fótons, através dela.
Esta funcionalidade é obtida pelo uso de métodos sofisticados de formação química e física destes materiais.
As aplicações são amplas:emprego na obtenção de sistemas de dimensões micrométricas para armazenamento de informações a nível de moléculas, aproveitamento da energia do sol transformando-a em eletricidade,transistores unimoleculares ou feitos de nanofios, transformação de eletricidade em luz, sensores extraordinariamente sensíveis e muitas outras aplicações tecnológicas e de uso da sociedade.

 À medida que a micro-eletrônica baseada no silício ( que usamos diariamente, nos nossos computadores, notebooks, telefones celulares,etc.) chega a seu limite de integração (uso de luz ultra-violeta,com comprimento de onda de 193 nm, nos processos de fotolitografia) que permite obter mais de 1 milhão de transistores por mm2 , há opções para maior integração. Uma delas é o uso de eletrônica híbrida com moléculas orgânicas-inorgânicas (eletrônica molecular), que levaria ao uso intensivo de síntese de compostos químicos (química sintética) ao nível molecular, pela utilização de fenômenos tais como o de auto-organização, auto-montagem, e outros correlatos. Esta opção está em pleno desenvolvimento na atualidade e deve revolucionar o uso de dispositivos nano-eletrônicos no futuro.

 
 
 
Evidência Experimental da Existência de Átomos
 

Imagem (10 nanômetrosx10 nanômetros) dos átomos de silício, numa das faces de um cristal de silício, obtidas por microscópio de tunelamento e de varredura(STM).


A concepção atômica da matéria, proposta por Epicuro e Demócrito e aceita por muitos outros filósofos gregos, permaneceu eclipsada durante mais de dois mil anos, até o século 17, por força da autoridade de Aristóteles, que a rejeitou e impulsionou a teoria dos quatro elementos (terra, fogo, ar e água).

Neste clima desenvolveu-se a Alquimia, no Egito, a partir da escola de Alexandria, que era o centro cultural mais avançado do mundo antigo, ponto de confluência das culturas grega, egípcia, mesopotâmica, e oriental.

A filosofia de Aristóteles dominou o pensamento científico, na Idade Média, de forma envolvente, até a época do Renascimento, no século 16.

Neste período a Alquimia, com sua parte experimental empírica e conceitual, impregnada de conceitos místicos, dominou o pensamento dos estudiosos, impondo uma barreira persistente ao desenvolvimento de novos conceitos.

No século 17 há um renascimento do interesse nas idéias filosóficas dos antigos gregos, anteriores a Aristóteles, particularmente aquelas relativas à constituição da matéria. Robert Boyle, Isaac Newton, Robert Hooke, na Inglaterra, e muitos outros estudiosos, na Europa, promovem uma renovação conceitual rejeitando as concepções vigentes até então e introduzindo a noção de discussão e verificação dos conceitos teóricos com medidas experimentais.

O conceito de elemento químico começa a tomar forma com Boyle e com Newton, o fundador da Mecânica.

A ação mútua entre si das partículas constituintes da matéria é considerada fundamental na constituição dos corpos.

Boyle estabelece a primeira lei quantitativa ao estudar o efeito de uma variação de pressão sobre o volume de um gás mantido à temperatura constante.

Nos séculos seguintes leis adicionais são formuladas e no século 18 Antoine Laurent Lavoisier, na França, mostra que a química é uma ciência experimental quantitativa desenvolvendo o uso de métodos científicos de análise e síntese de substâncias e estabelece o uso da balança no estudo das transformações químicas da matéria.

Dá início, também, à criação de uma nomenclatura para representar as substâncias simples e compostas nas reações químicas.

John Dalton, no início do século 19 , na Inglaterra, formula uma teoria atômica baseada nas especulações filosóficas dos gregos mas voltada a interpretar quantitativamente o comportamento da matéria nas reações químicas, principalmente dos gases.

Esta teoria prospera ao longo do século culminando com a descoberta de que átomos se unem entre si para formar moléculas, as partículas características da constituição dos corpos.

Assim, a noção de elemento químico, constituído de átomos do mesmo tipo e a hipótese de Avogadro, que levou à caracterização quantitativa da noção de molécula, permitiram um grande desenvolvimento da química, notáveis descobertas e levou ao estabelecimento da tabela periódica dos elementos.

A existência dos átomos, indiretamente comprovada pelo sucesso dos desenvolvimentos experimentais que ocorreram desde a época de Lavoisier até o o final do século 19, ainda não era totalmente aceita por muitos cientistas de renome.

Nas últimas décadas daquele século novas descobertas foram feitas sobre o comportamento do átomo o que permitiu, no século 20, um conhecimento mais profundo da natureza da matéria.

Com a revolução conceitual da Física, nas três primeiras décadas do século 20, o vasto conhecimento empírico da Química começou a ser entendido com profundidade, em particular a forma como os átomos se ligam para formar moléculas (ligação química).

______________________________________________________________
 
 

No final do século 19, muitos cientistas de renome não acreditavam na existência de átomos e moléculas, opondo-se a estes conceitos atomísticos.No entanto, nas primeiras décadas do século 20, conseguiu-se a difração de raios-X em cristais e a interpretação das figuras de interferência entre os raios refletidos pelos planos atômicos do cristal. O uso de uma teoria matemática permitia a localização, no espaço, dos átomos individuais (início do desenvolvimento da Cristalografia por raios-X, área de estudos amplamente usada em Física, Química, Geologia, Biologia, Metalurgia).
A partir de 1960 foi possível visualizar os átomos na superfície de uma ponta cristalina e o modo como eles se dispõem formando figuras geométricas, pelo uso de um microscópio especial. A partir de 1980, o desenvolvimento de novas técnicas, como o microscópio de tunelamento e de varredura (STM), permitiu visualizar átomos individualmente, como mostra a figura no topo da página.

Molécula de pentaceno,C22 H14, cinco anéis delineados e
ligações com os hidrogênios.Imagem obtida pela IBM pelo
uso de microscópio de força atômica e de varredura.

 

 
 
Exercícios propostos: Livraria digital para educação química(em inglês)
 
Dimensão dos Átomos
 

O átomo é praticamente uma estrutura vazia.

Sua parte central, o núcleo, contém quase que a totalidade de sua massa.

A massa restante é devido aos elétrons que giram ao redor do núcleo.

O volume do núcleo, relativamente ao do átomo, também é extremamente pequeno, da ordem de um milionésimo de um bilionésimo do volume deste.

O estudo das propriedades dos gases, no transcorrer do século 19, com o desenvolvimento da teoria cinética dos gases, permitiu estimar o diâmetro das moléculas a partir de dados experimentais.

A molécula de gases simples, como hidrogênio, oxigênio, contém dois átomos; o dióxido de carbono contém três.

Assim o diâmetro destas moléculas é da ordem de grandeza do tamanho dos átomos que as compõem.

Na teoria cinética dos gases, desenvolvida no século 19, considera-se que as moléculas encerradas em um recipiente, à temperatura ambiente, deslocam-se em linha reta à velocidades de centenas de metros por segundo.

De acordo com Clausius (1857), as moléculas de um gás, além de possuírem massa e tamanho determinado, apresentam uma seção reta nas colisões com outras moléculas, sejam do próprio ou de outro gás diferente.

O número de moléculas por unidade de volume é extremamente alto em um gas à pressões normais.

Apesar da alta velocidade e deslocamento em qualquer direção, as moléculas percorrem pequenas distâncias antes de se chocarem com as outras.

Nestes choques são desviadas de sua trajetória ou podem mesmo voltar em sentido contrário.

Como resultado transcorre um período considerável de tempo para se deslocarem de um ponto a outro de um dado volume, por exemplo, em uma sala.

Este mecanismo - que é normalmente lento - explica a difusão de um gás em outro diferente, processo que pode levar até horas para se realizar.

Esta propriedade, de difusão de um gás em outro, permite definir uma distância média percorrida pelas moléculas entre os choques que sofrem.

Se chamarmos de lambda, λ, esta distância média ou caminho livre médio, a teoria cinética dos gases leva-nos a relacioná-la com o diâmetro d, ou diâmetro de colisão, de uma molécula e o número n de moléculas por unidade de volume, pela fórmula : λ=1/√2(π nd2 ).

Se um volume V de um gás se condensar (formando um líquido ou sólido) dando um volume v, pode-se mostrar que d = √2 π λ(v/V).

Se aplicarmos estas relações ao dióxido de carbono, à temperatura e pressão normais, o caminho livre médio de suas moléculas é de 55 nanômetros (55x10-9 m).

Quando o gás se condensa em um sólido o volume deste é 808 vezes menor.

O diâmetro de colisão é então de 0.3 nanômetros (0.3x10-9m).

Como a molécula possui três átomos este resultado nos dá uma idéia da dimensão destes, da ordem de grandeza de centésimo de milionésimo do centímetro (10-8 cm).

Vários outros métodos experimentais independentes permitiram estabelecer que as dimensões dos átomos são desta ordem de grandeza.
_______________________________________________________________

 
 
Joseph Loschmidt (1821-1895), químico alemão, foi um dos primeiros cientistas do século 19 a determinar, em 1865, o tamanho dos átomos com precisão razoável a partir da teoria cinética dos gases. Determinou o diâmetro das moléculas do ar (um pouco menor do que 50 nanômetros, valor atual).Também determinou o número de moléculas em um átomo-grama (Número de Avogadro).
Dedicou-se ao estudo da representação gráfica da ligação química entre os átomos em compostos orgânicos aromáticos e inorgânicos tendo introduzido com sucesso o conceito de ligação dupla e tripla, que passou a ser usado no estudo da estrutura química das moléculas.
 
 
Clique-me:
Exercícios propostos:
 
Peso Relativo dos Átomos
 

A noção de peso relativo dos átomos foi utilizada por John Dalton, na Inglaterra, em 1802, na sua teoria atômica, para explicar a formação de substâncias compostas a partir de outras mais simples, os elementos. Supôs que os átomos de cada elemento eram iguais entre si, tinham as mesmas propriedades e mesmo peso.

Uma primeira tabela foi organizada por ele mas, com o desenvolvimento da concepção atômica da matéria, no século 19, em particular pelo estudo da reação química entre gases como oxigênio, nitrogênio, hidrogênio, e outros, para a formação de substâncias compostas, alguns pesos relativos não estavam corretos, porque não se sabia exatamente qual a proporção com que os átomos se uniam para formar alguns compostos.

Em outras substâncias esta proporção era óbvia, como na água.

No fenômeno da eletrólise, quando faz-se passar uma corrente elétrica pela água contida em um recipiente em que dois eletrodos estão ligados aos pólos negativo (catodo) e positivo (anodo) de uma pilha elétrica, respectivamente, há desprendimento de dois gases, um em cada eletrodo : no catodo, o hidrogênio e no anodo, o oxigênio.

Os volumes destes gases, recolhidos ambos à mesma temperatura e pressão, estão na proporção de 2:1, respectivamente.

Os pesos dos volumes destes gases, entretanto, estão numa proporção de 1:8, isto é, o peso do oxigênio é oito vezes o do hidrogênio.

Se volumes iguais de gases diferentes, nas mesmas condições de temperatura e pressão, contém o mesmo número de átomos, a proporção entre os volumes, 2:1, indica que há o dobro de átomos de hidrogênio na molécula de água.

A relação entre o peso de um átomo de oxigênio e o do hidrogênio é, portanto, de 16:1.

O peso relativo dos átomos da maior parte dos elementos pode ser obtido pela decomposição dos seus compostos e conhecimento das proporções com que os átomos se combinam, como no caso da água.

Se escolhermos um elemento como padrão conveniente, conheceremos os pesos relativos dos átomos de todos os outros relativamente ao átomo padrão. Dalton - o primeiro cientista a determinar o peso relativo de alguns átomos no começo do século 19 - tomou o hidrogênio como padrão, por ser o elemento gasoso mais leve.

Outros cientistas, ao longo do século, introduziram e aperfeiçoaram novos métodos de determinação dos pesos relativos dos átomos.

Introduziram, também, o conceito de "peso atômico" como sendo o valor da massa relativa dos átomos, i.é., a relação entre a massa média dos átomos de um elemento e as de um elemento padrão. Chama-se de "átomo grama" a quantidade de um elemento que tem massa em gramas igual ao seu peso atômico.

Modernamente- principalmente pelo conhecimento melhor da estrutura dos núcleos atômicos dos elementos- mostrou-se que, na verdade, os elementos são constituídos de mistura de átomos com mesmo número atômico ( mesma carga elétrica positiva no núcleo) mas com massas diferentes ("isótopos"), porque tem número diferente de neutrons , toma-se como núcleo padrão o do isótopo mais abundante do elemento carbono, de massa igual a 12 e que contém 6 neutrons.

O elemento carbono, naturalmente encontrado na natureza, na realidade é uma mistura de isótopos de massas diferentes com proporções distintas. O peso atômico do carbono é 12.011, o que reflete este fato.

O conceito de peso atômico é fundamental na química porque as reações químicas ocorrem envolvendo relações numéricas simples entre os átomos. Como os métodos de manipulação individual direta de átomos estão ainda em fase de desenvolvimento (nanotecnologia) e a determinação do número de átomos em objetos macroscópicos é impraticável o uso do peso atômico é muito conveniente e tem sido utilizado desde o século 19 para medir (pesar) os reagentes e os produtos das reações químicas.

 
 
Geometria é importante na Química Estrutural: à esquerda temos, no espaço, a disposição dos átomos de um alumino-silicato representativo de uma zeólita, substância natural que possui cavidades ,ou poros, onde podem se alojar moléculas com dimensões apropriadas.A estrutura geométrica é a de um cubo-octaedro, com canais internos nos quais se processam reações químicas catalíticas. Por exemplo, uma zeolita chamada ZSM-5 transforma diretamente álcool metílico em gasolina (uma mistura de hidrocarbonetos). As zeolitas são de grande importância industrial, sendo usadas como catalizadores, absorventes, em filtros industriais, etc.. Podem, também, ser utilizadas na alimentação de animais, na produção de cimentos especiais e apresentam outros usos variados.
 
Clique-me: Teoria Atômica da Matéria(video-MIT-em inglês)
Exercícios propostos:
 
Lei da Conservação das Massas
 

Reações Químicas:equipamentos de Lavoisier
Uma das grandes conquistas no estudo do comportamento químico da matéria, quando duas substâncias diferentes (reagentes) em contato se unem para produzir outras diferentes (produtos),ou uma substância é desdobrada em outras diferentes da original, por meio de uma transformação que normalmente envolve ou absorção ou desprendimento de calor, ou luz, ou outro agente característico, foi a descoberta de que o pêso total das substâncias reagentes é igual ao pêso total das substâncias resultantes.

Ou seja, apesar de quaisquer transformações químicas a que tenham sido submetidas, a massa total das substâncias iniciais, antes da trasformação, é igual à massa total das substâncias resultantes, após a transformação.

Assim, sendo A uma primeira substância e B outra, com a qual reage, podemos ter, esquematicamente, os resultados abaixo:

A + B ====> C + D + perda ou ganho de energia (luminosa, calorífica, elétrica, magnética, mecânica,etc.)

onde C e D são duas substâncias diferentes de A e B.

Esta representação é geral, incluindo os casos em que B está ausente :

A ====> C+D, ou decomposição de A produzindo duas substâncias, C e D.

Outra possibilidade é aquela com C ou D ausente :

A + B ====> C(ou D), ou síntese de C(ou D).

Temos, assim, mA+ mB = mC + mD onde mA , mB , mC e mD são, respectivamente, as massas de A, B, C e D. Nos casos em que B, C ou D estão ausentes, as massas correspondentes são nulas.

Pode-se afirmar, então:
______________________________________________________________________

"Em qualquer transformação química (reação) a soma dos pesos dos reagentes é igual à soma dos pesos dos produtos."
______________________________________________________________________

Esta lei empírica foi enunciada por Lavoisier, no século 18. Lavoisier destacou-se como um dos mais creativos cientistas deste século, tendo sistematizado o uso da balança no estudo das transformações químicas da matéria e estudado nas mesmas o ganho ou perda de energia nas suas diversas formas.

No início do século 20 Einstein mostrou com sua teoria da relatividade a equivalência de massa e energia, expressa na famosa equação ΔE = Δmc2 que indica que uma variação de energia corresponde a uma variação de massa, e onde c é a velocidade da luz.

Esta relação vale para qualquer transformação da matéria que envolva perda ou ganho de energia, como é o caso das reações químicas.

Nestas, no entanto, por maior que seja a variação de energia, a variação correspondente de massa é pequena, relativamente às massas presentes, não sendo detectada nas reações químicas comuns com o uso da balança.
 
 
Um laboratório em um microchip:pesquisadores da Universidade da California construiram este microchip-laboratório, onde podem ser feitas 1000 reações químicas simultaneamente, dispensando totalmente a bancada tradicional de laboratório.
O chip usado utiliza técnicas de microfluidos,sistemas microscópicos de dispositivos que conduzem os reagentes e líquidos, sob forma de gotas (invisíveis), por micro-condutos.
 
 
Exercícios propostos:
 
Leis Volumétricas dos Gases
 

Boyle - grande precursor da Física e da Química



Os gases diluídos - comparados com líquidos e sólidos - apresentam baixa densidade e propriedades características como elasticidade e grande expansão de volume, ao serem aquecidos. O estudo da elasticidade dos gases foi iniciado por Boyle, em 1662, que publicou um livro relatando suas experiências com gases e através das quais formulou uma lei empírica relacionando o volume de um gás à pressão a que está submetido:
________________________________________________________________________

Lei de Boyle: "O volume de um gás confinado é inversamente proporcional à pressão a que está submetido, desde que a temperatura seja mantida constante".
________________________________________________________________________

Se P é a pressão e V o volume esta lei indica que o produto PV é constante quando a temperatura t é mantida constante. Assim, quantitativamente:

PV = constante (à temperatura constante)

Se submetermos um gás à pressões P1, P2, P3,...,Pn sob as quais apresenta volumes V1 , V2 , V3 ,...,Vn , respectivamente, então,

P1V1 = P 2V2 = P 3V3=.......=PnVn =constante (à temperatura constante)

Quando falamos do volume de um gás devemos especificar a pressão e a temperatura a que está submetido. Comumente utilizamos a expressão condições normais de temperatura e pressão, abreviada CNTP, indicando a temperatura de 0°C e pressão de 760mm de mercúrio. Esta pressão é a pressão normal da atmosfera, ao nível do mar, que equilibra uma coluna de mercúrio de 760mm de altura ou pressão de uma atmosfera.

O efeito da variação da temperatura sobre o volume de um gás foi descoberto pelo cientista francês Jacques Charles, em 1785.

Ele mostrou experimentalmente que mantida a pressão constante um gás que ocupa um volume inicial Vo ,à temperatura to , ao ser aquecido a uma temperatura t, se expande para um volume V, de tal modo que a razão do acréscimo de volume V-Vo e o volume inicial Vo, é proporcional ao acréscimo de temperatura t-to , isto é,

(V-Vo)/Vo =α(t - to)

com P=constante e onde α é uma constante = 0.003661, igual para todos os gases.Temos assim,
________________________________________________________________________

Lei de Charles- "Mantida a pressão constante a razão da taxa de variação do volume de um gás pelo acréscimo de temperatura tem um valor constante para todos os gases".
________________________________________________________________________

Fixando a temperatura inicial to= 0°C, na expressão acima , e observando que α =0.003661=1/273.15, podemos escrever,

V=Vo(1 + t /273.15)

A partir do século 19 foi definida uma nova escala de temperatura chamada escala de Kelvin, ou de temperatura absoluta,T, relacionada com a escala de Celsius, pela expressão:

T = t +273.15

Para t = 0°C temos T = 273.15. Chamando de To esta temperatura, a lei de Charles pode ser escrita

V/T = Vo/To

com P=constante e onde Vo é o volume do gas à temperatura absoluta T=To.

As leis de Boyle e Charles podem ser relacionadas através da expressão:

PV/T=constante

Assim, uma mesma quantidade de gás submetida à pressões e temperaturas absolutas diferentes, P1 e P2 e T1 e T2 , respectivamente , terá seus volumes V1 e V2 relacionados de modo que :

P1V1/T1 = P2 V2/T2 =constante

Podemos determinar o valor da constante na equação acima submetendo uma quantidade de um gás igual a uma molécula-grama às condições normais de temperatura e pressão, i.e., fazendo por exemplo, P2=1 atmosfera ou 101325Pa, V2=volume molar padrão (22.414 dm3 ) ou 22.414 x 10-3 m3 e T2 =0°C ou 273.15K ou seja,

P 1V1/T1 = 8.31447 J K-1  mol-1 = constante = R

R é chamada de constante dos gases sendo igual para todos eles. Se tivermos n moles de gás, a expressão geral da lei dos gases é escrita como,

PV =nRT


Os gases que se comportam de acôrdo com esta lei são denominados "gases ideais ou perfeitos".

De um modo geral a maioria dos gases à temperatura e pressão próximas dos valores ambientais (25°C e 1 atmosfera) seguem bem esta lei.

Observa-se, também, que todos os gases, quando submetidos à pressões progressivamente próximas de zero, se comportam como gases ideais e seguem rigorosamente esta lei.

Fora destas condições os gases se afastam dos valores ideais sendo chamados por isto de "gases reais ou imperfeitos".

Isto é particularmente importante quando tais gases são submetidos à altas pressões e baixas temperaturas, condições que encontramos quando queremos liquefazer um gás.

Nesta situação, a equação acima pode ser modificada, como mostrou Johannes van der Waals , em 1873.

A equação de van der Waals  tem por expressão:

( P + a / Vm2 )( Vm - b ) = R T

onde:
P = pressão
Vm  = volume molar
R = constante dos gases ideais
T = temperature absoluta
a e b são constantes dadas por:

a = 27 R2Tc2/64Pc
b = RTc/8Pc

Tc  é chamada de temperatura crítica e Pc de pressão crítica, valores conhecidos experimentalmente para cada substância.
Se um gás for resfriado a uma temperatura suficientemente baixa e, em seguida, comprimido, ele poderá ser liquefeito. Cada gás possui  uma temperatura, acima da qual, por maior que seja a pressão aplicada,  não se liquefaz. Esta temperatura é chamada temperatura crítica, Tc.
A pressão máxima correspondente, submetida à qual ainda se liquefaz, é chamada de pressão crítica, Pc.
O volume que o gás ocupa sob Tc e Pc,temperatura e pressão críticas, é chamado de volume crítico, Vc.


 

 
 
 
Exercícios propostos:Teste seus conhecimentos
 
Lei da Combinação dos Gases
 

Gay-Lussac - físico e químico francês
As investigações semelhantes às de Lavoisier, que levaram ao estabelecimento da lei da Conservação das Massas, válida para qualquer reação química, foram sistematicamente aplicadas ao estudo de gases e sólidos.

Em 1808, Joseph L. Gay-Lussac, um cientista francês, ao estudar a reação química de gases, media os volumes dos gases reagentes antes da reação e depois, do gás resultante. Seus estudos levaram à lei conhecida como lei de Gay-Lussac, para a combinação dos gases:
________________________________________________________________________

Lei de Gay-Lussac: "Quando gases reagem, o volume dos gases reagentes e o dos gases resultantes estão numa razão simples expressa por pequenos números inteiros".
________________________________________________________________________

Temos alguns exemplos abaixo:

2 vol.de hidrogênio + 1 vol. de oxigênio → 2 vol. de vapor de água

1 vol. hidrogênio + 1 vol. cloro → 2 vol. cloreto de hidrogênio

1 vol. nitrogênio + 3 vol. hidrogênio → 2 vol. amônia

1 vol. nitrogênio + 1 vol. oxigênio → 2 vol. óxido nítrico

Esta descoberta de Gay-Lussac, que não conseguiu explicar porque os gases reagem desta forma, alguns anos mais tarde (1811), permitiu que Amadeo Avogadro, um cientista italiano, estabelecesse o conceito de moléculas, isto é, que a reunião de dois ou mais átomos, iguais ou diferentes, forma uma unidade independente característica de cada substância. Com esta interpretação a lei de Gay-Lussac é fàcilmente explicada, fornecendo também o número de átomos que entram na constituição das moléculas. Para que isto ocorra devemos levar em conta a lei abaixo:
________________________________________________________________________

Hipótese de Avogadro: "Volumes iguais de gases, medidos nas mesmas condições de temperatura e pressão, contém o mesmo número de moléculas".
________________________________________________________________________

Assim, por exemplo, na formação do cloreto de hidrogênio, uma molécula de hidrogênio com dois átomos se une com cada molécula de cloro, também formada por dois átomos,

H-H + Cl-Cl → H-Cl + H-Cl
1vol.   1 vol.            2 vol.

formando duas moléculas de cloreto de hidrogênio.

No caso da formação da amônia, teríamos,

N-N + 3H-H → NHHH + NHHH
1vol.   3vol.                 2 vol.
 

em que uma molécula de nitrogênio, composta de dois átomos, combina-se com três moléculas de hidrogênio, também constituída de dois átomos cada uma, para formar duas moléculas de amônia, cada qual formada por um átomo de nitrogênio e três de hidrogênio.

A hipótese de Avogadro, embora enunciada em 1811, somente quarenta e seis anos depois, em 1857, foi comunicada por Canizarro, um químico italiano, a um congresso científico internacional.

A sua divulgação permitiu avanços consideráveis no entendimento da Química. As moléculas no estado gasoso podem ser diatômicas ou poliatômicas. As moléculas dos gases comuns : hidrogênio, oxigênio, cloro, nitrogênio, etc., possuem dois átomos cada uma, sendo representadas por H2 , O2 , Cl2 , N2 , etc., respectivamente. A molécula da amônia é representada por NH3, enquanto a do vapor de água, por H 2O.

O número de moléculas existente em volumes iguais de gases, à mesma pressão e temperatura, foi determinado, no final do século dezenove, em um volume padrão igual a 22.414 litros. Tal número, chamado de número de Avogadro, é igual a 6.022 x 1023 , tem sido determinado por métodos e processos variados e independentes, e faz parte do número reduzido de constantes físicas fundamentais encontradas no estudo da matéria.
 

 
 
 
Exercícios propostos: Exercícios(não deixe de resolver!)

Exercícios resolvidos:Leis básicas e estequiometria.

 
Teoria Cinética dos Gases
 

Tabela numérica da distribuição da fração f de moléculas de um gas que possuem velocidade entre v e v+dv e gráfico correspondente. Na ordenada: valores de f = 4πx2.exp(-x2) e na abcissa valores de x = v√(m/2kT). [Ver Nota 1,no rodapé]
A teoria cinética dos gases originou-se em 1738 com uma teoria quantitativa desenvolvida pelo matemático suiço Daniel Bernoulli em seu livro "Hydrodynamica" onde supunha que os gases eram constituidos de um número muito grande de pequenas partículas em movimento caótico e que os choques destas com as paredes do recipiente eram a origem da pressão que exercem. Derivou a lei de Boyle mas seu trabalho permaneceu ignorado por mais de um século. Outros estudiosos, independentemente, na primeira metade do século 19, propuzeram teorias semelhantes , mas sòmente após o colapso da teoria do calórico, que procurava explicar a natureza do calor, a atenção dos cientistas voltou-se para os resultados obtidos até então. Rudolf Clausius ,em 1857, desenvolveu uma teoria matemática da teoria cinética dos gases que foi seguida pelo desenvolvimento definitivo por James Clerk Maxwell e Ludwig Eduard Boltzmann, em 1860, que a formularam de forma definitiva, usando a mecânica de Newton e introduzindo conceitos de probabilidade.

É uma teoria bem estabelecida, que interpreta muito bem os fatos observados ( propriedades mecânicas e térmicas : pressão, volume, temperatura, velocidade das partículas (moléculas), natureza do calor, condutividade térmica, viscosidade) e permite fazer previsões acertadas sôbre o comportamento dos gases, além de levar a dedução teórica das relações empíricas (lei dos gases) descobertas nos séculos anteriores, como já estudamos neste capítulo.

Os conceitos fundamentais desta teoria podem ser expressos por quatro hipóteses:

1a.- Os gases são constituidos de pequenas partículas independentes - as moléculas - iguais entre sí para cada gas.
2a.- As moléculas deslocam-se em todas as direções do espaço.
3a.- As moléculas têm dimensão finita e como consequência, podem se chocar entre si.
4a.- Quando um gas está no estado ideal, isto é, condição em que suas moléculas estão muito afastadas uma das outras e seguem as leis de Boyle e Gay-Lussac, a pressão do gas é devido somente ao movimento das mesmas.

Pela hipótese 1a., associamos a cada molécula uma massa m. Chamando de N o número de moléculas por cm^3 , a densidade do gas (massa por unidade de volume) é ρ = Nm. Esta densidade pode ser determinada no laboratório mas, por ora, desconhecemos os valores de m e N.

Pela hipótese 2a., consideremos que o gas está em equilíbrio térmico e mecânico, isto é, a temperatura é a mesma para todo o volume do gas e a velocidade de cada molécula igualmente distribuida em todas as direções do espaço, em cada ponto. Estas condições nos asseguram que não há correntes internas no gas e portanto temos equilíbrio mecânico e térmico.

Seja n o número de choques das moléculas por segundo sôbre unidade de área do gas (1cm2 ) e p a pressão definida como a força que se exerce sôbre cada cm2 de superfície. Sejam também <c> a velocidade média das moléculas e <c2> o valor médio do quadrado da velocidade das moléculas. Temos as relações abaixo [Nota2]:

n = (1/4)N <c>

p = (1/3)Nm<c2>

Mas Nm = ρ, é a densidade do gas que pode ser medida. A última equação permite determinar o valor médio do quadrado da velocidade das partículas do gas, <c2> :

<c2> = 3p/ρ

Para obtermos o valor médio da velocidade das partículas,<c>, utilizamos uma relação entre <c> e <c2> obtida por Maxwell:

(1/3)<c2> =(π/8)<c>2

Obtemos, então, para a velocidade média das partículas :

<c> = (4/√(2π))√(p/ρ)

Seja, agora, V o volume total do gas. Temos neste volume VN partículas. Chamando de ñ o número de moles no volume V e de A o número de Avogadro, então, VN = ñ.A .Podemos, então, a partir da formula acima para p, multiplicando-a por V, obter,

pV = (2/3)VN(1/2)m<c2> = (2/3)ñ.NA(1/2)m<c2> = (2/3)ñ E

onde E é igual à energia cinética média por mol das partículas e igual a NA(1/2)m<c2>.

A partir da teoria de Maxwell da distribuição das velocidades das partículas de um gas, como mostra o gráfico acima, resulta que a energia cinética média das partículas é dada por (3/2)kT, onde k é a constante de Boltzmann e T a temperatura absoluta do gas.

Temos, então,

E =(3/2)AkT
pV = ñ.Ak.T

Esta equação é igual à expressão da lei empírica dos gases, pV=nRT, se identificarmos R, a constante dos gases com Ak e tomarmos n igual a ñ.

Desta forma vemos que a teoria cinética dos gases permite deduzir as leis empíricas dos gases.
------------------------------------------------------------------------
Nota1: Significado de  exp nas fórmulas:indica exponenciação na base e. Exemplo: exp(-x)=e-x   
Nota2: Ver dedução destas relações no Apêndice II.
 
 
 
 
Clique-me:
Exercícios propostos:
 
Teoria Atômica de Dalton
 

Páginas do livro de Dalton sôbre a Teoria Atômica.
No final do século 18 e começo do século 19, graças ao conceito pioneiro de Boyle sobre os elementos, em 1661, e cerca de cem anos depois, com Lavoisier, considerava-se que uma substância era um elemento se pelo uso de métodos químicos não pudesse ser decomposta em outras mais simples.

A própria lei da conservação das massas, de Lavoisier, indicava que a idéia da existência de partículas constituintes da matéria era razoável uma vez que nas reações químicas a massa total não se alterava: as partículas dos reagentes trocariam lugar uma com as outras produzindo novas substâncias, sem alteração da massa total.

Estes fatos experimentais e mais a lei das proporções definidas de Proust, enunciada em 1799, que mostrava que qualquer composto químico puro contém, por peso, proporções fixas de seus elementos constituintes, reforçavam a concepção atomística da matéria, muito popular nos séculos anteriores, mas ainda sem qualquer evidência experimental.

John Dalton, na Inglaterra, no começo do século 19,em 1808, propôs uma teoria atômica de forma detalhada que permitia englobar todos resultados experimentais até então conhecidos por meio de postulados bem gerais:

1-A Matéria é constituída de átomos indivisíveis.
2-Os átomos de cada elemento tem pesos idênticos e apresentam outras propriedades iguais.
3-Elementos diferentes tem átomos diferentes. Os pesos dos átomos são diferentes em elementos diferentes.
4-Os átomos são indestrutíveis e nas reações químicas os átomos somente trocam de posição.
5-A formação de um composto a partir de seus elementos ocorre pela formação de átomos compostos que contém um número pequeno e definido de átomos de cada elemento.

Esta teoria de Dalton, que de fato concretiza idéias genéricas existentes desde a época dos filósofos gregos, teve o mérito de procurar basear-se em fatos experimentais expressos pelas leis da combinação química até então conhecidas e no conceito de peso relativo dos átomos.

Além de organizar a primeira tabela de pesos atômicos com alguns elementos Dalton também considerava que quando os átomos se uniam para formar um único composto este era formado por um átomo de cada elemento.

Sabia-se, na sua época, que a água era constituída de hidrogênio e oxigênio, unidos na proporção em peso de 1:(7), respectivamente [1:8, mais tarde e atualmente].

A formula que representava a água era dada como HO o que indicava que um átomo de oxigênio pesa oito vezes mais que um de hidrogênio.

Na realidade o átomo de oxigênio é 16 vezes mais pesado do que o do hidrogênio, mas esta conclusão só foi adotada após ser reconhecida a hipótese de Avogadro.

A teoria atômica de Dalton suscitou um grande desenvolvimento da química no século 19 mas já no final deste século estava totalmente superada pelo aparecimento de novas descobertas que se mostraram revolucionárias.


 
 
 
 
Clique-me:
Exercícios propostos:
 
Hipótese de Avogadro e Volume Molar
 

A hipótese de Avogadro, cientista italiano, permitiu estabelecer o conceito de molécula no século 19.
De acordo com a hipótese de Avogadro o número de moléculas contidas em um dado volume de um gás ideal independe da natureza do gás.

Dentre os volumes que podemos escolher livremente há um que apresenta características especiais importantes : é aquele ocupado pelo massa molecular de qualquer substância expressa em gramas (molécula-grama ou mol).

Consideremos alguns gases simples : 2.016 gramas de hidrogênio, 32.000 gramas de oxigênio, 28.020 gramas de nitrogênio, ou seja, um mol de cada substância, respectivamente.

De acordo com Avogadro, o volume ocupado por um mol destas substâncias ou pelo mol de qualquer gas, nas condições normais de temperatura e pressão (CNTP), isto é, à temperatura de 0°C e pressão de 1 atmosfera, é sempre de 22.414 litros.

Este volume característico, igual para todos os gases sob CNTP, é chamado de volume molar.

O número de moléculas contidas no volume molar é igual ao dado pelo número ou constante de Avogadro, cujo valor, determinado experimentalmente por vários métodos independentes, é igual a 6.022 x 1023 .

Como o volume molar é o volume correspondente a um mol da substância, isto é, à sua massa molecular expressa em gramas, em um mol teremos sempre um número de moléculas igual à constante de Avogadro.

Um mol de qualquer substância independe de seu estado físico - sólido, líquido ou gasoso - de modo que se desejarmos determinar a massa de uma molécula individual de uma substância basta dividir sua massa molecular pelo número ou constante de Avogadro.
_______________________________________________________________________

 
 
O número de Avogadro é uma constante física básica.

 

Como se comporta uma molécula?

Nas próximas décadas do século 21 os avanços em desenvolvimento atual vão permitir acompanhar o desenrolar de processos no interior das moléculas em tempos inferiores a um milionésimo de bilionésimo de segundo (menor do que 1 femtosegundo, 10-15 s). Isto é possível pelo uso de lasers ultra-rápidos e máquinas aceleradoras que produzem continuamente pulsos de raios-X  que "congelam" o movimento das partículas no interior das moléculas. Esta técnica permite acompanhar o movimento progressivo dos elétrons responsáveis pelas propriedades químicas da molécula (ligação química, e mecanismos de reações químicas, por exemplo).

Os lasers de raios-X oferecem a possibilidade de controlar os processos que ocorrem nos átomos e nas moléculas( controle de posições, velocidades e orientações relativas de átomos e moléculas).

Já se pode controlar o desfecho de reações químicas específicas o que possibilita a criação de novas moléculas talhadas de acordo com nossas necessidades (energia, saúde, nanotecnologia, ambiente, etc.).

O premio Nobel de Química de 1999 foi concedido ao cientista americano Ahmed H. Zewail por seus estudos dos estados de transição de reações químicas usando espectroscopia de femtosegundos.

 
Clique-me: Século 21:A luz e  a química
Exercícios propostos:
 
Lei Periódica dos Elementos
 

________________________Tabela Periódica dos Elementos Moderna_________________________ _______________"The elements be kind to thee, and make thy spirits all of comfort!"_______________ Anthony and Cleopatra, III ii,Shakespeare.
Em meados do século 19, 1869, Dmitry I. Mendeleyev, um químico russo, após exaustiva análise da correlação das propriedades dos elementos com seus pesos atômicos, propôs o que chamou de Lei periódica : quando os elementos são ordenados de acordo com o valor crescente de seus pesos atômicos fica patente que suas propriedades são periódicas. Mendeleyev organizou uma tabela com 17 colunas com duas sequências quase completas, do potássio ao bromo e do rubídio ao iodo. Na parte superior desta tabela colocou duas sequencias de 7 elementos cada, uma do lítio ao fluor e a outra do sódio ao cloro. Na parte inferior colocou três sequências incompletas. Mas, em 1871 fez uma revisão das 17 colunas, alterando a sequência dos elementos. Esta foi a primeira tabela periódica organizada com aqueles elementos conhecidos até então.

Seguido de Lothar Meyer, um químico alemão, apresentou também uma tabela mais compacta, com somente oito colunas, sete correspondendo ao período curto das sequencias de 7 elementos, subdividindo a sequência longa de 17 elementos em uma sequência de 7, mas uma coluna adicional, a oitava, com elementos tais como o ferro, o cobalto e níquel, e o restante uma nova sequência de 7.

O sucesso de Mendeleyev com esta tabela foi poder mostrar que a correlação de propriedades semelhantes indicava que havia pequenos erros no peso atômico de alguns elementos e grandes erros em vários outros. Estes grandes erros resultavam porque múltiplos dos pesos equivalentes destes elementos tinham sido usados na determinação de seus pesos atômicos.

Foram então corrigidos muitos destes pesos atômicos mas alguns dos elementos que deveriam figurar nas posições correspondentes às suas propriedades não possuíam seus pesos atômicos na sequencia crescente correta. Esta inversão de posição ocorria com três pares de elementos, argônio e potássio, cobalto e níquel e telúrio e iodo. Esta inversão só foi entendida muito tempo depois.

Também fez previsões da existência de elementos ainda não descobertos que deveriam nas sequencias ser localizados entre outros conhecidos. Chamou-os de ekaboro, ekaluminio e ekasilício, mais tarde descobertos e chamados de escândio, gálio e germânio, respectivamente.

Com a descoberta dos elementos gasosos, hélio e argônio, por Lord Rayleigh e Sir William Ramsay, em 1894, na Inglaterra, a lei periódica permitiu prever a existência de outros gases, neônio, criptônio, xenônio e radônio, todos eles denominados de gases nobres porque dificilmente se combinam com os outros elementos.

Para acomodar estes gases Mendeleyev e outros propuseram uma coluna adicional à forma da tabela de 8 colunas, denominada de Grupo zero.Temos, então, 9 colunas de elementos: Grupo 0, Grupo I, Grupo II, Grupo III,...,Grupo VIII, subdivididos em cada coluna em séries a e b. O número ao lado do símbolo de cada elemento, nas colunas, representa a ordem do elemento na tabela (chamado de número atômico, após 1913). Esta forma de tabela, apesar das modificações conceituais surgidas no início do século 20, foi mantida até 1930.

À medida que o conhecimento da estrutura dos átomos foi sendo obtido, ao longo do século 20, outras tabelas periódicas foram organizadas, focalizando ora uma ou outra característica estrutural.

Atualmente é corrente o uso de uma tabela que incorpora as propriedades básicas dos elementos, acompanhados de uma série de informações úteis, onde aparecem lugares correspondentes a elementos não encontrados na natureza mas obtidos sinteticamente.
 
 
Mendeleyev previu a existência e as propriedades de vários elementos com sua tabela periódica. Foram descobertos ,posteriormente, por outros cientistas.

 

 
 
Exercícios propostos:
 
Espectroscopia e Espectros Atômicos.
 

Isaac Newton, no século 17, descobriu que luz branca incidente sobre um prisma de vidro é desdobrada nas cores do arco-íris, sob forma de bandas luminosas contíguas, como representado esquematicamente na figura ao lado.

Mostrou, também, que estas cores são uma propriedade intrínseca da luz e não dependiam do material do prisma.

A luz proveniente de sólidos incandescentes ou de líquidos, quando analisada com um prisma, também apresenta bandas luminosas coloridas.

Com vapores luminescentes observam-se linhas coloridas separadas por espaços escuros, quando a luz enviada ao prisma passa por uma fenda muito estreita, antes de atingi-lo e sofrer dispersão pelo vidro.

Esta série de linhas de cores diferentes, que constituem imagens separadas da fenda, é denominada espectro de linhas ou raias espectrais do corpo emisssor.

Quando bandas são observadas temos os espectros de bandas.

Em 1859 dois físicos alemães, G.R. Kirchhoff e R.W. Bunsen, mostraram que o espectro de linhas dos elementos químicos é característico de cada elemento.

Desenvolveram a técnica de obtenção dos espectros de linha desenvolvendo um equipamento chamado Espectroscópio que possibilitava fazer análise dos elementos componentes dos compostos e que no final do século 19 permitiu identificar novos elementos.

A natureza ondulatória da luz já havia sido estabelecida definitivamente, cada raia do espectro correspondia a determinados comprimentos de onda da luz e o espectroscópio foi aperfeiçoado para medi-los.
 
Espectro de linha de alguns elementos.

Espectro visível do Hidrogênio, Mercúrio e Neônio,como aparecem em um espectroscópio. Os números correspondem aos comprimentos de ondas medidos em Angstrom, antiga unidade de medida de comprimento de ondas e igual a 10-8cm.


A regularidade das raias espectrais sugeria que sua origem seria devido a movimentos mecânicos vibratórios dos átomos e que a luz emitida deveria apresentar alguma relação harmônica relativa a eles, mas nada foi encontrado.

Em 1885 grande avanço foi obtido quando J. Balmer, um mestre escola suiço hábil em numerologia, mostrou que para os comprimentos de onda das quatro raias visíveis do espectro do hidrogênio, o elemento mais leve, existia uma relação dada por:

Fórmula de Balmer que dá o comprimento de onda das raias do espectro do Hidrogênio onde lambda é o comprimento de onda, b é uma constante igual a 3645.6 angstroms, m e n números inteiros. A série visível de Balmer é obtida tomando-se n = 2 e m =3,4,5,6, para as quatro linhas do espectro, respectivamente. Para o espectro na região ultravioleta a fórmula de Balmer se aplica com valores de n=1 e m=2,3,4,.... Com o sucesso em representar com sua fórmula as linhas espectrais do hidrogênio, na região visível e no ultra-violeta, Balmer sugeriu que deveria existir uma relação geral para qualquer elemento sendo a do hidrogênio um caso particular daquela. Alguns anos depois Rydberg descobriu que as linhas da série de Balmer (linhas no visível e no ultravioleta próximo) podem ser representadas de maneira mais útil usando-se o inverso do comprimento de onda, 1/λ, ou número de ondas. O número de onda é o número de comprimentos de onda - expresso em inverso do metro (m^-1), no Sistema Internacional de Medidas- existente em 1m de percurso da luz no vácuo. A expressão da fórmula de Rydberg é dada por: A fórmula de Rydberg é comumente usada para computar os espectros do Hidrogênio. onde nº de ondas = 1/λ, n = 3,4,5,.... e R
H é uma constante, chamada de constante de Rydberg do hidrogênio, cujo valor é igual a 1.097373177 x 107 m-1 . Várias outras séries do espectro do hidrogênio foram encontradas, uma na região do ultravioleta e três no infravermelho. As formulas de Rydbergh para estas série são dadas abaixo:

Série de Lyman:ultravioleta n=2,3,4,...

Série de Balmer:visível e uv n=3,4,5,...


Série de Paschen:infravermelho n=4,5,6,...

Série de Bracket:infravermelho n=5,6,7,...

Série de Pfund:infravermelho n=6,7,8,... _______________________________________________________________________

Durante o século 19 houve um extraordinário desenvolvimento na compreensão e na aplicação da análise espectral da luz emitida ou absorvida em gases e vapores de substâncias sólidas e líquidas. A emissão de luz pelas substâncias é conseguida por descarga elétrica nos gases e vapores(lâmpadas especiais, por exemplo, lâmpadas de mercúrio (aplicação comum:lâmpadas fluorescentes), lâmpada de hidrogênio, lâmpadas de sódio (iluminação pública), etc.), ou mesmo queima da substância em uma chama de gás comum( queimador ou bico de Bunsen). A espectroscopia permitiu a descoberta de novos elementos e passou a ser usada como um método analítico da química, Espectro-Química, aplicável à Astronomia, Geologia, etc.Nas duas primeiras décadas do século 20 a espectroscopia já tinha sido estendida para o estudos dos raios-X e firmou-se como uma área de estudos atômicos e moleculares. A açao de campos elétricos e magnéticos sobre as raias foi estudada e um certo número de regras empíricas formuladas com sucesso. O desenvolvimento de teorias do átomo no início do século 20 teve como fundamento este desenvolvimento da espectroscopia e explicação destes resultados empíricos. ____________________________________________________________________________ Aprenda o alfabeto grego, no Apêndice I


Nas moléculas os átomos vibram de vários modos diferentes, como no exemplo abaixo, do movimento dos átomos de hidrogênio (azul) relativamente ao átomo do carbono(amarelo), no radical orgânico         =CH2 . Estes movimentos podem ocorrer simultaneamente e podem ser deduzidos da análise do espectro de absorção da molécula na região do infra-vermelho (espectro infra-vermelho, IR).

Symmetrical
stretching
Antisymmetrical
stretching
Scissoring Rocking Wagging Twisting
Symmetrical stretching.gif ref.:wiki-encyclopedia ref.:wiki-encyclopedia ref.:wiki-encyclopedia ref.:wiki-encyclopedia ref.:wiki-encyclopedia
Alongamento
simétrico
Alongamento
assimétrico
Tesoura Balanço Abano Torção

Referência:Vollhardt, K.P. and Schore, N.E., Organic Chemistry: Structure and Function, 3rd ed.,W.H. Freeman and Company, New York, 1999.

 
 
Clique-me:
Exercícios propostos:
 
Descoberta do Elétron
 

J.J Thompson - cientista inglês que descobriu o eletron
A partir da teoria atômica de Dalton, no começo do século 19, a suposição de que átomos eram reais tornou-se quase certeza já no final do século, graças ao tremendo avanço conseguido pela compreensão das propriedades químicas e físicas da matéria e acúmulo de evidências experimentais indiretas da sua existência.

A descoberta de que é possível produzir uma corrente elétrica com um sistema composto de duas placas metálicas imersas em uma solução salina, por Alessandro Volta, em 1802, levou ao estudo sistemático da ação da eletricidade sobre compostos químicos, principalmente quando em solução aquosa.

Descobriu-se que a passagem desta corrente elétrica por uma solução aquosa de ácidos, álcalis e sais era acompanhada de transformações químicas que eram responsáveis pelo aparecimento de produtos específicos nos eletrodos.

A este processo de decomposição química, ou da água ou da substância dissolvida, é chamada de eletrólise.

Se fizermos a eletrólise de uma solução diluída de um ácido usando eletrodos inertes (platina, por exemplo) teremos liberação de hidrogênio gasoso no eletrodo (catodo) ligado ao polo negativo de uma bateria e oxigênio gasoso no eletrodo (anodo) ligado ao polo positivo.

Se usarmos uma solução de um sal metálico, por exemplo, um sal de cobre, observaremos a deposição de cobre metálico no catodo.

O pioneiro no estudo dos aspectos fundamentais da eletrólise foi Michael Faraday, a partir de 1831, que descobriu que ao passar pela solução uma determinada quantidade de eletricidade sempre há nos eletrodos liberação dos pesos químicos equivalentes das diferentes substâncias usadas.

Esta quantidade fixa de eletricidade que libera um peso equivalente de qualquer substância na eletrólise é igual a 96484.56 coulombs e recebeu o nome de faraday (1 faraday=96484.56 coulombs).

A partir das leis da eletrólise que descobriu Faraday sugeriu que os átomos que são equivalentes aos outros nas combinações químicas são portadores de cargas elétricas iguais naturalmente associadas a eles.

A primeira indicação de que existia uma partícula de massa muito menor do que o átomo mais leve conhecido surgiu do estudo da descarga elétrica em gases rarefeitos encerrados em ampolas de vidro, quando eram produzidos os chamados raios catódicos.

No final do século uma intensa controvérsia sôbre a natureza destes raios, se eram ondas ou partículas, levou à conclusão de que eram constituidos de partículas portadoras de carga elétrica negativa.

Em 1890, na Alemanha, A. Schuster fez medidas da carga elétrica específica e/m, destas partículas, usando campos elétricos e magnéticos, sem muita precisão.

J.J. Thomson, na Inglaterra, em 1897, aperfeiçoou tais medidas e chegou à conclusão de que os raios catódicos são constituídos de partículas de carga elétrica e massa bem definidas.

Desde as experiências de M. Faraday, na Inglaterra, em 1833, que mostraram que na eletrólise de soluções de substâncias químicas uma massa definida de material é depositada por cada coulomb de eletricidade que passa pela solução, surgiu lentamente a idéia de que uma carga elétrica elementar está associada aos átomos.

Uma interpretação atomística das leis de eletrólise estabelecidas por Faraday, feita em 1881 por G. J. Stoney, segundo o qual cada átomo da substância em solução (íons) transporta um número de elétrons de carga igual a sua valência, levou-o a cunhar o nome "elétron" para denominar a carga elétrica elementar e estimar a sua magnitude aproximada.

No começo do século 20 ficou definitivamente estabelecido que as partículas de carga elétrica e massa bem definidas que constituíam os raios catódicos eram portadoras da carga elétrica elementar ou elétrons.

Chegou-se, também, à conclusão que os elétrons são constituintes universais da matéria, ou seja, são encontrados em todos os átomos, pois podem ser obtidos de qualquer tipo de substância.
_______________________________________________________________________

 
 
Visite a exposição sobre o elétron e sua descoberta em http://www.aip.org/history/electron/
___________________________________________________________________________ William Nicholson, um químico inglês que algumas semanas após a invenção da pilha voltaica por Volta, logrou junto com um seu amigo cirurgião, Anthony Carlisle, decompor eletricamente a água, usando uma pilha de sua construção, obtendo dois gases(hidrogênio e oxigênio).Alguns anos mais tarde, em 1832, Michael Faraday, enunciou as leis da eletrólise de soluções, mostrando que espécies químicas eram responsáveis pelo transporte de eletricidade (cations e anions) na eletrólise.
 
 
Clique-me:
Exercícios propostos:
 
Descoberta dos Raios-X
 

W. Roentgen - cientista alemão que descobriu os raios-X
No transcorrer de experiências feitas no estudo da luminescência provocada por raios catódicos, o físico alemão W.C. Röntgen, em 1895, descobriu a existência dos raios-X.

Já havia sido observado por J. Plücker, entre 1858 e 1862, na Alemanha, nos seus estudos da passagem de eletricidade em gases sob baixa pressão, contidos em tubos de vidro, a existência de um brilho ou fraca luminescência verde nas paredes de vidro nas proximidades do eletrodo negativo ou catodo.

Descobriu-se também que os raios catódicos produziam intensa luminescência em vários compostos químicos, entre eles o platinocianeto de bário, o silicato e o sulfeto de zinco.

Numa de suas experiências Röntgen, em um quarto escuro, colocou um tubo de raios catódicos dentro de uma caixa de papelão preto e observou que ao fazê-lo funcionar folhas de cartões que tinham sido pinceladas com platinocianeto de bário, e que por acaso se encontravam nas proximidades da caixa preta, emitiam forte luminosidade.

Chegou à conclusão que a origem do fenômeno estava no tubo de raios catódicos colocado dentro da caixa de papelão e que por mecanismo desconhecido emitiam raios que atravessavam a caixa e tornavam luminescentes os cartões com platinocianeto de bário.

Chamou tais raios de raios-X, por desconhecer sua natureza. São chamados também de raios de Röntgen.

Röntgen mostrou que atravessavam objetos sólidos e que impressionavam chapas fotográficas.

Mostrou que uma mão espalmada sobre uma chapa fotográfica envolta em papel escuro e atravessada por estes raios tinha sua estrutura interna revelada devido a opacidade diferente aos mesmos oferecida pelos diferentes tecidos.

O estudo dos raios-X passou a ser feito em vários paises e descobriu-se que tornam o ar ou outro gas bons condutores de eletricidade ao atravessá-los.

A natureza dos raios-X foi elucidada somente em 1912, quando ficou provado que eram radiações eletromagnéticas semelhantes à luz mas de comprimento de onda muito menor.

Descobriu-se também, no início do século 20, que tais raios, à semelhança com a luz visível, podem sofrer difração quando incidem em estruturas tridimensionais periódicas, como as existentes em cristais de substâncias químicas, fenômeno que permitiu um fantástico desenvolvimento no conhecimento da estrutura dos sólidos.

________________________________________________________________________

 
 
Para mais detalhes sôbre raios-X faça uma busca no Google digitando (não incluir aspas): "roentgen x-rays discovery". ____________________________________________________________ Primeira radiografia obtida por Roentgen, que usou a mão de sua esposa, logo após sua descoberta dos raios-X.

Um espectrômetro de raios-X, usado na análise de metais e cristais, é ajustado por um pesquisador na Divisão de Metalurgia no Laboratório Físico Nacional do Reino Unido(1954.
A espectrometria de raios-X é usada em Astronomia para identificar a composição química das estrelas, na Química para identificar compostos químicos.
Quando raios-X, após reflexão ou refração em um cristal, incidem sobre uma placa fotográfica, ou tela fluorescente, aparece um arranjo de pontos ou manchas que muda de forma quando se gira o cristal em diferentes direções.O estudo destes arranjos de pontos obtidos com um cristal mantido em direções diferentes permite determinar a posição de átomos e moléculas no interior do cristal.Por exemplo, no diamante, no começo do século 20, descobriu-se que cada átomo de carbono é cercado por outros quatro dispostos como um tetraedro regular.
                                                                  

 

No século vinte o uso de difração de raios-X na determinação da estrutura dos sólidos sofreu extraordinário desenvolvimento, culminando com a determinação de estruturas de interesse biológico, como a do DNA. Ao lado a estrutura de uma enzima que combina estruturas secundárias, chamadas de α e β como mostra a figura. A determinação da estrutura das proteínas por raios-X é um campo de pesquisas extremamente ativo atualmente, reunindo químicos,biofísicos,biólogos,bioquímicos e exigindo recursos computacionais sofisticados.

 
Descoberta da Radioatividade
 

Becquerel ganhou o prêmio Nobel juntamente com Madame Curie e Pierre Curie.
Logo após a descoberta dos raios-X por Röntgen, Henri Antoine Becquerel, em 1896, na França, seguindo os passos de seu pai, um estudioso dos fenômenos de luminescência, em particular, a fluorescência dos sais de algumas substâncias quando expostas ao sol, foi levado a estudar um sal duplo, o sulfato de uranil potássio, na esperança de encontrar uma ligação entre este fenômeno e os raios-X.

Nas suas experiências envolvia uma chapa fotográfica em papel preto, colocava sobre ela um cristal do sal de urânio e expunha o conjunto ao sol por algum tempo. Ao revelar a chapa observou que havia nela uma imagem que indicava que o sal de urânio havia emitido raios que atravessaram o papel e impressionaram a chapa fotográfica.

Mostrou que em circunstâncias iguais a radiação emitida pela substância podia atravessar folhas finas de alumínio e cobre e ainda enegrecer a chapa fotográfica.

Preparou novas chapas com cristais mas em uma determinada semana o céu estava nublado encobrindo o sol por vários dias.

Deixou as chapas com os cristais no lugar, em uma gaveta escura, durante este período.

Apesar de o sol ter voltado, por curiosidade, revelou as chapas esperando encontrar algum vestígio de enegrecimento das chapas, sem expô-las.

As chapas apresentaram, não vestígios, mas imagens bem nítidas de enegrecimento o que levou à conclusão de que mesmo na ausência da ação do sol os cristais emitiam raios que eram ativos por um período longo de tempo.

Desta forma Becquerel mostrou que as radiações do urânio eram semelhantes em seus efeitos às dos raios-X : atravessavam materiais opacos à luz, impressionavam chapas fotográficas e, como descobriu depois, tornavam o ar bom condutor de eletricidade.

Este fenômeno, em 1898, foi chamado de radioatividade por Marie Sklodowska Curie, que estudando as propriedades das radiações emitidas por sais de urânio foi levada a descobrir um novo elemento, o polônio, que exibia estas propriedades de forma mais intensa.
 
 
 
 
Clique-me:
Exercícios propostos:
 
Radioatividade Natural
 

Uma pequena quantidade de material radioativo colocado em um bloco de chumbo emitia raios que sofriam a ação de um campo magnético de direção perpendicular ao plano da figura: os raios beta, mais sensíveis à ação do campo, eram desviados para a esquerda; os raios alfa, pouco sensíveis, dirigiam-se para a direita; os raios gama, totalmente insensíveis ao campo magnético, não sofriam desvios, propagando-se na direção vertical.
Após descobrir que as radiações do minério de urânio, à semelhança com os raios-X, atravessavam objetos opacos e impressionavam placas fotográficas, Becquerel investigou também se poderiam ionizar o ar.

Nesta época utilizou um instrumento rudimentar, o eletroscópio de folha de ouro, usado para indicar a presença de cargas elétricas eletrostáticas.

Era constituído de um recipiente de vidro que tinha uma espécie de rolha feita com um bom isolante elétrico que era atravessado por uma haste metálica: em uma extremidade externa possuía uma esfera metálica e na outra duas finíssimas folhas de ouro justapostas, como mostra a figura.

Quando descarregado as folhas de ouro permaneciam ligadas uma à outra e na vertical. Com uma carga de eletricidade positiva(ou negativa) as folhas se repeliam, abrindo-se de um ângulo que indicava carga maior ou menor.

 
 
Eletroscópio de folhas de ouro
Normalmente o ar do interior do eletroscópio é um isolante elétrico de modo que quando carregado não há dissipação de carga elétrica e as folhas permanecem abertas sem variar seu afastamento.

Becquerel mostrou que ao aproximar um minério de urânio de um eletroscópio carregado os raios que emitiam atravessavam o recipiente de vidro e tornavam o ar do interior um condutor de eletricidade uma vez que ele se descarregava.

Concluiu que, à semelhança dos raios-X, os raios provenientes de minério de urânio ionizavam o ar.

Em 1899, seguido por cientistas da Alemanha, mostrou que os raios emitidos por substâncias radioativas, à semelhança com os raios catódicos, eram desviados do mesmo modo por campos magnéticos.

Em 1900 Pierre Curie estudando tais raios mostrou que além da parte desviada por campos magnéticos havia outra que não sofria tal ação. Além disto, esta segunda parte não tinha tanto poder de penetração como a primeira.

Na mesma época, Ernest Rutherford, na Inglaterra, ao estudar a redução do poder de ionização dos raios emitidos por compostos de urânio ao atravessarem folhas de alumínio chegou à conclusão de que havia dois tipos de raios: um deles, de baixo poder de penetração, foi chamado de raios alfa e o outro, cerca de 100 vezes mais penetrante, raios beta.

As primeiras experiências de deflexão por campos magnéticos feitas com os raios alfa mostravam que não se desviavam de sua trajetória e portanto seriam constituidos de partículas neutras.

Mas Rutherford, em 1903 , utilizando campos magnéticos muito mais intensos, mostrou que os raios alfa também sofriam deflexão, embora menor, na sua trajetória, mas em direção contrária à dos raios beta.

O casal Curie mostrou que os raios beta eram portadores de uma carga elétrica negativa o que levou Becquerel a considerá-los idênticos aos raios catódicos após determinar sua carga elétrica específica e a sua velocidade, estudando a deflexão que sofriam sob a ação de campos elétricos e magnéticos.

Um terceiro tipo de radiação foi descoberto por P. Villard, em 1900, na França. Este tipo não sofria ação de campos magnéticos, tinha alto poder de penetração e impressionava intensamente as chapas fotográficas.

Esta radiação, denominada de raios gama, cuja natureza foi controversa desde sua descoberta, somente em 1914 foi provada, experimentalmente, por E. Rutherford e A.N. de C. Andrade, na Inglaterra, ser um tipo de radiação eletromagnética.

Estes cientistas conseguiram medir o comprimento de ondas dos raios gama, que se revelou muito menor do que o dos raios-X, pelo fenômeno de difração em cristais apropriados.

Em 1903, Marie Curie representava o comportamento destes três tipos de radiação, sob a ação de um campo magnético, como mostra a figura acima.


DESCOBERTA DO POLÔNIO

Marie e Pierre Curie, em 1898, ao estudar o poder de ionização de vários minerais de urânio, descobriram que dois deles, a pitchblenda e a chalcolita, eram mais ativos do que o urânio.

Convencidos de que tal intensa atividade era devida á presença de uma substância não conhecida procederam a uma análise química completa da pitchblenda, separando sais de seus metais constituintes e isolando uma substância cujo poder de ionização era cêrca de 400 vezes o do urânio.

A substância desconhecida, um metal, recebeu o nome de polônio, em homenagem à Polônia, terra natal de Marie Curie.

DESCOBERTA DO RADIO

Prosseguindo suas investigações e com a ajuda de um assistente, G. Bémont, o casal Curie descobriu na pitchblenda outra substância radioativa, com propriedades químicas diferentes das do polônio, com radioatividade cerca de 900 vezes mais intensa do que a do urânio, e semelhante ao bário com o qual se achava misturado.

Este novo elemento recebeu o nome de radio, derivado da palavra latina radius, que significa raio, e teve sua existência confirmada espectroscopicamente por M. Demarçay.

As quantidades destes dois novos elementos intensamente radioativos eram bem pequenas e para confirmar sua existência o casal Curie resolveu usar cerca de uma tonelada de resíduos de pitchblenda provenientes de uma mina na Bohêmia, Áustria.

Com esforço heróico, sem instalações adequadas, o casal Curie conseguiu isolar o cloreto de radio após usar o método de cristalização fracionada repetidamente, separando-o do cloreto de bário, com o qual tem forte afinidade química.

Logo após a descoberta do polônio e do radio um novo elemento radioativo, o actínio, foi encontrado na pitchblenda por A. Debierne, na França e mais tarde por F. Giesel, na Alemanha.

Em 1900, em consequências destas descobertas, cinco elementos radioativos eram conhecidos: urânio, tório, que também mostrava atividade radioativa, polônio, radio e actínio.

Em 1902 Marie Curie havia obtido um décimo de grama de cloreto de radio o que permitiu não só confirmar a existência do radio mas também determinar seu peso atômico.

Dois anos mais tarde, em 1904, graças às pesquisas intensas no Canadá e na Inglaterra, mais elementos radioativos foram encontrados, elevando o número deles para vinte.

Cerca de oito anos mais tarde, em 1912, já eram trinta e em 1950 mais de quarenta.

Madame Curie (1902) ___________________________ A descoberta dos primeiros elementos radioativos pelo casal Curie é um feito extraordinário na Química Analítica, dado ao tamanho das amostras iniciais e a precariedade das instalações de laboratório que foram usadas. ___________________________Pierre Curie já era um físico de renome quando casou com sua orientada.Em 1880, com seu irmão Jacques, descobriu a piezoeletricidade, que é o aparecimento de um potencial elétrico em um cristal quando submetido à pressão. Morreu atropelado em 1906 ao cruzar uma rua em um dia chuvoso.
 
 
Clique-me:
Exercícios propostos:
 
 

Faraday enunciou as leis da eletrólise. Suas pesquisas sobre condução de eletricidade por soluções de substâncias químicas levaram ao estabelecimento da Eletroquímica como importante área da Química.

Soluções de ácidos, base e sais conduzem eletricidade devido à presença de íons.Os íons são átomos ou grupos de átomos - normalmente neutros - que apresentam excesso permanente de carga elétrica positiva ou negativa. Esta carga elétrica pode ser expressa como um múltiplo integral de uma carga elétrica fundamental, mais tarde descoberta como sendo associada ao eletron.
Se o ion for portador de uma unidade de carga elétrica dizemos que tem valência 1. Se for portador de duas unidades de cargas elétricas sua valência é 2. De um modo geral se for portador de z cargas elétricas dizemos que sua valência é z.
Já em 1807 Humphry Davis (1778-1829) havia chegado à conclusão correta de que cargas elétricas são produzidas pela dissociação química de moléculas em solução ou surgem quando há decomposição química da matéria por meio de uma corrente elétrica. Em 1834 Faraday, ao estudar a condução de eletricidade por soluções, chegou à conclusão de que isto se dá pelo movimento destas cargas elétricas sob a ação do campo elétrico existente entre os eletrodos da célula eletrolítica usada. Chamou os íons portadores de carga elétrica positiva (+) de "cátions" e os de carga negativa (-) de "anions". Suas experiências levaram à descoberta das leis da eletrólise e constituiram a primeira prova experimental da existência de uma carga elétrica elementar. De acordo com as leis de Faraday a passagem de uma certa quantidade de eletricidade por uma solução eletrolítica sempre causa a deposição sobre os eletrodos de uma quantidade definida dos elementos químicos da solução.

──────────────────Leis da Eletrólise──────────────────

1a. lei: A massa de uma substância produzida é proporcional à quantidade de eletricidade que atravessa a célula eletrolítica.

2a. lei: Os pesos das várias substâncias depositadas nos eletrodos pela mesma quantidade de eletricidade estão numa razão igual a de seus equivalentes químicos.

─────────────────────────────────────────────────

O equivalente químico é definido como a molécula grama de um elemento dividida pela valência dele.
Através de suas experiências Faraday chegou à conclusão de que há uma unidade de eletricidade associada a átomos de valência 1 depositados na eletrólise, duas unidades por cada átomo divalente e assim por diante.
Assim, se depositarmos uma massa m de um elemento de valência 1 sobre um eletrodo de uma célula eletrolítica por meio de uma corrente elétrica de intensidade i durante um tempo t, considerando o número de Avogadro N, temos a relação abaixo:

mNe/M = it

onde M=molécula grama do elemento.

A quantidade de carga elétrica associada à 1 molécula grama é dada por:

Ne=Mit/m

Conhecida a masssa molecular M, do elemento ou ion, o lado direito desta equação é de quantidades que podem ser medidas experimentalmente. Ne, do lado esquerdo, é a carga elétrica total associada ao depósito do equivalente químico da substância sôbre o eletrodo.
Este valor é uma quantidade constante pois representa o produto do número de Avogadro pela carga elementar do eletron.É,portanto, uma grandeza universal, chamada faraday.Pode ser determinada, por exemplo, fazendo-se a eletrólise de uma sal de prata:
uma unidade de corrente expressa no sistema eletromagnético deposita 11.1798 miligramas de prata em um tempo t=1 segundo. A massa molecular da prata é 107.868. Temos,assim,

Ne=107.868/0.0111798=9648.47 abcoulomb ou 96484.7 coulombs por molécula-grama ou mol.

(1 abcoulomb do sistema eletromagnético é igual a 10 coulombs do sistema internacional).

O faraday é uma grandeza física de grande importância. Sua determinação experimental permite determinar a carga do elétron, conhecido o número de Avogadro, por processo experimental diferente.
 
 
O estudo da eletrólise levou ao estabelecimento da Eletroquímica, com pelo menos duas áreas
que se expandiram extraordinariamente: eletroquímica física e eletroanálise, esta última como
parte integrante da Química Analítica, denominada Eletroquímica Analítica. Ela estuda a inter-relação
da corrente, do potencial e da carga elétrica, correlacionando-as com propriedades químicas das
especies estudadas. As medidas elétricas correspondentes, com finalidade analítica, tiveram notável
expansão nas suas aplicações.Por exemplo, na análise biomédica, no controle de qualidade em
indústrias e monitoramento do meio ambiente, além de muitas outras aplicações.
Nas décadas finais do século 20, o desenvolvimento de ultramicro eletrodos, de monocamadas
moleculares e o acoplamento de estruturas biológicas com transdutores eletroquímicos, o
desenvolvimento de técnicas voltamétricas - para determinação de ultra traços de espécies químicas-
acompanhado dos processos de microfabricação a nível molecular, permitiram uma ampla gama de
aplicações da eletroanálise. Sensores químicos utilizando métodos eletroanalíticos constituem uma área de grande interêsse na atualidade.

Um exemplo ilustrativo é o do uso da valinomicina, uma macromolécula peptídica que possui uma cavidade interna, em um eletrodo seletivo de íons. Esta molécula sequestra íons potássio acomodando-os no seu interior com
               seletividade 5.000 vezes maior do que com íon sódio. O eletrodo de valinomicina é extensamente usado em análises clínicas.A determinação de potássio no sangue é da ordem de 200 milhões de determinações anuais só nos Esstados Unidos.

x

 
 
Clique-me:
Exercícios propostos:
 
Natureza Atômica da Eletricidade
 

Sistema de J.J. Thomson para estudo dos eletrons
Como resultado de seus estudos sobre a eletrólise, realizados a partir de 1831, Michael Faraday concluiu que era necessário passar 96500 coulombs de eletricidade para liberar nos eletrodos de uma célula eletrolítica o pêso-equivalente de qualquer substância.

E que também os átomos das substâncias que são equivalentes umas às outras nas reações químicas comuns possuem quantidades iguais de eletricidade naturalmente associadas a eles o que poderia significar a existência de uma unidade atômica de carga elétrica.

Este fato, aceito por Faraday, foi explorado com sucesso pelo cientista irlandês G.J. Stoney, que em 1874, como membro de uma comissão criada para fixar unidades elétricas de medidas, propôs que a partir da lei de Faraday da eletrólise poderia ser definida uma unidade de eletricidade.

Esta unidade de eletricidade estaria associada ao faraday do mesmo modo que o peso atômico estaria associado ao peso de um átomo, ou seja, por meio do número de Avogadro.

Assim, dividindo o faraday pelo número de Avogadro teríamos uma estimativa do valor da unidade de carga elétrica associada aos átomos.

Nesta época um número de Avogadro pouco preciso já era conhecido tendo sido determinado por Loschmidt e também pelo próprio Stoney, em 1868, a partir do uso da teoria cinética dos gases.

Stoney encontrou para a unidade de carga elétrica, associada aos átomos na eletrólise, um valor igual a 3 x 10^-11 unidades eletrostática de carga e esta idéia pioneira de uma unidade natural de carga elétrica foi prontamente aceita.

Em 1891 Stoney propôs o nome de eletron para esta unidade de carga elétrica elementar associada aos íons de uma solução eletrolítica.

As especulações, nesta época, de que os átomos nos gases submetidos à descargas elétricas também estivessem associados com a mesma carga elementar encontrados nos íons em solução, foram confirmadas em 1897 com o trabalho de J.S. Townsend.

Este cientista mostrou que os gases obtidos na eletrólise da água eram ionizados e podiam condensar gotículas de água que se apresentavam eletrificadas.

Conhecido o número de gotículas e medidas da carga elétrica total da nuvem que formavam permitiram a Townsend chegar a um valor semelhante ao de Stoney.

Dois anos depois, J.J. Thomson, que estudava o transporte de carga elétrica em gases ionizados por raios-X, como hidrogênio e ar, chegou a valor parecido com os de Townsend e Stoney, resultado que confirmava a idéia de que existia uma carga elétrica elementar associada tanto aos ions gasosos quanto em solução.

Em 1897 Thomson já tinha demonstrado que os raios catódicos consistiam de um fluxo de cargas elétricas negativas originárias do catodo de um tubo de raios catódicos.

Em 1890, na Inglaterra, A. Schuster tinha mostrado que partículas carregadas eletricamente, quer positivas ou negativas, sob a ação de um campo magnético H perpendicular à sua direção de movimento, descreveriam um círculo cujo raio poderia ser medido experimentalmente. Isto permitiria determinar a relação e/m, como mostra a relação à direita, caso se conhecesse a velocidade da partícula e o campo H. Não conseguiu bons resultados porque a velocidade usada era muito imprecisa.

No entanto, em 1897, cientistas alemães determinaram a relação e/m dos raios catódicos com êxito. Thomson, neste mesmo ano, introduziu a ação de um campo elétrico E simultaneamente ao campo magnético H e de direção perpendicular a este, o que permitiu determinar a velocidade pelo conhecimento somente da magnitude do campo elétrico e a do campo magnético.
A relação que usou é : v = E/H, onde E é a magnitude do campo elétrico e H a do campo magnético.

 
 
Um esquema do sistema utilizado aparece ao lado.

Método de J.J. Thomson
Os raios emitidos pelo catodo, no vácuo, são atraídos para o anodo que possui um pequeno orifício. Um feixe muito fino de raios é selecionado por uma fenda estreita e se dirige às placas (+,-) onde sofre ação do campo elétrico E. Com o campo magnético H, de direção perpendicular ao plano da figura, desligado, o campo elétrico exerce uma força para cima ou para baixo, na direção perpendicular às placas, de valor Ee, onde e é a magnitude da carga, desviando o feixe e fazendo-o incidir na escala graduada, acima do ponto 0, se a carga é negativa e abaixo, se positiva. A escala indicada é feita em uma tela fluorescente onde aparece um ponto brilhante no local de impacto. A seguir o campo magnético H é ligado e ajustado para um valor tal que o ponto brilhante se desloque e atinja a tela no ponto neutro O. Os valores de E e H permitem determinar v, a velocidade das partículas.

Desligando o campo elétrico E a carga elétrica sofre ação só do campo magnético H, e se desvia segundo uma trajetória circular, como vimos acima. O desvio permite determinar o raio r da trajetória circular. Com estes dados determina-se, então, a relação e/m.

Na figura ao lado relação que permite determinar e/m. Thomson encontrou uma velocidade de 1/10 da velocidade da luz e relação e/m igual a 2x1017 unidades eletrostáticas de carga por grama, valores não muito diferentes dos já conhecidos então, mas demonstrou que eles não se alteravam quando os gases residuais no tubo usado eram mudados ou o metal usado como catodo era diferente. Tais resultados indicavam que os raios estudados possivelmente estariam ligados a uma propriedade geral da matéria. Passou a denominá-los de corpúsculos e na tentativa de explicar sua origem, e comportamento semelhante ao dos raios catódicos, imaginava que eram cargas elétricas geradas a partir das moléculas dos gases residuais sob a ação intensa do campo elétrico. IImaginava também que tais corpúsculos constituiriam uma forma especial de matéria da qual seriam constituídos todos os elementos químicos. A partir de 1899 concentrou sua atenção em determinar diretamente a carga dos corpúsculos e a relação e/m em outros sistemas onde se sabia que havia emissão de partículas carregadas de eletricidade, tais como no efeito foto-elétrico e no efeito termo-iônico em filamentos metálicos aquecidos. O valor da carga elétrica encontrado era igual ao da carga elétrica elementar assim como a relação e/m semelhante à dos raios catódicos. A comparação destes valores de e/m com o valor de e/m determinado com íons de hidrogênio na eletrólise, que era cerca de 1000 vezes menor, levou Thomson a considerar a magnitude da carga elétrica negativa dos corpúsculos igual à magnitude da carga elétrica positiva do íon hidrogênio com a implicação de que a massa dos corpúsculos seria 1000 vezes menor do que a do íon ou átomo de hidrogênio. No começo do século 20 estes resultados eram totalmente aceitos e o nome elétron, com que Stoney se referia à carga, passou a denominar os corpúsculos de Thomson. ________________________________________________________________________
 
 
Clique-me:
Exercícios propostos:
 
Maxwell e o Eletromagnetismo
 

Ohm, físico e químico alemão, cujo nome foi dado à unidade de resistência elétrica.
Após a invenção das baterias para produção de eletricidade por Volta, em 1809 Humphry Davis, um químico inglês, conseguiu preparar metais como o sódio, potássio, calcio, estrôncio, bario e magnésio a partir da eletrólise de seus sais.Faraday, que era seu assistente, aprofundou-se no estudo da eletrólise e formulou suas conhecidas leis e estabeleceu com elas um método de medida quantitativa da corrente elétrica. Os cientistas do começo do século 19 passaram a estudar as características das correntes elétricas e estabeleceram suas leis básicas. Georg S.Ohm, um cientista alemão, em 1827 mostrou que a intensidade da corrente elétrica através de um fio condutor é característico do material do qual é formado, k,do seu comprimento l e de sua secção reta S, e da diferença de potencial V entre os polos da bateria.Este resultado é expresso pela lei de Ohm, i=V/R onde R=kl/S.
 
 
Físico e químico dinamarquês que descobriu a ação magnética de uma corrente elétrica no transcorrer de uma demonstração para seus alunos.
Hans Christian Oersted, em 1820, mostrou que as correntes elétricas produzem efeitos magnéticos e, no mesmo ano, André-Marie Ampère, na França, mostrou que fios paralelos conduzindo corrente elétrica na mesma direção ou direções contrárias, se atraem ou se repelem, respectivamente, como se fossem imãs ou magnetos. Estabeleceu a lei desta força magnética que se manifesta entre as correntes elétricas, caracterizando a força pela sua direção, sentido e magnitude (lei de Ampère). Mostrou, também, que se os fios forem enrolados como numa bobina, a força entre eles não se altera se substituirmos uma das bobinas por uma barra imantada de tamanho adequado, que depende da dimensão da bobina (comprimento e raio das espiras),do número de espiras e da intensidade da corrente elétrica que passa por ela, isto é,a barra imantada(imã ou magneto)e a bobina possuem o que se denomina de mesmo "momento magnético".
_________________________________________________________________________________ André-Marie Ampère(1775-1836), físico e químico francês, cujo nome foi dado à unidade de corrente elétrica. Ampère, menino prodígio em matemática,professor de física, química e matemática,ao saber das descobertas de Oersted de 1820, desenvolveu uma teoria completa para os fenômenos observados incluindo a famosa "lei de Ampère" que permite determinar a força magnética entre duas correntes elétricas. Desenvolveu sistema de medida da intensidade de uma corrente elétrica que posteriormente evoluiu para o galvanômetro,um medidor de correntes elétricas extremamente fracas, com grande precisão. Ampère, com seus estudos, originou a eletrodinâmica, o estudo matemático dos fenômenos da eletricidade e do magnetismo. _________________________________________________________________________________ Faraday, em 1831, descobriu o fenômeno da indução magnética que se manifesta quando a intensidade da corrente elétrica em uma bobina enrolada sôbre um anel de ferro varia, o que faz surgir (induz) uma corrente elétrica em outra bobina próxima, enrolada no mesmo anel(princípio do transformador elétrico). Descobriu também que surge uma corrente elétrica em um fio metálico que se desloca na presença do campo magnético de um imã fenômeno que levou à invenção do gerador elétrico que transforma ação mecânica em eletricidade. Em 1845 descobriu um fenômeno chamado atualmente de Efeito Faraday que consiste na rotação do plano de polarização da luz quando submetido a um campo magnético intenso em um meio dielétrico. Esta descoberta de Faraday mostrou que a luz, a eletricidade e o magnetismo, estão de alguma forma ligados. Faraday, um dos mais destacados cientistas do século 19, foi um genial experimentador. Dotado de rara inteligência intuitiva contribuiu com suas descobertas para o desenvolvimento da Química (eletroquímica), da Física (eletricidade, magnetismo, natureza da luz) e da Tecnologia (transformadores, motores elétricos, geradores, etc.). _________________________________________________________________________________ James Clerk Maxwell (1831-1879, matemático e físico escocês, tomando como fundamento as observações e idéias intuitivas de Faraday e os avanços no estudo da eletricidade e da luz da sua época formulou a teoria eletromagnética que unificou o estudo da eletricidade, o magnetismo e a natureza da luz,o que permitiu uma visão totalmente nova dos fenômenos físicos. As famosas equações de Maxwell, que descrevem matematicamente todos fenômenos eletromagnéticos e a radiação de modo geral, foram fundamentais no desenvolvimento das teorias modernas que revolucionaram a Física e a Química (Teoria Quântica da Matéria, Eletrodinâmica, Teorias modernas do átomo e das moléculas e suas interações,Teoria da Relatividade, etc.).A civilização como conhecemos hoje(rádio, televisão,telefonia microondas, computadores, lasers, viagens espaciais, etc.) provavelmente seria muito diferente sem os avanços proporcionados pela aplicação prática da teoria de Maxwell. Maxwell em 1859 também estudou o comportamento dos gases e a distribuição de energia cinética entre suas moléculas e a ação da temperatura, deduzindo com argumentos probabilísticos uma lei conhecida como "lei da distribuição das velocidades de Maxwell", como já vimos. Dois anos depois, em 1861, tal lei foi generalizada pelo famoso trabalho de Boltzmann sôbre mecânica estatistica aplicada ao estudo de sistemas moleculares. Esta lei que é fundamental no estudo de sistemas com comportamento clássico passou a ser conhecida como lei da distribuição de Maxwell-Boltzmann. A lei de distribuição de Maxwell-Boltzmann, aplicada a um sistema de partículas em equilíbrio térmico à temperatura absoluta T, indica que a cada grau de liberdade de uma partícula devemos associar uma energia média kT, onde k é uma constante chamada de "constante de Boltzmann".
 
 
Clique-me:
Exercícios propostos:
 
Movimento Browniano
 

Trajetória caótica de uma partícula submetida a choques com moléculas de água.
Em 1827, um botânico escocês, Robert Brown, publicou os resultados de suas observações sobre o movimento oscilatório rápido de grãos de pólen suspensos em água e observados através de um microscópio.Observou este fenômeno com o pólen de plantas recentes e plantas antigas, de mais de cem anos, e com partículas de materiais orgânicos e inorgânicos. O fenômeno ocorria mesmo com partículas suspensas em gases como no caso da fumaça.
Muitas hipóteses, sem sucesso, foram sugeridas para explicar o fenômeno até que em 1877 chegou-se à conclusão que o movimento caótico das partículas poderia ser devido a choques das partículas do líquido(moléculas) com as partículas em suspensão. A agitação dos grãos de pólen se tornava mais intensa com o aumento da temperatura. Embora os químicos já utilizassem o conceito de moléculas no estudo das reações químicas boa parte dos cientistas do século 19, inclusive alguns proeminentes, não acreditava na existência de átomos e moléculas pois não havia provas da existência material deles. Os físicos, por outro lado, desenvolviam a teoria cinética da matéria, procurando explicar os fenômenos ligados ao calor. Nesta teoria supõe-se que as moléculas dos líquidos e dos gases, além de se agitarem continuamente, colidem umas com as outras e, com maior frequência, com o aumento da temperatura.
A partir de 1860, R.J.E. Clausius, J.C. Maxwell e L. Boltzman, este último inventor da mecânica estatística, desenvolveram a teoria cinética da matéria baseados na suposição da existência de "moléculas" possuidoras de energia cinética. Nos choques parte desta energia seria transferida para as partículas em suspensão, como no caso do pólen. O interesse pelo estudo do movimento browniano acentuou-se pois este fenômeno poderia indicar a real existência das moléculas.
 
______________________________________________________________

Ludwig Boltzmann, um dos maiores cientistas do século 19, desenvolveu a chamada mecânica estatística, fundamental na compreensão das propriedades macroscópicas dos objetos, combinando a mecânica clássica com a teoria das probabilidades.Na sua teoria cinética da matéria, baseada na existência de moléculas, a energia cinética média destas é proporcional à temperatura absoluta.Esta constante de proporcionalidade é uma constante fundamental da física sendo representada pela letra k e denominda "constante de Boltzmann ".
As idéias de Boltzmann foram rejeitadas pelos maiores cientistas da época, notadamente Ostwald, até mesmo no início do século 20. O desenvolvimento ulterior da física e da química, com a prova experimental da existência das "moléculas", comprovou o acerto da teoria de Boltzmann, fundamental no estudo das propriedades da matéria.
______________________________________________________________

Em 1905 Albert Einstein publicou uma teoria quantitativa do movimento browniano seguida, na mesma ocasião, pelos estudos de Marian Smoluchowsky, do mesmo assunto, mas usando métodos diferentes.
Considerando uma partícula em suspensão sujeita ao bombardeio constante das moléculas do líquido Einstein supôs que instantaneamente havia a possibilidade de a partícula sofrer um pequeno deslocamento em um direção, ao acaso, e a partir de sua nova posição sofrer ação semelhante, deslocando-se em outra direção para posição diferente e assim, sucessivamente, com o passar do tempo.
Usando mecânica estatística mostrou que a probabilidade de a partícula ser encontrada a uma distância x da origem, após um tempo t, é dada por P(x,t)= exp((-x
2)/Dt)/√(πDt), onde D é o coeficiente de difusão no meio. D é uma quantidade que pode ser determinada experimentalmente e igual à metade do valor médio da raiz quadrada do deslocamento da partícula na direção x.
______________________________________________________________
Jean Baptiste Perrin, cientista francês, empreendeu uma série de experiências com colóides a partir de 1908 e, com a utilização do recém-desenvolvido ultramicroscópio, provou o acerto da teoria de Einstein e determinou o valor da constante de Avogadro. Perrin ganhou o prêmio Nobel de Física de 1926. Os resultados precisos de Perrin, a determinação do tamanho das moléculas e a do número de Avogadro, por um método totalmente independente daqueles usados até então, comprovaram definitivamente, de forma direta, a existência dos átomos e das moléculas. A existência destas partículas, até então, era tida como uma hipótese de trabalho.
 
 
Clique-me:
Exercícios propostos:
 
Teoria Quântica de Planck .Leis da radiação do corpo negro.
 

Max Planck,cientista alemão, criou a Teoria dos Quanta em 1900 e ganhou o prêmio Nobel de Física em 1918.
Max Planck (1858-1947) é o fundador da Física Quântica.Em 1900, afim de entender o comportamento de corpos aquecidos em emitir energia sob a forma de radiação eletromagnética, mostrou que as observações experimentais só poderiam ser explicadas se a energia fosse considerada descontínua e constituida de pequenos pacotes ou "quanta". Este conceito pioneiro estava em total desacordo com os resultados da física clássica obtidos supondo-se a energia contínua.
Introduziu o conceito de "quantum de energia",(hν), que é uma quantidade de energia,ε, proporcional à frequência da radiação,ν, emitida ou absorvida por um corpo. Esta constante de proporcionalidade (h) ficou conhecida como "constante de Planck". Tornou-se fundamental na revolução conceitual que abriu caminho para o estudo dos constituintes microscópicos (átomos, moléculas, núcleos e partículas elementares, etc.) da matéria.
Planck era um especialista em termodinâmica, a ciência que estuda troca energéticas (calor, trabalho mecânico, etc.) entre os corpos, assunto de que se ocupava desde a época de estudante. Passou a examinar o que era chamado de "corpo negro", um sistema que absorvia toda a energia radiante incidente e a re-emitia completamente. O conceito de corpo negro foi criado por outro famoso cientista alemão, Kirchoff, em 1860.
 
 
Gustav Robert Kirchhoff(1824-1887) e Robert Bunsen desenvolveram a análise espectral da luz emitida por um corpo aquecido para identificar seus elementos químicos (espectroscopia). Esta técnica, no século 19, permitiu a descoberta dos elementos químicos presentes no Sol e inúmeros elementos químicos da Tabela Periódica dos elementos. Kirchoff, que também deu grande contribuição ao estudo da eletricidade (leis de Kirchhoff), demonstrou que uma pequena cavidade (forno) mantida à temperatura uniforme e dotada de um pequeno orifício tem comportamento idêntico ao de um corpo negro : qualquer radiação de fora da cavidade que incida sobre o orifício é refletida repetidas vezes pelas paredes internas e é absorvida totalmente. A radiação existente no interior da cavidade,em equilíbrio com as paredes internas, por sua vez, ao sair pelo orifício, apresenta a distribuição de intensidade espectral de um corpo negro. A radiação emitida por um corpo negro abrange extensa gama de comprimentos de ondas.Todos os corpos emitem radiação de calor ou melhor emitem radiação eletromagnética de todos os comprimentos de ondas. A intensidade da radiação chega a um máximo para determinado comprimento de onda e decresce continuamente para comprimentos de onda maiores, para uma temperatura absoluta fixa.
________________________________________________________________________________

Lei de Stefan-Boltzmann: E = σT4 onde σ, letra grega sigma, é chamada de constante de Stefan-Boltzmann. Em 1879, Josef Stefan (1835-1893), um cientista austríaco, utilizando os resultados de medidas experimentais obtidas por John Tyndall, físico irlandês, descobriu que a energia calorífica radiante total emitida pela superfície de um corpo negro é proporcional à quarta potência da temperatura absoluta,T, do corpo. Em 1884, Ludwig Boltzmann, aluno de Stefan, que se tornou um dos maiores cientistas do século 19, usando argumentos termodinâmicos, derivou teoricamente esta lei empírica de Stefan. Esta importante lei é conhecida como lei de Stefan-Boltzmann. ________________________________________________________________________________ Lei de Wien ou do deslocamento : λmax .T=const. onde λmax é o comprimento de onda que corresponde ao valor máximo da intensidade da radiação emitida e T a temperatura absoluta do corpo. Wilhelm Wien (1864-1928), um cientista alemão contemporâneo de Planck, descobriu que o máximo de intensidade da radiação emitida por um corpo negro corresponde a um comprimento de onda da radiação(λmax ) que é inversamente proporcional à temperatura absoluta do corpo. Quanto mais alta a temperatura maior o valor máximo da intensidade da radiação emitida e menor o valor de λmax . Quanto menor a temperatura absoluta T do corpo maior o valor de λmax  , como pode ser visto na figura abaixo. Esta lei tem aplicações importantes: por espectroscopia determina-se o comprimento de onda para o qual a intensidade da radiação emitida por um objeto à distância é máxima. A lei de Wien permite determinar sua temperatura absoluta (exemplos:temperatura do sol, das estrelas, confirmação da teoria do Big Bang, etc.). ________________________________________________________________________________ Todas as tentativas de derivar teóricamente uma fórmula para a emissão de radiação de um corpo negro utilizando as teorias clássicas da física (eletromagnetismo de Maxwell, estatística de Boltzmann,termodinâmica) só tiveram sucesso parcial. Uma fórmula de Wien, por exemplo, embora de acôrdo com a experiência para frequências baixas, para frequências altas era totalmente discrepante (catástrofe no ultra-violeta).Uma outra expressão, devido a cientistas ingleses, a de Rayleigh-Jeans, baseada no eletromagnetismo, também não dava bons resultados. Através de sua hipótese ousada, da possibilidade de variação discontínua de energia por meio dos quanta,Planck conseguiu deduzir sua famosa lei da distribuição de energia radiante que fornece resultados rigorosamente de acôrdo com as medidas experimentais (as medidas modernas da distribuição espectral da radiação de fundo resultante do Big Bang, por exemplo).As curvas de côr azul,verde e vermelha, da figura, para suas respectivas temperaturas, foram obtidas com a fórmula de Planck. A teoria dos quanta de Planck, com Einstein e outros cientistas, desenvolveu-se constituindo no século 20 a teoria fundamental para o estudo da matéria. É atualmente um dos pilares da física moderna e fundamental na química.
 
 
Clique-me:
Exercícios propostos:
 
Efeito Fotoelétrico:Hertz e Teoria de Einstein
 

Heinrich Hertz (1857-1894), cientista alemão, descobriu as ondas eletromagnéticas e as ondas de radio e o efeito fotoelétrico.
Hertz descobriu o efeito fotoelétrico em 1887 quando fazia experiências de geração e recepção de ondas eletromagnéticas na banda de ondas de radio, outra de suas descobertas, geradas por sistemas da época (transmissores e receptores primitivos, formados por um capacitor, uma bobina e um centelhador). O receptor era idêntico ao transmissor com exceção do centelhador substituido por duas pequenas esferas afastadas por pequena distância e que formavam o detetor. Na recepção da onda de radio uma pequena centelha aparecia entre as esferas. Hertz descobriu que a centelha era mais intensa quando a luz emitida pelo centelhador do transmissor incidia sobre as esferas.Descobriu que a região do ultravioleta da luz incidente era responsável pelo efeito. Nos anos posteriores outros cientistas mostraram que a luz ultravioleta possui a propriedade de extrair partículas carregadas eletricamente da superfície de muitos metais. Se fizermos incidir luz ultravioleta sôbre uma superfície metálica de um metal alcalino, sódio, por exemplo, no vácuo, a superfície adquire uma carga elétrica positiva e expele carga elétrica negativa sob a forma de elétrons. As experiências mostram que a velocidade com que estes elétrons são emitidos não depende da intensidade da luz, mas sim o seu número.Quanto mais intensa a luz maior o número de elétrons emergentes. De fato, a velocidade dos fotoelétrons depende somente da frequência da luz incidente.
As tentativas de explicação destes resultados experimentais pela utilização da teoria ondulatória da luz foram vãs inclusive pelo fato de o fenômeno ser instantâneo. A teoria clássica do eletromagnetismo indicava que a absorção de energia requeria tempo considerável, não observado em qualquer manifestação da foto-eletricidade. Não explicava também porque a natureza do metal particular usado tinha importância.
 
Albert Einstein, o mais famoso cientista do século 20, ganhador do prêmio Nobel pela sua lei do efeito fotoelétrico. Em 1905, adotou a hipótese de Planck, de que a absorção e a emissão de energia radiante pela matéria não ocorre continuamente mas por meio de pacotes ou "grãos" de energia (quanta de energia) de valor igual à constante de Planck multiplicada pela frequencia da radiação. Considerou, entretanto, que a própria radiação(luz) é formada por grãos energéticos (quanta de luz, chamados posteriormente de "fótons"), cada um com energia E=hν, onde  ν é a frequencia da radiação. Uma ampola de vidro, onde se fez vácuo, tem dois eletrodos, como mostra a figura ao lado: o da esquerda é uma placa do metal fotoelétrico sob a ação de luz incidente de frequencia ν e o da direita, de um metal qualquer, mas com um orifício através do qual os elétrons produzidos podem ser acelerados ,ou retardados, pelo campo elétrico existente entre as duas placas obtido ajustando-se convenientemente o potencial aplicado V. A energia cinética máxima dos elétrons ejectados pode ser obtida aplicando-se um potencial de retardo que reduza a corrente elétrica medida, que passa pela ampola, para zero. Esta energia cinética máxima é dada pelo produto da carga elementar do elétron "e" e a diferença de potencial de retardo aplicado, "V", isto é, E=eV. A hipótese de Einstein, de que a luz é constituída de fótons, permitiu explicar o efeito fotoelétrico. Cada quantum de energia ou fóton, ao incidir sobre o metal, colide com um de seus elétrons transferindo para ele toda a sua energia. Ao ser expulso do metal este elétron gasta parte desta energia em trabalho realizado para se liberar da superfície do metal. Assim, a energia cinética máxima de cada fotoeletron ao emergir da superfície do metal é dada por E=hν-A. A é uma constante característica de cada metal e é chamada de "função trabalho". A teoria de Einstein sobre a natureza da luz (natureza ondulatória mas constituída de fótons) e consequente explicação de todas as observações experimentais do efeito fotoelétrico representou uma ruptura profunda com os conceitos clássicos da física. Embora não aceita pelos cientistas, mesmo por Planck, que a considerava mera especulação, em 1912 foram realizadas experiências que demonstravam que a energia cinética máxima dos elétrons varia linearmente com a frequência da luz incidente. Em 1916, Robert Millikan, cientista americano que se dedicava ao estudo da carga elementar do elétron e à fotoeletricidade, confirmou a relação de Einstein e determinou o valor da constante h que coincidiu com o valor da constante de Planck. Este resultado coincidente, obtido por um processo totalmente independente do usado por Planck, mostrou o acerto das novas concepções sobre a natureza da matéria e da radiação. ________________________________________________________________________________ Robert Andrews Millikan (1868-1953), cientista americano, determinou com precisão, em 1910, a carga elétrica do elétron com a sua famosa experiência da "queda da gota de óleo" e em 1916, o valor da constante da equação de Einstein do efeito fotoelétrico, coincidente com a constante de Planck. Foi agraciado com o prêmio Nobel de Física, em 1923.
 
 
Clique-me:
Exercícios propostos:
 
Modêlo do átomo nuclear de Rutherford
 

Ernest Rutherford (1871-1937), físico inglês, é o fundador da Física Nuclear, contemplado com o prêmio Nobel de Química, em 1908.

Ernst Rutherford destacou-se, inicialmente, pelos seus trabalhos na nova área da radioatividade.Descobriu a radioatividade do elemento tório e seus compostos e passou a estudar o Radio e o Actínio junto com Frederick Soddy,
um químico que sugeriu o nome "isótopos" para os elementos que ocupam o mesmo lugar na tabela periódica.
Como resultado concluíram, em 1902, que os átomos dos elementos radioativos se transformavam espontaneamente em átomos de outros elementos diferentes que, por sua vez, também eram radioativos.
Mostraram também que o decaimento e o crescimento das substancias radioativas seguem uma lei exponencial. Tais leis foram generalizadas matematicamente por H.Bateman em 1910.
Estas conclusões revolucionaram os conceitos químicos tradicionais sobre a natureza dos elementos químicos, tidos até então como imutáveis.
Em 1904 publicou um livro que ficou famoso,"Radioactivity", onde descreve seus resultados e outro, em 1913, "Radioactive Substances and their Radiations," com as propriedades
das partículas e radiações emitidas pelas substâncias radioativas, entre elas as da partícula alfa que, com seus colaboradores, mostrou ser o núcleo do átomo de Helio, um elemento gasoso.
Nestes estudos determinou também o número de Avogadro de forma direta a partir do número de partículas emitidas por uma quantidade conhecida de Radio e contadas por meio de um sistema inventado por seu assistente Hans Geiger( este sistema, conhecido como "contador Geiger", modernizado, é de uso corrente, nos dias atuais).

Modelo do átomo de J.J. Thomson

Thomson, que havia descoberto o eletron em 1897, propôs um modelo de átomo que ficou conhecido como o "modelo do pudim inglês":o átomo, já nesta altura aceito como realidade física, teria uma estrutura em que os elétrons, de carga elétrica negativa, estariam dispersos numa nuvem de carga elétrica positiva, de forma semelhante às frutas em um pudim.
O modelo do átomo de Thomson mostrou-se incapaz de explicar a emissão de um espectro discreto pelos átomos excitados e não resistiu aos resultados experimentais de Rutherford.

Átomo nuclear de Rutherford

Em 1911, junto com Geiger e um estudante, Ernst Marsden, Rutherford começou o estudo do espalhamento de partículas alfa incidindo um fluxo delas sobre finas folhas de ouro.De um modo geral as partículas atravessavam a folha de ouro sofrendo pequena deflexão, como já tinha observado anteriormente, com folhas de mica. Entretanto, em média, uma em cada 10.000 partículas sofria um desvio de mais de 90 graus e não conseguia atravessar a folha.
Desenvolveu, então, uma teoria matemática do fenômeno, supondo que as deflexões resultavam da repulsão eletrostática entre a carga positiva(++) das partículas alfa e uma parte positiva de eletricidade concentrada no centro do átomo.
As experiências de Geiger e Marsden confirmaram integralmente o modelo do átomo de Rutherford, que ficou conhecido como o "modelo do átomo nuclear", em que a quase totalidade da massa do átomo se concentra na parte central do átomo e tem carga elétrica positiva que é neutralizada pelos elétrons no espaço em volta.
A técnica de espalhamento de partículas incidentes para estudar propriedades do núcleo dos átomos foi fundamental no desenvolvimento da Física Nuclear no século vinte.
Em 1919 Rutherford fez uma descoberta que abriu caminho para o desenvolvimento da Física Nuclear e da Química Nuclear: o bombardeio do Nitrogenio com partículas alfa produzia protons (núcleo do átomo de Hidrogênio) energéticos e produzia oxigênio.
Esta foi a primeira reação nuclear artificial provocada em laboratório e a primeira transmutação de elementos (nitrogênio transformou-se em oxigênio) concretizada. A transmutação controlada de elementos é uma ocorrência normal encontrada nos "reatores nucleares", dispositivos usados para obtenção de energia nuclear, desenvolvidos a partir de 1942.  

 

 

 
 
 
Exercícios propostos:
 
Teoria do átomo de Hidrogênio, de Bohr
 

Niels Henrik David Bohr(1885-1962), cientista dinamarquês, foi agraciado com o prêmio Nobel de Física, em 1922, por seus trabalhos sobre estrutura atômica (uma teoria do núcleo) e molecular.
Em 1913, Niels Bohr, utilizou a descoberta experimental de Rutherford, de que nos átomos existe uma parte central,o núcleo, com carga elétrica positiva e propôs uma teoria revolucionária para o átomo mais simples, o de Hidrogênio.
A análise espectroscópica da luz emitida pelos átomos, quando excitados, mostrava que eles tinham uma estrutura estável e emitiam luz de comprimento de onda característicos. A teoria eletromagnética de Maxwell e a mecânica de Newton não conseguiam explicar esta estabilidade atômica.
Nesta época imaginava-se que o átomo seria como um pequeno sistema solar em miniatura (modêlo de Nagaoka, cientista japonês), em que os elétrons girariam em órbitas circulares em torno do núcleo central de carga elétrica positiva sob a ação de força de atração coulombiana. Pelas leis clássicas da física este modelo é instável pois o elétron em órbita circular possui uma aceleração e portanto emite radiação continuamente: seu movimento seria espiralado e ele terminaria caindo sobre o núcleo anulando a carga elétrica positiva do mesmo.
Bohr, entretanto, introduziu idéias totalmente novas propondo uma teoria quântica do átomo mais simples, o de Hidrogênio, em que um único elétron gira em órbita circular em torno de um núcleo central de carga elétrica positiva. Baseou-se na hipótese dos quanta de Planck e na hipótese quântica da luz de Einstein e introduziu o conceito de estados estacionários discretos para a energia de um átomo. Um elétron permanece em determinadas orbitas circulares sem emitir radiação eletromagnética. Entretanto, ao passar de uma órbita estacionária para outra, há emissão ou absorção de fótons cuja energia é igual à diferença de energia entre os estados estacionários envolvidos na transição.
Esta teoria permitiu deduzir uma relação matemática idêntica à fórmula de Balmer, para o espectro do hidrogênio, explicitando a constante empírica de Rydberg em função da carga do elétron, sua massa e da constante de Planck.
O modêlo atômico de Bohr, algum tempo depois, sofreu modificações por parte de Arnold Sommerfeld(1868-1951),da Prússia, que sugeriu que os eletrons, além das órbitas circulares, seguiriam também órbitas elípticas.
Como resultado, além do número quântico principal da teoria de Bohr,n, um segundo número quântico,k, relacionado com o momento angular da órbita do eletron, e um terceiro, relacionado com a frequência de precessão da órbita, foram introduzidos.
Este último permitiu entender a ação de um campo magnético(efeito Zeeman normal) que causa o desdobramento de uma linha do espectro em tres componentes.
Embora tivesse havido um extraordinário progresso no entendimento da química e da física, durante quase 13 anos, a teoria de Bohr-Sommerfeld não permitia explicar muitos fenômenos importantes, conhecidos e récem-descobertos, no período.
A partir de 1923, novas idéias, resultado do encontro de jovens cientistas e seus professores, nas principais universidades européias, na França, Alemanha, Inglaterra e outros paises, levaram ao desenvolvimento de uma teoria extraordinária, formulada definitivamente em 1928.Surgiu, então, o que se denomina de Mecânica Quântica ou Mecânica Ondulatória, que tem tido extraordinário sucesso em explicar os fenômenos físicos e químicos das partículas constituintes da matéria e seus estados agregados.
 
 
Modêlo do átomo, de Bohr: órbitas circulares estacionárias do eletron,em tôrno de um núcleo central de carga elétrica positiva, caracterizadas pelo número quântico n, que pode assumir valores inteiros, n=1,2,3....como mostra a figura.
Ao passar de uma órbita externa para uma interna o eletron emite energia sob forma de radiação que detectada constitui o espectro de emissão. Para passar de uma órbita interna para uma externa o eletron absorve energia equivalente à que seria emitida caso pulasse da órbita externa para a interna correspondente.
A escala na figura indica a dimensão das órbitas. Se o átomo absorver uma quantidade de energia tal que o raio da órbita mais externa cresça para valores infinitos, temos o que se denomina "ionização do átomo", ou seja, perda de um eletron.
O valor máximo de energia absorvida para o qual começa o processo de ionização é chamado de "energia de ionização" do átomo.
Na teoria do átomo de Bohr modificada por Sommerfeld, o eletron, além das órbitas circulares, pode descrever órbitas elípticas, caracterizadas por um segundo número quântico k, como mostra a figura.
Nesta teoria o núcleo ocupa um dos focos da trajetória elíptica.
Estas teorias, descobriu-se pouco tempo depois de anunciadas, embora explicassem muitos fenômenos observados, falhavam relativamente a outros e não reproduziam os dados experimentais de alguns fenômenos conhecidos. Por outro lado, do ponto de vista conceitual, eram teorias híbridas, que utilizavam conceitos da física clássica combinados com hipóteses de natureza quântica.
Na atualidade elas só representam um passado histórico do desenvolvimento, a partir de 1923, do que é conhecido como Mecânica Quântica.
 
 
Clique-me:
Exercícios propostos:
 
Experiência de Frank-Hertz
 

Primeira experiência que verificou a existência de estados discretos de energia nos átomos, feita pelos cientistas alemães James Frank e Gustav Hertz, em 1914. Em 1925 dividiram o prêmio Nobel de Física. Gustav Hertz,sobrinho de Heinrich Hertz, o descobridor das ondas eletromagnéticas, foi homenageado com um sêlo da antiga República Democrática Alemã.

A colisão de um átomo neutro com outro átomo, ou com uma molécula, ou com um eletron, que tenham grande velocidade, pode, em certas circunstâncias, ou excitar o átomo ou ionizá-lo. O choque, por exemplo, de um eletron com um átomo, pode sómente transferir energia cinética sem que o átomo fique excitado.Temos o que se chama de "choque elástico".
Mas, se a velocidade do eletron for suficientemente alta, há transferencia de toda sua energia, ou parte dela, para o átomo, tornando-o excitado.Temos aqui o que se chama de "colisão inelástica".
Colisões inelásticas envolvendo átomos, moléculas ou eletrons, em que a transferencia de energia cinética resulte em colocar o átomo ou molécula em um estado excitado, ou mesmo ionizá-lo, são chamadas de "colisões de primeira espécie".
Um átomo excitado pode voltar ao seu estado normal emitindo a energia recebida sob forma de radiação.Mas pode, tambem, transferir sua energia de excitação colidindo com outro átomo, molécula ou eletron, aumentando a energia cinética deles.
Este tipo de colisão é chamado de "colisão de segunda espécie".
O método utilizado por James Frank e Gustav Hertz consistia em acelerar, em um tubo com eletrodos, eletrons através de um gas de mercúrio à baixa pressão.Quando a energia do eletron coincidia com a de um estado estacionário do átomo de mercúrio havia uma colisão inelástica e,consequentemente,a transferencia de certa quantidade de energia do eletron para o átomo. Com o aumento progressivo da energia dos eletrons a corrente elétrica correspondente, medida e lançada em gráfico contra o potencial elétrico aplicado ao tubo, mostrava uma curva com degraus igualmente espaçados, como mostra a figura abaixo.
 
 
James Franck
________________________Sistema utilizado por Frank e Herz.
________________________ A energia cinética dos eletrons emitidos pelo catodo é progressivamente aumentada ajustando-se o potencial aplicado à grade.O gráfico mostra que os átomos de mercúrio possuem estados estacionários de energia. O espaçamento entre os picos, em Volts, corresponde à energia de excitação de um estado estacionário do átomo para outro. Esta diferença de energia é emitida, sob forma de radiação eletromagnética, de acordo com a teoria de Bohr. ____________________________________________________________________________
 
 
Exercícios propostos:
 
Moseley e a reforma da Tabela Periódica dos Elementos
 

Henry G.J. Moseley (1887-1915),um jovem físico inglês, mostrou experimentalmente que as propriedades básicas dos elementos dependem do número de cargas elétricas do núcleo dos átomos e não do pêso atômico. Convocado para o exército, na primeira guerra mundial, morreu aos 27 anos, na Turquia.

A natureza dos raios-X, descobertos por Roetgen, no final do século dezenove, somente foi elucidada em 1912, quando conseguiu-se difratá-los por meio de cristais. Sua natureza ondulatória levou a ser desenvolvida o que denomina de espectroscopia de raios-X. O uso de um espectrógrafo de raios-X, desenvolvido em 1912 por William Bragg e seu filho, Lawrence Bragg, mostrou raias finas discretas acompanhadas de um espectro contínuo.
As raias finas eram semelhantes às raias observadas com luz comum o que sugeria que seriam originárias e característicos dos átomos. Em 1913 Moseley iniciou um estudo sistemático dos espectros característicos dos raios-X dos elementos.
Os elementos da tabela periódica foram utilizados como alvos em tubos de raios-X e a radiação emitida examinada por meio de um espectrógrafo a cristal. As linhas espectrais observadas foram agrupadas em duas series, uma de comprimento de onda curto (série K) e outra, de comprimento de onda relativamente longo(serie L). Cada serie é constituída de um grupo de linhas.

Moseley observou que  o grupamento de uma dada serie é praticamente o mesmo para todos os elementos que estudou e que a frequência de cada componente de uma serie variava de maneira regular de acordo com a ordem do elemento na tabela periódica. Um gráfico da raiz quadrada da frequência de uma linha da série K, (a linha α, a mais intensa,chamada de Kα ,por exemplo), contra o número de ordem do elemento que emitia esta linha, é o de uma linha reta ( diagrama de Moseley), obtido a partir da equação:

                                                                        ν=(3/4)Rc(Z-1)2            

onde R é a constante de Rydberg, da teoria do átomo de Bohr,  c a velocidade da luz e Z o número de ordem do elemento na tabela periódica (número atômico). Até então os elementos da tabela periódica eram organizados de acordo com seus pesos atômicos. Para obter uma linha reta no gráfico de √ν contra Z, foi necessário inverter a ordem do níquel e do cobalto e criar um espaço para acomodar um elemento ainda desconhecido, de Z=43 (descoberto muito tempo depois,Tecnécio).

A natureza fundamental da descoberta de Moseley, de que a classificação dos elementos  na tabela periódica deve ser feita relativamente ao número de ordem ou número atômico, Z, que representa o número de cargas elétricas positivas do núcleo dos átomos, foi reconhecida como um extraordinário avanço na compreensão das propriedades da matéria e, em particular, da tabela periódica dos elementos.

 

          

 

O gráfico ao lado mostra a relação linear existente entre a raiz quadrada da frequência de uma linha da série K e o número atômico Z de alguns elementos.

 
 
Exercícios propostos:
 
Dedução da lei da radiação de Planck por Einstein
 

Albert Einstein, em 1917, deriva de um modo simples a lei da radiação de Planck.

Max Planck, após o fantástico sucesso de obter uma fórmula para a distribuição espectral da radiação térmica emitida por um corpo negro, supondo que a emissão de energia se dá por meio de pequenas quantidades de energia (quanta), e que rigorosamente era verificada pelas experiências, procurou justificá-la, desenvolvendo uma teoria a partir dos princípios fundamentais da física, em particular, a termodinâmica, através do conceito de entropia e os conceitos de estatística clássica de Boltzmann. Entretanto, aplicou a estatística de Boltzmann de forma diferente, considerando os elementos de energia considerados nesta teoria como fundamentalmente indistinguíveis uns dos outros e quantificados (ε=hν).

Esta maneira de considerar o problema somente foi justificado muito tempo depois (1924) por Bose, um cientista indiano, e melhorada por Einstein, pelo uso de uma nova função de distribuição estatística conhecida como estatística de Bose-Einstein.

A derivação simples da distribuição espectral de Planck, feita por Einstein em 1917, considerou a absorção de energia por átomos ou moléculas com níveis discretos de energia, em equilíbrio com a energia emitida por emissão espontânea e por emissão estimulada. Assim, sejam N1 e N2  os números de átomos com níveis de energia  E1 e E2 ,(E2 > E1),respectivamente. A razão com que N1  se altera devido à absorção de radiação por um átomo quando passa do nível E1 para o nível E2 é tomada como proporcional a N1 e à densidade de energia espectral ρ(ωo)  onde ωo é dado pelo postulado de Bohr ωo=(E2-E1)/ħ .Temos, então, para a variação com o tempo de N1  na absorção, (Ń1)absorção= -B12N1 ρ(ωo)onde B12 é um coeficiente de proporcionalidade e ωo =2πνo é a frequência da radiação.

Uma vez no nível de energia E2 um átomo pode pular de volta para o nível  E1 por emissão de radiação de frequência ωo por meio de dois processos:

  • emissão espontânea :     (Ń1)emissão espontânea = A21 N2                                                 
  • emissão estimulada :     (Ń1)emissão estimulada  =B21N2 ρ(ωo)

onde  Ń1  indica  a variação do número de átomos por segundo e A21 e  B21, coeficientes de proporcionalidade.

Para que haja equilíbrio,

 (Ń1)absorção +(Ń1)emissão espontânea +(Ń1)emissão estimulada  =0

                     ou,

A21 N2 + B21N2 ρ(ωo)= B12N1 ρ(ωo) 

 

 No equilíbrio térmico, N2/N1 = e-(E2-E1)/kT , onde k é a constante de Boltzmann e T a temperatura absoluta.A expressão da densidade espectral da radiação é, então:

 
ρ(ωo)  = _____A21/B21_________
  (B12 /B21)  e(ħωo)/kT   - 1 

 
Para temperaturas extremamente altas a emissão espontânea, comparada com a emissão estimulada,é desprezível. Temos, então, N2/N1 =1  e B21=B12 .

Se kT for muito maior do que ħωo a exponencial pode ser aproximada por  e(ħωo)/kT  ≈1+ħωo/kT+...e a expressão acima se reduz a ρ(ωo)  =(A21/B21 )(kT/ħωo ).Mas quando a energia dos quanta é muito menor do que kT uma teoria clássica, a de Rayleigh-Jeans , se aplica e ρ(ωo)  =(ωo22c3 )kT onde c é a velocidade da luz. Comparando estes valores, A21/B21 = ħωo32c3 . Substituindo este valor e B21=B12 na expressão de ρ(ωo) acima temos a expressão da lei espectral de Planck, a partir de conceitos básicos:

ρ(ωo)  = _____ħωo32c3_________
       e(ħωo)/kT   - 1 

 

Esta expressão pode ser derivada a partir de considerações estatísticas não clássicas feitas por Bose e Einstein (estatística de Bose-Einstein).

 
 
 
Clique-me:
Exercícios propostos:
 
Quantização espacial:experiência de Stern-Gerlach
 

Otto Stern(1888-1969),cientista alemão, foi contemplado com o prêmio Nobel de Física de 1943.

Stern, um professor de Física teórica(1914) e mais tarde, de Química-Física(1923), foi responsável pelo desenvolvimento do uso de feixes moleculares para o estudo de propriedades moleculares.Em 1921 realizou uma experiência básica de grande importância, demonstrando experimentalmente a realidade da quantização espacial dos átomos, confirmando a teoria da quantização espacial que indicava que os átomos, sob a ação de um campo magnético, podiam se alinhar somente em algumas direções, em vez de qualquer direção, como apontava a física clássica.
A experiência de Stern-Gerlach foi a primeira experiência não óptica a demonstrar diretamente um efeito quântico.
Stern usou um feixe de átomos de prata que atravessava um campo magnético não uniforme e recebeu-os em uma placa de vidro: em vez de uma faixa contínua, alargada, como indicava a teoria clássica, obteve duas faixas separadas.
O feixe de átomos de prata, ao passar pelo campo magnético não homogêneo, dividiu-se em dois feixes distintos, responsáveis pelas duas bandas observadas.Isto significa que os átomos de prata possuem um momento magnético. Aqueles átomos de  momento magnético paralelo ao campo magnético  sofrem ação de uma força em uma direção enquanto aqueles de momento magnético oposto sofrem a ação de uma força em direção contrária. Nestas condições os átomos se separam em dois feixes distintos, de igual intensidade, sob a ação das forças magnéticas. Chega-se à conclusão que o elétron  possui um momento angular intrínseco s, de magnitude  (½)ħ, onde ħ=h/2π,  e h é a constante de Planck. Isto significa que o elétron apresenta dois estados internos independentes distintos. s é chamado de "momento angular de spin", podendo assumir valores iguais a ½ ou - ½. Associado ao spin do elétron, mas em sentido contrário, existe um momento magnético  μ= -(e/mc)s, onde e é a carga do elétron, c a velocidade da luz e s, o momento angular intrínseco do elétron, com valor  ±½ħ.

Experiências semelhantes foram feitas com outros átomos, como hidrogênio, lítio, sódio, cobre, ouro, com resultados semelhantes.

 Outra realização importante de Stern, foi a medida do momento magnético do proton, usando a técnica de feixes moleculares. Mostrou que ele era duas vezes e meia maior do que os valores indicados pela teoria.

 
Walther Gerlach  foi colaborador de Stern, no desenvolvimento da técnica dos feixes moleculares.
O desdobramento do feixe atômico de prata em dois está ligado ao que se chama "momento angular do átomo" (quantidade de movimento de rotação dos eletrons em torno do núcleo do átomo e rotação dos eletrons em torno do próprio eixo) que confere ao átomo comportamento semelhante a um pequena agulha magnética(dipolo magnético).Na presença do campo magnético não homogêneo os dipolos magnéticos orientam-se somente em duas posições simétricas ,(norte-sul e sul-norte), ao contrário do que indicava a física clássica (orientação em todas direções). Este resultado está ligado a uma propriedade quântica dos átomos chamada "spin", entendida somente alguns anos depois após o advento da Mecânica Quântica. A existência do spin associado aos elétrons,nos átomos,foi sugerida no começo de 1925 por  George Uhlenbeck, Samuel Goudsmit e Ralph Kroning, para explicar o desdobramento das raias do espectro dos átomos quando submetidos a um campo magnético fraco(Efeito Zeeman anômalo).

Paul Dirac, em 1928, mostrou que o spin é uma propriedade relativística do eletron.Este conceito de spin também foi, mais tarde, associado ao núcleo dos átomos e ás partículas elementares.

O spin do elétron é um conceito fundamental na explicação das propriedades dos elementos na Tabela Periódica e na ligação entre os átomos.

É também fundamental nos estudos espectroscópicos da estrutura dos átomos e moléculas, em gases,líquidos e sólidos, pela Ressonância Paramagnética de Eletrons, Ressonância Nuclear Magnética e técnicas derivadas.

Além de ser fundamental na Química e Física, a propriedade de spin tem aplicações importantes:na Radioastronomia, na Eletrônica( spintronics), na Medicina (Ressonância Nuclear Magnética por Imagem),etc..

Clique-me:
Exercícios propostos:
 
DeBroglie e a dualidade partícula-onda
 

O príncipe Louis-Victor de Broglie(1892-1987)ganhou o prêmio Nobel de Física de 1929 pela descoberta da natureza ondulatória do elétron.

 Louis deBroglie

A explicação do efeito fotoelétrico por Einstein, que supôs que a luz de comprimento de onda curta é constituida microscopicamente de partículas de energia, os fotons, foi estendida por Louis deBroglie, da França, para qualquer partícula material.
Isto ocorreu em uma época (1923)em que a dualidade da luz, segundo Einstein,20 anos antes, começava ser considerada como fato real.
Na sua famosa tese de doutoramento (1924) deBroglie utiliza a teoria da relatividade de Einstein e mecânica clássica e chega à conclusão de que assim como podemos associar um campo de forças, dadas pelo campo elétrico E e o campo magnético H, à onda eletromagnética, também à uma partícula material devemos associar uma onda. Como resultado chega à conclusão que existe uma relação entre o comprimento de onda  λ, da onda material, e o momento p da partícula, segundo a relação p=mv=h/λ, onde h é a constante de Planck, m, a massa, v, a velocidade da partícula.
Esta concepção foi usada na explicação do movimento restrito aos estados estacionários dos eletrons nos átomos, com sucesso. A tese de deBroglie despertou grande interesse nos principais cientistas europeus da época, principalmente Einstein. Como consequência, um cientista austríaco, Erwin Schroedinger, seguindo as idéias de deBroglie, desenvolveu uma teoria matemática de fantástico sucesso até hoje, a Mecânica Ondulatória.
Alguns anos mais tarde, em 1927, dois cientistas americanos, C.Davisson e L.Germer, e outro escocês, G. Thomson, comprovaram experimentalmente as idéias de de Broglie, mostrando que os eletrons, na difração por um cristal de niquel, apresentam propriedades ondulatorias como a luz. C. Davisson e G. Thomson, dividiram o prêmio Nobel de Física de 1937, pelas experiências que comprovaram a natureza ondulatória da matéria.

 
 
 
 
Clique-me:
Exercícios propostos:
 
Heisenberg e a Mecânica Quântica Matricial
 

Mecânica Quântica
Após a formulação da teoria de Bohr e sua extensão por Sommerfeld,  o objetivo principal dos estudos teóricos ,até 1925, foi calcular os níveis de energia dos estados estacionários dos eletrons nos átomos. Foram feitas tentativas de estabelecer uma metodologia que usava os movimentos periódicos ou quase periódicos, descritos pela mecânica clássica, para o cálculo destas energias. Esta restrição foi levantada por Werner Heisenberg, um estudante de Max Born, que propôs que fossem considerados somente os movimentos que assegurassem ser quanticamente permitidos.
Com esta finalidade Heisenberg mostrou que existia uma regra de combinação para as coordenadas de posição e quantidade de movimento, nos seus cálculos, que foi identificada por Born como um tipo de multiplicação envolvendo matrizes, conhecidas pelos matemáticos e representadas, no caso de Heisenberg, como uma tabela de linhas e colunas de número infinito. A expressão da energia de um sistema é representada classicamente por uma função chamada Hamiltoniana do sistema e representada por H=H(q,p), onde q é a coordenada de posição e p o momento conjugado.
Enquanto na mecânica clássica p e q, nesta função, são representados por números, na nova concepção, p e q são representadas por matrizes de número infinito de linhas e colunas.
Outro fato relevante surgiu: o produto de matrizes não é comutativo, isto é, se A e B são duas matrizes distintas,seu produto AB é diferente do produto BA.Tendo em conta estas propriedades, e outras das matrizes, a expressão de H passa a ser uma matriz, que pode ser expressa, por operações matemáticas, como tendo valores sómente ao longo de sua diagonal. Tais valores representam os valores possíveis da energia do sistema correspondentes aos estados estacionários.
Também, os quadrados dos valores absolutos dos elementos da matriz que representa q,são proporcionais à probabilidade de transição entre dois níveis estacionários de energia diferentes, representados na matriz diagonal de H e representam a intensidade das raias que aparecem no espectro da luz emitida na transição.
A frequencia da raia é calculada pela diferença dos valores dos elementos da matriz diagonal de H dividida pela constante de Planck, h.
Este método de cálculo das frequencias de transição e intensidade das raias do espectro de emissão de um átomo só teria sentido sob uma condição que ficou conhecida como regra de comutação das matrizes p e q: pq-qp=hI/2π, onde I é uma matriz unidade. Nestas condições, os resultados dos cálculos concordavam totalmente com os valores das medidas experimentais, e até mesmo explicavam regras empíricas de transição entre os níveis estacionários de energia estabelecidas pelos espectroscopistas.
Estes resultados obtidos a partir das idéias originais de Heisenberg, e devido a M.Born, P.Jordan, da Alemanha, e P. Dirac, da Inglaterra, representaram o estabelecimento de uma nova visão conceitual no estudo dos átomos e o estabelecimento de uma nova mecânica com representação matricial.
 
 
 
Clique-me:
Exercícios propostos:
 
Schroedinger e a Mecânica Quântica Ondulatória
 

Schroedinger dividiu o premio Nobel de 1937 com P.Dirac, da Inglaterra.

Erwin Schroedinger (1887-1961), cientista austríaco, usando um procedimento totalmente independente daquele usado por Heisenberg, Born, Jordan e Dirac, tendo em vista os resultados de Louis deBroglie,da França, chegou a resultados matematicamente equivalentes aos da Mecânica Matricial.
O ponto de partida de Schroedinger foi o seguinte: um sistema de partículas é caracterizado pelas coordenadas de posição de cada uma delas. Se temos N partículas teremos 3N coordenadas ou parâmetros que variam com o tempo. Se usarmos um espaço de 3N dimensões, tais parâmetros definem um ponto que se desloca descrevendo uma curva. Cada ponto desta curva representa a configuração do sistema, a cada instante, e permite descrever completamente o comportamento do sistema.
Este conceito da mecânica clássica é chamado de espaço das configurações.
Schroedinger considerou, também, que neste espaço das configurações, há uma correspondência perfeita entre o movimento do ponto que representa o movimento do sistema e o movimento de um pacote de ondas desde que se tome como índice de refração a expressão da raiz quadrada de 2m(E-V) dividida por E, onde E é a energia total do sistema e V a expressão da energia potencial em função da configuração.
Tal correspondência é tanto melhor quanto menor a relação entre os comprimentos de ondas do pacote de ondas e o raio de curvatura da trajetória da partícula no espaço das configurações.
Schroedinger supôs, a seguir, que o movimento do pacote de ondas corresponde ao movimento do ponto do espaço das configurações e derivou uma equação, chamada equação de ondas, que representa o movimento do pacote de ondas, por meio de uma função comumente representada pela letra grega psi    (ψ) chamada de função de ondas, que representa a amplitude das ondas.
Esta função depende explicitamente da energia total do sistema, E, da posição das partículas e do tempo. Psi é uma função complexa cujo valor absoluto ao quadrado, de acordo com Max Born, representa a probabilidade por unidade de volume de a partícula ser encontrada em determinada posição e tempo. Os estados estacionários da teoria de Bohr ocorrem quando a densidade de probabilidade é independente do tempo.
A frequência da onda associada ao movimento do sistema , que tem energia total E, é explicitada na expressão da função de ondas como o produto de um termo que depende do tempo e outro que depende somente da posição das partículas. Esta parte, independente do tempo, é solução de uma equação chamada de equação de autovalores, que depende da energia do sistema, de suas coordenadas e da energia potencial do sistema.
A solução da equação de autovalores é uma função que deve satisfazer a alguns critérios característicos: dever ser nula quando as partículas estão no infinito e o modulo da função ao quadrado deve ser integrável e finita em todo o espaço das configurações.
Os valores da energia total E, para os quais existe uma função deste tipo, são denominados valores característicos ou autovalores e representam os possíveis valores de energia do sistema.
As operações matemáticas envolvidas na derivação e na solução destas equações (equação de Schroedinger dependente do tempo e equação de Schroedinger independente do tempo) podem ser representadas por uma álgebra de operadores matemáticos, chamados de operadores lineares, que representam a energia total E, o momento p, as coordenadas de posição,e outras quantidades física mensuráveis.
O sucesso da mecânica quântica, tanto sob sua forma matricial ou ondulatória, e denominada somente de Mecânica Quântica, tem sido extraordinário até os dias de hoje. Tem sido usada como uma espécie de algoritmo para calcular as propriedades da matéria.
A sua aplicação aos problemas moleculares seguiu-se logo após a publicação da teoria de Schroedinger. Três métodos de solução aproximada destas equações foram propostos e de grande importância na química: técnica da ligação de valência, de Heitler, London, Slater e Pauling; técnica do orbital molecular de Hund, Bloch, Mulliken, Lennard-Jones e Huckel; e técnica do campo cristalino de Bethe, Kramers e Van Vleck.
 
 
Equação de Schroedinger independente do tempo : a função Psi é a função de ondas; E, a energia do sistema;e, a carga elétrica da partícula e m sua massa; h,a constante de Planck e x,y,z as coordenadas da partícula.A solução desta equação é possível somente para valores determinados de E (autovalores) que satisfaçam as condições de existência da função Psi.
Tais valores característicos de E, são geralmente discretos, e indicam os níveis de energia estacionários do sistema.

Para o átomo de hidrogênio, com a posição do elétron dada por suas coordenadas esféricas r, θ, Ф, a função de ondas Psi pode ser decomposta no produto de três funções, como indicado abaixo, sendo caracterizada por índices n,l,m, números inteiros que correspondem aos três números quânticos da teoria de Bohr-Sommerfeld:




Equação de Schroedinger dependente do tempo:deve-se observar que a função de ondas agora Psi, depende do tempo e da posição da partícula.De fato, ela pode ser decomposta no produto de duas funções, uma das quais depende só da posição da partícula (solução da equação anterior) e outra dependente do tempo e que envolve a energia da partícula. Esta equação permite estudar a evolução do comportamento de um sistema de partículas (um átomo ou uma molécula, por exemplo) com o tempo, caso em que a função de ondas depende da posição de todas as partículas. Na equação acima,
ħ=h/2π.

 
 
Exercícios propostos:
 
Heisenberg: Princípio da Incerteza ou Indeterminação
 

O princípio da incerteza revelou-se um princípio básico que rege o comportamento das partículas atômicas.

A mecânica clássica se caracteriza pelo fato de que a medida das quantidades físicas que definem o estado de um sistema, a posição e a quantidade de movimento  de uma partícula, por exemplo, expressas em coordenadas generalizadas p e q,  pode ser feita  com precisão absoluta, limitada somente pela  sensibilidade do equipamento de medida. Assim, como resultado, podemos definir uma trajetória invariável  desde que  conheçamos as condições iniciais do sistema.   A solução das equações de Newton, ou na sua formulação mais geral, através das equações de Lagrange ou as de Hamilton , expressas em coordenadas generalizadas, p e q, e possivelmente o tempo t,  permite conhecer em tempos passados,presentes e futuros, a posição  e a velocidade das partículas que  constituem o sistema de interesse. Esta formulação da mecânica clássica, desde que os sistemas considerados tenham velocidade muito menor do que a da luz,  aplica-se aos sistemas macroscópicos com grande sucesso. Está implícita  na formulação da mecânica clássica que o efeito físico da observação sobre o sistema  é negligenciável ou pode ser conhecido.Quando estudamos os sistemas microscópicos, átomos, moléculas, partículas elementares, o efeito da observação não pode ser desprezado. Isto foi demonstrado  por  Heisenberg em  1926, através de seu “princípio da incerteza ou indeterminação” que indica que ao medirmos  as quantidades físicas necessárias para definir o estado da partícula (sua trajetória, por exemplo, pela medida de sua posição e velocidade instantâneas), simultaneamente  ,a incerteza  ∆q, na posição e ∆p, na velocidade, sofrem a restrição  expressa na equação,
                                                                      
                                                                 

                                                               ∆p.∆q≥ħ/2                                                     

 

onde ħ= constante de Planck/2π.

Se controlarmos a incerteza na medida da posição, ∆q, reduzindo-a para valores pequenos ou zero,  a incerteza na determinação do momento cresce para valores altos ou infinito, e vice-versa. Isto implica que a cada instante não podemos conhecer os parâmetros que definem uma trajetória da partícula. No universo das partículas microscópicas, em conseqüência, não temos meios de determinar ou conhecer previamente, com precisão, uma trajetória das partículas ou prever onde estarão a qualquer momento considerado,no presente, no passado ou no futuro. No entanto, ao renunciarmos ao conhecimento simultâneo de p e q com precisão absoluta, como nos impõe a natureza, nada impede que conheçamos separadamente , não simultaneamente, ou p ou q. Tal conhecimento, entretanto, não é suficiente para a determinação do estado da partícula.

Assim, no mundo microscópico das partículas atômicas, somos levados a introduzir os conceitos de probabilidade. A formulação  da mecânica quântica de Schroedinger introduz uma função que é a expressão de uma onda associada à partícula (função de onda ou onda de probabilidade) que permite determinar a probabilidade de uma partícula ser encontrada em cada ponto do espaço, usando o método de Max Born.

Não podemos determinar uma órbita para um elétron, em torno do núcleo do átomo, como indicava a teoria de Bohr. O elétron não segue uma órbita.De fato, ele está presente em redor do núcleo, nos chamados orbitais, regiões do espaço onde pode ser encontrado com maior ou menor probabilidade, dependendo do seu estado, determinado pelos números quânticos que o caracterizam. A expectativa calculada (expectação) de ser encontrado nos pontos correspondentes aos de uma órbita contínua (semelhantes aos pontos de uma órbita de um planeta em torno do sol) é alta mas não é de 100% das vezes.Com frequência menor pode ser encontrado a uma distância menor ou maior à correspondente aos de uma órbita contínua.

A representação (didática) de trajetória planetária para os elétrons, como na teoria de Bohr, deve ser descartada e substituída por uma representação com orbitais, como mostra a figura acima. A existência de orbitais é comprovada experimentalmente por medidas de densidade eletrônica nos átomos feitas por difração de raios-X e técnicas complementares.

 

 

Dirac: Mecânica Quântica Relativística e a Anti-matéria
 

Dirac, da Inglaterra, dividiu o premio Nobel de Física, de 1933, com Schroedinger.

Paul Dirac (1902-1984) foi um físico teórico britânico que recebeu o prêmio Nobel em 1933 dividindo-o com Schroedinger. Fez contribuições fundamentais para o desenvolvimento da Mecânica Quântica e  da Eletrodinâmica Quântica. Em sua tese, defendida em 1926, desenvolveu uma versão da Mecânica Quântica incorporando a “Mecânica Matricial” de Werner Heisenberg e a “Mecânica Ondulatória” de Erwin Schrödinger num único formalismo matemático. Em 1928, desenvolveu a chamada Equação de Dirac, que descreve o comportamento relativístico do elétron. Esta teoria o levou a prever a existência do pósitron, a anti-partícula do elétron, que foi observada experimentalmente em 1932 por Carl Anderson. Com sua equação relativística Dirac deduziu teoricamente as propriedades de spin do elétron e foi levado a considerar a existência de positrons com mesmas propriedades de spin e a possibilidade de aniquilamento destes  nas colisões com os elétrons. A vantagem da teoria de Dirac  do elétron sobre a teoria de Schroedinger é que ela é compatível com a teoria da relatividade e permite deduzir de forma natural a existência do spin do elétron e o seu momento magnético associado. A teoria de Dirac contém a teoria não relativística de Schroedinger se considerarmos velocidades das partículas bem menores do que a velocidade da luz, tomando esta com velocidade infinita, nas suas equações.. Muitas vezes, em vez de resolver as equações de Dirac, é mais vantajoso substituí-las pela equação de Schroedinger com correções relativísticas. Em 1930 Dirac publicou um famoso livro -"The Principles of Quantum Mechanics"- onde trata das idéias físicas gerais da teoria quântica e de suas aplicações na física e desenvolve a teoria relativística do elétron. Discute também os conceitos de "estado", de "superposição de estados" e do que denomina de "observáveis". Introduziu um simbolismo matemático para representar estes conceitos e desenvolveu uma álgebra para caracterizar suas propriedades.
 

 

 

Apêndice I-Alfabeto Grego
 

Alfabeto Grego
Letras do alfabeto grego(maiúsculas, minúsculas e nome) usadas em textos científicos.
 
 
 
Clique-me:
Exercícios propostos:
 
Apêndice II-Teoria Cinética dos gases
 

Teoria cinética dos gases


Derivação do número n de choques por segundo sobre 1cm2 da superfície:

Seja Ñ o número de moléculas em cada cm3 que tenham velocidade entre c e c+dc. Consideremos o ângulo sólido dω: o número de moléculas nele é dωÑ/4π.
 
 

A área da esfera subtendida pelo ângulo sólido dω é igual ao comprimento da circunferência de raio sinθ (i.e. 2πsinθ) multiplicado pelo comprimento de arco dθ. O raio da esfera é tomado igual a 1.

Seja dS uma superfície elementar e consideremos que o ângulo sólido dω faz um ângulo θ com a normal à superfície.
No tempo dT moléculas com velocidade entre c e c+dc percorrem uma distância cdT na direção θ e incidem na superfície dS. Estas moléculas estão contidas em um cilindro de base dS, lado de comprimento cdT e altura igual a cdTcosθ. Seu volume é dScdTcosθ. Mas cada cm3 possue dωÑ/4π moléculas. O número de moléculas, neste cilindro, na direção θ, é :

dScdTcosθdωÑ/4π

O ângulo sólido dω, como mostrado na figura acima, em uma esfera de raio unitário, é igual a 2πsinθdθ e corresponde à área de um anel de altura dθ e comprimento 2πsinθ. O ângulo sólido abrangido por toda a esfera é 4π. Assim o número de moléculas - com velocidade entre c e c+dc - que se deslocam na direção θ, e que se chocam com a superfície dS é:

2πsinθdθdScdTcosθÑ/4π

Tomando dS=1cm2 e dT=1seg, obtemos para o número de moléculas que se chocam com 1cm^2 de área por segundo, o resultado abaixo:

(1/2)cÑ sinθcosθdθ

Integrando esta expressão para todas as direções, desde θ=0 até θ=π/2 vem, como resultado,

(1/4)cÑ

Considerando o número de todas as moléculas com velocidade de zero a c, somamos a expressão acima, obtendo:

n=(1/4)∑ cÑ=(1/4)N<c>

onde N=∑Ñ é o número total de moléculas por cm3 e <c> a velocidade média das mesmas.

Cálculo da pressão

As moléculas que se movem segundo a direção θ, com velocidade c, e se chocam com a superfície dS, transferem a ela uma quantidade de movimento ou momento, devido à componente da velocidade normal à superfície, ccosθ. O momento antes do choque é, portanto, -mccosθ, onde m é a massa da molécula.

Ângulo de incidência com a normal igual ao ângulo de retôrno .No choque, ao ser rebatida, a velocidade normal tem o sentido invertido, ficando com um valor igual a ccosθ. A diferença de momento depois e antes do choque é, então: mccosθ - (-mccosθ) = 2mccosθ .O momento total das moléculas que têm direção θ e velocidade entre c e c+dc é: 2mccosθ (1/2)cÑ sinθcosθdθ ou, (1/2)Ñ mc2 cos2 θ sinθdθ . Integrando para todas as direções, de θ=0 até θ=π/2, temos: (1/6)Ñmc2 . Somando para todos os valores de c2, como anteriormente, p=(1/3)Nm <c2> onde < c2> indica o valor médio do quadrado da velocidade.
 
 
 
Clique-me:
Exercícios propostos:
 
Apêndice III-Teoria de Bohr do átomo de Hidrogênio
 

Teoria de Bohr-A teoria de Bohr, após 1925, só tem valor histórico e pedagógico na Química.Foi suplantada pela Mecânica Quântica de Heisenberg e Schroedinger. __________________________________________________

A teoria dos quanta de Planck mostrou que radiação emitida por um oscilador pode ser emitida ou absorvida somente em quanta de energia igual a constante de Planck h multiplicada pela frequência.Os níveis de energia de um oscilador são discretos e igualmente espaçados. Esta concepção de níveis discretos levou Bohr a aplicá-la aos átomos. Em 1913 enunciou sua teoria:

1-Um átomo só pode existir em estados estacionários discretos ou estados quânticos E11, E2, E3,..., nos quais não emite radiação.
2-Só é emitida radiação quando o átomo sofre uma transição e passa de um estado estacionário para outro.
3-A diferença de energia entre estados estacionários Ei e Ej é transformada em um fóton de energia h vezes a frequência da radiação que é emitida. A frequência da radiação emitida é dada por (Ei-Ej)/h,sendo Ei>Ej, onde h= constante de Planck.
4-Um átomo absorve radiação por meio de um foton que o faz passar de um nivel discreto Ei para outro qualquer Ej, Ej>Ei, desde que a energia do foton seja igual a h vezes a frequência da radiação.

Uma das consequências importantes desta teoria foi justificar um princípio fundamental da espectroscopia chamado de "Princípio Fundamental de Ritz-Rydberg". Se classificarmos os niveis de energia discretos em uma sequência E1<E2<E3 <..., a formula (Ei-Ej)/h que nos dá a frequência do fóton emitido na transição pode ser escrita como a diferença entre dois termos, Ti=Ei/h e Tj=Ej/h, respectivamente, isto é, a frequência é dada por Ti-Tj onde i>j.
 
 
Gráfico que mostra os níveis de energia discretos do átomo de Hidrogênio e as transições nas séries espectroscópicas indicadas. ___________________________________ O 1º Módulo será ampliado brevemente.Aguarde.
 
*
 

Contador de visitas 
Contador de visitas