Você não pode ir dormir sem saber que...

Grafeno

Assim como o grafite e o diamante, o grafeno é uma das formas alotrópicas do carbono. O grafeno é uma folha plana de átomos de carbono, formado por apenas uma camada de atomos, sendo assim considerados uma estrutura bidimensional.

Duas de suas importantes características são o fato deste ser um ótimo condutor de eletricidade (o que ocorre quando o grafeno é enrolado, originando os nanotubos de carbono) e ser o melhor condutor de calor conhecido.

Por ser um excelente condutor, este possibilita a criação de equipamentos cada vez mais compactos, rápidos e eficientes, podendo por exemplo ser empregado em baterias com capacidade de carregamento mil vezes mais rápido que as baterias atuais. 

O fato do grafeno ser um ótimo condutor de eletricidade, se dá principalmente pela hibridização do carbono na estrutura sp², de forma que existem ligações do tipo π e os elétrons no grafeno se comportam como se não tivessem massa, ou seja, na forma de ondas. Quanto à condução de calor, o principal motivo é a estrutura da ligação dos carbonos do grafeno. 

Outras características que o fazem ser tão especial são o fato de ser o material mais resistente do mundo, como também um dos mais flexíveis e leves, podendo ser utilizado para produção de telas de celulares (e outros aparelhos eletrônicos) muito resistentes a queda e ao impacto.
Acredita-se que o grafeno será o material do futuro, podendo revolucionar por exemplo a indústria eletrônica com a produção de aparelhos flexíveis e resistentes (como a fibra ótica), computadores quânticos, roupas eletrônicas e computadores capazes de fazer interface com as células do nosso corpo. 
Devido a tal fato, o grafeno vem sendo alvo de muitas pesquisas e testes, gerando por exemplo: a criação de um mini transistor, o menor e o mais rápido do mundo; pesquisas na área de semicondutores, a fim de substituir o silício pelo grafeno (visto que este é mais eficiente no transporte de elétrons e possui condutividade térmica elevada) e fabricação de células solares e diversos tipos de sensores, uma vez que o grafeno absorve apenas 2,3% da luz que nele incide.
Alunos: Carlos Eduardo Pereira Liberado, Guilherme Andriotti Momesso, Gustavo Lima Lopes, Henrique Bonini de Britto Menezes.

Teoria de Planck
Os resultados apresentados pela teoria clássica do eletromagnetismo durante o século XVIII e XIX desafiaram a inteligência humana. Einstein usando uma proposta apresentada por Planck conseguiu explicar o efeito fotoelétrico. O trabalho de Planck referia-se a radiação do corpo negro e sua proposta, deu inicio ao que hoje conhecemos por teoria quântica. 

Um fato importante nos fundamentos da proposta de Planck começou a ser tratado por volta de 1800 quando Willian Herschel observou a decomposição da luz branca ao atravessar um prisma. Ele mediu a temperatura da cor de cada espectro descobrindo que o efeito térmico aumentava a medida que se aproximava do vermelho. Observou também que o efeito continuava a aumentar mesmo após o espectro vermelho, na parte escura do espectro, e que hoje sabemos que é uma região que chamamos de infravermelho. Na segunda metade do século XIX, essa radiação infravermelha passou a ser conhecida como corpo negro.

Sabendo que qualquer corpo em determinada temperatura irradia energia que depende dessa temperatura, Herschel descobriu que cada temperatura está associada a uma determinada frequência (v).


Nessa imagem vemos que a região de infravermelho faz referência a radiação de corpo negro, e o comprimento de onda (λ) é determinado pela velocidade da luz dividido pela frequência (c/v). Frequência esta, que como vista anteriormente, esta relacionada com a temperatura. 
Em 1900, Max Planck impôs uma restrição onde os osciladores só podiam emitir energia em determinadas quantidades, mais precisamente, em quantidades inteiras de hv, onde h passou a ser chamada de constante de Planck e v de frequência de radiação emitida. 

Tal constante h, pode ser determinada experimentalmente pela divisão entre a energia emitida pela frequência da radiação que está relacionado com a temperatura. 

Sua proposta foi revolucionária. No entanto não havia razão para adota-la a não ser no ajuste do espectro do corpo negro. O valor aproximado para a constante é de h = 6,626069 x 10E-34 J.s

Alunos: Caio Castilho, Renan Casimiro, Gabriel Torrezan, Lucas Fabiano de Souza, Ivan Mantellatto.




Experimento de Pasteur 
Durante muito tempo a discussão acerca da vida tomou conta do cenário acadêmico, levando ao surgimento de diversas teorias na tentativa de explicar a origem biogênica ou abiogênica da vida.
Assim, buscando definir a origem correta da vida, o cientista inglês, John T. Needham realizou vários experimentos em que submetia à fervura frascos contendo substâncias nutritivas. Após a fervura deixava-os em descanso por alguns dias. Depois, levava-os ao microscópio, onde se notava a presença de microrganismos. Dessa forma, dizia que a solução nutritiva continha uma “força vital” responsável pelo surgimento dos microrganismos. Diante disso, Needham afirmava ter provado a origem abiogênica da vida.

Todavia, nesse mesmo contexto, em 1768, outro pesquisador, Lazzaro Spallanzani, criticou intensamente a teoria e os experimentos de Needham. Para tanto, Spallanzani ferveu sucos nutritivos durante um bom tempo, tendo, posteriormente, distribuído o líquido em frascos lacrados. Alguns dias depois, ele abriu os potes e verificou que não havia qualquer sinal de vida. Logo, demonstrou-se que Needham falhou por não ter aquecido suficientemente o caldo, a ponto de matar os seres pré-existentes lá contidos. 
Portanto, a polêmica ainda se instaurava sobre a origem da vida. Dessa maneira, somente em 1860, Louis Pasteur colocou um ponto final na discussão com o seguinte experimento ilustrado:
Os experimentos de Pasteur foram realizados com quatro frascos de vidro, cujos gargalos foram esticados (conhecidos como “pescoço de cisne”) e curvados no fogo após todos terem sido enchidos com caldos nutritivos. Logo em seguida, Pasteur ferveu o caldo de cada um dos quatro frascos, até que saísse vapor dos gargalos longos e curvos e deixou-os esfriar. Após esse procedimento, foi observado que, embora todos os frascos estivessem em contato direto com o ar, nenhum deles apresentou micro-organismos. Pasteur então quebrou os gargalos de alguns frascos e observou que, em poucos dias, seus caldos já estavam repletos de micro-organismos.
A ausência de micro-organismos nos caldos que estavam nos frascos cujos gargalos eram curvos e longos com a presença desses seres nos frascos cujos gargalos foram quebrados mostraram que o ar contém micro-organismos e que eles, ao entrarem em contato com o caldo nutritivo, desenvolvem-se. Nos frascos que apresentavam gargalo curvo e longo, os micro-organismos não conseguiram chegar até o líquido porque ficaram retidos no “filtro” formado pelas gotículas de água que apareceram no pescoço do frasco durante o resfriamento. Nos frascos que tiveram seu pescoço quebrado, o “filtro” formado pelo vapor deixou de existir, deixando o líquido vulnerável aos micro-organismos, que, uma vez em contato com o líquido, encontraram condições adequadas para o seu desenvolvimento.
A partir desse experimento, Pasteur mostrou que um líquido, ao ser fervido, não perde a “força vital”, como defendiam os adeptos da abiogênese, pois quando o pescoço do frasco é quebrado, após a fervura desse líquido, ainda aparecem seres vivos. Dessa forma, Pasteur sepultou de vez a teoria da abiogênese ou geração espontânea, que admitia que os seres vivos originavam-se a partir de matéria bruta.
A partir desse ponto, a teoria da biogenêses passou a ser aceita pelos cientistas colocando finalmente um fim a teoria da abiogêneses. 
Alunos: Vitória Lane, Amilton Neto, Bruno Pita, Guilherme Donatti, Thiago G. Andriolli.


Raio e uso de pára raios


Primeiramente é necessário apontar as principais características do fenômeno conhecido como descarga atmosférica, também popularmente chamado de raio. Os raios, que muitas das vezes estão associados a tempestades, são uma gigantesca faísca de eletricidade estática, através da qual um canal condutivo forma-se e cargas elétricas são transferidas. 

O tipo mais comum de raio ocorre no interior das próprias nuvens, embora ocorram descargas entre duas nuvens, entre a nuvem e o ar e entre a nuvem e o solo. Tudo é de acordo de como as cargas ficam configuradas nas nuvens. Sob condições normais a atmosfera é um bom isolante elétrico. Contudo, conforme ocorre a separação de cargas da nuvem transcorre, o campo elétrico se torna cada vez mais intenso, até o momento em que o ar não mais consegue conter o fluxo de cargas.

As redes de transmissão e distribuição apresentam maior vunerabilidade a esse fenômeno, uma vez que geram picos de alta voltagem e altas correntes por indução que se propagam por grandes distancias. Desta forma os para-ráios tem papel fundamental na proteção da parte elétrica de edifícios e poste de distribuição.

O princípio utilizado nos para-ráios modernos foi descoberto primeiramente por Benjamin Franklin, em 1752, num experimento que consistia no uso de uma pipa empinada com um fio de metal ligado a uma chave, e esta ligada a um fio de seda, com o objetivo de mostrar que os raios eram descargas elétricas da natureza.

Os raios costumam atingir o ponto mais alto, portanto as hastes são instaladas no topo do edifício. Além disso, por causa do fenômeno conhecido como poder das pontas, que diz que as cargas elétricas tem facilidade em se acumular em objetos pontiagudos, os para-ráios adquirem esse formato, apesar de ter sido provado que para-ráios arrendondados tem mais facilidade em dissipar a energia absorvida. Seu funcionamento se baseia quando uma nuvem passa próximo no para-raios, há uma interação entre ambos, ocorrendo uma indução eletrostática, a proximidade da nuvem, vai acumulando cargas e na ponta da haste as cargas contrárias vão se atraindo fazendo com que o raio use o ar como condutor e descarregue no para-raios, depois as cargas vão diretamente para o solo.

O para-raios é uma haste de metal, de baixa resistência elétrica, geralmente usando cobre ou alumínio com o objetivo de proteger edifícios, atraindo as descargas elétricas, e fazendo que as cargas se encaminharem para o solo. Para descobrir o raio de proteção de um para-raio, utiliza-se a formula:
Rp=h * tan A
Onde h é a altura em metros e A o ângulo em graus. Esse ângulo é de cerca de 55° e varia de acordo com a altura e o tipo do modelo utilizado.
Esquema mostrando área protegida por um para-ráio.



Alunos: Lucas Rafael dos Santos Cruz, Vinicius Pimenta Bernardo.


O gato de Shrödinger
Em uma caixa totalmente fechada existe um gato e um mecanismo mortal, esse último consistindo de um material radioativo, um detector de partículas alfa, um martelo e um frasco de gás venenoso. Se uma partícula alfa for detectada, o martelo quebra o frasco e o gás mata o gato. Do contrário, nada ocorre e o gato permanece vivo. A chance de que o gato morra ou viva a cada hora é de 50% e a única forma de saber o que se passa lá dentro é abrindo a caixa.

Este é um experimento mental proposto por Erwin Shrödinger em 1935 no intuito de exemplificar o mundo da quântica em escala macro.

Segundo a mecânica quântica, todo corpo é dual, ou seja, ora apresenta características de partícula, ora de onda. Assim passada uma hora, sem que a caixa seja aberta, é possível descrever o estado do gato utilizando uma função de onda.

Por esta abordagem quântica, existirá uma sobreposição dos estados do gato, o que implica em um gato vivo e morto simultaneamente! No entanto, ao abrir a caixa, veríamos o gato vivo ou morto, contradizendo o que foi previsto. 

Isso se deve ao fato de que ao observar dentro da caixa, as realidades paralelas entram em colapso e só somos capazes de observar um único estado. Ou seja, a medida afetou o resultado do experimento (a curiosidade do observador é que mata ou salva o gato).

O colapso em questão é explicado pela teoria do universo paralelo, que diz que existe um universo para cada possibilidade de ocorrência. Ou seja, ao abrir a caixa, o universo se divide para abrigar ambas as situações: em um universo, abriremos a caixa e veremos o gato vivo; em outro universo, ao abrir a caixa, veremos o gato morto.

O experimento ilustra também o princípio da incerteza de Heisenberg que diz que ao tentar mensurar a posição de uma partícula, acabamos por interferir na medida do momento linear. A recíproca também é verdadeira.
Schrödinger morreu em 1961 e foi um dos cientistas mais importantes da mecânica quântica. Sua maior contribuição para a comunidade científica foi a famosa equação de onda (Hψ=Eψ), que desempenha um papel de importância análoga às leis de Newton para a mecânica clássica.
Muitas outras teorias e diversas interpretações estão envolvidas com o experimento do  Gato de Shrödinger. Nas palavras de Gerardus 't Hooft (Nobel de Física de 1999) “Esse exemplo mostra que ainda não entendemos as implicações mais profundas da mecânica quântica”.
Alunos: Kollins Gabriel Lima, Ricardo Augusto Cardona, Vinicius Soares de Angelis.

Um cientista brasileiro desenvolveu um exoesqueleto para paraplégicos

Encabeçado pelo brasileiro Miguel Nicolelis, professor da Universidade Duke, nos Estados Unidos, e do Instituto Internacional de Neurociências de Natal – Edmond e Lily Safra (IINN-ELS). Contando com a participação de mais de 150 pesquisadores de vários países, o exoesqueleto fez parte de um projeto denominado "Andar de Novo" cujo objetivo era restaurar a mobilidade corpórea completa em pacientes vítimas de lesões medulares, traumáticas ou degenerativas, que resultam em paraplegia ou quadriplegia.
O princípio envolvido no funcionamento do exoesqueleto é a chamada interface cérebro-máquina, que vem sendo explorada por Nicolelis desde 1999. Esse tipo de conexão possibilita que a "força do pensamento" seja capaz de controlar de maneira direta um equipamento externo ao corpo humano.
No caso do exoesqueleto do projeto "Andar de Novo", batizado de "BRA-Santos Dumont I", uma touca especial capta as atividades elétricas do cérebro por eletroencefalografia. Quando o voluntário se imagina caminhando por conta própria, os sinais produzidos por seu cérebro são coletados pela touca e enviados a um computador que fica nas costas da veste robótica.
O computador decodifica essa mensagem e envia a ordem aos membros artificiais, que passarão a executar os movimentos imaginados pelo usuário. Ao mesmo
Figura 1. Doutor Miguel Nicolelis, responsável pelo projeto "Andar de Novo".
tempo, sensores dispostos nos pés do voluntário enviam sinais para a roupa especial. A pessoa, então, sente uma vibração nos braços toda vez que o robô tocar o chão. É como se o tato dos pés fosse transferido para os braços, naquilo que Nicolelis chama de "pele artificial".
O momento de destaque do projeto na mídia mundial occorreu durante a cerimônia deabertura da Copa do Mundo de 2014 realizada no Brasil. A demonstração realizada consistiu em um "chute simbólico" dado por um voluntário com paraplegia completa de tronco inferior e membros inferiores. A exibição foi relativamente curta, durando cerca de 16 segundos, tempo que havia sido limitado pela FIFA.
A expectativa futura para o projeto é que o desenvolvimento tecnológico e industrial do exoesqueleto ocorra no Brasil, liderado por empresas brasileiras. De acordo com seus coordenadores, existe a oportunidade de o país se consolidar como um pólo, como também abrir portas para diversos segmentos industriais, como por exemplo, na área de desenvolvimento de novos materiais para a composição do exoesqueleto.
Alunos: Francisco Ferraz Almeida Neves, Guilherme Lucats Bueno, Julio Cesar Plens, Leonardo Lucats Bueno. 


Polímeros
Uma das composições mais usadas em produtos industrializados são as composições poliméricas. No dia-a-dia, tem-se uma infinidade de exemplos de compostos poliméricos que podem ser citados, como os plásticos e os tecidos. Podem ser encontrados, também, compostos poliméricos naturais, como por exemplo, a borracha, extraída da seringueira, a celulose e as proteínas. 

No início do século XIX, iniciaram-se estudos a respeito dos polímeros, entretanto, estas moléculas incomuns nem sequer tinham um nome. Em 1832, Jöns Jacob Berzelius citou o nome de polímeros para diferenciar as moléculas que possuíam os mesmos elementos químicos, mas não as mesmas características físicas. Berzelius, logo após, esclareceu que polímeros são certas moléculas que são constituídas de muitas (poli) unidades (meros) de outras ainda menores. Pode-se citar como exemplo o etileno, composto de muitas unidades de buteno. Apesar do surgimento do termo e de sua utilização, ele só foi utilizado em sua definição atual a partir de 1922.

Ainda no século XIX, foram iniciados os estudos a respeito dos materiais cujas propriedades elásticas eram tão diferentes das dos sólidos até então conhecidos. Uma primeira abordagem científica foi feita com materiais disponíveis em abundância na época, como a borracha (o látex extraído da seringueira) e proteínas. Em 1857, Lord Kelvin publicou um trabalho analisando o comportamento de determinados sólidos quando submetidos a certas temperaturas. Foi relatado que uma tira de borracha, quando estirada rapidamente aquecia-se instantaneamente, enquanto que se resfriava quando o processo reverso ocorria, ou seja, retornava rapidamente ao seu tamanho original. Com tais observações, Charles Goodyear revolucionou a indústria mundial desenvolvendo o processo de vulcanização da borracha que permitiu às indústrias explorarem todas as vantagens proporcionadas pela elasticidade do material além de utilizá-la em processos em que rigidez é inapropriada para tal. 

Nos dias atuais, polímeros são materiais de origem natural ou sintética, compostos por moléculas orgânicas e com alto peso molecular. No caso dos materiais sintéticos, estes são obtidos através de uma reação química chamada de reação de polimerização que consiste em unir unidades de pequenas moléculas para a formação de uma estrutura molecular grande. A quantidade das unidades unidas é o que define as características físicas do material resultante. O nome dado a estas pequenas moléculas é monômeros. 

A evolução dos estudos a respeito de polímeros proporcionou um espaço para que novas tecnologias fossem criadas que, até então, não existia por causa de limitações físicas. Para tanto, foram criados produtos de alta resistência para uso em situações extremamente adversas, como, por exemplo, o Kevlar®, um polímero extremamente resistente ao calor e sete vezes mais resistente que o aço (por unidade de peso). 
Alunos: Anderson Ashitomi, Felipe Fawzi Sakran, Marcelo Vieira, Lucas Massarico, Jean Carlos Baldo.

A impressora 3D

A impressão 3D, ou fabricação aditiva, se refere a qualquer processo onde um objeto tridimensional é construído através da modelagem de sucessivas camadas de um determinado material. Essa tecnologia foi proposta, em 1984, pelo norte-americano Chuck Hull que, utilizando a estereolitografia (tecnologia precursora da impressão 3D), foi capaz de desenvolver o que hoje conhecemos como “Impressão 3D”.  

Essa tecnologia está revolucionando a maneira como as coisas são feitas hoje em dia, pois está se tornando cada vez mais barata e acessível. Com ela, é possível criar carros, instrumentos musicais, próteses humanas, brinquedos, chocolate e até casas. Além disso, pesquisadores esperam que no futuro sejamos capazes de “imprimir” orgãos, ossos, remédios, vacinas, tecidos do corpo, etc . As possibilidades são incontáveis. 

Mas como funcionam as impressoras 3D? Elas funcionam basicamente da mesma maneira que uma impressora comum, que cria imagens através de pontos, a diferença está no fato de que esta cria um objeto tridimensional a partir da disposição de partículas (ou finas camadas) de uma material, geralmente plástico ou gesso, que é modelado segundo a forma do objeto desejado e posteriormente solidificado pelo calor. De acordo com expectativas e opiniões gerais, essa nova e prática forma de produção pode alterar completamente a logística global, pois poderá substituir o transporte intercontinental de mercadorias pela produção local das mesmas. 

Abaixo podemos ver o Passo a passo de uma impressora 3D padrão segundo a publicação da revista “Super Interessante”, da editora Abril, edição de Janeiro de 2013: 

1. O modelo 

Antes de fabricar um objeto, é preciso ter um modelo digital. Você pode desenhar o objeto em três dimensões, com um programa que divide o desenho em milhares de camadas de até 0,1 mm cada. Em vez de tinta, a impressora usa materiais como plástico, borracha ou resina, e é abastecida por carretéis da parte exterior da máquina. 

2. O material 

O bico extrusor, então, aplica uma fina camada da matéria-prima derretida sobre uma plataforma no interior da impressora. Ela logo endurece e forma a base do objeto. A plataforma, móvel, se move para baixo. O cartucho, então, aplica uma nova camada sobre a primeira e assim sucessivamente. 
3. O objeto 
O processo de sobreposição de camadas se repete até o objeto ficar pronto. A impressão 3D pode levar de poucos minutos a algumas horas, de acordo com o tamanho e a complexidade do produto. Depois de impresso, o objeto passa por uma fase de polimento, que inclui remoção da base e retirada de rebarbas. 
Dimensão máxima dos objetos Altura - 15 cm 
Largura - 20 cm 
Profundidade - 20 cm
Alunos: Gustavo Livrare Martins, Marlon Jordan, Vitor Albuquerque de Paula.

O que é o efeito Seebeck
O Efeito Seebeck consiste na transformação de diferença de temperatura em energia elétrica. A situação inversa é denominada efeito Peltier. 

Seebeck em 1820 fez pesquisas experimentais tentando encontrar uma relação entre eletricidade e calor. Em 1821 juntou um fio de cobre a um de bismuto a fim de formar um circuito, então descobriu que se aplicasse uma diferença de temperatura entre os dois lados, seria gerado um campo magnético ao redor. A energia térmica recebida pelo lado aquecido faz com que os elétrons se movam para o lado frio como se fossem gases. Desta forma, origina-se um terminal positivo e outro negativo, o que é necessário para tornar o sistema fonte de energia elétrica. 

Quanto maior a diferença de temperatura, maior será a diferença de potencial (d.d.p) gerada.

Aplicações:

O efeito Seebeck tem sido muito importante no dia-a-dia, sendo inúmeras suas aplicações:

Indústria aeronáutica: A tecnologia das termopilhas se desenvolveu, principalmente, como uma necessidade gerada pela corrida espacial nos anos 60, no programa espacial Apollo. Mostraram um desempenho muito satisfatório em sistemas de refrigeração de pequeno porte e peso, sem partes móveis e fluidos pressurizados.

Indústria automobilística: materiais termoelétricos já são utilizados para aquecer e resfriar bancos de carros de luxo, mas apresentam potencial muito maior. Engenheiros querem usá-los para aproveitar o calor gerado pelo motor para transformá-lo em energia elétrica, ao invés de lança-lo na atmosfera. Os parâmetros mais importantes para esse processo são: o coeficiente de desempenho (φ), também chamado (COP), a taxa de bombeamento de calor (Qc) e a máxima diferença de temperatura (∆Tmáx) que o dispositivo irá produzir. O coeficiente de desempenho φ é calculado da seguinte maneira:

φ=Qc/P

sendo Qc a taxa de bombeamento de calor a partir do lado frio e P é a energia elétrica consumida.

Indústria de petróleo e gás: Para fornecer energia com mais confiabilidade, vida útil e menos requisito de manutenção, na unidade de produção da Petrobrás na Amazônia o sistema de termogeração tem função de fornecer energia suficiente para abastecer os instrumentos que compõe a malha de segurança e a operação remota do poço.

Relógios de pulso: A falta de miniatirização dos dispositivos térmicos atrasou o desenvolvimento deste tipo de relógio. Com a introdução de materiais semicondutores, a companhia Seiko criou um relógio que funcionava a partir da diferença de temperatura entre o corpo humano e o ambiente.

Pulseiras termoelétricas: O dispositivo desenvolvido pela Dyson Energy tem o mesmo principio do relógio citado acima, no entanto a função é armazenar energia para fornecer a pequenos aparelhos elétricos.


Bibliografia:


PIEDADE, P. M. Efeitos Termoeléctricos e suas aplicações. Aquisição e Processamento de Sinais . IST - Lisboa, 1997.

SANTOS, L. P. Análise de desempenho de um gerador termoelétrico baseado no efeito seebeck. Universidade de Taubaté, 2010. Disponível em: <http://www.livrosgratis.com.br/arquivos_livros/cp131018.pdf>. Acesso em: 13 out. 2014.

FARIAS, S. R. A. Protótipo de um microgerador termoelétrico de estado sólido: cogereção a gás. UFRN, 2009. Disponível em: <http://bdtd.ufrn.br/tde_arquivos/41/TDE-2010-03-24T000309Z-2482/Publico/SandroRAFpdf.pdf>. Acesso em: 13 out. 2014.

SANTANILLA, C. E. C.(2004). Generacion y aprovechamento de energia termoeléctrica. Tesis (Maestría em Ciencias e Fisica) - Universidad de Puerto Rico, 2004.

FERNANDES, A. E. S. Conversão de Energia com Células de

Peltier. Universidade Nova de Lisboa, 2012. Disponível em: <http://run.unl.pt/bitstream/10362/8084/1/Fernandes_2012.pdf>. Acesso em: 13 out. 2014.

Alunos: Giovana Fernandes Nogueira, Isabela Miranda Aronovich, Julia Tozzi Muraro, Lorena Colautto Borges, Paula Christiny Batista e Silva.

O quark não é a única menor partícula do universo
A teoria da relatividade geral estuda o que acontece em referenciais não inerciais (onde há aceleração). Já a teoria da mecânica quântica estuda fenômenos e comportamentos para o mundo microscópio. No entanto, as duas teorias não são compatíveis entre si, uma vez que a gravitação descrita na relatividade geral é contínua e determinada, diferente da apontada pela mecânica quântica. Além disso, a mecânica quântica se aplica a fenômenos em escalas pequenas, tendo a relatividade geral aplicação em fenômenos de grande escala. Dessa forma, fica evidente que a gravidade tem diferentes sentidos nas duas teorias. 
Devido a incompatibilidade entre as teorias existente, necessitou-se buscar uma nova teoria que unificasse ambas e, também, explicasse os fenômenos não explicados por nenhuma delas. Essa nova teoria foi chamada de teoria das cordas. Esta, por sua vez, afirma que, pelas cordas serem infinitas, a informação não se perde dentro de um buraco negro, como afirma a Teoria da Relatividade Geral de Einstein, mas fica presente no horizonte deles. 
A teoria das cordas foi inicialmente desenvolvida por Theodor Kaluza, em 1919, tendo, posteriormente, sido aprimorada por diversos outros cientistas. Ela aponta que os quarks (anteriormente considerados as menores partículas do universo) são formados por pequenos filamentos de energia que se assemelham a pequenas cordas vibrantes. Segundo a teoria tratada, essas cordas vibrantes variariam os padrões de vibração, uma vez que estes tem frequências distintas, produzindo diferentes massas e cargas de força que compõe os variados tipos de partículas do universo. 
Na teoria das cordas existe a possibilidade de se achar explicações para infinitos universos diferentes. Assim, não necessariamente acharemos uma explicação para o nosso universo cotidiano, mas sim para um outro universo paralelo. 
Além disso, remete-se também o termo “supercordas”, o qual se refere ao conceito de supersimetria, na medida em que este afirma que para toda partícula fundamental existe uma virtualmente idêntica, mas com seu spin alterado. As partículas fundamentais são os férmions e os bósons, a respeito das quais não se conhece nenhuma subdivisão. Os férmios são partículas de massa (quarks e elétrons), enquanto os bósons são partículas que carregam energia (fótons).

Neste sentido, os férmions e bósons possuem spins diferentes, já que o spin indica a direção que uma partícula gira. No entanto, como matéria e energia são a mesma coisa, ao inverter o spin de uma partícula, ela se altera de tipo (férmio ou bóson). Portanto, com a supersimetria afirma-se que se existir um férmion, existe um bóson e vice-versa. 
Através dessa teoria, supõe-se que as matérias conseguem interagir entre si devido à capacidade de possuírem frequências de vibração diferentes e, assim, ao interagir com outras, mudam de frequência. Além disso, segundo a teoria das cordas, deveriam existir diversas outras dimensões, além das que conhecemos atualmente. Isso se deve ao fato de que para a teoria funcionar, pressupões a existência de dimensões nas quais as cordas conseguissem se locomover, esticar e relaxar. 
Assim, a teoria desafia princípios físicos e químicos a partir do pressuposto de encontrar o problema que fazia a Teoria da Relatividade e a Mecânica Quântica serem incoerentes em alguns pontos entre si, unificando e complementando-as. Visando explicação do inexplicável, a teoria das cordas revoluciona a ciência atingindo uma camada superior ainda não explorada por ela, embora pendente de aprimoração. 
Alunos: Alexandre Augusto Vieira Costa Neves, Caynã Simões Ferraz, Gabriel Pascon, Ivo Gimenes Dutra, Renan Augusto de Sena Lara.
 


Afinal, como funciona o shampoo e o condicionador ?
O shampoo é uma criação alemã datada de 1890, porém a sua popularização ocorreu somente depois da primeira guerra mundial. O nome “shampoo” se originou na Inglaterra e é derivado do hindu “champo”, que tem como significado, massagear ou amassar. 

O funcionamento do shampoo se dá basicamente através da interação entre as cargas elétricas do cabelo, dos materiais que compõem o shampoo e do sebum. Para entender o funcionamento do shampoo, antes é necessário entender brevemente como é a composição dos nossos cabelos.

Em uma região próxima à raiz dos cabelos, a glândula sebácea produz o sebum que é uma substância gordurosa, o sebum acaba por ficar completamente envolvido nos fios de cabelo formando uma película protetora que diminui o atrito, porém o sebum faz com que as partículas de sujeira acabem grudando nos cabelos.

A água não consegue soltar a sujeira do cabelo por si só, por isso o shampoo é utilizado. Por ser um composto de substâncias tensoativas, suas moléculas se separam em hidrofóbicas e hidrófilas. Assim a primeira reage com as sujeiras, e a segunda quebra a tensão superficial da água, dessa forma, levando todos os composto indesejados na hora do enxágue.

Todavia ao utilizar o shampoo, por ele ser um composto aniônico, acontece a interação dos ânions (normalmente é utilizado o SO3⁻) com a queratina do cabelo. Isso traz uma resultante eletronegativa ao capilar, resultando na repulsão dos fios, e o consequente embaraço dos mesmos. Para consertar isso se utiliza o condicionador.

O condicionador tem um princípio ativo catiônico que é capaz de reagir com os resíduos deixados pelo shampoo e neutralizar o cabelo. Além disso, condicionadores comerciais contêm alguns sais minerais, proteínas e óleos para hidratar e repor algumas substâncias naturais retiradas pelo shampoo, como por exemplo, o sebum.



E para quem agora está se perguntando sobre aqueles “shampoo-condicionador, 2 em 1”, podemos dizer que eles não existem, umas vez que os produtos reagem entre si. O máximo que esses produtos podem ser é shampoo com a adição de óleos para repor o sebum.

Alunos: Fernando Akio Tutume de Salles Pucci, Rafael Rodrigues Mendes Ribeiro, Victor Oliveira Boppré, Vitor Hugo de Carvalho Gomes, William Koji Yonamine.

Grafeno
O que é o grafeno?

O grafeno é uma das formas cristalinas do carbono, assim como o diamante, a grafite, os nanotubos de carbono e fulerenos. Este isótopo de carbono de alta qualidade é muito forte, leve, quase transparente, um excelente condutor de calor e eletricidade. É o material mais forte já demonstrado, consistindo em uma folha plana de átomos de carbono densamente compactados em uma grade de duas dimensões. É um ingrediente para materiais de grafite de outras dimensões, como fulerenos, nanotubos ou grafite.

Como surgiu o grafeno? 

As primeiras pesquisas com o grafeno começaram em 1947, pelo físico Philip Russel Wallace, o primeiro a estudar os princípios do material quando este ainda era utilizado no material de lápis. Em 1967, o químico alemão Hanns-Peter Boehm batizou o composto, resultado da junção das palavras “grafite” e o sufixo “-eno”. Graças aos cientistas Andre Geim e Konstantin Novoselov da Universidade de Manchester, na Inglaterra, em 2004 foi testado o potencial do grafeno como transistor, sendo uma alternativa ao silício usado em semicondutores. 

A dupla Geim-Novoselov continuou seus estudos com o material buscando aprimorar a sua condutividade. Com isso, o material tornou-se cada vez mais fino até chegar à espessura de um átomo, sem que com isso fosse prejudicada a sua estrutura ou condutividade. O trabalho em conjunto rendeu a eles o Nobel de física em 2010 pelo desenvolvimento do transistor de grafeno. A partir de então, as pesquisas envolvendo o grafeno não pararam.

Quais as utilidades do grafeno?

O nano material grafeno tem inúmeras aplicações em diversos ramos, criando alternativas para solucionar problemas do cotidiano. Uma das aplicações que mais despertam o interesse dos cientistas é a possibilidade de criar filtros que poderiam separar o sal da água do mar, tornando-a própria para o consumo.

O uso desse material para aglutinar lixo radioativo também é interessante, podendo se ligar aos radionuclideos, condensando-os e tornando-os sólidos para que possam ser retirados da água. Outra utilidade seria para a fabricação de supercapacitores que poderiam substituir as baterias de lítio, com a facilidade de serem recarregados em poucos segundos e com durabilidade muito maior.

Por ser um excelente condutor, folhas de grafeno poderiam ser aplicadas em dispositivos touchscreen, substituindo as telas de vidro que são mais grossas e menos resistentes. Além disso, poderia ser inserido em dispositivos biônicos, conectando-se diretamente aos neurônios, fazendo com que pessoas com lesões nervosas possam voltar a usar membros danificados. 

Existem inúmeras aplicações que aproveitem todas as características do material, em diversas áreas como nanotecnologia, bioengenharia ou a simples construção de materiais que substituam os convencionais.
Viabilidade da utilização
Parece ser mágica, a indagação "não pode existir um material com propriedades tão variadas" surge na mente de todos. O grafeno é considerado hoje o material mais resistente (200 vezes mais forte que o aço), mais leve e mais fino (espessura de um átomo). Além disso, sua condutividade elétrica é absurda, cerca de 100 vezes a do silício. Todas essas propriedades sugerem inúmeras aplicações para tal material, que vão desde a utilização na fabricação de circuitos integrados e novos transistores a confecção de novos preservativos. Para que o "sonho" se tornasse realidade bastaria mais uma característica, baixo custo de produção. Surpreendentemente, um grupo de pesquisadores revelou um método de produção extremamente eficiente e barato. Aplicando a radiação laser de um gravador de DVD Lightscribe sob um filme de óxido de grafite produziu uma camada finíssima de grafeno, de alta qualidade e muito resistente, excelente para funcionar como capacitor ou semicondutor. Assim, a viabilidade do grafeno, em todos os sentidos, é garantida.
Referências:

Alunos: Gabriel Speranza Baptista, Gabriel Oliveira Melo, Leonardo Teixeira Borsato,
Matheus Manera Fernandes, Cainã de Oliveria Figares.

Por que não podemos correr mais rápido que a luz???
No começo do século 20, os físicos pensavam que tudo que havia para ser descoberto já tinha sido descoberto, mas a chamada física moderna vem mostrar que eles estavam tremendamente errados. 

Quando o eletromagnetismo de Maxwell ficou pronto, suas equações trouxeram um resultado inesperado, uma constante c, a velocidade da luz. 

Mas sendo uma velocidade, segundo a mecânica clássica, precisava de um reverencial no qual pudesse ser medido, que referencial seria esse? No inicio os físicos da época escolheram o referencial do “Éter” que seria um reverencial privilegiado sobre todos outros. Mas diversas experiências se mostraram incapazes de provar que esse referencial existia. 

A mecânica clássica mostrou diversas inconsistências em relação aos resultados que envolviam a velocidade da luz, então em 1905, Albert Einstein trouxe a mecânica relativística, e deu o próximo passo para explicar a realidade. 

O primeiro passo foi assumir que a velocidade da luz não varia independentemente do referencial escolhido, ou seja, medida em relação a qualquer referencial inercial a velocidade da luz é a mesma, c = 300 000 km/s. 

O segundo passo foi teoricamente mais difícil, abrir mão das transformações de Galileu em favor das transformações de Lorentz. Isso significava algo grande, significava abrir mão de toda a mecânica Newtoniana, pois esta se baseava nas transformações de Galileu. 

As transformações de Lorentz são as seguintes:




onde  é chamado fator de Lorentz. 


Nessas transformações o tempo t´ varia, nas transformações de galileu o tempo t´ não variava. 
Ou seja, o tempo passa mais devagar conforme se aproxima da velocidade da luz. Isso é completamente incompatível com a física Newtoniana. 
Mas o ponto que queremos abordar aqui é o fator gama, onde dentro da raiz vemos que se a velocidade, medida em relação a qualquer referencial inercial, for maior que a velocidade da luz c, a raiz assumiria um valor negativo, o que não é possível.
Nesse ponto Einstein percebeu que a velocidade da luz além de ser uma velocidade que a natureza nos da de presente para podermos comparar com todas as outras, é ainda uma velocidade limite, inalcançável, uma lei para todo o universo. O universo se desdobra e se curva a essa lei, cria coisas incríveis, como buracos negros, que são tão complexos e inexplicáveis que são conhecidos como singularidades, por não respeitarem as leis conhecidas da física. Tudo isso para obedecer a uma lei maior, tudo isso para garantir que nada seja mais rápido que a luz. 
As transformações de Lorentz e a interpretações físicas de Einstein, mudaram o mundo e abriram caminho para a relatividade geral, que trata de transformações em dois referenciais quaisquer, inerciais e não inerciais, e sobre a gravidade, esse conjunto de ideias mudaram nosso tempo, abrindo espaço para a era espacial e diversas descobertas astronômicas. 




O Silício está mais presente na sua vida, do que você pode imaginar
O Silício, um elemento químico de símbolo Si presente na tabela periódica na família 4A, é um semimetal de número atômico 14 e massa atômica 28u. Quando em temperatura ambiente é sólido, quebradiço e pardo na forma amorfa, e possui um brilho metálico escuro na forma cristalina, sendo ele pouco dúctil e maleável, e é um semicondutor com arranjo cristalino semelhante ao do diamante. 
Sendo ele um elemento químico bastante resistente a ácidos, e resistente à oxidação em atmosfera ambiente na presença de oxigênio, o Silício vem a ser o segundo elemento mais abundante do Planeta Terra, constituindo aproximadamente de 26% a 28 % de toda a crosta terrestre, ficando atrás apenas do oxigênio que compõe quase metade da crosta terrestre.Sua aplicação mais conhecida e difundida atualmente na sociedade é a da produção de circuitos integrados de componentes eletrônicos, em que o Silício está presente na forma de liga metálica com impurezas metálicas, que garantem a ele a propriedade de semicondução através de um processo denominado dopagem eletrônica. Em sua forma pura o silício é um isolante sendo perfeitamente recomendado para a produção de microchips em que é necessário um semicondutor para a transferência de energia e, além disso, um isolante. Por isso o local com maior densidade de empresas do ramo de produção eletrônica e de computação, é chamado de Vale do Silício, localizado no estado da Califórnia nos Estados Unidos.Além da sua utilização em grande escala na produção de microchips e componentes eletrônicos, o Silício está presente em muitos outros “produtos” que são consumidos e utilizados diariamente em todo o mundo, como por exemplo, na produção de componentes de ligas metálicas, em células fotoelétricas ou fotovoltaicas utilizadas na captação de energia solar sustentável, está altamente presente na produção e composição de concretos e tijolos, além de materiais refratários como cerâmicas, vidro e o próprio cimento, e também está presente na composição de vernizes, lubrificantes e até em aplicações médicas/estéticas, estando presente em próteses cirúrgicas, pois está presente na síntese de silicones. Além de seu papel na parte da produção de bens de consumo duráveis e não duráveis, o elemento está presente diretamente na relação de crescimento de animais e seres humanos na formação dos ossos e órgãos, sendo que é possível encontrar em um ser humano adulto, aproximadamente 1 grama de Silício, sendo ele relacionado também na formação da cartilagem e do tecido conjuntivo, em particular na produção do colágeno. Com esses fatos, podemos ver que o Silício está mais presente em nossas vidas do que podemos imaginar, e que suas aplicações são diversas. 
Aluno: Leonardo Denari Ruiz Duran


Poluição a favor dos raios
Muita gente não imagina, mas a poluição pode gerar mais raios nas cidades. Pesquisadores do Instituto Nacional de Pesquisas Espaciais (INPE) observaram a ocorrência de relâmpagos nas cidades de Campinas, São Paulo e São José dos Campos durante 10 anos, entre 1999 e 2009, e verificaram que essas descargas elétricas são mais frequentes nos dias de semana que nos finais de semana, quando a emissão de poluentes é menor.
“Um ciclo semanal não é algo natural; se acontece, é devido a fatores externos e acreditamos que a causa seja a grande quantidade de aerossóis nas grandes cidades, principalmente vindos dos veículos, que circulam mais durante a semana”, afirmou um dos autores da pesquisa, o meteorologista Wendell Farias, em apresentação do estudo nessa terça-feira (9/8) na 16ª Conferência Internacional de Eletricidade Atmosférica (ICAE).
Os aerossóis são partículas suspensas no ar, menores do que um grão de areia, com cerca de 100 micrômetros de diâmetro, que podem ter origem natural – na vegetação, no sal do mar e nas erupções de vulcões – ou em ações humanas – queima de combustíveis fósseis, alguns processos industriais e agrícolas e minerações.
Farias explica que essas partículas interferem na estrutura das nuvens e, por isso, podem ser responsáveis pela ocorrência de raios. As nuvens formam-se por gotículas da água que evapora da superfície da Terra. Mas, em um ambiente poluído, a água evaporada chega ao céu e condensa em volta das partículas de aerossóis.
Por serem muito pequenos, os aerossóis induzem que as gotículas de água da nuvem sejam menores que o normal e se mantenham suspensas no ar por mais tempo, sem virarem chuva. O problema é que, enquanto a nuvem não precipita, essas gotículas colidem entre si e geram descargas elétricas.
Alunos: Guilherme Dória Netto, Renam Strano, Felipe Amaral.



De onde veio E = mc²??? 

Albert Einstein (1879 - 1955) foi um físico teórico alemão, famoso por sua intelectualidade e por suas descobertas. Entre elas, está a teoria da relatividade geral, que, em poucas palavras, generaliza a teoria da gravitação de Newton. Ele também desenvolveu a fórmula de equivalência massa-energia, mais conhecida por E = mc². Antes dele, outros já haviam proposto a relação entre massa e energia. No entanto, ele foi o primeiro a propor que a equivalência da massa e energia é um princípio geral que é uma consequência das simetrias do espaço e tempo. 

Primeiramente, é necessário conhecer o significado de cada letra da fórmula. O "E" representa a energia, dada em Joules (J). O "m" representa a massa, dada em quilogramas (kg). E "c", a velocidade da luz no vácuo, que equivale a 299 792 458 metros por segundos (m/s).

Einstein demonstrou a dedução da fórmula com o seguinte raciocínio: Supõe-se um cilindro oco, como na imagem ao lado, que emite um pulso de radiação eletromagnética em A e o absorve na extremidade oposta (B). De acordo com a teoria eletromagnética de Maxwell, o pulso carrega momento linear igual a E/c para a direita e o cilindro recua para a esquerda com certa velocidade. Seja M a massa original do cilindro e m a massa perdida pela emissão de radiação, então, por conservação de momento linear total, tem-se:

(M - m) v = E / c

Como o sistema é isolado, o momento linear total antes da emissão é nulo. O tempo de recuo do cilindro, t = x / v, em que x é o recuo do cilindro, e o tempo de vôo do pulso, (L - x) / c, coincidem e portanto:

x / v = (L - x) / c

Como o centro de massa não se move durante o processo de emissão-absorção, então, a radiação deve transmitir certa massa entre os pontos A e B. Se m é a massa transferida pela radiação, então é fácil ver que o centro de massa não mudará.

(M - m) x = m (L - x)

Combinando-se as três equações, finalmente, encontra-se: 

E = mc²

A relação dada pela fórmula revela o conceito de que toda massa possui uma energia associada e vice-versa, além da conservação de massa e conservação de energia. A quantidade total de massa e energia dentro de um sistema permanece constante, ou seja, "nada se cria, nada se perde, tudo se transforma". Massa e energia são duas formas da mesma coisa, uma não existe sem a outra.

Em 1939, Einstein escreveu uma carta ao então presidente dos Estados Unidos Franklin Roosevelt destacando em seu conteúdo a possibilidade da criação de uma bomba de grande poder de destruição, baseando-se nos conceitos de conversão de massa em energia. Tal capacidade destrutiva seria proveniente da reação nuclear em cadeia desencadeada a partir de uma grande massa de urânio. Ao bombardear-se um núcleo produzem-se mais nêutrons, que bombardeiam outros núcleos, gerando uma reação em cadeia que, com o principio de Einstein, libera uma quantidade imensa de energia, capaz de destruir uma cidade inteira. Mesmo com tal aviso, Roosevelt criou um projeto secreto para o desenvolvimento da bomba, e as consequências disso são até hoje grandes marcos históricos, como o desastre de Hiroshima, em 1945.
Alunos: Vitor Silva de Paula, Victor Laubenstein, Manassés Barros, Gustavo Jose, Eduardo Taniguti.


Porque raios cortar cebola causa lacrimejar?
A cebola é um alimento bem enraizado na cultura gastronómica Brasileira. É pouco calórica, possui proteínas, vitaminas e outros nutrientes benéficos para o organismo humano. São conhecidas várias propriedades benéficas para a saúde, como o seu poder anti-inflamatório, analgésico (diminui a dor), estimulante da circulação sanguínea, antialérgico, anticancerígeno, entre outras. Tem é um pequeno problema. A não ser que você nunca tenha posto os pés numa cozinha para cozinhar e nunca tenha cortado uma cebola é que nunca lhe aconteceu. Quem já o fez conhece as consequências. Cortar cebola e não chorar é quase como alguém sair de casa a chover e não se molhar. Por que choramos ao cortar uma cebola? Por que sentimos aquela sensação desagradável dos olhos a picar antes de irmos às lágrimas? Estes fenómenos têm razão de ser. A explicação? Está na Química, a qual desempenha um papel fundamental na explicação do que já foi considerado em tempos um dos grandes enigmas da cozinha (ou do cozinheiro…). Então, comecemos a explicação pelo princípio…
Quando cortamos uma cebola, cortamos as suas células que contêm uma grande quantidade de substâncias no seu interior que são libertadas. Aquelas que são mais voláteis chegam ao nariz, boca e olhos mais rapidamente. Umas têm aroma e sabor adocicado e, portanto, são agradáveis, mas outras nem por isso… Quando então as células da cebola são cortadas, substâncias que antes estavam separadas na estrutura celular misturam-se e começam a reagir entre si. Por exemplo, uma substância contendo enxofre, sofre decomposição por ação de enzimas dando origem a outra substância. Este novo composto é relativamente instável dando origem a um gás contendo enxofre, responsável pelo aroma característico da cebola. Esta substância, muito volátil, chega rapidamente aos nossos olhos. Quando entra em contato com a água existente nos olhos, ocorre mais uma reação química que a transforma, nomeadamente em ácido sulfúrico (mesmo não sendo encontrado um site com informações concretas sobre o tópico o H2SO4 foi o gás cuja menção foi mais comum na maioria dos sites tratando sobre o assunto, porem também ocorre à menção de dissulfeto de alila (H2C=CH-CH2-S-S-CH2-CH=CH2) o qual causaria o mesmo efeito). Este ácido é bastante forte e corrosivo (descanse que se forma em pouca quantidade…), provocando uma irritação das terminações nervosas dos olhos fazendo com que tenhamos aquela sensação de olhos a picar ou a arder. O que fazemos? Por vezes, instintivamente, esfregamos os olhos com as mãos. Esquecemo-nos, no entanto, que elas estão impregnadas com o sumo da cebola. Portanto, a situação só piora. Mas o corpo humano é uma máquina (quase) perfeita. Se não, vejamos… Assim que os olhos ficam irritados pela ação do ácido sulfúrico, as glândulas lacrimais entram em ação libertando água. E para quê? Para lavar os olhos, diminuindo a concentração do ácido e anulando o efeito irritante… É por isso que choramos. É por uma boa razão. Refira-se, neste contexto, que existem diferentes espécies de cebolas que libertarão maiores ou menores quantidades da substância de enxofre nefasta que nos faz posteriormente chorar. Assim, a irritação que provocam também será necessariamente diferente. Agora outra questão… Se não temos aptidão para cozinhar, gostamos muitas vezes de andar pela cozinha a destapar os tachos e cheirar o perfume agradável de um bom cozinhado. Quando se trata de um refogado, por exemplo, por que não choramos quando a cebola está cozinhada? A resposta é simples… A enzima que foi referida acima é inativada pela ação do calor. Assim, deixa de ser capaz de originar a tal substância com enxofre que em contato com a água produz o ácido que nos irrita os olhos.
Voltando à cebola nua e crua… Quase todos conhecem os truques para evitar o lacrimejar quando as cortamos. Por exemplo, descascar uma cebola debaixo de água corrente ou molhar as mãos e a cebola antes de cortá-la vai reduzir o efeito da substância sulfurosa, uma vez que grande parte do gás vai reagir com a água da torneira, das mãos ou da cebola, evitando que chegue aos nossos olhos. Arrefecer a cebola antes de cortá-la também ajuda pois as reações químicas que nos levam até às lágrimas ocorrem mais lentamente. Outra possibilidade é ligarmos o exaustor do fogão mantendo os nossos olhos fora da corrente das substâncias voláteis da cebola. Outros truques menos prosaicos incluem, por exemplo, o respirar fortemente pela boca. Se inspirarmos o ar pelo nariz, puxamos o tal gás nefasto na direção dos olhos… Ou ainda mergulhar a cebola durante alguns minutos em água quente antes de ser cortada, o que inibe a ação da enzima que temos vindo a falar.
Bom, dentro de algum tempo (10-15 anos) não deverá ser necessário usar qualquer truque. Isto porque há pouco tempo foi notificado que cientistas neozelandeses e japoneses criaram um cebola que não provoca lágrimas! Como? Por manipulação genética, inibiram o gene responsável pela enzima que produz as reações químicas referidas neste texto. Os cientistas reconheceram que o sabor das cebolas poderá ser afetado pela alteração da sua composição genética, mas esperam que possa ser melhorado numa fase posterior da investigação... O que esperam, dizem eles, é “ter essencialmente muito dos aromas agradáveis e doces das cebolas, sem o amargo associado ao fator lacrimogéneo”. Será que estaremos, nessa altura, interessados em consumir mais um produto geneticamente modificado? Chorar a descascar uma cebola é assim tão despreferível? Se o ato de chorar, noutros contextos, permite libertar emoções porventura reprimidas, aqui nos permite livrar do tal ácido incomodativo.
Aluno: Roberto Macedo Cruz.

O Grafeno
O desenvolvimento de placas eletrônicas e microprocessadores já estão bastante avançados. Entretanto, ultimamente o avanço tem desacelerado. Isto se deve ao tamanho dos materiais utilizados no desenvolvimento dessas placas estarem atingindo um mínimo, sendo utilizado atualmente o silício. Porém, existe um novo polímero que poderia ajudar no retorno da evolução dos sistemas digitais, o grafeno.
Este composto químico trata-se de um dos alótropos do carbono, sendo uma fina rede de apenas uma camada de átomos com alta capacidade de condução de energia elétrica. Suas características o fazem como um ótimo substituinte ao silício, pois além de ocupar menos espaço e ser um ótimo semicondutor, estima-se que um processador que utilize o grafeno pode chegar a até mais de 500 GHz, muito mais que um processador de silício que não passa dos 5 GHz.
Não só nisso, o grafeno, por ser muito resistente (até cem vezes mais que o ferro), e super maleável, pode ser utilizado como polímero para criar diversos outros materiais, como lentes oculares, smartphones e até mesmo preservativos!
No Brasil, a Universidade Presbiteriana Mackenzie tem investido uma grande quantia, na casa de milhões, sobre o estudo do material, por causa do seu grande potencial como restaurador da Lei de Moore, que aumenta o rendimento dos chips em até cem por cento.
Entretanto, a alta sensibilidade deste material a rachaduras é um ponto a ser considerado. Cientistas da Universidade Rice e do Instituto de Tecnologia da Geórgia fazendo pequenas rachaduras no grafeno com íons focalizados perceberam que estas rachaduras se expandem rapidamente. Ou seja, o grafeno é análogo a um vidro de uma janela.
E este pode ser o Calcanhar de Aquiles do grafeno, principalmente porque no seu processo de produção, como a esfoliação onde o grafite (derivado do grafeno) é colocado em um solvente, existem pequenas fissuras que ocorrem de maneira natural.
Em suma, o grafeno tem recebi bastante atenção atualmente e tem um potencial imenso, embora ainda existam certos problemas, como as rachaduras mencionadas. Mesmo assim, este material pode ser a porta para uma nova era de processamento para os diversos dispositivos eletrônicos utilizados no mundo com maior velocidade, resistência e até mesmo menor custo.
Alunos: Lucas Sobral Fontes Cardoso, Vitor Augusto Correa.


Acelerador Síncrotron
Existem diversos tipos de aceleradores de partículas. Eles são equipamentos que fornecem feixes de partículas subatômicas que possibilitam uma grande concentração de energia, controlada de forma precisa. Apesar de parecer algo tecnologicamente muito distante de nossa realidade, esta maquina existiam em quase todas as casas em tempos passados: nas televisões de tubo. Estes são do tipo de tubos de raios catódicos, enquanto trataremos neste texto de um acelerador cíclico, o qual perfaz uma rota fechada, geralmente circular.
Os aceleradores de partículas do tipo Síncrotron são cíclicos. Neles, suas duas partes (O campo elétrico, responsável pela aceleração dos elétrons, e o campo magnético, responsável pela alteração da trajetória dos elétrons) estão em perfeita sincronia com o feixe de elétrons. Seu objetivo não é colidir partículas, como por exemplo o LHC (Large Hadron Collider – LHC), mas sim gerar a radiação do tipo síncrotron.
O maior acelerador Síncrotron da América Latina se encontra em Campinas, e faz parte do Laboratório Nacional de Luz Síncrotron (LNLS), centro de pesquisas tecnológicas. O acelerador foi também o pioneiro desse tipo no Hemisfério Sul e foi totalmente construído no Brasil. Diferentemente do LHC, na Europa, esse tipo de acelerador tem fins menos voltados à ciência pura, como descobertas a respeito da origem do universo, sendo que seu enfoque principal é a descoberta de soluções práticas para a engenharia.
Alunos: Arthur Demarchi, Catarina Moreira Lima, Guilherme Silveira Segato, João Victor Montanha Costa de Oliveira.

Diferenças entre tornado, ciclone e furacão
Ciclones são rodamoinhos atmosféricos que circulam um centro de baixa pressão. Eles atingem as regiões equatoriais e, principalmente, as tropicais. Esses fenômenos naturais provocam ventos em alta velocidade e fortes chuvas, causando enormes transtornos por onde passam.
A formação dos ciclones ocorre principalmente nos oceanos. Esses fenômenos se original quando uma determinada superfície dá origem a um ponto de baixa pressão atmosférica.
Ciclone é uma denominação genérica para esses fenômenos atmosféricos e pode receber outras nomenclaturas de acordo com seu local de origem, velocidade dos ventos e outras variáveis.
Podemos dividir os ciclones em cinco categorias diferentes de acordo com a velocidade de seus ventos:
● Categoria 1: Ventos entre 118km/h e 152km/h; 
● Categoria 2: Ventos entre 153km/h e 176km/h;
● Categoria 3: Ventos entre 177km/h e 208km/h;
● Categoria 4: Ventos entre 209km/h e 248km/h;
● Categoria 5: Ventos superiores a 248km/h.
Outro fato curioso sobre esse fenômeno é que os ventos e as nuvens dos ciclones ocorridos no hemisfério norte se movimentam no sentido anti-horário enquanto os presentes no hemisfério sul giram no sentido oposto.
Tufões, tornados e furacões são alguns tipos de ciclones, existindo dois tipos de ciclones, os tropicais (localizados entre o Trópico de Câncer e o Trópico de Capricórnio), e os extratropicais (situados fora dos Trópicos).
Tornados e tufões são o mesmo fenômeno, porém ocorrem em diferentes localizações, o primeiro ocorre na parte leste do Oceano Pacífico ou no Oceano Atlântico, o segundo ocorre na parte oeste do Oceano Pacífico. Se caracterizam por ventos fortes, com velocidades que podem ultrapassar 120 km/h, com um diâmetro que pode variar de 200 km a 400 km.
Os tornados são menores e mais breves, possuem cerca de 2 km de diâmetro e duram em média 15 minutos, podem chegar a velocidades superiores a 500 km/h, causando grande estrago, recebem esse nome quando tocam o chão, caso contrário, são apenas chamados de “funis”.
Os tornados ocorrem em massas continentais e se apresentam como a forma mais perigosa de ciclone, com velocidades superiores a 480 km/h e atingindo até 1,5 km de altura, possuindo diâmetro entre cem metros e dois quilômetros.
Um tornado se desloca, geralmente, com velocidades entre 20 km/h e 50 km/h e dura até meia hora, onde ocorre a dissipação da energia dos ventos causando o seu enfraquecimento. Os tornados são formados quando a base da nuvem de tempestade chamada cumulonimbus se expande até o chão.
O movimento de rotação origina-se do encontro de fortes correntes de ar que vem em direções opostas tendendo a se encontrar na zona de baixa pressão. Portanto a força centrípeta gerada pela diferença de pressão é equilibrada pela força centrífuga da rotação do ar.
Para a previsão dos tornados, utilizam-se conceitos da dinâmica dos fluídos geofísicos através de softwares baseados em equações matemáticas e previsão numérica. O software funciona da seguinte maneira: ele gera um estado futuro da atmosfera dividindo a superfície terrestre em um reticulado com pontos afastados a uma distância conhecida como resolução da previsão. Essa resolução geralmente está na casa dos dez quilômetros, o que faz com que os tornados com o porte de menos de um quilômetro não sejam detectados. Assim, os meteorologistas interpretam os dados produzindo assim informações sobre fenômenos do tempo.
Uma diferença entre tornados e furacões é que, além de sua dimensão, velocidade e destruição, tornados tendem a ser menos influenciados pelo efeito de Coriolis, pois as forças centrífuga e centrípeta tendem a ser muito mais fortes quando comparados ao furacão. Como resultado, furacões tendem a seguir o efeito girando no sentido horário quando no hemisfério norte e sentido anti-horário quando no hemisfério sul, o que pode não ocorrer com os tornados.
Os furacões são formados no oceano quando as águas são aquecidas durante muito tempo pelo sol e ocorre intensa evaporação. Na região onde há a evaporação cria-se uma zona de baixa pressão do ar, o que faz com que o vapor de água se desloque para essa zona e ocorra a condensação desse vapor, que em grande quantidade possui energia necessária para produzir uma grande tempestade. Por depender de regiões com alta temperatura, os furacões são formados em zonas tropicais e subtropicais.
Em torno de um ou dois dias o furacão formado já está gigantesco, podendo alcançar até 500 km de diâmetro e 15 km de altura. Por toda área do furacão chove e venta (pode chegar até 300 km/h) intensamente, exceto no chamado “olho do furacão”, que possui aproximadamente 20 km de diâmetro e faz muito calor, e é nessa área que a água continua evaporando e aumenta a proporção desse fenômeno, não possuindo nuvens nem chuva.
O furacão sofre os efeitos de rotação da terra, com isso as áreas de alta pressão (topo) giram em um sentido e as áreas de baixa pressão (base) giram em sentido contrário ao de alta pressão, o sentido do topo é influenciado pela rotação da Terra, descrito anteriormente. Esse fenômeno avança no oceano em áreas em que as águas são quentes e ao atingir a terra, que é mais fria em relação ao mar, perde força e desmancha-se, provocando inundações, ventos fortes e muita destruição.
Alunos: Lucas Alquati da Silva, Lucas Sales Neves, Luiz Fernando V. Silva (9022129), Sofia Moreira de Andrade Lopes, Ana Luísa Vieira Pacheco.

O Efeito Fotoelétrico
Embora poucos saibam, a aplicação deste conceito está presente em boa parte do nosso cotidiano. Exemplo disso são as portas automáticas, a geração de energia elétrica a partir da luz solar, sistemas de iluminação inteligente, sistemas de alarmes em regiões residenciais, industriais... Além disso, foi possível aprimorar a produção de peças nas fábricas, já que as máquinas com sensores fotovoltaicos são mais precisas no corte, soldagem e posicionamento de cada componente do produto.
Mas, afinal, o que seria o efeito fotoelétrico?
No final do século XIX, Hertz, em um dos seus experimentos com ondas eletromagnéticas, utilizou eletrodos para realizar descargas elétricas e que quando a luz incidia no cátodo a descarga aumentava de intensidade. Dessa forma, pela primeira vez foi registrado este efeito.
Sendo mais bem descrito, o efeito fotoelétrico é o momento em que uma placa de metal libera elétrons quando alguma onda eletromagnética (em muitos casos a luz) incide sobre ela. Assim, caso a placa esteja isolada, ela se torna eletrizada. Entretanto, para que a placa libere os elétrons, é preciso uma frequência da onda compatível e esse fluxo não depende da intensidade dela.
Para descobrir a frequência de onda que faça com que o elétron seja liberado, foi preciso descrever um modelo matemático. Ele foi formulado após a interpretação da hipótese de Planck por Einstein, em que ele descrevia a energia do fóton como pequenos pacotes de energia. Diante disso, foi enunciada a seguinte equação: 

Nela, iguala-se a energia do fóton proposto por Planck a uma soma entre a função trabalho e a energia cinética do elétron. A função trabalho é a dificuldade de emissão do elétron do átomo, devido às forças interatômicas. A energia cinética é a energia relacionada com a velocidade com que o elétron sai da placa.
Alunos: Gabriella Pinheiro dos Santos, Jonatas Puspi da Silva, Lucas Marques Ribeiro, Matheus Moreira Pavan, Pedro Inácio de Nascimento e Barbalho.

Por que estamos vivendo mais?
O que causou um avanço tal grande em tão pouco tempo? Várias são as causas e todas tem sua devida importância, mas uma merece um especial destaque: o descobrimento da célula.
Hoje muitos sabem que somos um sistema composto de trilhões de células, assim como a matéria é composta de átomos. Porém há 500 anos tal pensamento era inconcebível para a grande maioria. Havia algumas coisas que deveriam acontecer para que isso se tornasse possível; e logo aconteceram: em 1591, Hans Jessen e seu filho inventam o microscópio, que logo foi utilizado por vários cientistas. Mas foi somente em 1665, com o aprimoramento do microscópio feito por Hooke, que o mesmo observou um pedaço de cortiça (tecido vegetal) e, devido à aparência, deu o nome a tal composto de célula.
Assim, tal descoberta possibilitou o surgimento de uma nova ciência, a qual gerou um grande avanço na medicina, a Biologia. Tal ciência se preocupa em estudar o que chamamos de vida; em especial, a citologia, responsável pelo estudo das células.
Com o passar do tempo, o estudo das células foi crescendo rapidamente à medida que os microscópios evoluíam. Cientistas acreditavam que o estudo dessas unidades vivas extremamente pequenas fosse promissor para o entendimento do funcionamento dos organismos vivos e também para a possível cura de doenças e reações. 
Schleiden estudando vegetais descobriu que todos os vegetais são formados por células, Schwann descobriu que todos os animais são formados por células, Virchow descobriu que todas as células formam-se a partir de outra célula pré-existente e Flemming estudou e publicou em um artigo o mecanismo de divisão celular. Essas descobertas contribuíram muito para entender como os órgãos, sistemas e seres vivos se formam e do que são constituídos.
Karl August Mobius, estudando as células, descobriu que existem pequenas unidades dentro das células, as quais ele denominou “organelas”, e as comparou com os órgãos dos seres humanos, ou seja, cada organela possui uma função para que a célula se mantenha viva.
Assim, tal descoberta possibilitou o surgimento de uma nova ciência, a qual gerou um grande avanço na medicina, a Biologia. Tal ciência se preocupa em estudar o que chamamos de vida; em especial, a citologia, responsável pelo estudo das células.
Com o passar do tempo, o estudo das células foi crescendo rapidamente à medida que os microscópios evoluíam. Cientistas acreditavam que o estudo dessas unidades vivas extremamente pequenas fosse promissor para o entendimento do funcionamento dos organismos vivos e também para a possível cura de doenças e reações.
Schleiden estudando vegetais descobriu que todos os vegetais são formados por células, Schwann descobriu que todos os animais são formados por células, Virchow descobriu que todas as células formam-se a partir de outra célula pré-existente e Flemming estudou e publicou em um artigo o mecanismo de divisão celular. Essas descobertas contribuíram muito para entender como os órgãos, sistemas e seres vivos se formam e do que são constituídos.
Karl August Mobius, estudando as células, descobriu que existem pequenas unidades dentro das células, as quais ele denominou “organelas”, e as comparou com os órgãos dos seres humanos, ou seja, cada organela possui uma função para que a célula se mantenha viva.
Assim, tal descoberta possibilitou o surgimento de uma nova ciência, a qual gerou um grande avanço na medicina, a Biologia. Tal ciência se preocupa em estudar o que chamamos de vida; em especial, a citologia, responsável pelo estudo das células.
Com o passar do tempo, o estudo das células foi crescendo rapidamente à medida que os microscópios evoluíam. Cientistas acreditavam que o estudo dessas unidades vivas extremamente pequenas fosse promissor para o entendimento do funcionamento dos organismos vivos e também para a possível cura de doenças e reações.
Schleiden estudando vegetais descobriu que todos os vegetais são formados por células, Schwann descobriu que todos os animais são formados por células, Virchow descobriu que todas as células formam-se a partir de outra célula pré-existente e Flemming estudou e publicou em um artigo o mecanismo de divisão celular. Essas descobertas contribuíram muito para entender como os órgãos, sistemas e seres vivos se formam e do que são constituídos.
Karl August Mobius, estudando as células, descobriu que existem pequenas unidades dentro das células, as quais ele denominou “organelas”, e as comparou com os órgãos dos seres humanos, ou seja, cada organela possui uma função para que a célula se mantenha viva.
Por fim, perto da década de 30, o surgimento do microscópio eletrônico permitiu uma imagem mais detalhada das células e, assim, os cientistas conseguiram entender com uma maior precisão as funções celulares e realizar a produção de remédios contra algumas patologias, como a existência dos antibióticos que destroem as células bactericidas.
Alunos: Caio Ian Alher Carrasco, Luiz Akyhito Miyazaka, Murilo Palomo Sebilla, Rafael Albuquerque dos Santos.


O que seria um Buraco Negro?
Em meados do século dezoito dois cientistas abordaram a seguinte teoria, de que se uma estrela fosse por exemplo, 500 vezes os tamanho do Sol, sua gravidade seria tão grande que nem mesmo a luz poderia escapar. Eles eram nada mais nada menos que John Mitchell e Pierre­Simon Laplace.
Contudo os cientistas do século dezenove ignoraram essa hipótese, pelo fato de a luz não ter massa, sendo assim não seria afetada pela força da gravidade, de acordo com a gravidade de Newton.

F = GMm/r²

Sendo, F a força gravitacional, G a constante universal da gravitação, M e m as massas dos objetos, e r a distância entre os centros de massa desses objetos.
Já em 1915 Einstein publicou sua teoria geral da relatividade, que tem como uma de suas implicações o fator de que a energia curva o espaço e o tempo a sua volta, sendo assim, a gravitação é um efeito da geometria espaço­tempo. Isso também implicava que a luz poderia ser desviada por objetos largos como estrelas. 
Em 1916 Karl Schwarzschild propôs a primeira solução para a equação da relatividade de Einstein (figura acima). Que teve um comportamento interessante, na qual um dos termos da equação se tornava infinito.
Neste caso, se uma estrela muito massiva entrar em colapso, o que quer dizer que ela não tem força suficiente pra se sustentar em relação a sua gravidade, ela formará uma singularidade centrada. Entretanto os cientistas dessa época não acreditavam que esse fato era real. 
Conseguinte, em 1939, Robet Oppenheimer, o futuro pai da bomba atômica, que a singularidade realmente poderia ocorrer no colapso de estrelas velhas e massivas sem combustível nuclear suficiente.
Esse tema voltou a ser discutido apenas na década de 60, e em 1967, e termo “buraco negro” foi cunhado pelo físico John Archibald Wheeler. O primeiro objeto a ser reconhecido como um buraco negro foi a estrela binária Cygnus X­1.
Neste caso, se uma estrela muito massiva entrar em colapso, o que quer dizer que ela não tem força suficiente pra se sustentar em relação a sua gravidade, ela formará uma singularidade centrada. Entretanto os cientistas dessa época não acreditavam que esse fato era real.
Conseguinte, em 1939, Robet Oppenheimer, o futuro pai da bomba atômica, que a singularidade realmente poderia ocorrer no colapso de estrelas velhas e massivas sem combustível nuclear suficiente.
E em 1974 o astrofísico Steven Hawking combinou a teoria geral da relatividade com mecânica quântica e formulou a equação que mostra a energia radioativa de um buraco negro. 
onde S é a entropia, Kb é a constante de Boltzmann, é a constante de Planck normalizada, G é a constante gravitacional universal, c a velocidade da luz no vácuo e M a massa do buraco negro.
Agora podemos responder o que é um buraco negro, os buracos negros são corpos que não possuem mais pressão interna suficiente para produzir uma força para fora que contrabalance a força da gravidade, o corpo colapsa matematicamente a um ponto. Este ponto é chamado de singularidade, onde a densidade tende ao infinito. O campo gravitacional é tão forte que nem mesmo a luz é capaz de escapar e por isso tal corpo é chamado de Buraco Negro.
Aluno: Leonardo Moura de Oliveira.


Energia Nuclear e Radioatividade
A radioatividade é liberada devido ao decaimento de um isótopo radioativo de certo elemento, geralmente é utilizado o urânio. Um exemplo de decaimento está na equação logo a baixo:

Nessas reações são liberadas grandes quantidades de energia, na forma de calor ou na forma de radiação gama, que é a energia que posteriormente será transformada em energia elétrica ou na formação de armas nucleares. O poderio formado por essas armas nucleares impactou todo o mundo, especialmente na segunda guerra mundial, quando ocorreram os grandes casos de Hiroshima e Nagasaki. Para evitar outro tipo de caso como esse, a produção de energia nuclear se tornou um pouco mais rígida, visto que é o processo realizado para produzir a energia nuclear é análogo à produção da bomba nuclear; a diferença está apenas no controle da reação.
No enriquecimento do urânio, o isótopo radioativo é separado dos demais a partir do minério fundamental desse, que pode ser encontrado na natureza. A partir de certa concentração desse urânio 235 é possível realizar o processo de fissão nuclear: o núcleo de um isótopo já instável de urânio é bombardeado por nêutrons com uma alta energia cinética, geralmente dentro de um acelerador de partículas, e suficiente para atravessar a nuvem eletrônica em volta do núcleo desses dentro de um período extremamente pequeno de tempo. Assim, é formado um isótopo ainda mais instável que irá se dividir em dois novos núcleos (dando origem ao termo de fissão nuclear). As forças de interação nucleares estão entre as forças mais intensas conhecidas pelo homem, e ao serem quebradas o núcleo libera uma grande quantidade de energia na forma de radiação. Essa fissão libera também dois nêutrons, o que pode gerar uma reação em cadeia e uma explosão, por isso a reação deve ser fortemente controlada para evitar isso.
A energia gerada nesse processo produz uma alta quantidade de calor, que pode ser utilizado na produção de energia elétrica, o que ocorre nas usinas nucleares. O processo se baseia em queimar o combustível que ferve água numa caldeira, e a transforma em vapor. Esse vapor movimenta uma turbina que dá partida a um gerador que produz eletricidade.
Com as usinas nucleares, esse tipo de energia é aplicado na sociedade, sendo que há centenas de centrais especializadas nisso, tanto que 16% da energia gerada mundialmente vêm de usinas nucleares. No Brasil, por exemplo, há 2 usinas de larga escala em atividade, Angra 1 e 2, responsáveis pela produção de cerca de 2000GW
Alunos: Bruno Azevedo, Daniel Peruchi Negris, Gabriel Carneiro Madolosso Pedro Rogério de Paula Guimarães, Vitor Luiz Calmon Rodrigues de Olivera.

O que quer dizer E = mc²?
A equação E = mc² certamente é uma das mais populares de toda a física moderna. Proposta pelo físico alemão Albert Einstein, faz parte da teoria da relatividade e foi publicada pela primeira vez em 1905.
Tendo em vista os estudos de Lorentz, os quais falavam que as leis da física poderiam variar de acordo com o referencial adotado, por exemplo, um movimento retilíneo uniforme para um determinado referencial pode ser interpretado como movimento uniformemente variado para outro referencial, Einstein formulou a teoria da relatividade, a qual engloba a equação E = mc².
Essa teoria tem como pilares alguns princípios físicos, como a invariância da velocidade da luz, a inexistência de um referencial absoluto e a relação entre massa e energia.
Embora seja bem popular, poucos conhecem o real significado dessa expressão, o qual está explicado nos próximos parágrafos.
A equação de Einstein descreve a equivalência em energia potencial contida nas massas estudadas. A equação utilizada para isto é E = mc². Esta equação converte a energia potencial contida em uma massa em termos equivalentes de trabalho, sendo assim possível calcular a somatória de energia contida num sistema. “E” representa essa energia e “c” a velocidade de propagação da luz, dada por 3,0x105 km/s. O termo “m” representa a massa que compõe o sistema, sendo essa massa igual à massa inercial, importando para os cálculos do problema o momento de inércia contido no problema.
A energia interna do sistema é variável, dependendo do contexto inserido, sendo possível obter casos em que a energia interna cresce ou decresce. Utilizando a fórmula proposto pelo cientista, ao variar a energia interna, percebe-se a mudança do termo “m”, aumentando ou diminuindo a inercia recorrente na movimentação de cada partícula que forma o conjunto.
No estudo realizado, para chegar a tais conclusões, utilizou-se a colisão entre partículas subatômicas que liberarão grande quantidade de energia. O exemplo mais famoso disso é a colisão de uma partícula de próton com um átomo de lítio, percebendo ao final a formação de duas partículas alfa. Nesse experimento, foi verificada a diferença na somatória da massa inicial com a massa final, assim como houve a desigualdade revelado entre a energia cinética inicial e a final, sendo maior a massa no reagente e maior energia cinética no produto. A partir disso, se pensou na existência de energias potenciais de ligações e de mais tipos que formam as partículas alfa e o átomo de lítio.
Durante a Segunda Guerra Mundial foram desenvolvidos armamentos nucleares utilizando essa teoria descoberta por Albert Einstein. A bomba atômica foi a invenção do homem em que podemos perceber claramente uma aplicação prática da famosa fórmula E = mc².
As famosas bombas “Little Boy” e “Fat Man” lançadas sobre respectivamente às cidades de Hiroshima e Nagasaki, pelos americanos na Segunda Grande Guerra são conhecidas como bombas de fissão nuclear. Nelas uma carga de dinamite é acionada para romper os átomos de urânio ou de plutônio que são relativamente fáceis de romper. Dessa forma, uma grande quantidade de energia, proporcional à equação, é liberada gerando grandes desastres como o que ocorreram nas cidades japonesas.
Além da bomba de fissão existe a bomba de fusão nuclear, sendo mais conhecida como bomba de hidrogênio. Esse armamento de destruição em massa dois ou mais núcleos de hidrogênio, sujeitos a altíssimos valores de temperatura e pressão, combinam-se formando outro elemento mais estável como, por exemplo, o hélio. Nesse processo é liberada uma grande quantidade de energia, muito maior do que a bomba de fissão nuclear. Essa reação é a responsável pela energia produzida pelo Sol e pela maioria das estrelas.
Alunos: Guilherme Shinji Nakamine, Leonardo Kei Itsi Matsushita, José Guilherme Gil Lenharo, Caio Luz Stucki, Filipe Garcia Neiro.



Identidade Eletroquímica
Dentre os métodos existente para detecção de substâncias ilícitas, encontram-se tecnologias com pouca precisão química ou que não possuem portabilidade. Tais tecnologias variam desde reagentes químicos, conhecidos como colorimétricos, a partir dos quais os peritos obtêm mudanças de cor para determinadas substâncias à métodos, como a cromatografia gasosa, que emprega o uso de aparelhos pesados e difíceis de serem levados a campo.
Com o objetivo de desenvolver um mecanismo que envolvesse portabilidade e precisão, pesquisadores da Universidade de São Paulo desenvolveram um método alternativo de análise de substâncias químicas, onde este pode auxiliar autoridades na identificação de amostras de drogas ilícitas, como cocaína, maconha, LSD e ecstasy, apreendidas em cenas de crimes.
O projeto, como verificado na figura, consiste na concepção de eletrodos quimicamente modificados que, ao entrarem em contato com determinadas substâncias químicas, desencadeiam reações específicas.
O método desenvolvido é melhor que o colorímetro por ser mais específico. O equipamento possui um potenciostato, que controla e monitora a tensão da corrente elétrica gerada, que é usada para medir a quantidade de substância numa certa solução.
Cada tipo de droga causa uma reação diferente no potenciostato, o que gera parâmetros de corrente elétrica diferentes e, a partir dessas diferenças, pode ser determinado o tipo de substância ilícita presente na solução. Além disso, o equipamento fornece informações do perfil da droga, tais como teor e contaminantes, podendo também trazer a identificação da origem da substância.
No trabalho, a superfície do eletrodo convencional foi modificada ao aplicar-se uma solução líquida de uma substância chamada cucurbiturila, dissolvida num eletrodo sem especificidade química. Ao evaporar, uma fina camada de substância se forma sobre o aparelho.
Após a realização de testes, verificou-se que essa substância é reagente à um sensor para o MDMA (princípio reativo do ecstazy). Essa reatividade é responsável por um acréscimo na corrente elétrica ao entrar em contato com a droga. As moléculas da cucurbiturila possuem formato de barril. Foi verificado também que o diâmetro desses “barris” pode ser alterado o que, consequentemente, possibilita a obtenção de resultados diferentes para substâncias distintas. Essa diferença no diâmetro de abertura responde de maneira diferente a cada substância, fazendo com que elas passem ou sejam barradas. Tal característica permite que seja gerado um sinal elétrico específico para o MDMA, enquanto que outros tipos de cucurbiturila podem, por exemplo, gerar um sinal diferente para cocaína. O próximo objetivo dos pesquisadores é melhorar o método para que substâncias como o THC (maconha) e o LSD sejam identificadas
Alunos: Pedro Henrique Fini, Caio Henrique Moraes Correia, Camila Ladeira Vieira.

Entrelaçamento Quântico
Quantum Entanglement (ou Entrelaçamento Quântico) é um fenômeno físico que ocorre quando um par ou grupo de partículas interagem de tal maneira que o estado quântico de cada partícula e descrito por uma única e inseparável descrição mecânica quântica. Assim, medições de propriedades físicas como, posição, momento, spin e polarização de partículas em sistemas entrelaçados são encontradas de tal maneira a serem apropriadamente correlacionadas. Por exemplo, se um par de partículas e gerado de maneira que seu spin total e zero, caso em uma medição encontrar que o spin de uma das partículas em um determinado eixo se da no sentido horário, quando medirmos o spin no mesmo eixo da outra partícula, independente da distancia entre elas, encontraremos o spin no sentido anti-horário.
A primeira menção registrada a respeito do entrelaçamento quântico se deu em um artigo escrito por Albert Einstein em 1935, juntamente com Boris Podolsky e Nathan Rosen. Conhecido como o paradoxo de EPR, levou Einstein a descartar a teoria, dita como "spuckhafte ferwirkung" ou "spooky action at a distance" e concluir que a Teoria da Mecânica Quântica se encontrava incompleta, visto que o princípio contradiz a noção de relatividade proposta por ele, já que, de alguma forma a informação do estado quântico de uma partícula seria transmitida a outra independente da distancia entre as mesmas podendo assim superar a velocidade da luz.
De acordo com a Interpretação de Copenhaga da Mecânica Quântica os valores observáveis de um estado compartilhado entre duas partículas são indeterminados até que sejam medidos, e ainda após a medição o estado se mantém até que uma nova medição seja feita. Assim, em pares de partículas entrelaçadas a medida do estado de uma, por consequência define o estado da outra, sendo que os resultados das medições feitas em cada membro individual do par estão sempre correlacionadas, independente da distancia que as separa.
Aproximadamente trinta anos após a publicação do EPR, John Bell descobriu uma maneira de se testar a teoria observando casos envolvendo mediações de diferentes variáveis. Assim, a teoria de Einstein, Podolsky e Rosen que se baseava na existência de uma variável profundamente escondida, a qual predeterminaria o estado da partícula, limitaria o quão recorrentemente podermos encontra um resultado especifico. Tal teoria foi dada como falsa, pois Bell demonstrou que observando casos envolvendo mediações de diferentes variaveis, conclua-se que um resultado predeterminado por uma variável profundamente escondida era impossível. 
Uma ilustração do experimento EPR, realizado utilizando pares de elétron-pósitron: Uma fonte emite pares de partículas elétron-pósitron a dois observadores, sendo elétrons para Alice e pósitrons para Bob, os quais agora podem medir o spin de cada partícula.
Inicialmente, Alice realiza a medição do spin no eixo z. Ela possui 50% de chance de obter +z e 50% de chance de obter -z. Suponhamos que ela obteve +z. De acordo com a interpretação Copenhaga da Mecânica Quântica, o estado quântico do sistema colapsa no estado I. O estado quântico determina os prováveis resultados de quaisquer mediações realizadas no sistema. Neste caso, consequentemente Bob realiza a medição do spin no eixo z com 100% de probabilidade de obter -z. Da mesma forma caso Alice obtenha -z, Bob ira obter +z. 
Aluno: Matheus Machado Alfradique.


O que são erupções de raios gama?
O avanço da tecnologia quase sempre possibilitou uma melhor observação do espaço, seja com o use de telescópios melhores ou de sensores mais precisos, porém a corrida espacial durante a guerra fria foi um dos períodos que mais impulsionou tanto as pesquisas sobre quanto nosso entendimento do espaço. Uma das descobertas proporcionadas por esse período de intenso conflito diplomático foi o fenômeno das erupções de raios gamas, observado pela primeira vez por satélites norte americanos criados com o propósito de monitorar testes de explosões nucleares, os satélites Vela.


As erupções de raios gama são intensas emissões de raios gama associadas, em grande parte, a estrelas supermassivas e a originadas de galáxias muito distantes. Elas são classificadas, basicamente, de duas maneiras diferentes, as emissões de curta duração (com tempo de duração de menos de dois segundos aproximadamente) e as emissões de longa duração (com tempo de duração de mais de dois segundos).

Apesar da descoberta desse fenômeno ter ocorrido a cerca de meio século atrás, a comunidade cientifica ainda entende pouco sobre o mesmo. Dito isso, as emissões de longa duração são melhores entendidas, pois sua freqüência de ocorrência é maior (cerca de 70% das ocorrências observadas são desse tipo) além de sua maior duração facilitar seu estudo. 

Existe uma dificuldade para não apenas entender o fenômeno como também de determinar sua origem. As evidências experimentais sugerem que as erupções de longa duração estão associadas com a morte de estrelas supermassivas, porém, esse não é o caso para as erupções de curta duração dado que a grande diferença na quantidade de energia liberada nos dois fenômenos sugere que eles possuem origens diferentes. A teoria mais aceita para a origem das erupções de curta duração é a combinação de duas estrelas de nêutrons, normalmente pertencentes a um sistema binário ou a assimilação de uma estrela de nêutrons por um buraco negro.

Vale notar que apesar de erupções de raios gamas serem, teoricamente, possíveis na via láctea, não apenas nenhum caso foi observado como também não se sabe ao certo se existem, em nossa galáxia, estrelas com as características necessárias para provocar tal evento (existem possíveis candidatos entretanto). Além disso, a possibilidade uma emissão de raios gama tão intensa dentro de nossa galáxia representa um perigo a vida na Terra, sendo classificada como uma das possíveis causa de extinção em massa devido a tanto seus efeitos imediatos (altos níveis de radiação capazes de penetrar no campo eletromagnético da Terra) como também a seus efeitos persistentes (como a destruição de grande parte da camada de ozônio).

Dado as condições extremas que esses eventos exigem para ocorrerem, podemos ver que eles representam uma excelente fonte de informação sobre como o universo opera. Suas características nos fornecem dados importantes acerca de situações envolvendo extremas quantidades de energias, porém essas mesmas características dificultam nosso acesso aos dados, tornando o uso de equipamento cada vez mais sofisticado uma necessidade e um aliado na nossa tentativa de compreender o universo.
Aluno: Fabrício Pereira de Freitas

Grafeno
O carbono é um elemento químico incomparável. De grande versatilidade e abundância, ele se apresenta na natureza sob diversas formas diferentes, seja contido em móleculas, como as de dióxido de carbono (CO2), ou em arranjos cristalinos, em formas alotrópicas. Com relação a essas últimas, contemporaneamente, têm se destacado uma, em específico: o grafeno. 
Considerado um dos materiais mais promissores da atualidade, ele nada mais é do que um arranjo ultrafino de carbonos sp2 organizados em estruturas hexagonais planares. Mas, por que ele é tão promissor? Ora, isso se deve ao fato de que algumas de suas propriedades físico­químicas apresentam desempenho fabuloso, como, por exemplo: 
● É o material mais leve já descoberto, possuindo 0.77 mg/m². 
● Em contrapartida, é o material mais resistente conhecido, sendo de 1000 a 300 vezes mais forte do que o aço, com rigidez de 150 milhões psi. 
● É o melhor condutor de calor a temperatura ambiente ­ com condutividade variando entre 4,84 ± 0.44× 103 e 5,3 ± 0.48× 103 W.m−1.K−1­, além de ser o melhor condutor de eletricidade. 
● É o material mais fino já visto, possuindo, em média, a espessura de um átomo de carbono. 
● O carbono é o quarto elemento mais abundante em massa no universo, sendo, portanto, facilmente encontrado no planeta. 
Todos esses fatos fazem do grafeno um material de grande interesse para a indústria e para a ciência, de modo geral. 
Atualmente imagina­se que possa ser aplicado de modo eficiento no campo da microeletrônica. Isso se baseia no fato de que o silício, principal elemento componente dos chips eletrônicos atuais, torna­se instável quando em tiras de espessura infinitesimal ­ da ordem de alguns poucos nanômetros ­, o que limita as possibilidades de miniaturização da eletrônica no futuro. O grafeno, por outro lado, permanece estável e com condutividade satisfatória, ainda que em peças infinitesimais. A promessa é de que, posteriormente, possam existir circuitos eletrônicos exclusivamente compostos por átomos de carbono e que sejam esculpidos a partir de uma única folha de grafeno. 
Outras aplicações para ele estão, dentre outros, em: 
● Tintas condutoras de eletricidade; 
● Capacitores de alto desempenho; 
● Baterias com maiores capacidade de armazenamento e vida útil; 
● Dispositivos eletrônicos translúcidos, leves e dobráveis; 
● Papeis eletrônicos capazes de exibir informações dinamicamente; 
● Produtos capazes de self­healing ­ isto é, com capacidade de corrigirem eventuais arranhões ou riscos; 
● Roupas de proteção à prova de bala ou à prova de fogo. 
Todavia, a maior barreira para o desenvolvimento de tecnologia baseada em grafeno, atualmente, encontra-­se na obtenção do material: por ser fino em demasia, não é simples isolá-­lo de fontes de grafite. Ainda hoje, um grama de grafeno de 3 nm de espessura pode chegar a custar 250 dólares, sendo um valor relativamente alto. Espera-se que, à medida que novos manufaturadores cheguem ao mercado, desenvolvam-se novos métodos para obtenção do material, e, consequentemente, o custo médio para produzi-­lo se reduza também. 
E assim, o material mecanicamente isolado a partir de duas tiras de fita isolante e um punhado de grafite num papel veio a configurar-­se como um dos mais revolucionários já descobertos. Suas possibilidades de uso são praticamente infinitas ­ se combinado com diversos outros materia­, sendo apenas uma questão tempo e dedicação por parte do pesquisadores a sua viabilidade econômica, que não deve tardar muito mais. E, quando esse momento chegar, muitos segmentos da indústria terão dado o seu mais importante passo rumo a uma evolução sem precedentes. 

Referências: 

Alunos: Afonso Henrique Silva, Carla Nunes da Cruz, Guilherme Milan Santos, Ygor Sad Machado.


Russell, a descoberta do sóliton, equação de Boussinesq e de Korteweg- de Vries
Aluno: José Fernando Barbosa Boro




==========================

Olá galera!!! Aqui estão algumas instruções da atividade “Você não pode ir dormir sem saber que...”
1) A atividade deverá ser em grupo de no máximo 5 alunos;
2) O conteúdo dos textos deverá ser sobre ciências e a escolha do tema ficará a critério do grupo;
3) O texto deve ser encaminhado para iqscquimica@gmail.com até o dia 19/10/2014. IMPORTANTE: Além do texto deve ser encaminhada uma imagem relacionada com o texto e o nome dos integrantes do grupo;
4) Todos os textos serão lidos (se necessário corrigidos) e publicados no blog com o nome de todos os autores.
Modelo para ser empregado na atividade!!!

A atividade só valerá nota se os textos forem enviados até o prazo estipulado (19/10/2014).


OBS: Turma da Eng. da Computação deverá entregar o trabalho até o dia 02/11, pois foram comunicados posteriormente as demais turmas!

2 comentários: