sábado, 2 de setembro de 2017

Mudança... ah! sua maldita e, ao mesmo tempo, maravilhosa necessidade!

 Pois é... muitas e muitas coisas mudaram desde meu retorno ao blog. Neste momento, encontro-me em uma posição na qual eu não imaginaria que iria estar hoje no momento em que escrevi sobre "Defeitos: somos frutos de uma criação imperfeita?". Naquela época, eu estava justamente terminando as disciplinas do mestrado e restava um longo ano de pesquisas pela frente, no qual eu dividi meus afazeres em programações extensas, vasta busca por artigos na literatura e a escrita da minha dissertação.

Naquela época, eu estava ainda incerto sobre o rumo que o meu projeto de mestrado iria tomar. Sim, eu tinha ideia do que queria mostrar, eu sabia por onde caminhar, mas eu não sabia se as coisas iriam funcionar ou, até mesmo, se os resultados impressionariam a minha banca avaliativa. E, além disso, tinha mais um detalhe: eu sabia que não queria mais seguir pesquisando na área de LIBS no doutorado. Eu já havia manifestado interesse em mudar de área assim que terminei a graduação, surgiram oportunidades bacanas, mas não mudei porque muitos me aconselharam a fazer mestrado na área em que eu havia desenvolvido minha principal iniciação científica e estágios. Esses conselhos eram fundamentados no fato de que o mestrado tem apenas dois anos, e aprender uma área nova nesse período pode ser arriscado para desenvolver um bom trabalho. Sinceramente, não foi um período fácil e eu acabei seguindo esse conselho e permaneci firme. Hoje, vejo esta decisão como a mais inteligente que eu poderia tomar naquela época, principalmente pelo fato de que eu estava numa "zona de conforto" intelectual, possuia capacidade para desenvolver algo de qualidade e, principalmente, eu mudaria de instituição: sairia da UFSCar e iria pra USP de São Carlos. Essa sim foi a melhor mudança que eu poderia experimentar!

Confesso que eu estava de saco cheio (!!!) da UFSCar, já não aguentava mais a quantidade infindável de paralizações da biblioteca e do restaurante universitário, a IMENSA burocracia para solicitar documentos no Departamento e a nem sempre boa recepção dos funcionários de lá... era algo que me deixava carregado, cansado e, claro, muito desestimulado. Encontrei um ambiente bastante diferente na USP de São Carlos. Eu fiquei REALMENTE surpreso. O Instituto de Física é absolutamente impressionante: construções bem feitas, pinturas novas, biblioteca própria, dotada de um acervo IMENSO de livros de física, ciências dissertações, teses, revistas... salas com isolamento acústico, um silêncio sepulcral (!!!), restaurante universitário de qualidade, com alimentos bem preparados. O ambiente de estudos era propício para desenvolver algo bacana alí. Todas as salas possuiam boa iluminação, ar-condicionado (na UFSCar, apenas ALGUMAS salas possuíam ventiladores... algumas....), lousas realmente grandes e de qualidade. A galera que frequenta o IFSC estava ali porque realmente queria estudar, desenvolver algo bacana, trocar ideias sobre ciências e coisas bacanas. Só o fato de que o Instituto possui atendimento EXCLUSIVO aos alunos de graduação e pós-graduação, com horários fixos diariamente, já diz muita coisa sobre a qualidade dos serviços prestados... enfim, foi realmente muito bom vir para a USP.

Com isso tudo, eu teria (como tive) todas as condições para me dedicar com entusiamso ao trabalho, não só por conta da USP, mas também por toda a excelente infraestrutura da Embrapa Instrumentação e dos grandes pesquisadores que lá trabalham. No período de mestrado, fui bem orientado e instruído, continuei ampliando meus conhecimentos, não somente à respeito de LIBS, mas também sobre Física em geral. Eu tinha liberdade para decidir meus horários e minhas atividades e a forma com a qual eu faria as coisas andar. E isso foi, de fato, muito importante. Mas a questão era que eu queria mudar de área de pesquisa, eu senti que, por mais que eu gostasse de LIBS (sim, eu realmente gosto), eu queria descobrir algo novo. Eu queria descobrir algo que fosse desafiador, que proporcionasse verdadeiras possibilidades de trabalhos internacionais, tivesse um bom investimento e que contrubuisse de alguma forma para a população de modo geral.

Então, ainda em 2016, eu me inscrevi no excelente Workshop em Física Molecular e Espectroscopia. Eu tinha três objetivos com este Workshop: 1) apresentar meus trabalhos do mestrado até então desenvolvidos e trocar ideias para eventuais colaborações; 2) conhecer o Rio de Janeiro e descansar um pouco; 3) conhecer uma área nova de pesquisa. Apesar de encontrar mais um grupo de pesquisadores do ITA que trabalham com LIBS, o terceiro objetivo não foi completado. No mais, a viagem foi excelente, os almoços e coffebreaks fornecidos pelo evento foram ABSOLUTAMENTE impressionantes (haja visto que tinha Chandon... táquêparíu, né?), fiz amizades muito bacanas no hostel (Gaia Hostel, no Botafogo, que eu recomendo fortemente) e consegui voltar com as energias renovadas para finalizar o segundo semestre de 2016 (o evento foi em outubro) e terminar o mestrado, no primeiro semestre de 2017. Para quem tiver interesse, o pôster que eu apresentei no XIII WFME pode ser visto aqui e o resumo do trabalho pode ser lido aqui.

Nesse meio de incertezas à respeito do futuro, minha namorada, que estava a par das minhas ideias, descobriu que haveria um curso de verão no Instituto de Fisica na USP de SP (IFUSP) e me recomendou participar, afinal, esse curso seria uma apresentação das diversas áreas de pesquisas lá existentes e eu poderia, eventualmente, descobrir algo que me chamasse a atenção. Dito e feito. Participei do curso de verão, em fevereiro. Nesse período, eu estava finalizando meus tratamentos de dados, havia iniciado a escrita da dissertação e estava estudando para a prova do doutorado (o caro e cansativo Exame Unificado das Pós-Graduações em Física), com ideias de alinhar minha futura pesquisa para a área ambiental (quem diria!!!), mas sem sair da Física, especificamente, a Física Aplicada. Isso, claro, fruto da total e maravilhosa influência da Embrapa.

No curso de verão, a primeira palestra, às 08h da manhã, foi a respeito de Física Atmosférica e Mucanças Climáticas, proferida pelo Dr. Paulo Artaxo, que é físico, internacionalmente reconhecido e um dos maiores pesquisadores brasileiros (para saber mais, clique aqui) . Naquele momento, naquele instante, eu havia tido a certeza do que eu queria seguir no meu doutorado. De fato, a área de física atmosférica e mudanças climáticas lida, principalmente, com modelos geofísicos e estudos fenomenológicos dos efeitos naturais e antrópicos no clima. Em especial, o grupo do professor Dr. Artaxo estuda aerossóis atmosféricos e relações entre a geração de aerossóis provenientes de queimadas naturais e de combustíveis fósseis na dinâmica atmosférica amazônica e os impactos disso no clima. Pois é, isso era justamente o que eu precisava. 

O fato é que as outras palestras do curso de verão perderam importância para mim, pois eu tinha em mente o que eu queria e não, não foi uma decisão tão impetuosa quanto parece. Acontece que, como todos devem saber, eu sempre tive uma queda gigante por astronomia, e por muito tempo eu acreditei piamente que eu seguiria essa área pelo resto da vida. Não é que eu tenha deixado de amar astronomia como uma área científica brilhante para pesquisa, mas a questão dos poucos investimentos em ciência no Brasil, em especial na Astronomia, me deixou desestimulado (um exemplo do que acabei de dizer está aqui). E não somente de conhecimento vive o homem... Já ao estudar mudanças climáticas com o viés físico e aplicado eu estaria unindo meu interesse em astronomia, em escala planetária, com aquilo que eu estava buscando. Ainda durante o curso de verão eu marquei uma reunião com aquele que seria meu futuro orientador no doutorado, não criei muitas espectativas, afinal um cientista como o Paulo certamente iria querer alunos extremamente brilhantes... quando ele pediu meu histórico e currículo ainda por e-mail, na noite anterior à conversa eu achei que eu estivesse perdido... mas eu não poderia estar mais errado! Conversamos bastante, fiquei muito empolgado com as possibilidades de trabalho e vi que trabalhar em Física Atmosféria seria meu "destino" científico.

Após o curso de verão, eu tive tempo para amadurecer essa ideia por pelo menos 5 meses antes de tentar uma bolsa no IFUSP. Tive reuniões mensais com o Dr. Paulo Artaxo antes dele ir à Harvard em maio, e participei de um evento a respeito de tratamento dos gigantescos dados gerados pelos experimentos do projeto GoAmazon, no qual pude concluir concluí que, de fato, eu queria estar ali. Naquele grupo. Naquele projeto. Naquela cidade. Isso significou que eu teria que passar por mais uma grande mudança na minha vida, certamente a maior até aqui: mudar novamente de cidade, e dessa vez, para a maior cidade brasileira, temida por muitos (que assistem ao Datena) e amada por outros (como eu) e, além disso, mudar de área de pesquisa, o que implica em, dentre outras coisas, ESTUDAR MUITO. Mas nada muito diferente do que eu já fiz até então. De qualquer forma, este seria meu projeto particular: #GoSãoPaulo. 

Para colocar o projeto em prática, foi preciso me organizar MUITO em termos de prazos: prazo para inscrição e ingresso no doutorado, prazo para terminar a escrita da dissertação (que naquele ponto, se alongava infinitamente e não parecia ter fim), prazo para meu orientador corrigí-la, prazo para depositá-la a tempo de defender e efetuar minha matrícula com bolsa no programa de pós do IFUSP... pois é, eu vivi no limite dos prazos. No limite MESMO. Só para resumir a novela, eu depositei a dissertação com 4 dias de atraso e dois dias antes da reunião da Comissão de Pós-Graduação do IFSC (a comissão pede que os depósitos sejam feitos com, no máximo, uma semana de antecedência da reunião mensal... mas meu então orientador precisava daquela última semana para terminar as correções...), que era a última possível para o depósito da minha dissertação a tempo de formar uma banca para uma defesa antes do início das matrículas do doutorado (que dura uma semana). Olha... que sufoco foi aquele! De qualquer forma, eu consegui efetuar o depósito e também consegui uma data boa para defender: 26/06/2017! Essa data eu nunca esquecerei. Nunca mesmo.

O dia 26/06 era uma segunda-feira, o que significou que minha família viria passar o final de semana comigo! E que final de semana! Houve tempo, inclusive, para tomar um belo de um chope no Pinguim de Ribeirão Preto! Poucas vezes na vida me senti tão bem quanto no final de semana anterior à minha defesa! Para completar, minha querida namorada e eu decidimos colocar nossas famílias para interagir no almoço de domingo, o que foi bastante bacana! Fato é que, chegado o dia da defesa, correu tudo muito bem. Eu estava bastante confiante, seguro de verdade, de tudo o que eu havia aprendido em todos os anos que trabalhei com LIBS. Eu não dei o menor trabalho ao meu orientador... hehehe... respondi tudo com coerência e argumentei meus pontos de vista. O fato é que a banca gostou do trabalho! Ufa, tirei um peso gigante das costas. Haja visto que a banca fez contribuições sensacionais para a versão corrigida da minha dissertação. E eu sempre serei grato a eles por isso. Enfim, neste mesmo dia rolou um EXCELENTE bolo de comemoração feito pela Amanda e almoço bem servido no La Villa, em São Carlos. Ainda durante o almoço, mais uma notícia: saiu a classificação dos aprovados no doutorado do IFUSP... e... lá... estava... eu! E numa boa colocação, com bolsa de estudos garantida! Ou seja, mais motivos para comemoração...

Passadas as comemorações a ficha caiu: chegou o momento da mudança. Pois é, ainda em São Carlos era preciso definir um local para morar em São Paulo (tarefa árdua), dar um fim em diversas coisas que eu tinha na kitnet e efetuar a mudança de fato (TAREFA ABSOLUTAMENTE ÁRDUA, que sem meu pai teria sido impossível! Ele foi herói, mais uma vez). Mas a questão é que, neste momento, eu teria que me despedir dos amigos que fiz em São Carlos e encarar a realidade de que vê-los seria bem menos frequente, apesar de SP não ser longe de São Carlos (240 Km). O fato é que eu consegui me reunir com muitos, não todo mundo porque não deu (espero que me perdoem) mas sem dizer que eu estava na iminência de ir embora. Prometi festa de despedida, mas eu nunca estou preparado para esse tipo de festa. Prefiro simplesmente ir. E, eventualmente, voltar para conversar muito, beber mais ainda e cantar MAIS AINDA. A mesma coisa aconteceu quando saí de Ituiutaba, 7 anos e meio atrás, em 2010, para ir me graduar em Física em São Carlos... MUITA COISA ACONTECEU de lá para cá e não tenho nem um único arrependimento.

Mudanças não são fáceis. Nem um pouco. Mas, com certeza, eu não me arrependo NEM UM MINUTO de ter saído de Ituiutaba. Olhando para trás, vejo o quão importante foi a decisão de ir morar 500 Km de distância da família, de abrir mão de muitos aniversários de familiares e da presença dos meus amigos para seguir algo em que acredito, algo que eu realmente amo: a Física. Parece besteira dizer isso, mas eu realmente amo Física. Eu acredito que seguir uma carreira em Física não é apenas uma decisão profissional, é literalmente uma opção de vida. Ser Físico! Era isso o que eu queria com 18 anos (na real, eu já queria ser físico antes dos 13, e astrônomo antes dos 6 anos kkk...enfim...) e é isso que eu ainda quero com 25. E espero ainda querer quando chegar aos 200 anos kkkk... De qualquer forma, eu sempre soube que era necessário mudar, seja de cidade, seja de área de estudo, seja de ambiente, para atingir meu objetivo, para eu me sentir completo. E de mudanças eu tenho certeza que nunca me arrependerei. Sejam elas difíceis, complicadas, tensas. O fato é que elas são necessárias. E malditas. E maravilhosas. E cá estou em SP já há um mês. E MUITA água passará pela ponte pelos próximos 4 anos de doutorado. E sabe-se lá o que mais encararei pela frente. 

segunda-feira, 28 de agosto de 2017

Desgraçado é o país que não valoriza o potencial científico que tem...

Para entender a reflexão que segue abaixo é necessária a leitura do texto da Folha de São Paulo.

"Se nada mudar, eu não terei como pagar em setembro a conta de luz e o salário dos funcionários terceirizados", disse à reportagem o diretor do CBPF, Ronald Shellard. "

CBPF: Centro Brasileiro de Pesquisas Físicas é, para a maioria de vocês que não sabe, um dos centros mais prestigiados de Física da América. E ele corre o risco de fechar.

"A situação é a mesma no Museu Emílio Goeldi, em Belém (PA), instituição criada há 150 anos. "Com os atuais recursos, nós não conseguiremos chegar até o final do ano", afirma Nilson Gabas, diretor do museu de história natural. "

Um museu de história natural de 150 anos, localizado em Belém, corre o risco de fechar. E isso é grave, sabe por que? Porque este museu tem como propósito o estudo da Amazônia e sua inimaginável e incomensurável diversidade. E isso, por mais que muita gente ache que não, é absolutamente importante à humanidade.

"O Instituto Nacional de Pesquisas Espaciais, em São José dos Campos (SP), cortou todos os investimentos e deve adiar o lançamento do novo satélite de monitoramento da Amazônia, mas conseguirá aguentar até o final do ano, segundo seu diretor, Ricardo Galvão. "

O governo prometeu R$ 6 bilhões ao MCTIC, porcaria de ministério que não deveria ter COMUNICAÇÃO misturada à CIÊNCIA e TECNOLOGIA. Desse montante de dinheiro, que sinceramente é pouco, foram cortados 44%. Sobrou praticamente nada para um país gigantesco, cheio de potencial científico e tecnológico. Mas não adianta ter potencial, se essa "energia" não se tornar cinética, e pôr o país para frente, em movimento. E para isso falta DINHEIRO. INVESTIMENTO. A Ciência, que deveria ter o mais alto prestígio e o mais alto investimento, está deixada de lado. São pesquisas que vão desde a astrofísica até a área médica que estão sendo deixadas de lado. São estudos fundamentais ao país e, até mesmo, à qualidade de vida da população brasileira que estão sendo jogados no lixo.

Nossos representantes estão sujos até o último fio de cabelo, ninguém tem credibilidade para nada. Um presidente corrupto, câmara, senado e, inclusive, tribunais lotados de "autoridades" absolutamente corruptas, as quais prestam desserviços a nós, povo brasileiro, cientistas. Eu estou, sinceramente, preocupado com a situação científica do país. O sucateio da ciência é um tiro no coração de um país que carece de qualquer tipo de serviço de qualidade, em especial, a educação. Às vezes, não tenho esperança de que as coisas serão melhores. E não terminarei esta reflexão com um pensamento positivo. Porque os prognósticos são péssimos.

[Recomendação de leitura] Funding: Austerity bites deeply

Voltando às publicações no blog! Finalmente! Estou preparando um texto sobre reflexões acerca da mudança que fiz, de cidade e, claro, de vida, mudança essa que eu sentia que era mais do que necessária na minha vida. Enquanto isso, recomendo FORTEMENTE a leitura de um texto da Nature a respeito dos escassos investimentos em ciência em países da América do Sul, em especial na situação encontrada no Brasil e em como isso acarretará em efeitos desastrosos para o futuro. Link para a matéria: clique aqui!

sexta-feira, 29 de julho de 2016

Defeitos: somos frutos de uma criação imperfeita?

"Conte à sua namorada que você tem defeitos por causa da termodinâmica!"




Foi com essa curiosa frase que um professor de uma das disciplinas que cursei neste semestre (1º de 2016) começou sua aula, intitulada Termodinâmica Estatística dos Defeitos em Sólidos. Nessa aula foram abordados os defeitos Schottky e Frenkel, que tratam do transporte de cargas e íons na rede deformada de um cristal. Esses defeitos são conhecidos como defeitos pontuais na rede. Eles ocorrem em torno de um ponto no qual a deficiência na estrutura do cristal cria regiões atrativas ou repulsivas (diferenças de potencial), que propiciam o transporte de carga e/ou íon na rede e existem sempre que a temperatura do sistema for maior que 0 K. É importante deixar claro que uma rede perfeitamente simétrica e sem imperfeições só existe em teoria e apenas à temperatura 0 K, sendo que tal condição, como será visto, é impossível de ser alcançada.

A frase que deu início à aula diz muito mais que simplesmente justificar relacionamentos complicados, ela diz o porquê de a natureza ser da forma como a vemos. Sim, a natureza é completamente imperfeita e está sempre em transformação! E isso é graças a termodinâmica. Mais especificamente, devido às segunda e terceira leis da termodinâmica. Essas leis lidam com uma das grandezas mais impressionantes e abstratas da física: a entropia. Grosso modo, a entropia ($S$) mede o número de configurações microscópicas correspondentes a um sistema físico, numa determinada condição de temperatura, volume e pressão. O fato de as coisas na natureza apresentarem causalidade (relação temporal entre causa e efeito) é devido exclusivamente à entropia dos processos naturais, que são irreversíveis.

Todo sistema físico busca alcançar estados de estabilidade, conhecidos como estados de equilíbrio, nos quais a entropia é uma grandeza máxima. E essa é, simplesmente, a forma mais direta de se expressar a segunda lei da termodinâmica. Tal assertividade significa que, quando um processo apresenta irreversibilidade temporal (por exemplo, um copo arremessado na parede), a entropia do sistema é uma grandeza que aumenta entre o instante inicial da evolução do sistema até o instante final, em que, de alguma forma, o estado do processo não apresenta mudanças. No caso de processos reversíveis, a terceira lei diz que a diferença de entropia entre dois desses estados estados conectados vai a zero no limite em que $t \rightarrow 0$, o que significa que é impossível alcançar a temperatura 0 K num número finito de passos. Com isso, um sistema em equilíbrio apresenta, por definição, entropia maximizada, o que leva a uma consequência relacionada à energia do sistema, como veremos a seguir.

Considero agora um sistema qualquer submetido a um processo físico irreversível, no qual é sabido, como dito, que a entropia é uma grandeza que, independente da transformação pela qual o sistema passe, sempre aumenta. Isso significa que podemos escrevê-la como:

\begin{equation}
\Delta S_{universo}>0,
\end{equation}

onde $\Delta S_{universo}$ é a variação da entropia total do universo, que caracteriza-se, por exemplo, como um reservatório térmico acoplado de forma arbitrária a um sistema físico qualquer. Com isso,

\begin{eqnarray}
\Delta S_{universo} = \Delta S_{sistema físico}+\Delta S_{reservatório},
\label{entropia total}
\end{eqnarray}

mas,

\begin{equation}
\Delta S_{reservatório} = \frac{-Q}{T_{reservatório}},
\label{entropia reservatorio}
\end{equation}

em que $-Q$ é o calor que o sistema retira do reservatório e $T_{reservatório}$ é a temperatura do reservatório (que consideramos como sendo constante devido ao fato de que o reservatório é infinitamente maior que o sistema considerado).

Pela primeira lei da termodinâmica, temos:

\begin{equation}
Q = \Delta U + p_{0}\Delta V + W^{*},
\label{primeira lei}
\end{equation}

com $\Delta U$ sendo a variação da energia interna, $p_0$ é a pressão, $\Delta V$ é a variaçã0 de volume e $w^{*}$ são todas as outras formas possíveis de trabalho realizado $\textit{pelo}$ sistema, descontado o trabalho mecânico. Dessa forma, fazendo $\ref{primeira lei}$ e $\ref{entropia reservatorio}$ em $\ref{entropia total}$, obtemos o seguinte:

\begin{equation}
\Delta S_{uni} = \Delta S_{sis}-\frac{Q}{T_{res}} = \frac{1}{T_{res}} \left[ T_{res}\Delta S_{sis}- (\Delta U + p_{0}\Delta V + W^{*}) \right].
\end{equation}

É importante notar que:

\begin{eqnarray}
\Delta (T_{res}S_{sis}) = T_{res}\Delta S_{sis}, T_{res} = cte, \nonumber \\
\Delta (p_{0}V) = p_{0}\Delta V, p_{0}=cte,
\end{eqnarray}

Portanto,

\begin{eqnarray}
\Delta (T_{res}S_{sis} - U - p_{0}V) = T_{res}\Delta S_{sis} - \Delta U -p_{0}\Delta V \nonumber \\ \Rightarrow \Delta S_{uni} =-\frac{1}{T_{res}}(\Delta G + W^{*}).
\end{eqnarray}

Onde define-se $G = U - TS +pV$ como a energia livre de Gibbs (que será explorada mais adiante). Como $\Delta S_{uni} \geq 0$ (pela segunda lei da termodinâmica), então:

\begin{eqnarray}
-\frac{1}{T_{res}}(\Delta G + W^{*} \geq 0) \nonumber \\
\Rightarrow -\Delta G \geq W^{*},
\end{eqnarray}

Se as condições forem tais que $W^{*}=0$, logo:

\begin{equation}
\Delta G \leq 0.
\end{equation}

Esse resultado mostra que devido ao aumento da entropia no processo físico a energia livre de Gibbs será menor (ou igual) a zero. Ou seja, um sistema que busca equilíbrio, na realidade, busca condições nas quais a entropia é maximizada e a energia livre de Gibbs é minimizada.

Com isso, voltando ao caso dos defeitos na rede, os estados de menor energia e máxima entropia não são, necessariamente, aqueles de maior perfeição nos arranjos atômicos da rede, mas sim aqueles em que a estrutura está em equilíbrio termodinâmico. É justamente por isso que um arranjo cristalino perfeito existe apenas à 0 K e em nenhuma outra temperatura, já que esta propicia o desordenamento dos átomos e, portanto, a criação de defeitos.

Será que, além das redes cristalinas, faria sentido nos perguntarmos se a natureza busca, a todo momento, otimizar-se através dos processos termodinâmicos? Ou melhor, será que a natureza é como a conhecemos, que a existência de humanos e outros animais, plantas e demais seres vivos é devido ao fato de que a entropia em processos irreversíveis é maximizada e a energia é minimizada? Não é meu intuito fazer demonstrações matemáticas mais extensas do que as que apresentei. O que eu quero é levantar hipóteses e refletir sobre elas.

Kepler foi um dos grandes cientistas que acreditou que simetrias fossem a grande resposta para todos os mistérios do universo. Mas ele não era exceção. Seu antecessor, Copérnico, postulou um sistema de mundo em que o Sol seria o centro do universo, e não mais a Terra, e todos os planetas descreveriam órbitas circulares ao seu redor.

Essas ideias levaram Kepler a escrever seu primeiro livro, Mysterium Cosmographicum, em que através da geometria buscou uma explicação matemática absolutamente simétrica através de razões entre órbitas dos planetas e sólidos tridimensionais para a posição de cada planeta em cada região do universo. Por exemplo, mercúrio teria uma posição geométrica representada por um octaedro enquanto que a Terra seria representada por um dodecaedro. Mais detalhes podem ser vistos aqui.


Anos mais tarde, essa visão de universo perfeito, simétrico e regido por construções geométricas seria abandonada pelo próprio Kepler através de seus trabalhos com Tycho Brahe, de forma que houve uma literal mudança de paradigma! Afinal, antes acreditava-se que os planetas (inclusive o Sol) descreviam órbitas circulares através de epiciplos e equantes ao redor da Terra. Estes eram conceitos construídos 2000 anos antes de Kepler por Aristóteles, um pitagório, que tinha seu devir nas perfeições e simetrias dos números refletidos na natureza. Não é de se espantar que seus pensamentos duraram dois mil anos... (para maiores detalhes desta e de outras histórias recomendo fortemente a leitura dos seguintes livros: "Criação Imperfeita" e "A Harmonia do Mundo", ambos do Marcelo Gleiser).

Com a quebra deste paradigma científico, a Terra passava a não ser mais o centro do universo nem as órbitas dos planetas seriam descritas por órbitas circulares. Temos um sol como o centro do universo conhecido até então e as órbitas são modeladas por elipses! Engraçado que dizer isso parece ser tão simples quanto 2+2 = 4, entretanto não é simples assim.

Elipses são as curvas bidimensionais mais próximas de um círculo, no limite em que seus semieixos são iguais. A forma elíptica das órbitas é devida às leis de conservação de momento angular e interações gravitacionais entre os planetas entre si entre eles e o Sol (esse problema é conhecido em Física como problema de três ou mais corpos, e sua solução analítica encontra-se em aberto, há apenas soluções numérico-computacionais) e essas características físicas de um sistema como o planetário está diretamente relacionado com a termodinâmica, com o máximo de entropia e mínimo de energia de Gibbs! Ou seja, não há mais simetria, e aparentemente a termodinâmica também tem papel fundamental neste ponto! Agora, conhecia-se o fato de que os planetas varrem áreas iguais em tempos iguais e que o período de revolução de um planeta é proporcional ao cubo de sua distância média ao Sol. Imagine só o esforço de Kepler que dispunha apenas de ferramentas geométricas e medidas extremamente precisas derivando essas leis! É um esforço que merece ser celebrado!


Com isso, todo o pensamento científico ficou abalado pelo fato de que nem o universo era perfeito! Claro, a Terra também não é perfeitamente simétrica, nenhum planeta é. Galáxias não são perfeitamente simétricas! O fato de haver mais matéria que antimatéria no universo é claramente uma demonstração de assimetria física (existem trabalhos teóricos maravilhosos que exploram este ponto).

A própria termodinâmica tem dificuldades em extrair respostas de sistemas fora do equilíbrio. Um dos poucos trabalhos que lidam com essa condição foi desenvolvido por Jarzynski, que derivou uma desigualdade (que leva seu nome), e que consegue extrair valores para a energia de Gibbs (que é uma propriedade do sistema em equilíbrio) de um processo fora do equilíbrio. A relação entre entropia e energia de Gibbs é incrivelmente importante em praticamente todos os processos naturais, até mesmo os biológicos. Exemplos destes são a distribuição de atividades por comunidades de insetos como abelhas, formigas e cupins e há quem diga que até mesmo a teoria da evolução é, na verdade, uma teoria termodinâmica, em que as populações mais bem relacionadas com o meio são aquelas em que as mutações gênicas, que são aleatórias, seguem apenas a regra da maximização da entropia para minimização da energia...

Enfim, gosto de pensar na natureza como sendo um laboratório fantástico, dotado de características intrínsecas ímpares, regidas por leis ainda mais espetaculares, as quais, vez ou outra, podem ser vislumbradas por conjuntos de cientistas de mentes astutas e persistentes, que navegam diariamente no oceano do desconhecido na esperança de encontrar uma minúscula porção de terra, cujos tesouros são informações inesperadas e surpreendentes. Imperfeições são desafios máximos em praticamente todas as áreas do conhecimento, tanto exato quanto biológico ou humano. O fato é que a natureza é, por si e para si, um sistema otimizado, que privilegia (na grande maioria das vezes) os defeitos em detrimento das belezas da simetria, e neste ponto está uma das belezas mais fundamentais do universo: independente do sistema, sua forma configuracional definitiva será aquela em que a termodinâmica ditará a regra do jogo.

quinta-feira, 2 de junho de 2016

Será que podemos pensar nas nossas vivências de forma análoga aos processos físicos?


É interessante pensar nos acontecimentos da vida como se cada um deles fosse representado por uma densidade de probabilidade em Mecânica Quântica. Supondo que a função de onda que descreve cada um desses momentos seja normalizada e composta por uma superposição infinita de autoestados, cada autovalor associado a um autoestado da função de onda representa uma escolha possível para um determinado acontecimento, e isso significa que existe uma probabilidade de "realização" associada a cada um desses autovalores. Em outras palavras, cada acontecimento da vida apresenta um conjunto de conteúdo não nulo repleto de possibilidades! Quando você toma uma atitude específica, a função de onda associada a um determinado momento de sua vida foi colapsada, privilegiando apenas um autovalor de um autoestado específico, e, como cada atitude define um caráter físico concreto a essa função de onda, aquilo que não aconteceu torna-se apenas hipóteses com determinadas probabilidades de ocorrência antes do colapso. E o processo é irreversível, feliz ou infelizmente.


Essa irreversibilidade da dinâmica física está associada diretamente à termodinâmica através do conceito de entropia. Grosso modo, a entropia estuda a irreversibilidade de um sistema físico. Seu conceito mais fundamental provém da teoria de probabilidades de variáveis estocásticas, que busca saber qual a chance de, dada uma configuração inicial de um sistema, ser possível afirmar que num determinado instante de tempo o sistema retornará exatamente às suas condições iniciais. Nos processos em que isso ocorre, diz-se que o sistema é reversível e a entropia, neste caso, tem valor nulo. Nos casos reais, a entropia é sempre maior que zero, o que significa que o processo é completamente irreversível, mesmo que, probabilisticamente, haja uma chance de o sistema retornar ao seu estado inicial (diz-se que essa probabilidade existe para evolução do sistema em tempos infinitos).

Um exemplo bastante simples que retrata um caso real de irreversibilidade é o seguinte: existem duas pessoas, sendo que pelo menos uma delas tem conhecimento básico de Física, localizadas em pontos extremos de uma sala fechada, e uma delas abre um vidro de perfume Chanel Nº 5. Passado um tempo, a pessoa localizada no extremo oposto sentirá o aroma e inferirá que as moléculas do perfume se difundiram pelo ambiente, até que algumas delas penetrassem em seu nariz. Essa mesma pessoa relacionará este processo com o da expansão livre de um gás, no qual uma vez ocorrida a expansão, não se consegue mais, por compressão apenas, levar o sistema ao estado inicial sem violar a condição de que o sistema deve permanecer adiabaticamente isolado. Talvez a única forma de fazer o sistema retornar às suas condições iniciais (de temperatura, pressão, volume e posição das moléculas) seria “remover” a entropia extra criada no processo, o que exige a saída de energia do sistema na forma de calor. É claro que em casos reais, como o do perfume, o sistema não está adiabaticamente isolado e muito menos suscetível a uma compressão. E isso leva àquela pessoa na sala a considerar que houve aumento da entropia, e que esse aumento é intrínseco a sistemas físicos complexos (é possível provar matematicamente que a entropia do Universo como um todo aumenta!).

É possível relacionar esse aumento da entropia com o colapso da função de onda em Mecânica Quântica, ao pensar em eventos passados e futuros. Vamos supor que um determinado experimento já foi executado, e que associado a ele exista uma função de onda, a qual permite saber, por exemplo, a evolução espacial de uma partícula num dado tempo. Antes de haver o colapso da função de onda, ou seja, antes de um observador ir até o experimento e detectar a posição da partícula, havia inúmeras probabilidades dessa partícula ser localizada em todos os pontos do espaço no qual ela está confinada, supondo que não haja posição preferencial em que a densidade de probabilidade para a localização da partícula seja maior em determinada região que em outras (isso pode ser visto, por exemplo, em uma caixa quadrada e homogênea). Esse instante, conhecido como estado inicial do sistema, está referido ao passado do experimento. O instante posterior ao colapso da função de onda (descoberta da posição da partícula) é o que denomino de instante futuro. Da transição entre esses dois instantes de “momento temporal” (de passado para futuro), a entropia do sistema aumentou, mas não com a evolução do tempo contínuo, mas sim com a ação do observador em descobrir a posição da partícula na caixa! E esse processo é irreversível! E com essa descoberta, ou melhor, com a solução da equação de Schroedinger que descreve esse processo dadas as condições iniciais, o observador possui em mãos uma ferramenta que permite descrever a evolução espacial da partícula no tempo com apenas um autovetor associado a essa função de onda.


Um experimento que ilustra o que eu disse é o da dupla fenda. Esse experimento consiste num elétron que será lançado entre duas fendas e, ao atravessar uma delas, ele colidirá com uma placa-detector, localizada atrás das fendas. Este experimento é muito interessante porque ele mostra o caráter dual do elétron, ou seja, seu comportamento onda-partícula. Meu intuito não é provar que o elétron tem esse comportamento, mas, sabendo-se disso, mostrar o comportamento do sistema antes e depois do elétron atravessar a fenda. Antes de o elétron ser lançado, havia 50% de chance dele passar por uma das fendas, logo, havia uma função de onda composta por dois autoestados e, associado a eles, dois autovalores, com probabilidades iguais de transição para o elétron. Ao se chocar com a placa, o elétron define sua posição e, portanto, a função de onda que descrevia sua posição está colapsada. Da mesma forma, se um observador ficar acompanhando o experimento, a função de onda estará colapsada antes do elétron atravessar a fenda! Ou seja, sua função de onda que apresentava estado de superposição cai para o estado definido por apenas um autoestado e, portanto, um autovalor de módulo unitário. O interessante é que, para inúmeros lançamentos sem que o observador esteja monitorando o experimento, o padrão observado na placa é aquilo que se espera para interação entre ondas, nos casos de superposição e aniquilação.

Dessa forma, parece ser razoável atribuir um aumento da entropia do sistema ao colapso da função de onda de uma partícula, e isso mostra que o processo é irreversível, ou seja, a seta da evolução do experimento aponta apenas para uma direção nos casos de detecção de variáveis físicas de um experimento em Mecânica Quântica (detecções restritas ao princípio de incerteza de Heisenber).

Os acontecimentos da vida cotidiana parecem seguir a mesma lógica dos sistemas físicos abertos. Muitas vezes, uma decisão acarreta em diversas possibilidades de ação. Por isso, é realmente muito importante pensar com cuidado nas atitudes que se toma frente a determinadas situações, justamente porque geralmente o processo é irreversível e, assim, arrepender-se não é uma opção. Viver cada momento de forma única faz dele um desafio em que a física busca dar sentido às ações, mas que muitas vezes não conseguimos prever o que irá acontecer. Talvez seja realmente mais fácil agir pela emoção. Talvez.

domingo, 20 de março de 2016

Epsilons and deltas: what a confusion!

Hello!

Since the beginning of my undergraduate studies in Physics, I have found all kind of doubts related to basic math needed for the effective learning of Differential and Integral Calculus. As many people share an infinity of troubles with this discipline, I decided to write some study notes about critical points in Calculus. My goal here is offering students an intuitive point of view about how to deal with many abstract concepts that are, in practice, complicated to understand at first sight.

I will start exploring one of the most abstract concepts in Calculus, that is known as the formal definition of limit with $\epsilon$ and $\delta$. But instead of starting directly with this definition, I'm going to say something about mathematical functions and how important they are to the learning of Calculus.

Function is one of the most important concepts in math. There are many ways to define it, one of them is to imagine that we have two groups of things. So one of these groups we can describe with $y$ (first group) and the other we will describe with $x$ (second group). The first group is related with the second through a tool, or, in a better way, a function that we will call $f(x)$, what means that when I choose something in the second group the first group will, somehow, respond directly. In a mathematical way, we can express this relation between groups by:

\begin{equation}
f(x) = y.
\end{equation}

Now, if those groups are composed by numbers, if you apply any $x$ to $f(x)$ you will obtain $y$. Therefore, if I apply different values of $x$ in $f(x)$ you will obtain different values of $y$ (it is important to say that a number in the second set of numbers is related with only one number of the first set, and this is a property of the space os functions). In this way, we can represent this equivalence between $x$ and $f(x)$, or better, between $x$ and $y$ with a cartesian plan as we can see in the Figure 1.


Figure 1: Cartesian plans with their axis names.


As an example, if $x = x_0$, then $f(x) = f(x_0) = y_0$, as seen in Figure 2.

Figure 2: Cartesian plan, indicating the relation between $x$ and $f(x)$.

Now we can introduce the idea of limit. Why is it important to calculate the limit of a function for a given $x$? Let's ilustrate with an example. Consider the following function:

\begin{equation}
f(x) = \frac{1}{x},
\end{equation}

if:

\begin{equation}
x = 1, f(1) = 1, \\
x = 2, f(2) = \frac{1}{2}, \\
x = 3, f(3) = \frac{1}{3}, \\
.\\
.\\
.\\
x = n, f(n) = \frac{1}{n}.
\end{equation}

Until here, alright, ok? I mean, if $x$ is a really big number (I'm saying that $x \rightarrow \infty$), then $f(x)$ will be a very small number (I'm sayng that $f(x) \rightarrow 0$). However, what happens with $f(x)$ if $x$  becomes very small? Let's see:

\begin{equation}

x = 0.9, f(0.9) = 1.111, \\
x = 0.8, f(0.8) =1.25, \\
x = 0.5, f(0.5) = 2, \\
x = 0.005, f(0.005) = 200, \\
x = 0.00001, f(0.00001) = 100000, \\

\end{equation}

So, when $x$ becomes very small ($x \rightarrow 0$), $f(x)$ becomes very big ($f(x) \rightarrow \infty$)! It can be seen by the Figure 3.

Figure 3: Graphical representation of the function $f(x) = \frac{1}{x}$

As we can notice, the point $x = 0$ has no analytical value, and it is called singularity. When it happens, is said that the function $f(x)$ is not analytical  in $x = 0$ because it diverges! Then, I ask you the following question: what is the value of $f(x)$ if $x \rightarrow 0$? Or, in another way,

\begin{equation}
\lim_{x \rightarrow 0} \frac{1}{x} = ?
\end{equation}

Trying to solve this question (or questions correlated with this one), mathematicians and physicists developed the Calculus. Historically, the development of the Calculus started with Isaac Newton when he wanted to describe the behavior of the nature from the smallest particles to motion of the planets. There are many controversies about who started the development of the Calculus, if was Newton or Leibniz (here  and here you can read more about this complicated panorama).

Anyway, keeping this ideas in mind, I will explore another abstract concept about Set Theory for, after, entering at the formal definition of limit. We usually deal with the following interesting sets of numbers:

Naturals: $(0,1,2,3,..., \infty)$,
Integers: $ (-\infty,..., -3, -2, -1, 0, 1, 2, 3, ..., \infty)$,
Rationals: all the integers and finite decimals,
Irrationals: infinite decimals and non-periodic numbers like $\pi = 3.1415...$,
Reals: all those sets are here.

Figure 4: Number line with representation of some points between 0 and 1.

The most general way to characterize a number line is using the real set of numbers (Figure 4). The impressive thing about the reals is that there are infinite points between two points!!! And This is amazing! It means that in a numerical range it is always  possible to find a small value, as small as you want! And from here we can start with the formal definition of limit.

The formal definition of limit says that, for the existence of $\lim_{x \rightarrow a} = L$,   the following must be truth: for all $\epsilon > 0$ must be $\delta > 0$ in a way that the range $|x-a|$ need to be less than $\delta$ and the range $|f(x) - L|$ need to be less than $\epsilon$. What can be expressed (or written) mathematically by:

\begin{equation}

\exists \lim_{x \rightarrow a} = L \Leftrightarrow \forall \epsilon > 0 \exists \delta > 0 ; |x-a|< \delta \Rightarrow |f(x)-L|< \epsilon.
\label{limdef}
\end{equation}

Figure 5: $\epsilon$ and $\delta$ representations in the cartesian plan.

It is important to notice that $\epsilon$ and $\delta$ are arbitrary numbers (as small as you want) , which means that you can choose them according to your needs, but they must satisfy the limit definition. Furthermore, if I want to calculate the limit of a strange function that has discontinuity in a given point, so I can try to figure out the value of this function in near ranges of the point, as close as I want ($\delta$) and the result of $f(x)$ will be as close of the real value as I want ($\epsilon$).

We can see how limit definition works on a practical example! Let's prove with the limit definition the following limit:

\begin{equation}

\lim_{x \rightarrow 1} 2x + 1 = 3.

\end{equation}

Sol.:

Here we have $a = 1$, $f(x) = 2x+1$ and $L = 3$. The limit definiton is expressed by \ref{limdef}. Then, let's check the ranges:

\begin{equation}

|x-a| = |x-1| < \delta,
\label{delta}
\end{equation}


\begin{equation}
|f(x) - L| = |2x+1 - 3|< \epsilon.
\label{epsilon}
\end{equation}

We can manipulate \ref{epsilon} to see if it can appears like \ref{delta}.

\begin{equation}

|2x-2| < \epsilon \\
|2(x-1)|< \epsilon \\
|x-1| < \frac{\epsilon}{2}.

\end{equation}

Here! There is a range in $y$ axis such that $|f(x) - L|$ is less than $\epsilon$ and this value is $\frac{\epsilon}{2}$. It can be seen in Figure 6.

Figure 6.

Now, I need to find a value for $\delta$ that satisfies a range in $x$ axis. For this, we can notice that if I choose $\delta = \frac{\epsilon}{2}$, then the range in the $x$ axis will be satisfied, implying that:

\begin{equation}

|x-1| < \delta = \frac{\epsilon}{2}.

\end{equation}

Therefore, if $\delta = \frac{\epsilon}{2}$, so I can choose a value for $\epsilon$ as small as I want, for exemple, $\epsilon = 0.00000001$, in a way that the limit definition is satisfied!


Now, I leave here a problem for you:

Prove, by the limit definition, that:

\begin{equation}
\lim_{x \rightarrow x_0} \sum_{i=0}^{n} a_i x^i = \sum_{i=0}^{n} a_i x_{0}^{i}.

\end{equation}

And comment below if you want to discuss!

See you!

PS: I would like to thank Amanda for the drawings and the great writing review.