quinta-feira, 2 de junho de 2016

Será que podemos pensar nas nossas vivências de forma análoga aos processos físicos?


É interessante pensar nos acontecimentos da vida como se cada um deles fosse representado por uma densidade de probabilidade em Mecânica Quântica. Supondo que a função de onda que descreve cada um desses momentos seja normalizada e composta por uma superposição infinita de autoestados, cada autovalor associado a um autoestado da função de onda representa uma escolha possível para um determinado acontecimento, e isso significa que existe uma probabilidade de "realização" associada a cada um desses autovalores. Em outras palavras, cada acontecimento da vida apresenta um conjunto de conteúdo não nulo repleto de possibilidades! Quando você toma uma atitude específica, a função de onda associada a um determinado momento de sua vida foi colapsada, privilegiando apenas um autovalor de um autoestado específico, e, como cada atitude define um caráter físico concreto a essa função de onda, aquilo que não aconteceu torna-se apenas hipóteses com determinadas probabilidades de ocorrência antes do colapso. E o processo é irreversível, feliz ou infelizmente.


Essa irreversibilidade da dinâmica física está associada diretamente à termodinâmica através do conceito de entropia. Grosso modo, a entropia estuda a irreversibilidade de um sistema físico. Seu conceito mais fundamental provém da teoria de probabilidades de variáveis estocásticas, que busca saber qual a chance de, dada uma configuração inicial de um sistema, ser possível afirmar que num determinado instante de tempo o sistema retornará exatamente às suas condições iniciais. Nos processos em que isso ocorre, diz-se que o sistema é reversível e a entropia, neste caso, tem valor nulo. Nos casos reais, a entropia é sempre maior que zero, o que significa que o processo é completamente irreversível, mesmo que, probabilisticamente, haja uma chance de o sistema retornar ao seu estado inicial (diz-se que essa probabilidade existe para evolução do sistema em tempos infinitos).

Um exemplo bastante simples que retrata um caso real de irreversibilidade é o seguinte: existem duas pessoas, sendo que pelo menos uma delas tem conhecimento básico de Física, localizadas em pontos extremos de uma sala fechada, e uma delas abre um vidro de perfume Chanel Nº 5. Passado um tempo, a pessoa localizada no extremo oposto sentirá o aroma e inferirá que as moléculas do perfume se difundiram pelo ambiente, até que algumas delas penetrassem em seu nariz. Essa mesma pessoa relacionará este processo com o da expansão livre de um gás, no qual uma vez ocorrida a expansão, não se consegue mais, por compressão apenas, levar o sistema ao estado inicial sem violar a condição de que o sistema deve permanecer adiabaticamente isolado. Talvez a única forma de fazer o sistema retornar às suas condições iniciais (de temperatura, pressão, volume e posição das moléculas) seria “remover” a entropia extra criada no processo, o que exige a saída de energia do sistema na forma de calor. É claro que em casos reais, como o do perfume, o sistema não está adiabaticamente isolado e muito menos suscetível a uma compressão. E isso leva àquela pessoa na sala a considerar que houve aumento da entropia, e que esse aumento é intrínseco a sistemas físicos complexos (é possível provar matematicamente que a entropia do Universo como um todo aumenta!).

É possível relacionar esse aumento da entropia com o colapso da função de onda em Mecânica Quântica, ao pensar em eventos passados e futuros. Vamos supor que um determinado experimento já foi executado, e que associado a ele exista uma função de onda, a qual permite saber, por exemplo, a evolução espacial de uma partícula num dado tempo. Antes de haver o colapso da função de onda, ou seja, antes de um observador ir até o experimento e detectar a posição da partícula, havia inúmeras probabilidades dessa partícula ser localizada em todos os pontos do espaço no qual ela está confinada, supondo que não haja posição preferencial em que a densidade de probabilidade para a localização da partícula seja maior em determinada região que em outras (isso pode ser visto, por exemplo, em uma caixa quadrada e homogênea). Esse instante, conhecido como estado inicial do sistema, está referido ao passado do experimento. O instante posterior ao colapso da função de onda (descoberta da posição da partícula) é o que denomino de instante futuro. Da transição entre esses dois instantes de “momento temporal” (de passado para futuro), a entropia do sistema aumentou, mas não com a evolução do tempo contínuo, mas sim com a ação do observador em descobrir a posição da partícula na caixa! E esse processo é irreversível! E com essa descoberta, ou melhor, com a solução da equação de Schroedinger que descreve esse processo dadas as condições iniciais, o observador possui em mãos uma ferramenta que permite descrever a evolução espacial da partícula no tempo com apenas um autovetor associado a essa função de onda.


Um experimento que ilustra o que eu disse é o da dupla fenda. Esse experimento consiste num elétron que será lançado entre duas fendas e, ao atravessar uma delas, ele colidirá com uma placa-detector, localizada atrás das fendas. Este experimento é muito interessante porque ele mostra o caráter dual do elétron, ou seja, seu comportamento onda-partícula. Meu intuito não é provar que o elétron tem esse comportamento, mas, sabendo-se disso, mostrar o comportamento do sistema antes e depois do elétron atravessar a fenda. Antes de o elétron ser lançado, havia 50% de chance dele passar por uma das fendas, logo, havia uma função de onda composta por dois autoestados e, associado a eles, dois autovalores, com probabilidades iguais de transição para o elétron. Ao se chocar com a placa, o elétron define sua posição e, portanto, a função de onda que descrevia sua posição está colapsada. Da mesma forma, se um observador ficar acompanhando o experimento, a função de onda estará colapsada antes do elétron atravessar a fenda! Ou seja, sua função de onda que apresentava estado de superposição cai para o estado definido por apenas um autoestado e, portanto, um autovalor de módulo unitário. O interessante é que, para inúmeros lançamentos sem que o observador esteja monitorando o experimento, o padrão observado na placa é aquilo que se espera para interação entre ondas, nos casos de superposição e aniquilação.

Dessa forma, parece ser razoável atribuir um aumento da entropia do sistema ao colapso da função de onda de uma partícula, e isso mostra que o processo é irreversível, ou seja, a seta da evolução do experimento aponta apenas para uma direção nos casos de detecção de variáveis físicas de um experimento em Mecânica Quântica (detecções restritas ao princípio de incerteza de Heisenber).

Os acontecimentos da vida cotidiana parecem seguir a mesma lógica dos sistemas físicos abertos. Muitas vezes, uma decisão acarreta em diversas possibilidades de ação. Por isso, é realmente muito importante pensar com cuidado nas atitudes que se toma frente a determinadas situações, justamente porque geralmente o processo é irreversível e, assim, arrepender-se não é uma opção. Viver cada momento de forma única faz dele um desafio em que a física busca dar sentido às ações, mas que muitas vezes não conseguimos prever o que irá acontecer. Talvez seja realmente mais fácil agir pela emoção. Talvez.

domingo, 20 de março de 2016

Epsilons and deltas: what a confusion!

Hello!

Since the beginning of my undergraduate studies in Physics, I have found all kind of doubts related to basic math needed for the effective learning of Differential and Integral Calculus. As many people share an infinity of troubles with this discipline, I decided to write some study notes about critical points in Calculus. My goal here is offering students an intuitive point of view about how to deal with many abstract concepts that are, in practice, complicated to understand at first sight.

I will start exploring one of the most abstract concepts in Calculus, that is known as the formal definition of limit with $\epsilon$ and $\delta$. But instead of starting directly with this definition, I'm going to say something about mathematical functions and how important they are to the learning of Calculus.

Function is one of the most important concepts in math. There are many ways to define it, one of them is to imagine that we have two groups of things. So one of these groups we can describe with $y$ (first group) and the other we will describe with $x$ (second group). The first group is related with the second through a tool, or, in a better way, a function that we will call $f(x)$, what means that when I choose something in the second group the first group will, somehow, respond directly. In a mathematical way, we can express this relation between groups by:

\begin{equation}
f(x) = y.
\end{equation}

Now, if those groups are composed by numbers, if you apply any $x$ to $f(x)$ you will obtain $y$. Therefore, if I apply different values of $x$ in $f(x)$ you will obtain different values of $y$ (it is important to say that a number in the second set of numbers is related with only one number of the first set, and this is a property of the space os functions). In this way, we can represent this equivalence between $x$ and $f(x)$, or better, between $x$ and $y$ with a cartesian plan as we can see in the Figure 1.


Figure 1: Cartesian plans with their axis names.


As an example, if $x = x_0$, then $f(x) = f(x_0) = y_0$, as seen in Figure 2.

Figure 2: Cartesian plan, indicating the relation between $x$ and $f(x)$.

Now we can introduce the idea of limit. Why is it important to calculate the limit of a function for a given $x$? Let's ilustrate with an example. Consider the following function:

\begin{equation}
f(x) = \frac{1}{x},
\end{equation}

if:

\begin{equation}
x = 1, f(1) = 1, \\
x = 2, f(2) = \frac{1}{2}, \\
x = 3, f(3) = \frac{1}{3}, \\
.\\
.\\
.\\
x = n, f(n) = \frac{1}{n}.
\end{equation}

Until here, alright, ok? I mean, if $x$ is a really big number (I'm saying that $x \rightarrow \infty$), then $f(x)$ will be a very small number (I'm sayng that $f(x) \rightarrow 0$). However, what happens with $f(x)$ if $x$  becomes very small? Let's see:

\begin{equation}

x = 0.9, f(0.9) = 1.111, \\
x = 0.8, f(0.8) =1.25, \\
x = 0.5, f(0.5) = 2, \\
x = 0.005, f(0.005) = 200, \\
x = 0.00001, f(0.00001) = 100000, \\

\end{equation}

So, when $x$ becomes very small ($x \rightarrow 0$), $f(x)$ becomes very big ($f(x) \rightarrow \infty$)! It can be seen by the Figure 3.

Figure 3: Graphical representation of the function $f(x) = \frac{1}{x}$

As we can notice, the point $x = 0$ has no analytical value, and it is called singularity. When it happens, is said that the function $f(x)$ is not analytical  in $x = 0$ because it diverges! Then, I ask you the following question: what is the value of $f(x)$ if $x \rightarrow 0$? Or, in another way,

\begin{equation}
\lim_{x \rightarrow 0} \frac{1}{x} = ?
\end{equation}

Trying to solve this question (or questions correlated with this one), mathematicians and physicists developed the Calculus. Historically, the development of the Calculus started with Isaac Newton when he wanted to describe the behavior of the nature from the smallest particles to motion of the planets. There are many controversies about who started the development of the Calculus, if was Newton or Leibniz (here  and here you can read more about this complicated panorama).

Anyway, keeping this ideas in mind, I will explore another abstract concept about Set Theory for, after, entering at the formal definition of limit. We usually deal with the following interesting sets of numbers:

Naturals: $(0,1,2,3,..., \infty)$,
Integers: $ (-\infty,..., -3, -2, -1, 0, 1, 2, 3, ..., \infty)$,
Rationals: all the integers and finite decimals,
Irrationals: infinite decimals and non-periodic numbers like $\pi = 3.1415...$,
Reals: all those sets are here.

Figure 4: Number line with representation of some points between 0 and 1.

The most general way to characterize a number line is using the real set of numbers (Figure 4). The impressive thing about the reals is that there are infinite points between two points!!! And This is amazing! It means that in a numerical range it is always  possible to find a small value, as small as you want! And from here we can start with the formal definition of limit.

The formal definition of limit says that, for the existence of $\lim_{x \rightarrow a} = L$,   the following must be truth: for all $\epsilon > 0$ must be $\delta > 0$ in a way that the range $|x-a|$ need to be less than $\delta$ and the range $|f(x) - L|$ need to be less than $\epsilon$. What can be expressed (or written) mathematically by:

\begin{equation}

\exists \lim_{x \rightarrow a} = L \Leftrightarrow \forall \epsilon > 0 \exists \delta > 0 ; |x-a|< \delta \Rightarrow |f(x)-L|< \epsilon.
\label{limdef}
\end{equation}

Figure 5: $\epsilon$ and $\delta$ representations in the cartesian plan.

It is important to notice that $\epsilon$ and $\delta$ are arbitrary numbers (as small as you want) , which means that you can choose them according to your needs, but they must satisfy the limit definition. Furthermore, if I want to calculate the limit of a strange function that has discontinuity in a given point, so I can try to figure out the value of this function in near ranges of the point, as close as I want ($\delta$) and the result of $f(x)$ will be as close of the real value as I want ($\epsilon$).

We can see how limit definition works on a practical example! Let's prove with the limit definition the following limit:

\begin{equation}

\lim_{x \rightarrow 1} 2x + 1 = 3.

\end{equation}

Sol.:

Here we have $a = 1$, $f(x) = 2x+1$ and $L = 3$. The limit definiton is expressed by \ref{limdef}. Then, let's check the ranges:

\begin{equation}

|x-a| = |x-1| < \delta,
\label{delta}
\end{equation}


\begin{equation}
|f(x) - L| = |2x+1 - 3|< \epsilon.
\label{epsilon}
\end{equation}

We can manipulate \ref{epsilon} to see if it can appears like \ref{delta}.

\begin{equation}

|2x-2| < \epsilon \\
|2(x-1)|< \epsilon \\
|x-1| < \frac{\epsilon}{2}.

\end{equation}

Here! There is a range in $y$ axis such that $|f(x) - L|$ is less than $\epsilon$ and this value is $\frac{\epsilon}{2}$. It can be seen in Figure 6.

Figure 6.

Now, I need to find a value for $\delta$ that satisfies a range in $x$ axis. For this, we can notice that if I choose $\delta = \frac{\epsilon}{2}$, then the range in the $x$ axis will be satisfied, implying that:

\begin{equation}

|x-1| < \delta = \frac{\epsilon}{2}.

\end{equation}

Therefore, if $\delta = \frac{\epsilon}{2}$, so I can choose a value for $\epsilon$ as small as I want, for exemple, $\epsilon = 0.00000001$, in a way that the limit definition is satisfied!


Now, I leave here a problem for you:

Prove, by the limit definition, that:

\begin{equation}
\lim_{x \rightarrow x_0} \sum_{i=0}^{n} a_i x^i = \sum_{i=0}^{n} a_i x_{0}^{i}.

\end{equation}

And comment below if you want to discuss!

See you!

PS: I would like to thank Amanda for the drawings and the great writing review.