sexta-feira, 29 de julho de 2016

Defeitos: somos frutos de uma criação imperfeita?

"Conte à sua namorada que você tem defeitos por causa da termodinâmica!"




Foi com essa curiosa frase que um professor de uma das disciplinas que cursei neste semestre (1º de 2016) começou sua aula, intitulada Termodinâmica Estatística dos Defeitos em Sólidos. Nessa aula foram abordados os defeitos Schottky e Frenkel, que tratam do transporte de cargas e íons na rede deformada de um cristal. Esses defeitos são conhecidos como defeitos pontuais na rede. Eles ocorrem em torno de um ponto no qual a deficiência na estrutura do cristal cria regiões atrativas ou repulsivas (diferenças de potencial), que propiciam o transporte de carga e/ou íon na rede e existem sempre que a temperatura do sistema for maior que 0 K. É importante deixar claro que uma rede perfeitamente simétrica e sem imperfeições só existe em teoria e apenas à temperatura 0 K, sendo que tal condição, como será visto, é impossível de ser alcançada.

A frase que deu início à aula diz muito mais que simplesmente justificar relacionamentos complicados, ela diz o porquê de a natureza ser da forma como a vemos. Sim, a natureza é completamente imperfeita e está sempre em transformação! E isso é graças a termodinâmica. Mais especificamente, devido às segunda e terceira leis da termodinâmica. Essas leis lidam com uma das grandezas mais impressionantes e abstratas da física: a entropia. Grosso modo, a entropia ($S$) mede o número de configurações microscópicas correspondentes a um sistema físico, numa determinada condição de temperatura, volume e pressão. O fato de as coisas na natureza apresentarem causalidade (relação temporal entre causa e efeito) é devido exclusivamente à entropia dos processos naturais, que são irreversíveis.

Todo sistema físico busca alcançar estados de estabilidade, conhecidos como estados de equilíbrio, nos quais a entropia é uma grandeza máxima. E essa é, simplesmente, a forma mais direta de se expressar a segunda lei da termodinâmica. Tal assertividade significa que, quando um processo apresenta irreversibilidade temporal (por exemplo, um copo arremessado na parede), a entropia do sistema é uma grandeza que aumenta entre o instante inicial da evolução do sistema até o instante final, em que, de alguma forma, o estado do processo não apresenta mudanças. No caso de processos reversíveis, a terceira lei diz que a diferença de entropia entre dois desses estados estados conectados vai a zero no limite em que $t \rightarrow 0$, o que significa que é impossível alcançar a temperatura 0 K num número finito de passos. Com isso, um sistema em equilíbrio apresenta, por definição, entropia maximizada, o que leva a uma consequência relacionada à energia do sistema, como veremos a seguir.

Considero agora um sistema qualquer submetido a um processo físico irreversível, no qual é sabido, como dito, que a entropia é uma grandeza que, independente da transformação pela qual o sistema passe, sempre aumenta. Isso significa que podemos escrevê-la como:

\begin{equation}
\Delta S_{universo}>0,
\end{equation}

onde $\Delta S_{universo}$ é a variação da entropia total do universo, que caracteriza-se, por exemplo, como um reservatório térmico acoplado de forma arbitrária a um sistema físico qualquer. Com isso,

\begin{eqnarray}
\Delta S_{universo} = \Delta S_{sistema físico}+\Delta S_{reservatório},
\label{entropia total}
\end{eqnarray}

mas,

\begin{equation}
\Delta S_{reservatório} = \frac{-Q}{T_{reservatório}},
\label{entropia reservatorio}
\end{equation}

em que $-Q$ é o calor que o sistema retira do reservatório e $T_{reservatório}$ é a temperatura do reservatório (que consideramos como sendo constante devido ao fato de que o reservatório é infinitamente maior que o sistema considerado).

Pela primeira lei da termodinâmica, temos:

\begin{equation}
Q = \Delta U + p_{0}\Delta V + W^{*},
\label{primeira lei}
\end{equation}

com $\Delta U$ sendo a variação da energia interna, $p_0$ é a pressão, $\Delta V$ é a variaçã0 de volume e $w^{*}$ são todas as outras formas possíveis de trabalho realizado $\textit{pelo}$ sistema, descontado o trabalho mecânico. Dessa forma, fazendo $\ref{primeira lei}$ e $\ref{entropia reservatorio}$ em $\ref{entropia total}$, obtemos o seguinte:

\begin{equation}
\Delta S_{uni} = \Delta S_{sis}-\frac{Q}{T_{res}} = \frac{1}{T_{res}} \left[ T_{res}\Delta S_{sis}- (\Delta U + p_{0}\Delta V + W^{*}) \right].
\end{equation}

É importante notar que:

\begin{eqnarray}
\Delta (T_{res}S_{sis}) = T_{res}\Delta S_{sis}, T_{res} = cte, \nonumber \\
\Delta (p_{0}V) = p_{0}\Delta V, p_{0}=cte,
\end{eqnarray}

Portanto,

\begin{eqnarray}
\Delta (T_{res}S_{sis} - U - p_{0}V) = T_{res}\Delta S_{sis} - \Delta U -p_{0}\Delta V \nonumber \\ \Rightarrow \Delta S_{uni} =-\frac{1}{T_{res}}(\Delta G + W^{*}).
\end{eqnarray}

Onde define-se $G = U - TS +pV$ como a energia livre de Gibbs (que será explorada mais adiante). Como $\Delta S_{uni} \geq 0$ (pela segunda lei da termodinâmica), então:

\begin{eqnarray}
-\frac{1}{T_{res}}(\Delta G + W^{*} \geq 0) \nonumber \\
\Rightarrow -\Delta G \geq W^{*},
\end{eqnarray}

Se as condições forem tais que $W^{*}=0$, logo:

\begin{equation}
\Delta G \leq 0.
\end{equation}

Esse resultado mostra que devido ao aumento da entropia no processo físico a energia livre de Gibbs será menor (ou igual) a zero. Ou seja, um sistema que busca equilíbrio, na realidade, busca condições nas quais a entropia é maximizada e a energia livre de Gibbs é minimizada.

Com isso, voltando ao caso dos defeitos na rede, os estados de menor energia e máxima entropia não são, necessariamente, aqueles de maior perfeição nos arranjos atômicos da rede, mas sim aqueles em que a estrutura está em equilíbrio termodinâmico. É justamente por isso que um arranjo cristalino perfeito existe apenas à 0 K e em nenhuma outra temperatura, já que esta propicia o desordenamento dos átomos e, portanto, a criação de defeitos.

Será que, além das redes cristalinas, faria sentido nos perguntarmos se a natureza busca, a todo momento, otimizar-se através dos processos termodinâmicos? Ou melhor, será que a natureza é como a conhecemos, que a existência de humanos e outros animais, plantas e demais seres vivos é devido ao fato de que a entropia em processos irreversíveis é maximizada e a energia é minimizada? Não é meu intuito fazer demonstrações matemáticas mais extensas do que as que apresentei. O que eu quero é levantar hipóteses e refletir sobre elas.

Kepler foi um dos grandes cientistas que acreditou que simetrias fossem a grande resposta para todos os mistérios do universo. Mas ele não era exceção. Seu antecessor, Copérnico, postulou um sistema de mundo em que o Sol seria o centro do universo, e não mais a Terra, e todos os planetas descreveriam órbitas circulares ao seu redor.

Essas ideias levaram Kepler a escrever seu primeiro livro, Mysterium Cosmographicum, em que através da geometria buscou uma explicação matemática absolutamente simétrica através de razões entre órbitas dos planetas e sólidos tridimensionais para a posição de cada planeta em cada região do universo. Por exemplo, mercúrio teria uma posição geométrica representada por um octaedro enquanto que a Terra seria representada por um dodecaedro. Mais detalhes podem ser vistos aqui.


Anos mais tarde, essa visão de universo perfeito, simétrico e regido por construções geométricas seria abandonada pelo próprio Kepler através de seus trabalhos com Tycho Brahe, de forma que houve uma literal mudança de paradigma! Afinal, antes acreditava-se que os planetas (inclusive o Sol) descreviam órbitas circulares através de epiciplos e equantes ao redor da Terra. Estes eram conceitos construídos 2000 anos antes de Kepler por Aristóteles, um pitagório, que tinha seu devir nas perfeições e simetrias dos números refletidos na natureza. Não é de se espantar que seus pensamentos duraram dois mil anos... (para maiores detalhes desta e de outras histórias recomendo fortemente a leitura dos seguintes livros: "Criação Imperfeita" e "A Harmonia do Mundo", ambos do Marcelo Gleiser).

Com a quebra deste paradigma científico, a Terra passava a não ser mais o centro do universo nem as órbitas dos planetas seriam descritas por órbitas circulares. Temos um sol como o centro do universo conhecido até então e as órbitas são modeladas por elipses! Engraçado que dizer isso parece ser tão simples quanto 2+2 = 4, entretanto não é simples assim.

Elipses são as curvas bidimensionais mais próximas de um círculo, no limite em que seus semieixos são iguais. A forma elíptica das órbitas é devida às leis de conservação de momento angular e interações gravitacionais entre os planetas entre si entre eles e o Sol (esse problema é conhecido em Física como problema de três ou mais corpos, e sua solução analítica encontra-se em aberto, há apenas soluções numérico-computacionais) e essas características físicas de um sistema como o planetário está diretamente relacionado com a termodinâmica, com o máximo de entropia e mínimo de energia de Gibbs! Ou seja, não há mais simetria, e aparentemente a termodinâmica também tem papel fundamental neste ponto! Agora, conhecia-se o fato de que os planetas varrem áreas iguais em tempos iguais e que o período de revolução de um planeta é proporcional ao cubo de sua distância média ao Sol. Imagine só o esforço de Kepler que dispunha apenas de ferramentas geométricas e medidas extremamente precisas derivando essas leis! É um esforço que merece ser celebrado!


Com isso, todo o pensamento científico ficou abalado pelo fato de que nem o universo era perfeito! Claro, a Terra também não é perfeitamente simétrica, nenhum planeta é. Galáxias não são perfeitamente simétricas! O fato de haver mais matéria que antimatéria no universo é claramente uma demonstração de assimetria física (existem trabalhos teóricos maravilhosos que exploram este ponto).

A própria termodinâmica tem dificuldades em extrair respostas de sistemas fora do equilíbrio. Um dos poucos trabalhos que lidam com essa condição foi desenvolvido por Jarzynski, que derivou uma desigualdade (que leva seu nome), e que consegue extrair valores para a energia de Gibbs (que é uma propriedade do sistema em equilíbrio) de um processo fora do equilíbrio. A relação entre entropia e energia de Gibbs é incrivelmente importante em praticamente todos os processos naturais, até mesmo os biológicos. Exemplos destes são a distribuição de atividades por comunidades de insetos como abelhas, formigas e cupins e há quem diga que até mesmo a teoria da evolução é, na verdade, uma teoria termodinâmica, em que as populações mais bem relacionadas com o meio são aquelas em que as mutações gênicas, que são aleatórias, seguem apenas a regra da maximização da entropia para minimização da energia...

Enfim, gosto de pensar na natureza como sendo um laboratório fantástico, dotado de características intrínsecas ímpares, regidas por leis ainda mais espetaculares, as quais, vez ou outra, podem ser vislumbradas por conjuntos de cientistas de mentes astutas e persistentes, que navegam diariamente no oceano do desconhecido na esperança de encontrar uma minúscula porção de terra, cujos tesouros são informações inesperadas e surpreendentes. Imperfeições são desafios máximos em praticamente todas as áreas do conhecimento, tanto exato quanto biológico ou humano. O fato é que a natureza é, por si e para si, um sistema otimizado, que privilegia (na grande maioria das vezes) os defeitos em detrimento das belezas da simetria, e neste ponto está uma das belezas mais fundamentais do universo: independente do sistema, sua forma configuracional definitiva será aquela em que a termodinâmica ditará a regra do jogo.

quinta-feira, 2 de junho de 2016

Será que podemos pensar nas nossas vivências de forma análoga aos processos físicos?


É interessante pensar nos acontecimentos da vida como se cada um deles fosse representado por uma densidade de probabilidade em Mecânica Quântica. Supondo que a função de onda que descreve cada um desses momentos seja normalizada e composta por uma superposição infinita de autoestados, cada autovalor associado a um autoestado da função de onda representa uma escolha possível para um determinado acontecimento, e isso significa que existe uma probabilidade de "realização" associada a cada um desses autovalores. Em outras palavras, cada acontecimento da vida apresenta um conjunto de conteúdo não nulo repleto de possibilidades! Quando você toma uma atitude específica, a função de onda associada a um determinado momento de sua vida foi colapsada, privilegiando apenas um autovalor de um autoestado específico, e, como cada atitude define um caráter físico concreto a essa função de onda, aquilo que não aconteceu torna-se apenas hipóteses com determinadas probabilidades de ocorrência antes do colapso. E o processo é irreversível, feliz ou infelizmente.


Essa irreversibilidade da dinâmica física está associada diretamente à termodinâmica através do conceito de entropia. Grosso modo, a entropia estuda a irreversibilidade de um sistema físico. Seu conceito mais fundamental provém da teoria de probabilidades de variáveis estocásticas, que busca saber qual a chance de, dada uma configuração inicial de um sistema, ser possível afirmar que num determinado instante de tempo o sistema retornará exatamente às suas condições iniciais. Nos processos em que isso ocorre, diz-se que o sistema é reversível e a entropia, neste caso, tem valor nulo. Nos casos reais, a entropia é sempre maior que zero, o que significa que o processo é completamente irreversível, mesmo que, probabilisticamente, haja uma chance de o sistema retornar ao seu estado inicial (diz-se que essa probabilidade existe para evolução do sistema em tempos infinitos).

Um exemplo bastante simples que retrata um caso real de irreversibilidade é o seguinte: existem duas pessoas, sendo que pelo menos uma delas tem conhecimento básico de Física, localizadas em pontos extremos de uma sala fechada, e uma delas abre um vidro de perfume Chanel Nº 5. Passado um tempo, a pessoa localizada no extremo oposto sentirá o aroma e inferirá que as moléculas do perfume se difundiram pelo ambiente, até que algumas delas penetrassem em seu nariz. Essa mesma pessoa relacionará este processo com o da expansão livre de um gás, no qual uma vez ocorrida a expansão, não se consegue mais, por compressão apenas, levar o sistema ao estado inicial sem violar a condição de que o sistema deve permanecer adiabaticamente isolado. Talvez a única forma de fazer o sistema retornar às suas condições iniciais (de temperatura, pressão, volume e posição das moléculas) seria “remover” a entropia extra criada no processo, o que exige a saída de energia do sistema na forma de calor. É claro que em casos reais, como o do perfume, o sistema não está adiabaticamente isolado e muito menos suscetível a uma compressão. E isso leva àquela pessoa na sala a considerar que houve aumento da entropia, e que esse aumento é intrínseco a sistemas físicos complexos (é possível provar matematicamente que a entropia do Universo como um todo aumenta!).

É possível relacionar esse aumento da entropia com o colapso da função de onda em Mecânica Quântica, ao pensar em eventos passados e futuros. Vamos supor que um determinado experimento já foi executado, e que associado a ele exista uma função de onda, a qual permite saber, por exemplo, a evolução espacial de uma partícula num dado tempo. Antes de haver o colapso da função de onda, ou seja, antes de um observador ir até o experimento e detectar a posição da partícula, havia inúmeras probabilidades dessa partícula ser localizada em todos os pontos do espaço no qual ela está confinada, supondo que não haja posição preferencial em que a densidade de probabilidade para a localização da partícula seja maior em determinada região que em outras (isso pode ser visto, por exemplo, em uma caixa quadrada e homogênea). Esse instante, conhecido como estado inicial do sistema, está referido ao passado do experimento. O instante posterior ao colapso da função de onda (descoberta da posição da partícula) é o que denomino de instante futuro. Da transição entre esses dois instantes de “momento temporal” (de passado para futuro), a entropia do sistema aumentou, mas não com a evolução do tempo contínuo, mas sim com a ação do observador em descobrir a posição da partícula na caixa! E esse processo é irreversível! E com essa descoberta, ou melhor, com a solução da equação de Schroedinger que descreve esse processo dadas as condições iniciais, o observador possui em mãos uma ferramenta que permite descrever a evolução espacial da partícula no tempo com apenas um autovetor associado a essa função de onda.


Um experimento que ilustra o que eu disse é o da dupla fenda. Esse experimento consiste num elétron que será lançado entre duas fendas e, ao atravessar uma delas, ele colidirá com uma placa-detector, localizada atrás das fendas. Este experimento é muito interessante porque ele mostra o caráter dual do elétron, ou seja, seu comportamento onda-partícula. Meu intuito não é provar que o elétron tem esse comportamento, mas, sabendo-se disso, mostrar o comportamento do sistema antes e depois do elétron atravessar a fenda. Antes de o elétron ser lançado, havia 50% de chance dele passar por uma das fendas, logo, havia uma função de onda composta por dois autoestados e, associado a eles, dois autovalores, com probabilidades iguais de transição para o elétron. Ao se chocar com a placa, o elétron define sua posição e, portanto, a função de onda que descrevia sua posição está colapsada. Da mesma forma, se um observador ficar acompanhando o experimento, a função de onda estará colapsada antes do elétron atravessar a fenda! Ou seja, sua função de onda que apresentava estado de superposição cai para o estado definido por apenas um autoestado e, portanto, um autovalor de módulo unitário. O interessante é que, para inúmeros lançamentos sem que o observador esteja monitorando o experimento, o padrão observado na placa é aquilo que se espera para interação entre ondas, nos casos de superposição e aniquilação.

Dessa forma, parece ser razoável atribuir um aumento da entropia do sistema ao colapso da função de onda de uma partícula, e isso mostra que o processo é irreversível, ou seja, a seta da evolução do experimento aponta apenas para uma direção nos casos de detecção de variáveis físicas de um experimento em Mecânica Quântica (detecções restritas ao princípio de incerteza de Heisenber).

Os acontecimentos da vida cotidiana parecem seguir a mesma lógica dos sistemas físicos abertos. Muitas vezes, uma decisão acarreta em diversas possibilidades de ação. Por isso, é realmente muito importante pensar com cuidado nas atitudes que se toma frente a determinadas situações, justamente porque geralmente o processo é irreversível e, assim, arrepender-se não é uma opção. Viver cada momento de forma única faz dele um desafio em que a física busca dar sentido às ações, mas que muitas vezes não conseguimos prever o que irá acontecer. Talvez seja realmente mais fácil agir pela emoção. Talvez.

domingo, 20 de março de 2016

Epsilons and deltas: what a confusion!

Hello!

Since the beginning of my undergraduate studies in Physics, I have found all kind of doubts related to basic math needed for the effective learning of Differential and Integral Calculus. As many people share an infinity of troubles with this discipline, I decided to write some study notes about critical points in Calculus. My goal here is offering students an intuitive point of view about how to deal with many abstract concepts that are, in practice, complicated to understand at first sight.

I will start exploring one of the most abstract concepts in Calculus, that is known as the formal definition of limit with $\epsilon$ and $\delta$. But instead of starting directly with this definition, I'm going to say something about mathematical functions and how important they are to the learning of Calculus.

Function is one of the most important concepts in math. There are many ways to define it, one of them is to imagine that we have two groups of things. So one of these groups we can describe with $y$ (first group) and the other we will describe with $x$ (second group). The first group is related with the second through a tool, or, in a better way, a function that we will call $f(x)$, what means that when I choose something in the second group the first group will, somehow, respond directly. In a mathematical way, we can express this relation between groups by:

\begin{equation}
f(x) = y.
\end{equation}

Now, if those groups are composed by numbers, if you apply any $x$ to $f(x)$ you will obtain $y$. Therefore, if I apply different values of $x$ in $f(x)$ you will obtain different values of $y$ (it is important to say that a number in the second set of numbers is related with only one number of the first set, and this is a property of the space os functions). In this way, we can represent this equivalence between $x$ and $f(x)$, or better, between $x$ and $y$ with a cartesian plan as we can see in the Figure 1.


Figure 1: Cartesian plans with their axis names.


As an example, if $x = x_0$, then $f(x) = f(x_0) = y_0$, as seen in Figure 2.

Figure 2: Cartesian plan, indicating the relation between $x$ and $f(x)$.

Now we can introduce the idea of limit. Why is it important to calculate the limit of a function for a given $x$? Let's ilustrate with an example. Consider the following function:

\begin{equation}
f(x) = \frac{1}{x},
\end{equation}

if:

\begin{equation}
x = 1, f(1) = 1, \\
x = 2, f(2) = \frac{1}{2}, \\
x = 3, f(3) = \frac{1}{3}, \\
.\\
.\\
.\\
x = n, f(n) = \frac{1}{n}.
\end{equation}

Until here, alright, ok? I mean, if $x$ is a really big number (I'm saying that $x \rightarrow \infty$), then $f(x)$ will be a very small number (I'm sayng that $f(x) \rightarrow 0$). However, what happens with $f(x)$ if $x$  becomes very small? Let's see:

\begin{equation}

x = 0.9, f(0.9) = 1.111, \\
x = 0.8, f(0.8) =1.25, \\
x = 0.5, f(0.5) = 2, \\
x = 0.005, f(0.005) = 200, \\
x = 0.00001, f(0.00001) = 100000, \\

\end{equation}

So, when $x$ becomes very small ($x \rightarrow 0$), $f(x)$ becomes very big ($f(x) \rightarrow \infty$)! It can be seen by the Figure 3.

Figure 3: Graphical representation of the function $f(x) = \frac{1}{x}$

As we can notice, the point $x = 0$ has no analytical value, and it is called singularity. When it happens, is said that the function $f(x)$ is not analytical  in $x = 0$ because it diverges! Then, I ask you the following question: what is the value of $f(x)$ if $x \rightarrow 0$? Or, in another way,

\begin{equation}
\lim_{x \rightarrow 0} \frac{1}{x} = ?
\end{equation}

Trying to solve this question (or questions correlated with this one), mathematicians and physicists developed the Calculus. Historically, the development of the Calculus started with Isaac Newton when he wanted to describe the behavior of the nature from the smallest particles to motion of the planets. There are many controversies about who started the development of the Calculus, if was Newton or Leibniz (here  and here you can read more about this complicated panorama).

Anyway, keeping this ideas in mind, I will explore another abstract concept about Set Theory for, after, entering at the formal definition of limit. We usually deal with the following interesting sets of numbers:

Naturals: $(0,1,2,3,..., \infty)$,
Integers: $ (-\infty,..., -3, -2, -1, 0, 1, 2, 3, ..., \infty)$,
Rationals: all the integers and finite decimals,
Irrationals: infinite decimals and non-periodic numbers like $\pi = 3.1415...$,
Reals: all those sets are here.

Figure 4: Number line with representation of some points between 0 and 1.

The most general way to characterize a number line is using the real set of numbers (Figure 4). The impressive thing about the reals is that there are infinite points between two points!!! And This is amazing! It means that in a numerical range it is always  possible to find a small value, as small as you want! And from here we can start with the formal definition of limit.

The formal definition of limit says that, for the existence of $\lim_{x \rightarrow a} = L$,   the following must be truth: for all $\epsilon > 0$ must be $\delta > 0$ in a way that the range $|x-a|$ need to be less than $\delta$ and the range $|f(x) - L|$ need to be less than $\epsilon$. What can be expressed (or written) mathematically by:

\begin{equation}

\exists \lim_{x \rightarrow a} = L \Leftrightarrow \forall \epsilon > 0 \exists \delta > 0 ; |x-a|< \delta \Rightarrow |f(x)-L|< \epsilon.
\label{limdef}
\end{equation}

Figure 5: $\epsilon$ and $\delta$ representations in the cartesian plan.

It is important to notice that $\epsilon$ and $\delta$ are arbitrary numbers (as small as you want) , which means that you can choose them according to your needs, but they must satisfy the limit definition. Furthermore, if I want to calculate the limit of a strange function that has discontinuity in a given point, so I can try to figure out the value of this function in near ranges of the point, as close as I want ($\delta$) and the result of $f(x)$ will be as close of the real value as I want ($\epsilon$).

We can see how limit definition works on a practical example! Let's prove with the limit definition the following limit:

\begin{equation}

\lim_{x \rightarrow 1} 2x + 1 = 3.

\end{equation}

Sol.:

Here we have $a = 1$, $f(x) = 2x+1$ and $L = 3$. The limit definiton is expressed by \ref{limdef}. Then, let's check the ranges:

\begin{equation}

|x-a| = |x-1| < \delta,
\label{delta}
\end{equation}


\begin{equation}
|f(x) - L| = |2x+1 - 3|< \epsilon.
\label{epsilon}
\end{equation}

We can manipulate \ref{epsilon} to see if it can appears like \ref{delta}.

\begin{equation}

|2x-2| < \epsilon \\
|2(x-1)|< \epsilon \\
|x-1| < \frac{\epsilon}{2}.

\end{equation}

Here! There is a range in $y$ axis such that $|f(x) - L|$ is less than $\epsilon$ and this value is $\frac{\epsilon}{2}$. It can be seen in Figure 6.

Figure 6.

Now, I need to find a value for $\delta$ that satisfies a range in $x$ axis. For this, we can notice that if I choose $\delta = \frac{\epsilon}{2}$, then the range in the $x$ axis will be satisfied, implying that:

\begin{equation}

|x-1| < \delta = \frac{\epsilon}{2}.

\end{equation}

Therefore, if $\delta = \frac{\epsilon}{2}$, so I can choose a value for $\epsilon$ as small as I want, for exemple, $\epsilon = 0.00000001$, in a way that the limit definition is satisfied!


Now, I leave here a problem for you:

Prove, by the limit definition, that:

\begin{equation}
\lim_{x \rightarrow x_0} \sum_{i=0}^{n} a_i x^i = \sum_{i=0}^{n} a_i x_{0}^{i}.

\end{equation}

And comment below if you want to discuss!

See you!

PS: I would like to thank Amanda for the drawings and the great writing review.