Nothing Special   »   [go: up one dir, main page]

Apostila Wanderson Calculo Numerico

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 53

CÁLCULO NUMÉRICO

Apostila elaborada pelo professor Wanderson Rodrigues Bispo


com a colaboração do monitor Shander Sanches

Centro Federal de Educação Tecnológica Celso Suckow da Fonseca - CEFET/RJ


Unidade Descentralizada de Nova Iguaçu

Julho de 2009
Sumário

1 Conceitos Gerais em Cálculo Numérico 2


1.1 Conceitos Básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Iteração ou Aproximação Sucessiva . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Aproximação Local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Erros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Erros de Truncamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Erros de Aproximação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Sistemas de Numeração Binário e Decimal . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Série de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Conclusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Resolução Numérica de Sistemas Lineares 9


2.1 Método de Eliminação de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Decomposição LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Métodos Iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Zero de Funções 19
3.1 Método da Bisseção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Método da Falsa-Posição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3 Método da Iteração Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Método de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4 Aproximação de Funções 28
4.1 Teoria de Interpolação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Interpolação Polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.3 Fórmula de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.4 Diferenciação Numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.5 Fórmula de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6 Ajuste de Curvas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.6.1 Critérios de Ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.6.2 Ajuste Polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

5 Integração Numérica 42
5.1 Método dos Trapézios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.2 Método de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.3 Método da Quadratura Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

1
Capı́tulo 1

Conceitos Gerais em Cálculo


Numérico

Métodos numéricos são conjuntos de procedimentos utilizados para transformar um modelo matemá-
tico num problema numérico ou conjuntos de procedimentos usados para resolver um problema
numérico. A escolha de método mais eficiente para resolver um problema numérico deve envolver a
precisão desejada, a capacidade do método em conduzir bons resultados e o esforço computacional
despendido. Veja referênica (1).

1.1 Conceitos Básicos

1.1.1 Algoritmo

É a descrição sequencial dos passos que caracterizam um método numérico. O algoritmo fornece
uma descrição completa de operações bem definidas por meio das quais o conjunto de dados de
entrada é transformado em dados de saı́da. Por operações bem definidas entendem-se as aritméticas
e lógicas que um computador pode realizar. Dessa forma, um algoritmo consiste de uma sequência
de n passos, cada um envolvendo um número finito de operações. Ao fim desses n passos, o algoritmo
deve fornecer valores ao menos “próximos”daqueles que são procurados. O número n pode não ser
conhecido a priori, é o caso de algoritmos iterativos cuja idéia será enfocada a seguir, nesse caso,
em geral tem-se para n apenas uma cota superior.

1.1.2 Iteração ou Aproximação Sucessiva

Uma das idéias fundamentais do cálculo numérico é a de iteração ou aproximação sucessiva. Num
sentido amplo, iteração significa a repetição de um processo. Grande parte dos métodos numéricos
é iterativa. Um método iterativo se caracteriza por envolver os seguintes elementos constitutivos:

(i) Tentativa inicial: consiste em uma primeira aproximação para a solução desejada do pro-
blema numérico.

(ii) Equação de recorrência: equação por meio da qual, partindo-se da tentativa inicial, são
realizadas as iterações ou aproximações sucessivas para a solução desejada.

(iii) Teste de parada: é o instrumento por meio do qual o procedimento iterativo é finalizado.

2
CAPÍTULO 1. CONCEITOS GERAIS EM CÁLCULO NUMÉRICO 3

1.1.3 Aproximação Local

Outro conceito que aparece em cálculo numérico é o de aproximação local de uma função por outra,
que seja de manuseio mais simples. Por exemplo, aproximar uma função não-linear por uma função
linear num determinado intervalo do domı́nio das funções.

1.2 Erros

Na busca da solução do modelo matemático por meio de cálculo numérico, os erros surgem de várias
formas e merecem cuidado especial. Do contrário, pode-se chegar a resultados distintos do que se
esperaria ou até mesmo obter outros que não têm nenhuma relação com a solução do problema
original.
As principais fontes de erros são as seguintes:

(i) erros nos dados de entrada;

(ii) erros no estabelecimento do modelo matemático;

(iii) erros de arredondamento durante a computação;

(iv) erros de truncamento, e

(v) erros humanos e de máquinas.

1.2.1 Erros de Truncamento

É o erro inerente ao método numérico. Surge cada vez que se substitui um procedimento matemático
infinito por um processo finito ou discreto.

1.2.2 Erros de Aproximação


A partir do momento que se calcula um resultado por aproximação, é preciso saber como estimar
ou delimitar o erro cometido na aproximação. Sem isso, a aproximação obtida não tem significado.
Para estimar ou delimitar o erro, recorre-se a dois conceitos: erro absoluto e erro relativo. Com
efeito, seja x∗ um valor aproximado para uma quantidade cujo valor exato é x. Então se define:

i) Erro absoluto - é a diferença, em módulo, entre o valor exato e o valor aproximado de um


número. Notação: “∆”.
∆x = |x − x∗ |

ii) Erro relativo - é a razão entre o erro absoluto e o valor exato de um número. Esse erro é
frequentemente dado como porcentagem, por exemplo, 3% de erro relativo significa que o
erro é 0.03. Notação: “ δ ”.
∆x
δx =
x
Exemplo 1.1 Se x = 3, 251408 e x∗ = 3, 2524643, então

∆x = |x − x∗ | = 0, 0010554 = 1, 0554 × 10−3


CAPÍTULO 1. CONCEITOS GERAIS EM CÁLCULO NUMÉRICO 4

e
∆x 1, 0554 × 10−3
δx = = = 3, 24597836 × 10−4 ,
x 3, 251408
ou seja, o erro relativo é de aproximadamente 0, 032%.

Proposição 1.1 Sejam x e y valores exatos e x∗ e y ∗ valores aproximados de dois números.


Então:
i) ∆(x + y) = ∆x + ∆y
x∗ y∗
ii) δ(x + y) = δx + δy
x∗ + y ∗ x∗ + y ∗
iii) ∆(x − y) = ∆x − ∆y
x∗ y∗
iv) δ(x − y) = δx + δy
x∗ − y ∗ x∗ − y ∗
v) ∆(xy) = x∗ ∆y + y ∗ ∆x

vi) δ(xy) = δx + δy
(x) y ∗ ∆x − x∗ ∆y
vii) ∆ ≃
y (y ∗ )2
(x)
viii) δ = δx − δy
y

1.3 Sistemas de Numeração Binário e Decimal

Um número na base 2 é representado utilizando os dı́gitos 0 e 1. Por exemplo, 101102 é um número


binário. Para convertermos este numero binário para a base decimal (base 10), procedemos da
seguinte forma:

101102 = 1 × 24 + 0 × 23 + 1 × 22 + 1 × 21 + 0 × 20 = 16 + 0 + 4 + 2 + 0 = 22.

Como segundo exemplo, vamos obter a representação decimal do número binário 11.012 . Neste
caso,
1
11.012 = 1 × 21 + 1 × 20 + 0 × 2−1 + 1 × 2−2 = 2 + 1 + 0 + = 3.25.
4

A conversão de números decimais para números binários é feita através de divisões sucessivas
como mostrado na figura abaixo. O resultado é constituı́do pelos restos das divisões tomados na
ordem inversa,
17 2
1 8 2
0 4 2
0 2 2
0 1 2
1 0
assim, temos que 17 = 100012 .
CAPÍTULO 1. CONCEITOS GERAIS EM CÁLCULO NUMÉRICO 5

Para o caso de números fracionários, a conversão é feita utilizando as seguintes regras:

1- Multiplicar o número fracionário por 2;

2- No resultado da multiplicação, a parte inteira será um dı́gito binário;

3- Separar a parte fracionária e repetir o processo até que a parte fracionária seja igual a 0.

Por exemplo, vamos transformar o número decimal 0.1875 em um número binário, ou seja,
representado na base 2:

0.1875 × 2 = 0.3750 parte inteira =0


0.3750 × 2 = 0.7500 parte inteira =0
0.7500 × 2 = 1.5000 parte inteira =1
0.5000 × 2 = 1.0000 parte inteira =1

O processo termina porque a próxima parte fracionária a ser utilizada é igual a 0. Assim, o
número 0.187510 é escrito como 0.00112 .

1.4 Série de Taylor

Uma função f (x) contı́nua e infinitamente derivável, pode ser representada por uma série de
potências da forma:

∑ f (n) (a)
f (x) = (x − a)n , (1.1)
n!
n=0

onde f (0) (a) = f (a), e f (n) (a) é a derivada de ordem n de f no ponto a. A equação acima denomina-
se série de Taylor da função f em torno do ponto x = a. Quando a = 0, a série recebe o nome de
Maclaurin.
O emprego da série de Taylor para representar f (x) está limitado aos casos em que ela é
convergente. Pela teoria das séries de potências, a série de Taylor é convergente para os valores de
x que satisfazem a desigualdade
|x − a| < r ,
onde r é o raio de convergência da série.
Consegue se mostrar que
|f (n) (a)|
r = limn→∞ (n + 1) .
|f (n+1) (a)|
Se escrevermos h = x − a, a equação (1.1) fica

∑ f (n) (a)
f (a + h) = hn . (1.2)
n!
n=0

Na aplicação da série de Taylor, torna-se impossı́vel computar todos os seus termos. O que se
faz é considerar apenas um número finito deles. Se a série é truncada após o n-ésimo termo, tem-se
a aproximação:

h2 ′′ hn−1 (n−1)
f (a + h) = f (a) + hf ′ (a) + f (a) + · · · + f (a).
2! (n − 1)!
CAPÍTULO 1. CONCEITOS GERAIS EM CÁLCULO NUMÉRICO 6

Na aproximação acima, comete-se um erro de truncamento, Rn (x), que é definido como

f (n) (ξ)(x − a)n


Rn (x) = , a < ξ < x. (1.3)
n!
A equação (1.3) é chamada fórmula de Lagrange para o erro de truncamento.
Como ξ não é conhecido explicitamente, a fórmula de Lagrange pode ser usada para delimitar
o erro, ou seja,

M
|Rn (x)| ≤ (x − a)n , (1.4)
n!
onde M = max |f (n) (t)| com a ≤ t ≤ x.
Exemplo 1.2 Desenvolver a função f (x) = ex em série de Taylor em torno do ponto x = 0.
Calcule e−1 usando da série obtida, cinco termos, e delimite o erro cometido.

solução:

Nesse caso,
f (x) = ex , a = 0 , e f (0) = f ′ (0) = f ′′ (0) = · · · = f (n) (0) = · · · = 1 .
Portanto,
x2 x3 xn
ex = 1 + x + + + ··· + + ...
2! 3! n!
e o raio de convergência da série é infinito (verifique!). Então
1 1 1
e−1 = 1 − 1 + − + = 0, 375 .
2! 3! 4!
Delimitação do erro:

M
R5 (−1) ≤
|(−1)5 | .
5!
Como M = max |et |, com −1 ≤ t ≤ 0, temos que M = 1, assim,

|R5 (−1)| ≤ 0, 008333 .

1.5 Conclusão

Com essas idéias preliminares e que são básicas em cálculo numérico, o fluxograma apresentado no
inı́cio, que indicava as fases de resolução de um problema real, pode agora ser assim reestruturado:

Problema Fı́sico


Modelagem / Modelo Matemático


Implementação Computacional o Escolha do Método
do Método Numérico Numérico Adequado


Análise dos Resultados / Solução
CAPÍTULO 1. CONCEITOS GERAIS EM CÁLCULO NUMÉRICO 7

1.6 Exercı́cios

1. O que são métodos numéricos? Fale um pouco sobre algoritmos.

2. Que elementos constituem um método iterativo?

3. Quais as principais fontes de erros em métodos numéricos? Exemplifique o erro de trunca-


mento.

4. Converta os seguintes números decimais para a base binária: x = 47, y = 93, z = 26.35 e
w = 0.1217.

5. Converta os seguintes números binários para a sua correspondente forma na base decimal:
x = 1101012 , y = 0.11012 , z = 11100.11012 e w = 0.11111012 .

6. Calcule a área de um cı́rculo de raio 100 m, utilizando os seguintes valores aproximados para
π : 3.14, 3.1416, 3.14159 e 3.1415926.

7. Determine os erros absoluto e relativo do exercı́cio anterior, considerando como valor exato
a área obtida através do último valor de π.

8. Determine o raio e o intervalo de convergência das séries de Taylor abaixo:



∑ (−1)n xn
a)
2n
n=1
∑∞
b) (−2)n xn
n=0
∑∞
(x + 2)n
c)
2n n2
n=1
∑∞
(−1)n (x − 1)n
d)
n!
n=0

9. Encontre a série de Maclaurin para as funções abaixo:

a) f (x) = e3x
b) f (x) = sen (2x)
1
c) f (x) =
1 + 3x
d) f (x) = x sen (2x)

10. Desenvolva as funções abaixo em série de Taylor, em torno do ponto dado:

a) f (x) = sen x, c = π
1
b) f (x) = , c=1
x
c) f (x) = cos x, c = π
CAPÍTULO 1. CONCEITOS GERAIS EM CÁLCULO NUMÉRICO 8

d) f (x) = ex , c = 3

11. Considere a função f (x) = ln x .

a) Desenvolva a função f (x) em série de Taylor, em torno do ponto x = e;


b) Encontre o raio e o intervalo de convergência da série obtida no item anterior;
c) Expresse f ′ (x) em termos de série de potências, e determine o seu domı́nio.

1
12. Considere a função f (x) = .
x
a) Desenvolva a função f (x) em série de Taylor, em torno do ponto x = 2;
b) Encontre o raio e o intervalo de convergência da série obtida no item anterior;
c) Expresse f ′ (x) e f ′′ (x) em termos de série de potências.

13. Considere a função f (x) = e−2x .

a) Determine a série de MacLaurin da função f (x);


b) Encontre o raio e o intervalo de convergência da série obtida no item anterior;
c) Expresse f ′ (x) em termos de série de potências, e determine o seu domı́nio.

14. Calcular o valor numérico de sen 2, usando a série de Taylor da função sen x (dada abaixo)
com número de termos variando de 2 a 10 termos. Calcular o erro absoluto para cada caso.
Esboçar o gráfico do valor do sen 2 calculado por série de Taylor versus o número de termos
para verificar que ele converge para o valor exato com o aumento do número de termos da
série.
∑∞
x2k+1
sen x = (−1)k , |x| < ∞ .
(2k + 1)!
k=0

15. Calcular o valor numérico de ln(2, 1) empregando a série de Taylor



∑ (x − 1)k
ln x = (−1)k−1 , 0<x≤2
k
k=1

com o número de termos variando de 1 a 20 termos e calcular o erro absoluto para cada caso.
Esboçar o gráfico do valor do erro versus número de termos. Observar pelo erro absoluto que
o aumento do número de termos não melhora a precisão do resultado numérico ao contrário
do observado no exercı́cio anterior. Explicar porque isto acontece.
Capı́tulo 2

Resolução Numérica de Sistemas


Lineares

Métodos Diretos e Métodos Iterativos


O objetivo nesse capı́tulo é apresentarmos métodos numéricos para resolução de sistemas lineares.
Dependendo do método escolhido, buscaremos uma solução exata ou uma solução aproximada, o
que nos permite definir duas classes de métodos: métodos diretos e métodos iterativos. No caso
dos métodos diretos, as soluções não apresentam nenhum tipo de erro de truncamento, ou seja, a
solução encontrada será a solução exata. Os erros que possam vir a ocorrer serão decorrentes da
máquina empregada (erros de arredondamento).
Na segunda classe temos os chamados métodos iterativos, que diferente dos métodos diretos,
não produzem soluções exatas e sim, soluções aproximadas.

2.1 Método de Eliminação de Gauss


Começaremos nosso estudo com um método direto, o método da eliminação de Gauss. Considere o
sitema linear abaixo:


 a11 x1 + a12 x2 + ··· + a1n xn = b1

 a21 x1 + a22 x2 + ··· + a2n xn = b2
.. .. .. (2.1)

 . . .


an1 x1 + an2 x2 + ··· + ann xn = bn
(∑
n )
Podemos escrever o sistema (2.1) na forma matricial Ax = b aij xj = bi , i = 1, 2, · · · , n ,
j=1
onde A = [aij ]n×n , x = {xj }n×1 e b = {bi }n×1 .

Sabemos da álgebra linear que o sistema (2.1) admite solução se det A ̸= 0, ou seja, se A é
invertı́vel, e assim sua solução é x = A−1 b. Mas do ponto de vista computacional, calcular a inversa
de uma matriz é muito custoso e, para evitar esse problema, utilizaremos o método de eliminação
de Gauss.

Eliminação Gaussiana

A idéia do método de Gauss é transformar o sistema dado num sistema triangular inferior (ou
superior), utilizando escalonamento de matrizes. Após esse processo, teremos o seguinte sistema:

9
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 10



 u11 x1 + u12 x2 + ··· + u1n xn = g1

 u22 x2 + ··· + u2n xn = g2
.. .. .. . (2.2)

 . . .


unn xn = gn
Uma vez triangularizado o sistema, através do algoritmo da retrosubstituição, encontramos a
solução procurada:


n
gi − uij xj
j=i+1
xi = , i = n, n − 1, · · · , 2, 1,
uii

n
onde uij xj = 0 sempre que j > n.
j=i+1

O que garante que o sistema Ax = b é equivalente ao sistema U x = g é o processo de escalona-


mento, onde o segundo sistema é obtido a partir do primeiro através de operações elementares.

Exemplo 2.1 Vamos utilizar o método de eliminação de Gauss para resolver o seguinte sistema
linear

 2x1 + x2 + x3 = 7
4x1 + 4x2 + 3x3 = 21 . (2.3)

6x1 + 7x2 + 4x3 = 32
Considerando a matriz ampliada do sistema, temos
 
2 1 1 | 7
[A | b] =  4 4 3 | 21  .
6 7 4 | 32
Passo 1: zerar a21 e a31

• defino 1 o pivô: a11 = 2


 a21 4
 m21 = a11 = 2 = 2
• defino os multiplicadores de linha =⇒
 a31 6
m31 = a11 = 2 = 3
 ′
 L2 = L2 − m21 L1
• defino as novas linhas da matriz =⇒
 ′
L3 = L3 − m31 L1

após estas operações teremos uma nova matriz


 
2 1 1 | 7
[A | b]′ =  0 2 1 | 7  .
0 4 1 | 11


Passo 2: zerar a32

• defino 2 o pivô: a22 = 2
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 11

• defino os multiplicadores de linha =⇒ m21 = a21


a11 = 4
2 =2
′′ ′ ′
• defino as novas linhas da matriz =⇒ L3 = L3 − m32 L2

e assim,
 
2 1 1 | 7
′′
[A | b] =  0 2 1 | 7  = [U | g]
0 0 −1 | −3

Usando o algoritmo da retrosubstituição,


=0
z }| {
∑3
g3 − u3j xj
j=4 −3
x3 = = = 3
u33 −1

g2 − u23 x3
7 − 1(3)
x2 = = = 2
u22 2

g1 − u12 x2 − u13 x3
7 − 1(2) − 1(3)
x1 = = = 1
u11 2

e a solução do sistema (2.3) fica


 
1
x = (1, 2, 3)T ou x =  2  .
3

ALGORITMO DE GAUSS

Passo k: (O objetivo é eliminar xk das equações)

• i = k + 1, · · · , n, com n = dim A
(k)
• assumo akk ̸= 0 → k o pivô
(k)
aik
• definição dos multiplicadores de linha =⇒ mik = (k)
, i = k + 1, · · · , n
akk

 (k+1)
 aij
(k) (k)
:= aij − mik akj
• definição das novas linhas da matriz =⇒ .

 (k+1) (k) (k)
bi := bi − mik bk
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 12

2.2 Decomposição LU

“Toda matriz não singular admite uma decomposição em duas matrizes triangulares, uma superior
e outra inferior”. Quem garante esse resultado é o próximo teorema.

Teorema 2.1 - Teorema de Gauss


Seja A uma matriz quadrada de ordem n tal que det A ̸= 0. Sejam U uma matriz triangular
superior, {
uij se i ≤ j
U= ,
0 se i > j
e L uma matriz triangular inferior unitária,

 0 se i < j
L= 1 se i = j .

lij se i > j

Então existe e é única a decomposição A = LU , onde U é a matriz resultante do processo de


eliminação gaussiana e lij = mij (multiplicadores de linha).

Aproveitando nosso último exemplo, podemos encontrar a decomposição LU da matriz associada


ao sistema (2.3)
L U
  }| { 
z z }| {
2 1 1 1 0 0 2 1 1
A =  4 4 3  =  2 1 0   0 2 1 .
6 7 4 3 2 1 0 0 −1

Exercı́cio 2.1 Resolver o sistema linear abaixo através do método de eliminação de Gauss uti-
lizando quatro casas decimais de precisão na solução.

 x + y + z = 1
2x − y + 3z = 0 .

−x + y − 5z = 2

2.3 Métodos Iterativos

Vamos agora introduzir dois novos métodos que pertencem a classe dos métodos iterativos. Estes
métodos não mais resolvem o sistema exatamente, mas sim, a partir de uma estimativa inicial,
constróem uma sequência de aproximações que converge para a solução exata do sistema. Devido as
limitações de memória computacinal, esses métodos se mostram mais interessantes que os diretos, os
quais gastam grande quantidade de memória computacional (problemas de interesse da engenharia
possuem aproximadamente 105 incógnitas).
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 13

Método de Gauss–Jacobi

Considere o sistema linear



n
aij xj = bi , i = 1, 2, ... , n
j=1

Podemos escrevê–lo como:


 
1  ∑n

xi = bi − aij xj  , i = 1, 2, ... , n
aii j=1
j̸=i

O método de G.J. usa a maneira de escrever um sistema linear para gerar uma sequência de
aproximações:
 
(k+1) 1  ∑n
(k) 
xi = bi − aij xj  , i = 1, 2, ... , n k = 0, 1, 2, ...
aii j=1
j̸=i
| {z }
F ormula de Gauss−Jacobi

Exemplo 2.2 Resolva numericamente o sistema abaixo usando o método de Gauss-Jacobi.


  
 10x1 + 3x2 + x3 = 14 0
2x1 − 10x2 + 3x3 = −5 , chute: x(0) = (0, 0, 0)T , x(0) = 0 

x1 + 3x2 + 10x3 = 14 0

solução:

Input: x(0) = (0, 0, 0)T


 [ ]
 (1) (0) (0)
= a11 b1 − a12 x2 − a13 x3
 x1 10 (14 − 3 × 0 − 1 × 0)
1 1
 = = 1, 4
 [ ]
(1) (0) (0)
K=0 x2 = a22 b2 − a21 x1 − a23 x3
1
= −10 (−5 − 2 × 0 − 3 × 0)
1
= 0, 5

 [ ]

 x(1) = 1 b3 − a31 x(0) − a32 x(0) =
10 (14 − 1 × 0 − 3 × 0)
1
3 a33 1 2 = 1, 4
Output: x(1) = (1, 4 , 0, 5 , 1, 4)T

Input: x(1) = (1, 4 , 0, 5 , 1, 4)T


 (2)

 x1 = 10 ( 14 − 3 × 0, 5 − 1 × 1, 4)
1
= 1, 11
(2)
K=1 x2 = −10 ( −5 − 2 × (1, 4) − 3 × (1, 4)) = 1, 20
1

 (2)
x3 = 10 1
( 14 − 1 × (1, 4) − 3 × (0, 5)) = 1, 11
Output: x(2) = (1, 11 , 1, 20 , 1, 11)T

Com algumas iterações do algoritmo, convergimos para x = (1, 1, 1)(T ) . 


CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 14

(6) (6) (6)


Exercı́cio 2.2 Verifique que x1 = 1, 000251, x2 = 1, 005795 e x3 = 1, 000251.

Método de Gauss–Seidel

Podemos construir uma variante do método de G.J. permitindo que as versões atualizadas das
componentes de x entre na computação na mesma iteração K na qual são calculadas. Isto dá
origem ao método de Gauss-Seidel.

Fórmula Gauss-Seidel :
 
T ermo novo
z }| { z antigo
}| {
 
 ∑
i−1 ∑n
(k) 
1 
aij xj 
(k+1) (k+1)
xi = aii bi − aij xj −  , i = 1, 2, ... , n k = 0, 1, 2, ...
 j=1 j=i+1 

Exemplo 2.3 Refaça o exemplo anterior empregando agora o método GS:

Input: x(0) = (0, 0, 0)T


 [ ]

 x
(1)
= 1
b − a x
(0)
− a x
(0)
= 1
(14 − 3 × 0 − 1 × 0) = 1, 4

 1 a11 [ 1 12 2 13 3
] 10
(1) (1) (0)
K=0 x2 = a122 b2 − a21 x1 − a23 x3 = −10 (−5 − 2 × 1, 4 − 3 × 0)
1
= 0, 78

 [ ]

 x(1) = 1 b3 − a31 x(1) − a32 x(1) =
10 (14 − 1 × 1, 4 − 3 × 0, 78)
1
3 a33 1 2 = 1, 026

Output: x(1) = (1, 4 , 0, 78 , 1, 026)T

Input: x(1) = (1, 4 , 0, 78 , 1, 026)T


 (2)

 x1 = 10 ( 14 − 3 × (0, 78) − 1 × (1, 026))
1
= 1, 0634
(2)
K=1 x2 = −10 ( −5 − 2 × (1, 0634) − 3 × (1, 026)) = 1, 02048
1

 (2)
x3 = 10 1
( 14 − 1 × (1, 0634) − 3 × (1, 02048)) = 0, 98752

Output: x(2) = (1, 0634 , 1, 02048 , 0, 98752)T . 

(5) (5) (5)


Exercı́cio 2.3 Verifique que x1 = 0, 99979 , x2 = 0, 99985 e x3 = 1, 00007.

Estudo de Convergência
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 15

Por se tratar de um método iterativo, necessitamos estabelecer critérios de parada para


interromper a computação.

I) Controle do número de iterações :

Se a estrutura de repetição do programa exceder um dado número de iterações, interrompemos a


computação.

itera ≥ itera máx → stop

II) Controle na precisão da solução :

Se a diferença, em módulo, entre duas aproximações consecutivas for menor que um parâmetro
pré-estabelecido ε > 0, finalize a computação .
(k+1) (k)
maxi xi − xi ≤ ε → stop

Vantagens dos métodos iterativos :

• Em sistemas mal condicionados (detA ∼ = 0), os erros de arredondamento normalmente de-


stroem uma solução direta. Já as soluções iterativas propagam pouco este tipo de erro;

• Caso a matriz for esparsa, também devemos optar por soluções iterativas, pois nestas situações
elas apresentam boa velocidade.

Desvantagens :

• Sua convergência não será garantida;

• Para matrizes cheias, apresentam um número maior de contas.

Comentário Importante :

Caso a solução não seja convergente, podemos tentar uma reorganização das equações antes de
aplicarmos o método iterativo. Por exemplo, considere o sistema abaixo:



 x1 + x2 + 3x4 = 5

5x1 + x2 − x3 − x4 = 4

 x − x2 + 5x3 − x4 = 4
 1
x1 − 7x2 + x3 + x4 = −4

Tomando chute x(0) = (0, 0, 0, 0)T , a solução utilizando “GS” diverge, lim x(k) ̸= x .Entretanto,
k→∞
ao reordenamento do sistema, [L1 ↔ L2 , e depois, L4 ↔ L2 ]

 (antes)  (depois)
1 5
 1   −7 
  −→  
 5   5 
1 3
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 16

a solução converge para x = ( 1.0000 , 1.0000 , 1.0000 , 1.0000 )T , com 6 iterações.

Critério de convergência:

“Toda matriz diagonal dominante é convergente, para qualquer chute inicial.”

Condição de diagonal dominante:


n
|aii | > |aij | , ∀i = 1, 2, ... , n. (2.4)
j=1
j̸=i
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 17

2.4 Exercı́cios

1. Resolver os sistemas abaixo pelo método de eliminação de Gauss:


 10x1 + 2x2 + x3 = 15
a) 20x1 − 5x2 + 2x3 = 32

5x1 + 15x2 − 2x3 = 33


 3x1 + 10x2 + x3 = −16
b) x1 − 5x2 + 10x3 = 1

x1 + 2x2 + 5x3 = 2


 5x1 − 2x2 = 10
c) 10x2 − 3x3 = −50

−2x1 + 5x2 − 2x3 = 60


 50x1 − 5x2 + 2x3 = 300
d) − 2x2 + 5x3 = 10

10x1 − 20x3 = −950

2. Encontre a decomposição LU das matrizes dos coeficientes associados aos sistemas do exercı́cio
anterior.

3. Considere o seguinte sistema de equações lineares:




 x1 + 2x2 − x3 = 1

2x1 − x2 = 1

 − x2 + 2x3 − x4 = 1

− x3 + 2x4 = 1

a) Mostre que esse sistema não satisfaz a condição de diagonal dominante;

b) Se permutarmos as linhas desse sistema, podemos utilizar os métodos de Gauss-Jacobi e


Gauss-Seidel para resolvê-lo tendo garantia de convergência?

4. Considere o sistema linear abaixo:




 x1 − 3x2 + x3 − 4x4 = −1

x2 − 2x3 = 3

 10x1 + x2 + x4 = −8

x1 − x3 + 3x4 = 8

a) Resolva o sistema utilizando o método de eliminação de Gauss;

b) Podemos determinar a solução aproximada do sistema, usando o Método de Gauss-Seidel


para qualquer aproximação inicial? Porquê?
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 18

5. Considere o sistema linear abaixo:



 ax1 + 3x2 + x3 = 1
ax1 + 8x2 + x3 = 2

x1 + 2x2 + 4x3 = 3

a) Determine para que valores de a se tem garantia de que os métodos de Gauss-Seidel e


Gauss-Jacobi geram uma sequência convergente, para qualquer aproximação inicial;

b) Escolha o menor valor inteiro positivo de a e determine uma solução aproximada do sistema,
usando os métodos acima, com critério de parada estabelecido pelo erro abaixo

maxi=1,··· ,3 |xk+1
i − xki | ≤ ε = 1 × 10−3 .

6. Considere o sistema linear abaixo:



 x1 − 2x2 − 5x3 + 18 = 0
−4x1 + x2 − 2x3 + 8 = 0 .

−x1 + 5x2 + 2x3 − 15 = 0

Verifique que, para o sistema de equações dado, o método de Gauss-Jacobi é convergente.


Utilize-o para obter uma aproximação da solução, x(1) , partindo da aproximação x(0) =
(1.05, 2.16, 3.0)T .

7. Considere o sistema de equações lineares AX = B, onde


     
−1 2 4 x 17.0
A =  5 −2 1  , X =  y  e B =  4.8  .
2 3 0 z 9.3

a) Verifique que é possı́vel, partindo de um sistema de equações equivalente ao anterior,


provar a convergência do método de Gauss-Seidel para a solução, X ∗ , do sistema;
b) Considerando X (0) = (0.6, −0.7, 0.2)T , determine X (1) utilizando Gauss-Seidel.

8. Explique a diferença entre métodos diretos e métodos iterativos.

9. Descreva as vantagens e as desvantagens, caso existam, do método de eliminação de Gauss.


Capı́tulo 3

Zero de Funções

O estudo das equações algébricas é, juntamente com a trigonometria uma das áreas mais antigas
da matemática. Ainda na idade média, os matemáticos árabes solucionaram a equação do 2o grau,
e na renascença foram solucionadas as equações do 3o e 4o graus.
Após muito esforço e dedicação por parte dos que pesquisam matemática, ficou provado que
para equações de grau maior que 4, não é possı́vel obter uma solução do tipo combinação dos
coeficientes da equação. É justamente aı́ que surgem os métodos que capturam as raı́zrs dessas
equações.
Estes métodos, também conhecidos como iterativos, constroem uma sequência de aproximações
que poderá convergir para a solução do problema. A seguir, serão apresentados 4 destes métodos:
Bisseção, Falsa-Posição, Iteração Linear e Newton-Raphson.

raiz de uma equação

Um escalar ξ é dito um zero de uma função f (x) (ou simplesmente raiz da equação f (x) = 0), se
e somente se, f (ξ) = 0. Estes zeros são representados geometricamente pela interseção da função
f (x) com o eixo x.

f(x)

x1 x2 x3
raiz múltipla

raízes simples

Figura 3.1: raı́zes simples e raı́z múltipla

Conforme ilustrado na figura acima, temos dois tipos de raı́zes: simples (f ′ (ξ) ̸= 0) e múltipla
(f ′ (ξ)
= 0). Os dois primeiros métodos supracitados (Bisseção e Falsa-Posição) só capturam raı́zes
simples, enquanto que o último (Newton-Raphson) captura ambas.

19
CAPÍTULO 3. ZERO DE FUNÇÕES 20

3.1 Método da Bisseção

Seja f (x) uma função contı́nua no intervalo [a, b] contendo apenas 1 raiz de f (x) (se f (a) · f (b) < 0
então existe 1 raiz simples no intervalo). A idéia do método é:

1. escolher [a, b] contendo ξ;


a+b
2. calcular o ponto médio do intervalo, c = ;
2
3. quebrar o intervalo da seguinte forma
f (b) · f (c) > 0 ⇒ b := c
f (b) · f (c) < 0 ⇒ a := c

4. reinicie o algoritmo.

Exemplo 3.1 Aproxime a raiz ξ da equação ex − 4x = 0, sabendo que ξ ∈ [0, 0.5].


 a=0 b = 0.5 c = 0.25
1o passo f (a) = 1 f (b) = −0.3513 f (c) = 0.2840

f (b) · f (c) < 0 ⇒ a := c


 a = 0.25 b = 0.5 c = 0.3750
2o passo f (a) = 0, 2840 f (b) = −0.3513 f (c) = −0.0450

f (b) · f (c) > 0 ⇒ b := c


 a = 0.25 b = 0.3750 c = 0.3125
3o passo f (a) = 0.2840 f (b) = −0.0450 f (c) = 0.1168

f (b) · f (c) < 0 ⇒ a := c

..
.

critérios de parada

Se ξ¯ é a aproximação da raiz ξ da equação f (x) = 0 pertencente ao intervalo [a, b], então temos
dois critérios de parada:
( )
I) |f ξ¯ | ≤ ε

II) |b − a| ≤ ε,

onde ε é um parâmetro pré-estabelecido.


CAPÍTULO 3. ZERO DE FUNÇÕES 21

f(b)
f(x)

raiz

a
c b

f(a)

Figura 3.2: novo ponto “c” escolhido

3.2 Método da Falsa-Posição

É uma variante do método da bisseção, na medida em que utiliza o mesmo algoritmo que o método
da bisseção,
( diferindo
) ( apenas
) na escolha do ponto “c”, que passa a ser a raiz da secante que liga os
pontos a, f (a) e b, f (b) . Veja a figura 3.2.
O novo valor de “c” será dado por

f (b)a − f (a)b
c= .
f (b) − f (a)

Exercı́cio 3.1 Verifique que com o método da falsa-posição, após 3 iterações, o exemplo anterior
nos leva ao seguinte resultado: c = 0.3575 e f (c) = −0.0002.

ALGORITMO BISSECAO

entrada: (f(x),a,b,aux)

defina c:= (a+b)/2;


se |b-c| <= aux entao raiz:= c e stop;
caso contrario,
se f(b)f(c) < 0 entao a:=c;
caso contrario, b:=c;
fim-se;
fim-se;
reinice o algoritmo

ALGORITMO FALSA-POSICAO

entrada: (f(x),a,b,aux)

defina c:= (f(b)a-f(a)b)/(f(b)-f(a));


CAPÍTULO 3. ZERO DE FUNÇÕES 22

se |b-c| <= aux ent~ao raiz:= c e stop;


caso contrário,
se f(b)f(c) < 0 ent~ao a:=c;
caso contrário, b:=c;
fim-se;
fim-se;
reinice o algoritmo

Exercı́cio 3.2 Encontre as raı́zes das equações abaixo:


a) x3 − 9x + 3 = 0;
b) x3 − 11x2 + 39x − 45 = 0;
c) x3 − 5x2 + 17x + 21 = 0;
d) e−x − x = 0.

3.3 Método da Iteração Linear

Vamos estudar agora os chamados métodos do ponto fixo. O mais simples deles é o método da
iteração linear, o qual, mesmo não tendo boa eficiência computacional, é importante para a in-
trodução do método de Newton-Raphson.
Inicialmente, vamos reescrever o problema “Encontrar ξ ∈ R tal que f (ξ) = 0” como “Encontrar
ξ ∈ R tal que ξ = φ(ξ)”, onde φ(x) é uma função de iteração da equação f (x) = 0.
Pra tornar estes problemas equivalente, façamos f (x) = x − φ(x), assim, como f (ξ) = 0, temos
que ξ − φ(ξ) = 0 e, portanto, ξ = φ(ξ) .

Exemplo
√ 3.2 Considere a equação x2 + x − 6 = 0. A sua função de iteração é a função φ(x) =
6 − x.

Uma vez determinada φ(x), o M.I.L. consiste em construir uma sequência de aproximações
{xi }i∈N a partir de um chute inicial x0 e gerada através da relação recursiva xi+1 := φ(xi ) ,
i = 0, 1, 2, · · · .
No exemplo acima, partindo de x0 = 1, 5 terı́amos

1. x1 = φ(x0 ) = 6 − 1.5 = 2.1213;

2. x2 = φ(x1 ) = 6 − 2.1213 = 1.9694;

3. x3 = φ(x2 ) = 6 − 1.9694 = 2.0076;

4. x4 = φ(x3 ) = 6 − 2.0076 = 1.9981;

5. x5 = φ(x4 ) = 6 − 1.9981 = 2.0005;
e, portanto podemos perceber que o processo converge para ξ = 2.
Entretanto, o M.I.L. não é incondicionalmente convergente como os métodos da bisseção e falsa-
posição. Ao tomarmos como função de iteração φ(x) = 6 − x2 (note que φ(x) não é única), geramos
um processo iterativo divergente, verifique!
CAPÍTULO 3. ZERO DE FUNÇÕES 23

estudo da convergência

Como vimos, φ(x) não é única. Na verdade, sua forma geral é dada pela relação

φ(x) = x + A(x)f (x),

com A(ξ) ̸= 0. Podemos mostrar a equivalência entre os problemas f (ξ) = 0 e ξ = φ(ξ) da seguinte
maneira

I) Seja ξ tal que f (ξ) = 0, então

φ(ξ) = ξ + A(ξ) f (ξ) ∴ ξ = φ(ξ).


|{z}
=0

II) Seja ξ tal que ξ = φ(ξ), então

φ(ξ) = ξ + A(ξ)f (ξ) ∴ 0 = φ(ξ) − ξ = A(ξ)f (ξ),

e como A(ξ) ̸= 0, temos que f (ξ) = 0. 

A interpretação gráfica do problema de ponto fixo é a interseção da curva y = φ(x) com a reta
y = x, conforme ilustra a figura 3.3:
y=x

y y

y= ϕ(x) y=x

y= ϕ(x)

ξ=ϕ (ξ) ξ=ϕ (ξ)

ξ x2 x1 x0 x ξ x2 x1 x0 x

situação convergente, lim xi = ξ situação divergente, lim xi ≠ ξ


i 00 i 00

Figura 3.3: interpretação gráfica do MIL

Estas figuras sugerem que, para gerarmos um processo convergente, devemos ter baixas derivadas
de φ(x) na vizinhança de ξ. Esta sugestão é confirmada pelo teorema de convergênica do M.I.L.

Teorema 3.1 Teorema de Convergência do M.I.L. - Seja ξ uma raiz de f (x) = 0 isolada no
intervalo [a, b] centrado em ξ. Seja φ(x) uma função de iteração de f (x) = 0. Se:

I) φ(x) é tal que φ′ (x) ∈ C 0 [a, b];

II) |φ′ (x)| ≤ M < 1, ∀x ∈ [a, b];

III) x0 ∈ [a, b],

então a sequência {xi } gerada pelo processo xi+1 := φ(xi ) converge para ξ.
CAPÍTULO 3. ZERO DE FUNÇÕES 24

critérios de parada

O M.I.L utiliza os seguintes critérios de parada:

I) |xi+1 − xi | ≤ ε;

II) |f (ξ)| ≤ ε,

onde ε é um parâmetro pré-estabelecido.

Observação 3.1 Devemos ser cuidadosos com o 1o critério, pois em algumas situações ele não
corresponde à |xi − ξ| ≤ ε, conforme ilustra a figura abaixo.

ϕ(ξ)
ε

ξ x i+1 xi x

Figura 3.4: criterio de parada do MIL

ALGORITMO MIL

entrada(f(x),Phi(x),raiz,x0,aux)

1. se |f(x0)| <= aux entao raiz:= x0 e stop;


2. caso contrario
3. defina k=1;
4. xk:= Phi(k-1);
5. se (|f(xk)| <= aux .ou. |xk-x0| <= aux) entao
6. raiz:= xk e stop;
7. caso contrario
8. k:=k+1;
9. ir para o passo 4;
10. fim-se;
11. fim-se;
12. fim-se.
CAPÍTULO 3. ZERO DE FUNÇÕES 25

3.4 Método de Newton-Raphson

Vimos que o M.I.L. tem convergência lenta e não garantida. A idéia do método de Newton é
construir um método de ponto fixo que garanta e acelere a convergência do processo iterativo
linear. Isto será feito impondo que a derivada da função de iteração seja nula em x = ξ, ou seja,
φ′ (ξ) = 0.

Já sabemos que φ(x) = x + A(x)f (x), portanto,


φ′ (x) = 1 + A′ (x)f (x) + A(x)f ′ (x)

∴ φ′ (ξ) = 1 + A′ (ξ) f (ξ) +A(ξ)f ′ (ξ)


| {z } |{z}
=0 =0

∴ A(ξ)f ′ (ξ) = −1

−1
∴ A(ξ) = .
f ′ (ξ)

Logo, a função de iteração do método de Newton será dada por


f (x)
φN (x) = x − ,
f ′ (x)
e a sequênia de aproximações {xi }i∈N de Newton será gerada pela relação recursiva

xi+1 = φN (xi ), i = 0, 1, 2, · · · ,

e assim, temos a fórmula de Newton-Raphson

f (xi )
xi+1 = xi − . (3.1)
f ′ (xi )

Exercı́cio 3.3 Utilize expansão em série de Taylor para deduzir a fórmula de Newton-Raphson.

interpretação geométrica
As aproximações futuras geradas pela fórmula de Newton serão as raı́zes das tangentes à curva
y = f (x) avaliadas nas aproximações atuais xi , conforme mostra a figura a seguir,

Calculando a derivada de f (x) e avaliando em xi , temos


=0
z }| {
f (xi+1 ) −f (xi )
f ′ (xi ) = tan θ =
xi+1 − xi

f (xi )
xi+1 − xi = −
f ′ (xi )

f (xi )
xi+1 = xi − .
f ′ (xi )
CAPÍTULO 3. ZERO DE FUNÇÕES 26

y=f(x)

f(xi )

ξ x i+1 xi

Figura 3.5: criterio de parada do MIL

Exemplo 3.3 Considere ainda o exemplo 3.2, no qual a partir de uma estimativa inicial x0 = 1.5,
desejamos obter numericamente a raiz ξ = 2 da equação x2 + x − 6 = 0. Aplicando o método de
Newton-Raphson, temos

f (xi )
xi+1 = xi −
f ′ (xi )

x2i + xi − 6 x2 + 6
⇒ xi+1 = xi − = i ,
2xi + 1 2xi + 1
e assim, teremos a seguinte sequência

x1 = φ(x0 ) = 2.06250;

x2 = φ(x1 ) = 2.00076;

x3 = φ(x2 ) = 2.00000.

Observe que, com apenas 3 iterações, obtemos ξ = 2 com precisão de 5 casas decimais!

Para uma pequena análise de convergência, apresentamos o teorema abaixo, que descreve as
condições para que o método de Newton-Raphson seja convergente.

Teorema 3.2 Sejam f (x), f ′ (x), f ′′ (x) ∈ C 0 [a, b] e seja ξ ∈ [a, b] raiz da equação f (x) = 0.
Suponha que f ′ (x) ̸= 0. Então existe um intervalo I ⊂ [a, b] tal que ξ ∈ I e se x0 ∈ I, a sequência
{xi } gerada pela fórmula recursiva xi+1 := φ(xi ), ∀i, irá a convergir para a raiz ξ.

3.5 Exercı́cios
1. Dê um exemplo de uma função f (x) que tenha pelo menos uma raiz, mas que não pode ser
determinada usando o método da bisseção.

2. A equação x2 − 7x + 12 = 0 tem 3 e 4 como raı́zes. Considere a função de iteração dada por


φ(x) = x2 − 6x + 12. Determine o intervalo (a, b) onde, para qualquer que seja x0 escolhido,
a sequência xn+1 = φ(xn ) converge para a raiz x = 3.
CAPÍTULO 3. ZERO DE FUNÇÕES 27

3. Seja f (x) = ex + x − 3.
a) Prove, analiticamente, que a equação f (x) = 0 tem, no intervalo [0, 1], apenas uma raiz,
α;
b) Aproxime α utilizando o método da bisseção com 6 iterações.

4. Considere a equação x3 + 3x + 3 = 0.
a) Justifique analiticamente que a equação tem uma única raiz real, α, pertencente ao intervalo
[−1, −0.1].
b) Utilize o método de Newton-Raphson para aproximar a raiz α calculando apenas duas
iterações, x1 e x2 . Escolha o chute inicial x0 .

5. Considere a equação e−x − x = 0.


a) Justifique analiticamente que a equação tem uma única raiz real, α, pertencente ao intervalo
[0.3, 0.6].
b) Quantas iterações teria de calcular pelo método da bisseção de modo a obter uma aprox-
imação de α com 3 casas decimais significativas, sabendo que, com 4 casas decimais significa-
tivas uma aproximação para α é 0, 5672.

6. Determine um intervalo (a, b) e uma função de iteração φ(x) associada, de tal forma que,
∀x0 ∈ (a, b), a função de iteração gere uma sequência convergente para a(s) raı́z(es) de cada
uma das funções abaixo, usando o método iterativo linear (MIL) com tolerância ε ≤ 1 × 10−3 :

a) f1 (x) = x − e−x ;
b) f2 (x) = ln(x) − x + 2;
x
c) f3 (x) = e 2 − x3 ;
d) f4 (x) = sen (x) − x2 ;
x
e) f5 (x) = − cos(x).
4
7. Determine a(s) raiz(es) da função f1 (x), usando o método da bisseção e o método da falsa
posição com tolerância ε ≤ 1 × 10−3 . Quantas iterações foram necessárias para cada um dos
métodos?

8. Determine as raı́zes do exercı́cio (6), usando o método de Newton-Raphson.

9. Determine o ponto de interseção entre as funções f1 (x) e f2 (x), f2 (x) e f3 (x) e entre
f1 (x), f2 (x) e f3 (x).

10. Defina raiz simples e raiz multipla em termos de multiplicidade algébrica. Interprete geome-
tricamente cada uma delas.
Capı́tulo 4

Aproximação de Funções

A teoria de interpolação tem importantes aplicações nas ciências exatas. Uma delas é fornecer
ferramentas matemáticas para o desenvolvimento de métodos numéricos, nas áreas de integração
numérica, teoria de aproximação e solução de equações diferenciais.
Um 2o uso importante é desenvolver maneiras de trabalhar com funções tabeladas, por exemplo,
interpolar linearmente uma tabela de logaritmos. Entretanto, esta aplicação cai cada vez mais em
desuso com a popularização das máquinas de calcular.

4.1 Teoria de Interpolação

Definição 4.1 (Interpolação) - Dado um conjunto de pontos suporte (xi , yi ), i = 0, 1, 2, · · · , n, de


uma certa função y = f (x), deseja-se calcular uma aproximação para f (x̄), x̄ ̸= x, empregando os
pontos dados. Para tal, construı́mos uma função φ(x) que interpola f (x) da seguinte maneira
i) φ(xi ) = f (xi ), ∀xi , i = 0, 1, · · · , n;

ii) φ(x̄) ∼
= f (x̄), ∀x̄ ̸= xi , i = 0, 1, · · · , n.

y y
ψ=ϕ(ξ)
y=f(x)
y=f(x)
ψ=ϕ(ξ)

x x
Boa aproximação Má aproximação

Figura 4.1: exemplos de interpolação

A função interpolante pode pertencer a várias famı́lias:

a) φ(x) = a0 + a1 x + · · · + an xn

28
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 29

b) φ(x) = a0 + a1 ex + a2 e2x + · · · + an enx

c) Splines: colagem de polinômios.

problema de interpolação geral

A partir de uma tabela com n + 1 pontos de suporte, deseja-se escolher n + 1 funções de base φj (x),
cuja combinação linear será usada para aproximar a função f (x),


n
φ(x) = aj φj (x) = a0 φ0 (x) + a1 φ1 (x) + · · · + an φn (x),
j=0

φj (x) - funções de base “dadas” (conhecidas);


aj - coeficientes incógnitos.

4.2 Interpolação Polinomial

A escolha mais frequente para as chamadas funções de base, φj (x), são os monômios φj (x) =
xj , j = 0, 1, · · · , n, assim, o problema de interpolação passa a ser expresso por


n
φ(x) = aj xj = a0 + a1 x + · · · + an xn .
j=0

O problema é determinarmos os coeficientes aj !


Para encontrarmos esses coeficientes, usamos a definição de interpolação, que diz que φ(x) passa
por todos os pontos suporte, ou seja,

φ(xi ) = yi , i = 0, 1, · · · , n,

portanto,

n
aj (xji ) = yi , i = 0, 1, · · · , n,
j=0

e assim, temos o seguinte sistema linear




 a0 x00 + a1 x10 + · · · + an xn0 = y0







 a0 x01 + a1 x11 + · · · + an xn1 = y1




a0 x02 + a1 x12 + · · · + an xn2 = y2 (4.1)





 .. .. ..

 . . .






a0 x0n + a1 x1n + · · · + an xnn = yn

que também pode ser escrito na forma matricial abaixo


CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 30

    
1 x10 ··· xn0 a0 y0
    
    
 1 x11 ··· xn1  a1   y1 
    
    
    
 1 x12 ··· xn2  a2 = y2 .
    
 .. .. .. ..  ..   .. 
 . . . .  .   . 
    
    
1 x1n · · · xnn an yn

A primeira matriz que aparece acima é denominada Matriz de Vander-Monde.

Exemplo 4.1 Polinômio Linear


Encontre o polinômio linear que interpola a função y = ex no intervalo [0, 2].
solução:

polinômio linear: 2 pontos suporte apenas

xi yi
x0 = 0 y0 = e0 = 1
x1 = 2 y1 = e2 = 7, 3891
    
1 0 a0 1
  = 
1 2 a1 7, 3891

∴ a0 = 1 e a1 = 3, 1946, e portanto, o polinômio interpolante será

φ(x) = 1 + 3, 1946x.

unicidade do polinômio interpolador

Elevando o grau n de φ(x) esbarramos em dois problemas. O primeiro consiste em gerar sistemas
lineares muito grandes que deverão ser resolvidos, o que pode acontecer se utilizarmos um bom
código de resolução de sistemas. O segundo problema está intimamente ligado a estrutura da matriz
dos coeficientes, que para n muito grande, torna a matriz mal-condicionada limitando o cálculo de
φ(x) somente para n pequenos.
Antes, porém, de apresentarmos outras fórmulas para φ(x), vamos enunciar o teorema da
unicidade do polinômio interpolador, que vai garantir a existência de um único φ(x) para um
mesmo conjunto de pontos suporte.

Teorema 4.1 Existência e Unicidade do Polinômio Interpolador


Para n + 1 pontos suporte (xi , yi ), i = 0, 1, · · · , n, xi ̸= xj , existe e é único o interpolante
φ(x) ∈ Pk (x), k ≤ n, tal que φ(xi ) = yi , i = 0, 1, · · · , n.
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 31

4.3 Fórmula de Lagrange

A fórmula de Lagrange para o cáculo de φ(x) utiliza os chamados polinômios de Lagrange,

∏n
x − xk
Lj (x) = .
k=0
xj − xk
k̸=j

A expressão do polinômio interpolador será dado por



n
φ(x) = yj Lj (x).
j=0

Observação 4.1 O polinômio de Lagrange tem a propriedade do delta de Kroenecker


{
1 , i=j
Lj (xi ) = δij =
0 , i ̸= j

Verifique! Em seguida, mostre que a fórmula de Lagrange passa por todos os pontos suporte, ou
seja, φ(xi ) = yi , ∀i.

Exemplo 4.2 Interpolar a função log10 x no intervalo [2, 3] usando apenas dois pontos suporte:
solução:
xi yi
x0 = 2 y0 = log10 2 = 0.301
x1 = 3 y1 = log10 3 = 0.477

Portanto, φ(x) = 0.301L0 (x) + 0.477L1 (x).


Calculando os polinômios de Lagrange L0 (x) e L1 (x),
x − x1 x−3
L0 (x) = = = −(x − 3),
x0 − x1 2−3
x − x0 x−2
L1 (x) = = = x − 2,
x1 − x0 3−2
e portanto, φ(x) = −0.301(x − 3) + 0.477(x − 2).

4.4 Diferenciação Numérica

Comecemos esse capı́tulo relembrando a definição de derivada de uma função real f (x)

f (x + h) − f (x)
f ′ (x) = lim
h→0 h
o que nos motiva a aproximar essa derivada da seguinte maneira:

f (x + h) − f (x)
∆1 ≡ , (4.2)
h
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 32

desde que h > 0 seja um parâmetro muito pequeno. Mas será que essa aproximação é boa? Vamos
responder essa pergunta utilizando expansão em série de Taylor:

h2 ′′
f (x + h) = f (x) + hf ′ (x) + f (ξ), ξ ∈ (x, x + h)
2
h2 ′′
⇒ f (x + h) − f (x) = hf ′ (x) + f (ξ),
2
dividindo tudo por h temos

f (x + h) − f (x) h
= f ′ (x) + f ′′ (ξ),
h 2
o que nos motiva a definir o erro da aproximação 4.2 como
h ′′
e= f (ξ).
2
Isto significa que se desejamos obter um erro, por exemplo, 10 vezes menor, temos que reduzir h
na mesma proporção, o que, de certa forma, empobrece a aproximação 4.2. Mas, e se conseguirmos
uma aproximação cujo erro seja proporcional a h2 ? Com certeza o erro diminuiria muito mais rápido
comparado a diminuição do parâmetro h.
Vamos considerar uma função real f (x) e a reta r que liga os pontos (x − h, f (x − h)) e
(x + h, f (x + h)), onde h é um parâmetro positivo suficientemente pequeno.

f(x−h)

f(x+h)
f(x)

reta r

x−h x x+h x

Figura 4.2: interpretação geométrica da fórmula de diferenças centradas

Qual é a inclinação da reta r? E o que acontece quando h → 0? Podemos observar no gráfico


acima que a reta r tem como coeficiente angular

f (x + h) − f (x − h)
m= ,
2h
e assim, r tende para a reta tangente a curva no ponto x, ou seja, m → f ′ (x), o que significa que
podemos aproximar a derivada de f (x) da seguinte maneira:

f (x + h) − f (x − h)
∆2 = . (4.3)
2h

Vamos agora verificar a ordem do erro da aproximação 4.3. Considerando o intervalo (x−h, x+h)
e assumindo f (x) uma função suficientemente regular, podemos novamente utilizar expansão em
série de Taylor:
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 33

h2 ′′ h3
f (x + h) = f (x) + hf ′ (x) + f (x) + f ′′′ (ξ),
2 3!
h2 ′′ h3
f (x − h) = f (x) − hf ′ (x) + f (x) − f ′′′ (ξ),
2 3!
onde ξ ∈ (x − h, x + h).
Subtraindo a segunda da primeira equação, temos

h3 ′′′
f (x + h) − f (x − h) = 2hf ′ (x) + 2 f (ξ),
6
e dividindo tudo por 2h obtemos

f (x + h) − f (x − h) h2
= f ′ (x) + f ′′′ (ξ),
2h 6
e portanto, o erro é da ordem de h2 .

Os operadores (aproximações) ∆1 e ∆2 são denominados operadores de diferenças finitas


de 1a e 2a ordem, respectivamente.

operador de diferenças finitas de ordem n

Se considerarmos um conjunto de pontos suporte (xi , f (xi )), e aplicarmos o operador ∆1 teremos

f (xi+1 ) − f (xi )
∆1 (f (xi )) = ,
xi+1 − xi

ou ainda,
fi+1 − fi
∆1 fi = .
xi+1 − xi
Podemos generalizar o operador ∆ através da tabela abaixo:

∆0 fi , fi

fi+1 − fi
∆1 fi =
xi+1 − xi

∆1 fi+1 − ∆1 fi
∆2 fi = ∆1 [∆1 fi ] = (4.4)
xi+2 − xi

..
.

∆n−1 fi+1 − ∆n−1 fi


∆n fi = ∆1 [∆n−1 fi ] = .
xi+n − xi

Usando ainda a notação ∆n fi = f [xi , xi+1 , · · · , xi+n ], podemos reescrever a tabela 4.4 como:
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 34

∆0 fi = f [xi ]

∆1 fi = f [xi , xi+1 ]

f [xi+1 , xi+2 ] − f [xi , xi+1 ]


∆2 fi = f [xi , xi+1 , xi+2 ] =
xi+2 − xi (4.5)
..
.

f [xi+1 , xi+2 , · · · , xi+n ] − f [xi , xi+1 , · · · , xi+(n−1) ]


∆n fi = f [xi , xi+1 , · · · , xi+n ] = .
xi+n − xi

Podemos representar as diferentes ordens do operador ∆ através da seguinte tabela:

i xi fi f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] ··· f [xi , xi+1 , · · · , xi+n ]


0 x0 f0 f [x0 , x1 ] f [x0 , x1 , x2 ] ··· f [x0 , x1 , · · · , xi+n ]
1 x1 f1 f [x1 , x2 ] f [x1 , x2 , x3 ] ···
2 x2 f2 f [x2 , x3 ] f [x2 , x3 , x4 ] ···
.. .. .. .. ..
. . . . .
n − 1 xn−1 fn−1 f [xn−1 , xn ]
n xn fn

Exercı́cio 4.1 Dados os pontos de suporte abaixo, monte sua tabela de diferenças finitas:

i xi fi
0 0.2 1.22
1 0.4 1.49
2 0.6 1.82
3 0.8 2.23
4 1.0 2.72

4.5 Fórmula de Newton

Newton teve a idéia de usar o conceito de diferenças finitas escrevendo o polinômio interpolador
como sendo a seguinte combinação linear
φ(x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + · · · + an (x − x0 )(x − x1 ) · · · (x − xn−1 ),
com os coeficientes aj calculados a partir do operador ∆.
Nós faremos a construção de φ(x) de maneira indutiva. Inicialmente, construimos φ0 (x) que
interpola f (x) em x0 e em x1 , e assim sucessivamente construimos φk (x) que interpola f (x) em
x0 , x1 , · · · , xk , k = 0, 1, · · · , n.
Antes de iniciarmos, é útil observar que ∆ é invariante à ordenação dos pontos suporte xi , por
exemplo:
fi+1 − fi (−1)(fi − fi+1 )
∆fi = f [xi , xi+1 ] = = = f [xi+1 , xi ].
xi+1 − xi (−1)(xi − xi+1 )
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 35

construção do polinômio interpolador

I) Seja φ0 (x) o interpolante de f (x) em x = 0. Sabemos que


f (x) − f (0)
f [x0 , x] =
x − x0
e portanto,
f (x) = f0 + f [x0 , x](x − x0 ),
assim, podemos afirmar que φ0 (x) = f0 = f [x0 ] e que e0 (x) = f [x0 , x](x − x0 ) (função erro
que se anula em x = x0 ).

II) Seja, agora, φ1 (x) o interpolante para f (x) em x0 e em x1 . Sabemos que


f [x0 , x] − f [x1 , x0 ]
f [x0 , x1 , x] = f [x1 , x0 , x] =
x − x1

f (x) − f (0)
− f [x0 , x1 ]
x − x0
=
x − x1

f (x) − f0 − f [x0 , x1 ](x − x0 )


= ,
(x − x1 )(x − x0 )
portanto,
f [x0 , x1 , x](x − x0 )(x − x1 ) = f (x) − f0 − f [x0 , x1 ](x − x0 ),
e assim,
f (x) = f0 + f [x0 , x1 ](x − x0 ) + f [x0 , x1 , x](x − x0 )(x − x1 ).

Concluimos que φ1 (x) = f0 + f [x0 , x1 ](x − x0 ) e que e1 (x) = f [x0 , x1 , x](x − x0 )(x − x1 )
(função erro que se anula em x = x0 e x = x1 ).

III) Generalizando, temos

φn (x) = f0 + f [x0 , x1 ](x − x0 ) + · · · + f [x0 , x1 , · · · , xn ](x − x0 ) · · · (x − xn−1 ),

ou ainda

Polinômio de Newton
z }| {
φn (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + · · · + an (x − x0 )(x − x1 ) · · · (x − xn−1 ),
(4.6)
onde a0 = f [x0 ], a1 = f [x0 , x1 ], a2 = f [x0 , x1 , x2 ], · · · , an = f [x0 , x1 , x2 , · · · , xn ].

Exercı́cio 4.2 Construa um interpolante para a tabela abaixo usando poliômio de Newton:

xi fi
6 0.70
7 0.63
8 0.57
9 0.50
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 36

4.6 Ajuste de Curvas

Nas primeiras seções desse capı́tulo, estudamos como interpolar uma função f (x) a partir de um
conjunto de pontos suporte. Nas próximas seções, aprenderemos como ajustar uma curva por entre
estes pontos, sem necessariamente passar por todos eles.

y y
y=f(x)
y=f(x)

x x

INTERPOLAÇÃO AJUSTE

Figura 4.3: diferença entre interpolação e ajuste

Em geral, esta técnica se aplica a um conjunto de dados experimentais (xi , yi ), i = 0, 1, · · · , n


os quais desejamos aproximar sua lei de comportamento y = f (x) e a partir daı́, calcular f (x) para
qualquer valor de x.
Considere, agora, a figura 4.6. Sabemos que a função f (x) é linear, mas qual das retas r1 ou r2
melhor a aproxima.
y

r2

r1

Para solucionarmos este problema, tems que definir este tipo de conceito: “o de melhor aprox-
imação”.

4.6.1 Critérios de Ajuste

Vamos estabelecer alguns critérios de “melhor” ajuste de uma curva y = φ(x) a um conjunto de
pontos suporte. Será útil definirmos o conceito de resı́duo, ou erro, em cada ponto:

Rk = φ(xk ) − yk , k = 0, 1, · · · , n.
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 37

I) resı́duos nulos (interpolação)



 Rk = 0
ou , k = 0, 1, · · · , n.

φ(xk ) − yk = 0
Este critério não deve ser utilizado, pois nos leva a um problema de interpolação.

II) soma dos resı́duos mı́nima




 ∑
n

 Rk = mı́n


 k=0
ou

 ∑


n
( )

 φ(xk ) − yk = mı́n

k=0

Este critério é simples, porém é sensı́vel ao sinal dos resı́duos, conforme ilustra a situação abaixo:
y
y=f(x)
ϕ(x0) = y1

ϕ(x1) = y0 y= ϕ(x)

x0 x1 x


n=1
( ) ( ) ( ) ( )
Rk = φ(x0 ) − y0 + φ(x1 ) − y1 = φ(x0 ) − y1 + φ(x1 ) − y0 = 0
k=0

Resı́duo global pequeno, porém, péssimo ajuste!

III) soma dos quadrados dos resı́duos mı́nima




 ∑
m

 Rk2 = mı́n


 k=0
ou

 ∑


m
( )2

 φ(x ) − y = mı́n
 k k
k=0

Este critério dá origem ao método conhecido como método dos mı́nimos quadrados. Este método
surge em várias áreas da ciências exatas com nomes diferentes: regressão linear, suavização de dados,
otimização, etc...
Ele se baseia em aproximar uma função f (x) pela combinação linear


n
φ(x) = aj φj (x),
j=0
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 38

onde os coeficientes aj são as incógnitas do problema de ajuste e φj (x) são funções de base con-
hecidas (escolhidas de acordo com o fenômeno estudado).
Para determinarmos os coeficientes aj ′ s, usamos o critério de mı́nimos quadrados:

 ∑
m

 Rk2 = mı́n



 k=0
ou
 m (∑



∑ n
( )2 )

 a φ (x ) − y = mı́n
 j j k k
k=0 j=0

O último somátório acima também pode ser escrito da seguinte forma (veja o Apêndice A):


m ∑
n ∑
m
aj φj (xk )φi (xk ) = yk φi (xk ), i = 0, 1, · · · , n,
k=0 j=0 k=0

assim,
n [∑
∑ m ]{ } { ∑
m }
φi (xk )φj (xk ) aj = φi (xk )yk , i = 0, 1, · · · , n,
j=0 k=0 k=0

que na sua forma matricial pode ser escrito como

 

m ∑
m ∑
m
φ0 (xk )φ1 (xk ) · · ·  m 
 φ0 (xk )φ0 (xk ) φ0 (xk )φn (xk )   ∑ 
 k=0     

 k=0 k=0  
 φ0 (xk )yk 

  a0   
 m  
 
 

   
k=0
 ∑ ∑m ∑m 
 
 
 

 φ1 (xk )φ1 (xk ) · · · 
φ1 (xk )φn (xk )  
 
 
 ∑ 

 φ1 (xk )φ0 (xk ) 
 a1  
  m 

 k=0 
 k=0 k=0 · = φ1 (xk )yk .
    
  ..   
   
k=0
  .   
   
.. .. .. .. ..
    
 . . . .   
  m . 

  
  
 ∑ 


 m  an 
 

 ∑ ∑m ∑m  
 φn (xk )yk 

 φn (xk )φ0 (xk ) φn (xk )φ1 (xk ) · · · φ (x )φ (x )  k=0
n k n k
k=0 k=0 k=0

PROBLEMA DE AJUSTE GERAL

4.6.2 Ajuste Polinomial

Afim de construir uma aproximação φ(x) polinomial, particularizaremos o problema geral de ajuste
considerando as funções de base monômios da forma xj :

φj (x) = xj , j = 0, 1, · · · , n,

obtendo o seguinte problema polinomial de ajuste


CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 39

 

m ∑
m ∑
m
x2k ··· xnk  m 
 m+1 xk   ∑ 
      

 k=0 k=0 k=0  
 yk 

   a0   
 m   
 
 

    
k=0
 ∑ ∑m ∑m ∑m    
 n     
 x k x x
k k xk x2k · · · xk xk   

 a1



 

 ∑
 m




 k=0 
 k=0 k=0 k=0 · = xk y k .
     
   ..   
    
k=0
 .. .. .. .. .. 
 . 
 
 .. 

     
 . . . . .   
 
 . 

   
  
 ∑m 


 m  an 
 xnk yk 

 ∑ ∑m ∑m ∑m  
 

 xnk xnk xk xnk x2k · · · xnk xnk  k=0
k=0 k=0 k=0 k=0

Observação 4.2 I) Tanto o problema geral como o polinomial, geram matrizes simétricas, o
que facilita bastante a solução numérica do sistema linear.

II) Podemos estimar o grau do polinômio a ser ajustado através do gráfico dos pontos de suporte.

Exemplo 4.3 O número de bactérias, por unidade de volume, existentes em uma cultura após x
horas é dado na tabela abaixo:
número de horas 0 1 2 3 4 5 6
número de bactérias 32 34 37.5 39 43 47 50

Estime o número de bactérias (por unidade de volume) existentes na cultura após um perı́odo
de 24 horas.

solução:

Podemos ver através do gráfico abaixo, que um ajuste polinomial linear, φ(x) = a0 + a1 x, é uma
escolha razoável:

50

48

46

44

42

40

38

36

34

32
0 1 2 3 4 5 6

Determinando os coeficientes:
   m 

m

 ∑ 

 m+1 xk    
 yk 

   a0  
 

 k=0   k=0 
 · =
 m     
 ∑ ∑m  a1 
 ∑
m 

 x2k  
 

xk 
 xk yk 

k=0 k=0 k=0
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 40

onde

6 ∑
6 ∑
6 ∑
6
m + 1 = 7, xk = 21, x2k = 91, yk = 282.5 e xk yk = 933,
k=0 k=0 k=0 k=0
portanto, [ ] { } { }
7 21 a0 282.5
· = ,
21 91 a1 933
cuja solução é a0 = 31.1964 e a1 = 3.0536. Concluimos que o conjunto de pontos será ajustado
pelo polinômio
φ(x) = 31.1964 + 3.0536x,
e portanto, a estimativa do número de bactérias após um perı́odo de 24 horas será de φ(24) bactérias,
onde
φ(24) = 31.1964 + 3.0536(24) = 104.4829.

4.7 Exercı́cios
1. Considere os seguintes pontos suporte x0 = 0, x1 = 0.6 e x2 = 0.9. Encontre polinômios
de grau 1 e de grau 2 para aproximar f (0.45), onde f é uma função dada abaixo. Encontre,
também, o valor do erro absoluto:

a) f (x) = cos x

b) f (x) = 1 + x
c) f (x) = ln(x + 1)

2. Sabendo-se que f (0.81) = 16.94410, f (0.83) = 17.56492, f (0.86) = 18.50515 e f (0.87) =


18.82091, calcule um valor aproximado de f (0.84), usando:

a) Polinômios de Lagrange de graus 1, 2 e 3


b) Polinômios de Newton de graus 1, 2 e 3

3. Considere a tabela abaixo:

altura(cm) 183 173 188 163 178


peso(kg) 79 69 82 63 73

Usando um interpolador polinomial de grau 2, calcule a altura aproximada de uma pessoa


com peso de 70kg.

4. Qual é a diferença entre interpolação polinomial e o ajuste de curvas pelo método dos mı́nimos
quadrados? É possı́vel obter um mesmo polinômio que interpola e faz o ajuste de curvas pelo
método dos mı́nimos quadrados?

5. Dada a tabela abaixo, faça o gráfico de dispersão dos dados e ajuste uma curva da melhor
maneira possı́vel:
x 0.5 0.75 1.0 1.5 2.0 2.5 3.0
y −2.8 −0.6 1.0 3.2 4.8 6.0 7.0
CAPÍTULO 4. APROXIMAÇÃO DE FUNÇÕES 41

6. Ajuste os dados da tabela abaixo através de um polinômio de grau 2:

i 1 2 3 4 5
xi 12 16 20 30 40
yi 1.64 2.72 3.96 7.60 11.96

7. Monte o “Problema Matricial de Ajuste” utilizando funções base do tipo:

a) φj (x) = xj
b) φj (x) = ejx

8. Ajuste os pontos da tabela abaixo à uma curva de equação y = a0 + a1 ex :

xi −0.8 −0.4 0.0 0.4 0.8


yi 5.67 5.92 8.31 9.91 14.21

9. Os valores funcionais mostrados na tabela a seguir são medidas de uma quantidade A(t) em
metros que varia no tempo. Escolha convenientemente um conjunto de funções φj (x) para
encontrar uma aproximação para A(t) que ajuste, por mı́nimos quadrados, os seguintes dados:

t 0 2 4 6 8 10
A(t) 1.0 1.6 1.4 0.6 0.2 0.8

10. Aproximar a função y = 3 x no intervalo [0, 1] por um polinômio de terceiro grau, usando
os valores de x com incremento de 0.1. Resolva este mesmo problema com um polinômio de
segundo grau e compare os resultados.
Capı́tulo 5

Integração Numérica

Neste capı́tulo veremos como calcular numericamente uma integral definida. Muitas integrais não
tem solução exata, ou tem solução exata muito complexa, por esse motivo, os métodos numéricos
surgem como uma ferramenta super importante para o cálculo de tais integrais.
Sabemos que a integral definida de uma função f (x) pode ser vista como a área sob a curva
y = f (x), por exemplo, se f (x) = x2 então, como vemos na figura a seguir, sua área (no intervalo
[0, 1]) será dada pela seguinte integral

y=x2
A

0 1 x

∫ 1
x3 1 1
A= x2 dx = = u.a.
0 3 0 3

A seguir, apresentaremos três métodos numéricos que aproximam a área acima.

5.1 Método dos Trapézios

O método dos trapézios substitui o integrando f (x) da integral por uma função linear por partes.
Considere a figura 5.1. Primeiro, aproximamos a integral do exemplo anterior pela área do triângulo
definido ligando os pontos (0, f (0)) e (1, f (1)), em seguida, acrescentamos o ponto (0.5, f (0.5)) e
aproximamos a integral pela soma das áreas das duas figuras planas definidas.

A idéia do método é particionar o intervalo de integração, de modo a aproximar ao máximo o


valor da integral definida. Vamos generalizar um pouco mais o problema então. Considere a figura
abaixo:

42
CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 43

erro A = 1(1)/2 = 0.5

0 1 x

Podemos minimizar o erro, particionando o intervalo (0,1):

A = A1 + A2 = 0.0625 + 0.3125 = 0.375


erro

0 0.5 1 x

f(x)
fi fi+1
fi+2

Ai A
i+1
A A2
1

x0 x1 x2 xi xi+1 xi+2 xn

Ao particionarmos o intervalo de integração [x0 , xn ], definimos vários trapézios, e assim, aprox-


imamos a integral pela soma das áreas desses trapézios. Portanto, temos as seguintes fórmulas:
1. Método dos Trapézios Elementar (2 pontos de integração):
h( )
I= fi + fi+1
2
2. Método dos Trapézios Composto (n + 1 pontos de integração):
h( )
I= f0 + 2f1 + · · · + 2fn−2 + 2fn−1 + fn ,
2
onde h = xi+1 − xi é constante e fi = f (xi ).

Observação 5.1 1. A precisão do método é inversamente proporcional ao passo:


prec ↑↓ ⇔ h ↓↑ .
CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 44

2. A medida que refinamos nossa partição, diminuimos o erro. Porém, a partir de um valor
crı́tico, isto deixa de ocorrer, conforme ilustra a figura abaixo:

arredondamento
erro truncamento

n
n crítico

A partir de n crı́tico, os erros de arredondamento destroem a solução aproximada.

5.2 Método de Simpson

No método de Simpson, ao invés de substituirmos o integrando f (x) por uma poligonal, empre-
garemos uma aproximação parabólica, necessitando, portanto, agrupar os pontos 3 a 3.

y
f(x)
f(c)
f(b)
f(a)

a c b x

∫b
Para calcularmos a integral a f (x)dx (veja figura acima) com o método dos trapézios, uti-
lizarı́amos 2 pontos de integração e aproximarı́amos a integral pelo valor da área A = c1 f (a)+c2 f (b),
com c1 = c2 = b−a2 .
No método de Simpson teremos três coeficientes, aproximando a integral pela seguinte expressão:

A = c1 f (a) + c2 f (c) + c3 f (b).

O problema é determinarmos esses coeficientes, para isso, aplicaremos a fórmula geral acima a
três situações nas quais ela fornecerá a solução exata da integral.
∫ h
A1 = (1)dx = 2h
−h

∫ h
A2 = xdx = 0
−h

∫ h
2h3
A3 = x2 dx =
−h 3
CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 45

111111111
000000000
000000000
111111111
1

000000000
111111111
000000000
111111111
A 1

000000000
111111111
000000000
111111111
111111111111111111
000000000000000000
−h h x

11111111
00000000 y=x
00000000
11111111
00000000
11111111
00000000
11111111
11111111111111111
00000000000000000
A
00000000
11111111
−h
2
h x

00000000
11111111
00000000
11111111
y

1111111111
0000000000 y=x2
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
111111111111111111
000000000000000000
0000000000
1111111111
A 3

−h h x

Montamos, então, o seguinte sistema:



 c1 f1 (−h) + c2 f1 (0) + c3 f1 (h) = 2h
c1 f2 (−h) + c2 f2 (0) + c3 f2 (h) = 0
 2h3
c1 f3 (−h) + c2 f3 (0) + c3 f3 (h) = 3

onde f1 (x) = 1, f2 (x) = x e f3 (x) = x2 .


Resolvendo esse sistema encontramos,
h 4h
c1 = c3 = e c2 =
3 3
e assim, a fórmula de Simpson elementar (3 pontos de integração) será dada por

h( )
Ai = fi−1 + 4fi + fi+1
3
onde fi = f (xi ) e h = xi+1 − xi é constante.

A generalização do método de Simpson, ou seja, a fórmula composta de Simpson com n + 1


pontos de integração, sendo n um número par, será dada por

h( )
A= f0 + 4f1 + 2f2 + 4f3 + 2f4 + · · · + 2fn−2 + 4fn−1 + fn
3

onde fi = f (xi ) e h = xi+1 − xi também é constante.


CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 46

Exemplo 5.1 Calcule a integral abaixo utilizando o método dos trapézios e o método de Simpson,
ambos com 5 pontos de integração ∫ 6
I(f ) = x2 dx.
2

xi fi
2 4
3 9
4 16
5 25
6 36
h = xi+1 − xi = 1, ∀i.

a) Método dos Trapézios

h( )
A = f0 + 2f1 + 2f2 + 2f3 + f4
2
1( )
= 4 + 2(9) + 2(16) + 2(25) + 36
2
140
= = 70 u.a (solução aproximada).
2
b) Método de Simpson

h( )
A = f0 + 4f1 + 2f2 + 4f3 + f4
3
1( )
= 4 + 4(9) + 2(16) + 4(25) + 36
3
208
= = 69.33 u.a. (solução exata).
3

5.3 Método da Quadratura Gaussiana

A principal diferença entre o método de Gauss e os métodos apresentados anteriormente, é que, em


Gauss, os pontos de integração deixam de ser constantes e passam a ser incógnitas.
Considere a figura 5.1, na qual empregaremos o método dos Trapézios para aproximar a integral.

Como podemos ver, o erro envolvido é muito grande. A idéia que Gauss teve foi de , através da
localização ótima dos pontos de integração, calcular a integral com erro nulo.

dedução da fórmula da quadratura de Gauss

Por se tratar de uma aproximação linear, podemos escrever

A = c1 f (x1 ) + c2 f (x2 ),
CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 47

erro

A B

a b x

Figura 5.1: erro no método dos trapézios

As áreas hachuradas se contrabalançam,


anulando o erro.
C D

c a b d x

onde, não só os coeficientes c1 e c2 são incógnitas, mas também os pontos de integração x1 e x2
devem ser calculados. Para determiná-los, montaremos 4 situações nos quais a fórmula nos dá a
solução exata.
∫ 1
A1 = (1)dx = 2
−1

∫ 1
A2 = xdx = 0
−1

∫ 1
2
A3 = x2 dx =
−1 3
∫ 1
A4 = x3 dx = 0
−1

Montamos, então, o seguinte sistema:




 c1 f1 (x1 ) + c2 f1 (x2 ) = 2

c1 f2 (x1 ) + c2 f2 (x2 ) = 0
 c1 f3 (x1 )
 + c2 f3 (x2 ) = 32

c1 f4 (x1 ) + c2 f3 (x2 ) = 0

onde f1 (x) = 1, f2 (x) = x, f3 (x) = x2 e f3 (x) = x3 .


CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 48

111111111
000000000
000000000
111111111
1

000000000
111111111
000000000
111111111
A 1

000000000
111111111
000000000
111111111
111111111111111111
000000000000000000
−1 1 x

11111111
00000000
00000000
11111111
y=x

00000000
11111111
00000000
11111111
11111111111111111
00000000000000000
A 2

00000000
11111111
−1 1 x

00000000
11111111
00000000
11111111
y

1111111111
0000000000
0000000000
1111111111
y=x2
y=x2

0000000000
1111111111
0000000000
1111111111
111111111111111111
000000000000000000
0000000000
1111111111
A 3

−1 1 x

y=x3

000000000000000000
111111111111111111
−1 A 4 1
x

O sistema fica, então, da seguinte forma




 c1 (1) + c2 (1) = 2

c1 (x1 ) + c2 (x2 ) = 0

 c (x2 ) + c2 (x22 ) = 23
 1 13
c1 (x1 ) + c2 (x32 ) = 0
assim, assumindo c1 = c2 = 1, teremos a seguinte solução
√ √
1 1
x1 = − e x2 = .
3 3
Logo a fórmula da Quadratura de Gauss com 2 pontos de integração será dada por
√ )
( (√ 1 )
1
A=f − +f
3 3
CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 49

O raciocı́nio anterior pode ser estendido a n pontos de integração. Abaixo mostramos uma
tabela com os valores dos c′i s e dos x′i s avaliados para n = 2, 3 e 4 pontos de integração.

n ci xi
2 c1 = c2 = 1 −x1 = x2 = 0.5773
3 c1 = c3 = 0.5555 −x1 = x3 = 0.7746
c2 = 0.8889 x2 = 0
4 c1 = c4 = 0.3479 −x1 = x4 = 0.8611
c2 = c3 = 0.6522 −x2 = x3 = 0.33998

troca de variáveis

Como a fórmula de Gauss foi deduzida para x ∈ [−1, 1], devemos realizar uma troca das variáveis
de integração para um domı́nio genérico x ∈ [a, b], de modo a podermos calcular a integral
∫ b
I(f ) = f (t)dt.
a
Com a troca de variáveis, criamos a função t(x) = Ax + B tal que
∫ b
I(f ) = f (t)dt
∫ 1 a
( )
= f t(x) t′ (x)dx
∫ −1
1 [ ( )]
= Af t(x) , dx
−1 | {z }
F (x)

e esta nova função F (x) será o integrando usado na fórmula de Gauss, conforme ilustra o exemplo
a seguir.
Exemplo 5.2 Resolver a integral abaixo utilizando o método da quadratura de Gauss com 2 pontos
de integração ∫ 6
I(f ) = t2 dt.
2
O domı́nio de t é [2, 6]. Vamos, então, trocá-lo para x ∈ [−1, 1] segundo a função t(x) = Ax+B:

t = 2 ↔ x = −1 ⇒ A(−1) + B = 2
t = 6 ↔ x = 1 ⇒ A(1) + B = 6,
portanto, A = 2 e B = 4, assim, t(x) = 2x + 4. Temos então,
∫ 6
I(f ) = t2 dt
∫ 1 2
( )
= 2f 2x + 4 dx
∫−11
= 2(2x + 4)2 dx,
−1

e assim, F (x) = 2(2x + 4)2 . Empregando a fórmula de Gauss para 2 pontos de integração
( √ ) (√ )
I(f ) = F − 13 + F 1
3

( √ )2 (√ )2
= 2 − 13 + 4 + 2 1
3 + 4

= 69.33 u.a. (solução exata)


CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 50

5.4 Exercı́cios

∫ 0
1. a) Aproxime o valor da integral x2 ex dx utilizando o método dos trapézios e o método
−2
de Simpson com 5 pontos de integração (utilize 6 casas decimais);
b) Sabendo que o valor exato da integral acima, com 6 casas decimais, é I = 0.646647,
encontre o erro absoluto para cada método.

2. a) Utilize o método de Simpson para aproximar a integral abaixo com 5 pontos de integração
(utilize 5 casas decimais):
∫ 1
(x5 − x3 − x − 1) dx.
0

b) O método de Simpson fornece solução exata nesse caso? Porque?

3. Calcule as integrais abaixo pelo método dos trapézios e pelo método de Simpson, usando 4 e
6 divisões do intervalo dado:
∫ 2 ∫ 4
−x √
a) e dx c) x dx
1 1
∫ 5 ∫ 0.6
1 1
b) √ dx d) dx.
2 x 0 1+x

4. Dê um exemplo de uma função, onde o método dos trapézios calcula o valor exato da integral.

5. Dê um exemplo de uma função, onde o método de Simpson calcula o valor exato da integral.

6. Calcule a área definida por f (x) pelo método de Simpson:

x 2 4 6 8 10 12 14 16 18
f (x) 0.5 0.9 1.1 1.3 1.7 2.1 1.5 1.1 0.6

7. Considere a integral abaixo ∫ 1


x3 ex dx.
0
Sabe-se que o valor exato da integral é I = 0.5634363. Denotemos por It (h) e Is (h), o resultado
da integral obtido, respectivamente, pelos métodos dos trapézios e de Simpson. Seja h = 0.5.

a) Calcule It (h) e It (h/2);


b) Calcule Is (h) e Is (h/2);
4It (h/2) − It (h)
c) Calcule R1 (h) = (Método de Romberg);
3
d) Compare com o valor exato e conclua qual é o melhor resultado.

8. A curva de carga tı́pica de uma cidade é dada pela figura abaixo:

Considere as medidas de potência a cada hora:


CAPÍTULO 5. INTEGRAÇÃO NUMÉRICA 51

MW

31

Horas
0 2 4 6 8 10 12 14 16 18 20 22 24

Hora M W Hora M W Hora M W Hora M W


1 30 7 40 13 42 19 39
2 28 8 39 14 38 20 45
3 29, 8 9 33 15 34 21 50
4 32 10 32, 5 16 30 22 44
5 33 11 31 17 29 23 40
6 38 12 39 18 31 24 30

Estime o consumo de energia diário dessa cidade utilizando os métodos abaixo e, em seguida,
compare os resultados:

a) Método dos trapézios composto;


b) Método de Simpson composto.
Referências Bibliográficas

[1] Sperandio, D., Mendes, J. T., Monken e Silva, L. H., Cálculo Numérico: Caracterı́sticas
Matemáticas e Computacionais dos Métodos Numéricos. Editora Pearson Prentice Hall, São
Paulo, 2003.

[2] Lay, D. C., Álgebra Linear e suas Aplicações. Editora LTC, Rio de Janeiro, 2a edição, 1999.

[3] Leon, S. J., Álgebra Linear com Aplicações. Editora LTC, Rio de Janeiro, 4a edição, 1999.

[4] Golub, G. H., Van Loan, C. F., Matrix Computations. Johns Hopkins University Press, 2nd
ed., 1989.

52

Você também pode gostar