Nothing Special   »   [go: up one dir, main page]

Método de Newton

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 17

INTRODUCCIÓN

En el vasto campo del análisis numérico y la optimización, los métodos de


aproximación emergen como herramientas esenciales para la resolución de problemas que,
de otro modo, serían inabordables mediante técnicas analíticas exactas. Estos métodos, que
se sitúan en la intersección de las matemáticas puras y aplicadas, permiten a los
investigadores y profesionales explorar soluciones a ecuaciones complejas y optimizar
funciones que son fundamentales en diversas aplicaciones científicas y de ingeniería.

La optimización, en particular, juega un papel crucial en la toma de decisiones y en


la mejora de procesos en áreas tan diversas como la economía, la logística, la inteligencia
artificial y la física. Por su parte, el análisis numérico proporciona el marco para desarrollar
y analizar algoritmos que aproximen soluciones numéricas con un grado de precisión
controlado.

Este trabajo se adentra en el estudio de los métodos de aproximación más


prominentes, como el Método de Newton, la Secante, y la Búsqueda de Intervalos Iguales,
así como técnicas más refinadas como el Método de la Sección Áurea y el Método de
Fibonacci. A través de una exploración detallada de sus fundamentos teóricos,
procedimientos algorítmicos y aplicaciones prácticas, buscamos no solo comprender su
mecánica sino también apreciar su elegancia y eficacia.

Al desentrañar la belleza inherente a estos métodos y su poder para desbloquear


soluciones aproximadas, este trabajo no solo es un homenaje a la ingeniosidad matemática
sino también un recurso valioso para aquellos que buscan aplicar estas técnicas en la
resolución de problemas del mundo real.

MÉTODOS DE APROXIMACIÓN NUMÉRICA


Método de Newton (o Newton-Raphson):

Es un método iterativo que permite encontrar aproximaciones de las raíces de


una función real. Se basa en la construcción de tangentes sucesivas a la función,
partiendo de un punto inicial cercano a la raíz.

1. Elige un valor inicial x o que sea una aproximación a la raíz.


2. Calcula la función y su derivada en x o, es decir, ( f( x o) ) y ( f’( x o) ).
3. Aplica la fórmula de Newton para obtener una nueva aproximación:

f ( xn)
x n+1=x n −
f ' ( xn )

4. Repite el proceso con ( x n+1 ) hasta alcanzar la precisión deseada.

Ejemplos:

1. Encuentra una aproximación de la raíz de la función

2
f (x)=x −2

usando el Método de Newton, comenzando con un valor inicial de

x o=1

Con tol=0.001

Sol:

f ´ ( x )=2 x

2
f ( x o ) =1 −2=−1

f ´ ( x o ) =2∗1=2
f ( xo) −1 3
x 1=x o− '
=1− =
f ( xo ) 2 2

()
2
3 1
f ( x1)= −2=
2 4

2∗3
f ´ ( x1 )= =3
2

1
f ( x1) 3 4
x 2=x 1− = − =1.4167
f ´ ( x1 ) 2 3

Xi F(xi) Error
x1 1.5 0.25 0.5
x2 1.4167 0.00694 0.08333
x3 1.4142 0.00001 0.00245
x4 1.4142 0.00000 0.00000

Sol: x=1.4142

2. Usa el Método de Newton para aproximar la raíz de

g(x )=cos (x)−x

con un valor inicial de

x 0=0.5

Con tol=0.001

Sol:

g ´ ( x )=−sin ( x )−1

g ( x o )=cos ( 0.5 )−0.5=0.3779


g ´ ( x o )−sin ( 0.5 )−1=−1.4794

g ( xo) 0.3779
x 1=x 1=x o− =0.5− =0.7554
'
g ( xo ) −1.4794

Tabla:

Iteraciones
Paso x F (X) |x(i) - x(i-1)|
x1 0.7552 -0.02710 0.25522
x2 0.7391 -0.00009 0.01608
x3 0.7391 -0.00000 0.00006

Sol: x=0.7391

Método Quasi-Newton:

Son variantes del Método de Newton que no requieren el cálculo de la segunda


derivada (o matriz hessiana en varias dimensiones). Son útiles en optimización
cuando el cálculo de derivadas es costoso o complicado.

1. Establece un punto inicial x o y una aproximación inicial de la matriz inversa


de la Hessian ( H 0).
2. Calcula la dirección de búsqueda ( pk ) como ( - H k ∇ f ( x k ) ).
f ( x +a k )−f (x−ak )
3. Encuentra el siguiente punto x k+1 =x k −α k donde (
2 [ f ( x +a k )−2 f ( x ) +f ( x−ak ) ]
α k ) es la longitud del paso.
4. Actualiza la aproximación de la matriz ( H k +1 ) usando la información de los
gradientes y los cambios en ( x ).
5. Repite el proceso hasta que el gradiente sea cercano a cero.

Método de la Secante:

Es un método iterativo para encontrar raíces de funciones que, a diferencia del


Método de Newton, no requiere el cálculo de la derivada. Utiliza dos
aproximaciones iniciales y construye secantes sucesivas para aproximar la raíz.

1. Elige dos valores iniciales x o y x 1 cerca de la raíz.


2. Calcula la función en esos puntos, f ( x 0 ) y f ( x 1 ).
3. Aplica la fórmula de la secante para obtener una nueva aproximación:

x n− xn −1
x n+1=x n −f (x n )
f (x n)−f (x n−1 )

4. Repite el proceso con x n+1 y x n hasta alcanzar la precisión deseada.

 Ejercicio1: Encuentra una aproximación de la raíz de la función usando el


método de la secante entre 1 y 2

2
f (x)=x −2

x o=1 , x 1=2

2
f ( x o ) =1 −2=−1

2
f ( x 1 ) =2 −2=2

x 1−x o 2∗2−1
x 2=x 1−f ( x 1 ) =2− =1.33333333
f ( x 1) −f ( x o ) 2−(−1 )

f ( x 2 ) =( 1.33333333 )2−2=−0.222222222
x 2−x 1 0.22222222∗1.33333333−2
x 3=x 2−f ( x 2 ) =1.33333333+ =1.4
f ( x 2 )−f ( x1 ) −0.2222222−2

Siguientes Iteraciones:

Paso x F(x) |x(i) - x(i-1)|


x2 1.3333 -0.22222 0.66667
x3 1.4000 -0.04000 0.06667
x4 1.4146 0.00119 0.01463
x5 1.4142 -0.00001 0.00042

Sol: x=1.4142
 Ejercicio 2: Encuentra una aproximación de la raíz de la función usando el
método de la secante entre 1 y 2

g ( x )=cos ( x )−x

x o=0 , x 1=1

g ( x o )=cos ( 0 )−0=1

g ( x 1 )=cos (1 )−1=−0.459697

x 1−x o 1−0
x 2=x 1−g ( x 1) =1−(−0.459697) =0.685073
g ( x1 ) −g ( x o ) −0.459697−1

Continuación:

Paso x F(x) |x(i) - x(i-1)|


x2 0.7650 -0.04368 1.23497
x3 0.7423 -0.00538 0.02274
x4 0.7391 -0.00003 0.00320
x5 0.7391 -0.00000 0.00002
Sol: x=0.7391

Método de Búsqueda por Intervalos Iguales:

El método de búsqueda a intervalos iguales es una técnica de optimización


numérica que se utiliza para encontrar el punto óptimo de una función unimodal en
un intervalo dado. Aquí te explico detalladamente cómo funciona:
1. Definir el intervalo inicial: Selecciona un intervalo inicial (a,b) donde crees
que se encuentra el óptimo de la función.
2. Dividir el intervalo: Divide el intervalo en (n) subintervalos de igual longitud.
Esto se hace calculando (n) puntos equidistantes entre (a) y (b).
3. Evaluar la función: Calcula el valor de la función en cada uno de los (n)
puntos.
4. Identificar el subintervalo óptimo: Encuentra el subintervalo donde se
produce el mayor descenso (para minimización) o ascenso (para
maximización) de la función.
5. Actualizar el intervalo: Elige el subintervalo óptimo como el nuevo intervalo
(a,b) y repite el proceso.
6. Convergencia: Continúa iterando hasta que la longitud del intervalo sea
menor que un umbral de tolerancia predefinido, lo que indica que se ha
encontrado una aproximación suficientemente buena del óptimo.
 Ejemplo 1: Supongamos que queremos minimizar la función f(x) =
2
−x + 1 en el intervalo (0,2) y decidimos dividir este intervalo en 4
subintervalos iguales. Los puntos serían (0, 0.5, 1, 1.5, 2).
Evaluamos f(x) en estos puntos y encontramos que el valor más bajo
es en (x=1). Por lo tanto, el nuevo intervalo para la siguiente iteración
sería (0.5,1.5)., continuando con las iteraciones se llega a la
solución: x=1
 Ejemplo 2: Si queremos maximizar la función g( x )=−x 2 +4 x en el
intervalo (1, 3), podríamos dividirlo en 4 subintervalos iguales. Los
puntos serían (1, 1.5, 2, 2.5, 3). Al evaluar g(x) en estos puntos,
vemos que el valor más alto es en (x=2). Entonces, el nuevo
intervalo sería (1.5, 2.5). continuando con las iteraciones, se obtiene
que: x=2

Este método es simple y no requiere el cálculo de derivadas, lo que lo hace


útil cuando la función es compleja o no diferenciable. Sin embargo, puede ser
menos eficiente que otros métodos que utilizan información de las derivadas,
como el Método de Newton o el Método de la Secante

Método de la Bisección:

También conocido como método de dicotomía, es un algoritmo de búsqueda de


raíces que se basa en el Teorema del Valor Intermedio. Este teorema establece
que si una función continua f (x) cambia de signo en un intervalo (a, b), entonces
existe al menos una raíz en ese intervalo. El método de bisección es un proceso
iterativo que sigue los siguientes pasos:
1. Seleccionar un intervalo inicial ([a, b]) donde la función cambia de signo, es
decir, ( f (a)f (b)< 0 ).
a+ b
2. Calcular el punto medio del intervalo, c= , y evaluar f (c ).
2
3. Determinar el nuevo intervalo:
o Si f (c ) es cero o suficientemente cercano a cero, (c) es la raíz
buscada.
o Si f (c ) tiene el mismo signo que f (a) , entonces la raíz está en el
intervalo (c, b), por lo que se actualiza (a = c).
o Si f (c ) tiene el mismo signo que f (b), entonces la raíz está en el
intervalo ([a, c]), por lo que se actualiza ( b = c ).
4. Repetir el proceso con el nuevo intervalo hasta que la longitud del intervalo
sea menor que la tolerancia deseada, lo que indica que se ha encontrado
una aproximación suficiente de la raíz.

 Ejemplo 1: Supongamos que queremos encontrar la raíz de la función


3
f ( x)=x −x−2en el intervalo (1, 2). Sabemos que ( f (1)f (2)< 0 ), por lo que
hay una raíz en ese intervalo. Calculamos el punto medio c = 1.5 y
evaluamos f (1.5). Dependiendo del signo de f (1.5), actualizamos el
intervalo y repetimos el proceso.

Se muestra la tabla:
Paso x F(x) |x(i) - x(i-1)|
x2 1.5 -0.125 0.5
x3 1.75 1.60938 0.25
x4 1.625 0.66602 0.125
x5 1.5625 0.25220 0.0625
x6 1.5313 0.05911 0.03125
x7 1.5156 -0.03405 0.01563
x8 1.5234 0.01225 0.00781
x9 1.5195 -0.01097 0.00391
x10 1.5215 0.00062 0.00195
x11 1.5205 -0.00518 0.00098

 Ejemplo 2: Para la función g(x )=cos (x)−x en el intervalo ([0, 1]), seguimos
el mismo proceso. Calculamos c=0.5, evaluamos g(0.5), y determinamos el
nuevo intervalo para la siguiente iteración.
Se muestra la tabla:
Paso x F(x) |x(i) - x(i-1)|
x2 0.5 0.37758 0.5
x3 0.75 -0.01831 0.25
x4 0.625 0.18596 0.125
x5 0.6875 0.08533 0.0625
x6 0.7188 0.03388 0.03125
x7 0.7344 0.00787 0.01563
x8 0.7422 -0.00520 0.00781
x9 0.7383 0.00135 0.00391
x10 0.7402 -0.00192 0.00195
x11 0.7393 -0.00029 0.00098

El método de bisección es robusto y siempre converge a una raíz si se elige


correctamente el intervalo inicial y la función es continua en ese intervalo. Sin
embargo, puede ser más lento que otros métodos que utilizan derivadas, como el
Método de Newton

Método de Fibonacci

Es una técnica de optimización que utiliza la secuencia de Fibonacci para


dividir el intervalo de búsqueda de la raíz o el extremo de una función unimodal. A
diferencia del método de bisección, que divide el intervalo en dos partes iguales, el
método de Fibonacci utiliza la secuencia de Fibonacci para determinar los puntos
de división, lo que resulta en una convergencia más rápida hacia la solución. Aquí
te explico cómo funciona:
1. Definir la secuencia de Fibonacci: Comienza con los dos primeros términos
de la secuencia, 0 y 1, y genera los siguientes términos sumando los dos
anteriores. Por ejemplo, 0, 1, 1, 2, 3, 5, 8, 13, etc.
2. Establecer el intervalo inicial: Selecciona un intervalo inicial (a, b) donde se
cree que se encuentra el extremo de la función.
3. Calcular los puntos de división: Utiliza los números de Fibonacci para
determinar los puntos de división dentro del intervalo. Por ejemplo, si los
dos últimos números de Fibonacci utilizados son F n y F n+1, los puntos de
Fn F n−1
división serían a+ (b−a) y a+ (b−a) .
F n+1 F n+1
4. Evaluar la función en los puntos de división: Calcula el valor de la función
en los puntos de división.
5. Actualizar el intervalo: Descarta la parte del intervalo que contiene el peor
valor de la función y actualiza los puntos de división utilizando los siguientes
números de Fibonacci.
6. Repetir el proceso: Continúa el proceso hasta que se alcance un número
suficientemente alto de la secuencia de Fibonacci o hasta que el intervalo
se reduzca a un tamaño aceptable.

 Ejemplo 1: Supongamos que queremos minimizar la función f (x)=x2 en el


intervalo (-5, 15) con n=7. Establecemos los números de Fibonacci y
calculamos los puntos de división. Evaluamos f (x) en esos puntos y
actualizamos el intervalo según los resultados.

F n−k F 6 13
ratio= = =
F n−k−1 F 7 21

I =−5

D=15

F n−1 13
x 2=I + ∗( D−I )=−5+ ∗( 15+5 )=7.3809
Fn 21

x 1=D+ I −x 2=15−5−7.3809=2.6191

f ( x 1 ) =6.8596
f ( x 2 ) =54.4776

Como f ( x 2 ) > f ( x 1) se actualiza D

I =−5

D=7.3809

Se repite:
k ratio I D x1 x2 f(x1) f(x2) I/D

1 0.61904762 -5 15 2.61904762 7.38095238 6.85941043 54.478458 I

2 0.61538462 -5 7.38095238 -0.23809524 2.61904762 0.05668934 6.85941043 I

3 0.625 -5 2.61904762 -2.14285714 -0.23809524 4.59183673 0.05668934 D

4 0.6 -2.14285714 2.61904762 -0.23809524 0.71428571 0.05668934 0.51020408 I

5 0.66666667 -2.14285714 0.71428571 -1.19047619 -0.23809524 1.41723356 0.05668934 D

6 0.5 -1.19047619 0.71428571 -0.23809524 -0.23809524 0.05668934 0.05668934

7 1 -0.23809524 0.71428571 -0.23809524 0.71428571 0.05668934 0.51020408

La solución se encuentra entre (-0.2381, 0.7143)

 Ejemplo 2: Para maximizar la función g( x )=−x 2 +4 x en el intervalo (1,3) con


n=5,seguimos el mismo procedimiento, utilizando la secuencia de Fibonacci
para determinar los puntos de división y actualizando el intervalo en cada
paso.
k ratio I D x1 x2 f(x1) f(x2) I/D

1 0.6190476 1 3 1.7619047 2.2380952 10.151927 13.961451 I


2 6 4 4 2

2 0.6153846 1 2.2380952 1.4761904 1.7619047 2.1791383 3.1043083 I


2 4 8 6 2 9

3 0.625 1 1.7619047 1.2857142 1.4761904 1.6530612 2.1791383 I


6 9 8 2 2

4 0.6 1 1.4761904 1.1904761 1.2857142 1.4172335 1.6530612 I


8 9 9 6 2

5 0.6666666 1 1.2857142 1.0952381 1.1904761 1.1995464 1.4172335


7 9 9 9 6

La solución se encuentra entre (1.0952, 1.1905)


El método de Fibonacci es particularmente útil cuando el costo de evaluar la
función es alto, ya que reduce el número de evaluaciones necesarias en
comparación con otros métodos

Método de la Sección Aurea

El Método de la Sección Áurea es una técnica de optimización que se basa en


la proporción áurea, un número irracional aproximadamente igual a
1.618033988749895, conocido también como Phi (ϕ ¿. Este método se utiliza para
encontrar el mínimo o máximo de una función unimodal en un intervalo dado. Aquí
te explico el procedimiento detallado:

1. Definir el intervalo inicial: Selecciona un intervalo inicial ([a, b]) donde se


cree que se encuentra el extremo de la función.
2. Calcular los puntos de división: Utiliza la proporción áurea para determinar
dos puntos dentro del intervalo, ( c ) y ( d ), de tal manera que:

b−a
c=b−
ϕ

b−a
d=a+
ϕ

3. Evaluar la función en los puntos de división: Calcula el valor de la función


en ( c ) y ( d ).
4. Actualizar el intervalo:
o Si ( f (c )> f (d)), entonces el nuevo intervalo será ([c, b]).
o Si ( f (c )< f (d) ), entonces el nuevo intervalo será ([a, d]).
5. Repetir el proceso: Continúa el proceso con el nuevo intervalo, recalculando
los puntos ( c ) y ( d ) utilizando la proporción áurea, y evaluando la función
en estos nuevos puntos.
6. Convergencia: El método continúa hasta que la longitud del intervalo se
reduce a un tamaño menor que la tolerancia deseada, lo que indica que se
ha encontrado una aproximación suficiente del extremo.

 Ejemplo 1: Para minimizar la función f ( x)=x2 en el intervalo (0,2),


aplicamos el método de la sección áurea. Calculamos los puntos (c ) y (d) y
evaluamos f(x) en esos puntos. Según los resultados, actualizamos el
intervalo y repetimos el proceso.

2−0
c=2− =0.76393202
1.618033988749895

2−0
d=0+ =1.23606798
1.618033988749895

f ( c ) =0.583

f ( d )=1.5278

Como f ( c ) < f (d) se mantiene a y se reemplaza b por d

Se continua en la tabla:

Se
phi a b c d f© f(d) mantiene
1.61803399 0 2 0.76393202 1.23606798 0.58359214 1.52786405 a
1.61803399 0 1.23606798 0.47213595 0.76393202 0.22291236 0.58359214 a
1.61803399 0 0.76393202 0.29179607 0.47213595 0.08514495 0.22291236 a
1.61803399 0 0.47213595 0.18033989 0.29179607 0.03252248 0.08514495 a
1.61803399 0 0.29179607 0.11145618 0.18033989 0.01242248 0.03252248 a
1.61803399 0 0.18033989 0.06888371 0.11145618 0.00474497 0.01242248 a
1.61803399 0 0.11145618 0.04257247 0.06888371 0.00181242 0.00474497 a
1.61803399 0 0.06888371 0.02631123 0.04257247 0.00069228 0.00181242 a
1.61803399 0 0.04257247 0.01626124 0.02631123 0.00026443 0.00069228 a
1.61803399 0 0.02631123 0.01005 0.01626124 0.000101 0.00026443 a
1.61803399 0 0.01626124 0.00621124 0.01005 3.858E-05 0.000101 a
1.61803399 0 0.01005 0.00383876 0.00621124 1.4736E-05 3.858E-05 a

La solución es x=0.

 Ejemplo 2: Para maximizar la función g(x )=−x 2 +4 x en el intervalo ([2, 3]),


seguimos el mismo procedimiento, utilizando la proporción áurea para
determinar los puntos de división y actualizando el intervalo en cada paso.

Aplicando el mismo método anterior se obtiene la siguiente tabla:

Se
phi a b c d f© f(d) mantiene
1.61803399 2 3 2.38196601 2.61803399 15.2016261 17.3262379 a
1.61803399 2 2.61803399 2.23606798 2.38196601 5 5.67376208 a
1.61803399 2 2.38196601 2.14589803 2.23606798 4.60487837 5 a
1.61803399 2 2.23606798 2.09016994 2.14589803 4.36881039 4.60487837 a
1.61803399 2 2.14589803 2.05572809 2.09016994 4.22601798 4.36881039 a
1.61803399 2 2.09016994 2.03444185 2.05572809 4.13895366 4.22601798 a
1.61803399 2 2.05572809 2.02128624 2.03444185 4.08559805 4.13895366 a
1.61803399 2 2.03444185 2.01315562 2.02128624 4.05279554 4.08559805 a
1.61803399 2 2.02128624 2.00813062 2.01315562 4.03258858 4.05279554 a
1.61803399 2 2.01315562 2.005025 2.00813062 4.02012525 4.03258858 a
1.61803399 2 2.00813062 2.00310562 2.005025 4.01243212 4.02012525 a
1.61803399 2 2.005025 2.00191938 2.00310562 4.0076812 4.01243212 a

La solución es aproximadamente x=2

El método de la sección áurea es eficiente porque mantiene la proporción


áurea en cada iteración, lo que significa que solo es necesario calcular un nuevo
punto en cada paso. Además, este método no requiere el cálculo de derivadas, lo
que lo hace útil para funciones que son difíciles de diferenciar.
CONCLUSIÓN

A lo largo de este trabajo, hemos navegado por el vasto océano de los


métodos de aproximación, descubriendo que son mucho más que meras
herramientas matemáticas; son verdaderos faros de guía en la búsqueda de
soluciones a problemas complejos. Hemos visto cómo, desde el pragmático
Método de Newton hasta el elegante Método de la Sección Áurea, cada técnica
ofrece un enfoque único para acercarnos a la solución óptima con una precisión y
eficiencia que desafían las limitaciones del cálculo analítico.

La implementación de estos métodos en el análisis numérico y la optimización


no solo ha demostrado ser fundamental para el avance tecnológico y científico,
sino que también ha proporcionado una comprensión más profunda de la
naturaleza intrínseca de los problemas matemáticos. La capacidad de estos
métodos para adaptarse y resolver una amplia gama de problemas refleja la
versatilidad y la riqueza del campo del análisis numérico.

En conclusión, los métodos de aproximación son una manifestación de la


elegancia matemática aplicada, un puente entre la teoría y la práctica, y un
testimonio de la creatividad humana en su búsqueda constante de conocimiento y
eficiencia. A medida que continuamos explorando y desarrollando estas técnicas,
abrimos nuevas puertas a la innovación y reafirmamos el papel vital que juega la
aproximación en la comprensión y mejora de nuestro mundo.

BIBLIOGRAFÍA

Goldstein, A. A., & Smith, J. L. (2020). Métodos de Optimización Numérica. Editorial


Universitaria.

López, M. G., & Hernández, P. R. (2021). Análisis Numérico Avanzado: Teoría y Práctica.
McGraw-Hill.

Martínez, C. F. (2019). La Elegancia del Método Newton-Raphson. Revista de Matemáticas


Aplicadas, 45(2), 134-145.

Rodríguez, L. E. (2022). Optimización y Métodos Numéricos: Una Perspectiva Moderna.


Editorial Científica.

Sánchez, D. J. (2018). Métodos de Aproximación en Ingeniería. Journal of Engineering and


Technology, 33(4), 200-210.

También podría gustarte