MÉTODOS NUMÉRICOS
 
1          Raíces de ecuaciones
1.1       Método de Newton- Raphson
1.2       Método de la secante
1.3       Método de posición falsa
2          Interpolación polinómica
2.1       Polinomios de interpolación de Lagrange
2.2       Diferencias finitas
2.3       Polinomio de interpolación de Newton
3          Integración numérica
3.1       Regla del trapecio
3.2       Regla del trapecio usando segmentos múltiples
4          Reglas de Simpson
4.1       Regla de Simpson 1/3
4.2       Regla de Simpson 1/3  de segmentos múltiples
4.3       Regla de Simpson 3/8
4.4       Integración de Romberg . Integración  de Richardson
4.5       Regla de Boole
4.6       Reglas recursivas
4.6.1    Regla recursiva del trapecio
4.6.2    Regla recursiva de Simpson
4.6.3    Regla recursiva de Boole
5          Ecuaciones diferenciales ordinarias
5.1       Ecuaciones diferenciales ordinarias de primer orden
5.2       Método de Euler
5.3       Serie de Taylor
5.4       Métodos de Runge Kutta
5.4.1    Métodos de Runge-Kutta de segundo orden
5.4.2    Métodos de Runge Kutta de tercer orden
5.4.3    Métodos de Runge Kutta de cuarto orden
5.4.4    Métodos de Runge Kutta de orden superior
6          Optimización numérica
6.1       Método de Nelder-Mead
6.1.1    Triangulo inicial
6.1.2    Punto medio del lado bueno
6.1.3    Reflexión usando el punto r
6.1.4    Extensión usando el punto e
6.1.5    Contracción usando el punto c
6.1.6    Encogimiento hacia o
6.1.7    Decisiones lógicas en el algoritmo de Nelder-Mead
Bibliografía
 
 
 
 
MÉTODOS NUMÉRICOS
 
 
Los métodos numéricos se usan para obtener aproximaciones cuantitativas a soluciones de problemas matemáticos; son herramientas extremadamente poderosas para la solución de problemas. Son capaces de manejar sistemas de ecuaciones grandes, no lineales y geometrías complicadas que son comunes en la práctica de la ingeniería que a menudo son imposibles de resolver analíticamente.
 
Los métodos numéricos combinan dos herramientas, las matemáticas y computadoras en el campo de la ingeniería.
 
Seguidamente se presenta una selección de métodos numéricos.
 

1.         RAÍCES DE ECUACIONES

 
Uno de los problemas que se presenta con frecuencia en ingeniería es encontrar las raíces de ecuaciones de la forma  donde  es una función real de variable x, por ejemplo, el siguiente es un polinomio en función de x.
 
 
Existen distintos algoritmos para encontrar las raíces o ceros de , pero ninguno es general. El método más conocido para encontrar raíces es el de Newton Raphson.
 

1.1       MÉTODO DE NEWTON- RAPHSON

 
La fórmula establecida por el método de Newton-Raphson se utiliza frecuentemente para localizar raíces de funciones especiales. A continuación se presenta una descripción breve del método, para un análisis detallado referirse a libros especializados en análisis numérico.
 
Se define el valor inicial x0, luego  se traza una tangente a la curva en el punto  figura1.1a, el punto de intersección de la  tangente con el eje x, denominado x1, es una nueva aproximación a x. El proceso se repite comenzando con x1, obteniéndose una nueva aproximación x2 y así sucesivamente, hasta que un valor xi satisfaga estas condiciones . Deben cumplirse ambas condiciones, no es opcional.
 
Si lo anterior no se cumpliera dentro de un número predeterminado de iteraciones, debe iniciarse el cálculo con un nuevo valor x0.
 
Fig. 1.1ª
 
El valor de x1 puede calcularse utilizando la expresión:
 
La pendiente de la tangente a la curva en el punto  es:
 
Reordenando:
 
 
Reemplazando , se obtiene:
 
 
O en forma general:
 
 
Esta ecuación se conoce como fórmula de Newton Raphson. Debe observarse que este método requiere la evaluación de la primera derivada de .
 
1.2       MÉTODO DE LA SECANTE
 
 
Existen casos en que la derivada  requerida por el método de Newton Raphson puede ser extremadamente difícil de evaluar. En estos casos, la derivada se puede aproximar mediante una diferencia dividida.
 
 
Sustituyendo esta aproximación en la ecuación de Newton Raphson  se obtiene la ecuación siguiente:
 
Fórmula conocida como Método de la Secante, este planteamiento requiere de dos puntos iniciales para iniciar el proceso iterativo.
 
1.3       MÉTODO DE POSICIÓN FALSA
 
El método de la posición falsa, llamada Regula –Falsi, aproxima la derivada mediante una diferencia dividida, al igual que el método de la secante.
 
 
La diferencia de este método está en que los valores xi y xi-1 se encuentran en lados opuestos de la raíz buscada y su funciones correspondientes tiene signos opuestos.
 
 
 
 
Método en que se  traza una recta que une los puntos A y B de coordenadas [xi+1,f(xi+1)] y [xi,f(xi)]. El punto de intersección (xM) del segmento con el eje x proporciona una mejor estimación de la raíz, figura1.3a. El reemplazo de la curva por un línea recta da una posición falsa de la raíz de ahí el nombre de método de la regla falsa.
                                                                                                                                                                                                                                                                                                
 
Fig.1.3a
 
 

EJEMPLO

 

 

2.         INTERPOLACIÓN POLINÓMICA

 
A menudo se tiene que estimar valores intermedios entre valores conocidos. El método más empleado es el de interpolación polinomial. Interpolar significa estimar el valor desconocido de una función en un punto tomando una media ponderable de sus valores conocidos en puntos cercanos al dado.
 
La fórmula general de un polinomio de n-ésimo orden  es:
 
 
Para la que se considerarán la fórmula de Lagrange y la fórmula de Newton.
 

 

2.1       POLINOMIOS DE INTERPOLACIÓN DE LAGRANGE

 
El polinomio de interpolación de Lagrange es una reformulación del polinomio de Newton que evita los cálculos de las diferencias divididas:
 
El polinomio de primer orden  o método de interpolación lineal conecta dos puntos que se conocen: , cuyos argumentos son x0 y x1, se puede modelar mediante:
 
 
 
Donde a1 y a0 son dos coeficientes a determinar. Para hallar el valor de a0 se hace x = x0 en la ecuación, que al despejar da:
 
 
Para a1 se sustituye el valor de x con de x1
 
 
Sustituyendo a1 y a0 en la ecuación resulta:
 
 
De igual manera , un  polinomio de segundo grado ( ecuación de una parábola ) conecta a 3 puntos conocidos: , , , cuyos argumentos son: x0 ,x1 y x2, está definido por:
 
 
Los valores de a0, a1 y a2 se encuentran sustituyendo x = x0, x = x1  y  x = x2 en la ecuación  para obtener:
 
 
 
 
 
 
 
Reemplazados en la ecuación de arriba se obtiene:
 
 
 
Para un polinomio de n-ésimo orden:
 
 
 
 
Donde:
 
 
 
.
.
 
 
Polinomio que puede representarse concretamente como:
 
 
Donde:
 
 
La fórmula de Lagrange es bien conocida, no requiere especificar los datos con  x  en orden creciente o decreciente. Aunque el cálculo de f(x) es fácil, el método no es particularmente eficaz para grandes valores de n.
 
EJEMPLO
 
 

Para estudiar el método de la aproximación polinomial de Newton debe conocerse fundamentos básicos de diferencias divididas que se desarrollan a continuación:

 2.2      DIFERENCIAS FINITAS
 
Definiendo y = f(x) y suponiendo que los argumentos están igualmente espaciados y que se designarán  como xn, el valor de y será yn = f(xn).
 
Así, la primera diferencia hacia delante de f(x) está dada por:
 
 
 
 Donde:
 
 
La segunda diferencia hacia delante se halla al tomar la diferencia de la  primera.
 
 
 
De manera similar, la n-ésima diferencia hacia delante se define por la relación:
 
 
 
Construcción de una tabla de diferencias donde los elementos se sitúan diagonalmente, como diferencia de los dos elementos más cercanos de la izquierda.
 
TABLA DE DIFERENCIAS HACIA DELANTE
 
También son muy útiles otras relaciones de diferencia tales como:
 
 
llamadas diferencias hacia atrás.
 
La segunda diferencia hacia atrás se define como:
 
Las diferencias hacia atrás de orden n- ésimo se expresan en general como:
 
 
 
 
Y las denominadas diferencias centrales se expresan mediante:
 
 
 
2.2.1    DIFERENCIAS DIVIDIDAS
 
Consideremos la definición de derivada
 
 
 
(Sin embargo, cuando la función es tabular, la derivada sólo  puede obtenerse aproximadamente).
 
Supongamos que se desea evaluar la derivada en el punto x.
 
 
 
Donde la expresión del lado derecho se conoce como la primera diferencia dividida o diferencia dividida finita de respecto a los argumentos  y y generalmente se denota como:
 
 
Segundas diferencias divididas:
 
 
Terceras diferencias divididas finitas:
 
 
 
Para obtener aproximaciones de derivadas de mayor orden, se extiende el concepto de diferencias divididas a un orden superior, de manera que la diferencia de orden i es:
 
 
Generalmente las diferencias divididas finitas se pueden representar como:
 
 
 
 
O
 
 
2.3       POLINOMIO DE INTERPOLACIÓN DE NEWTON
 
El método de interpolación de Newton más simple consiste en conectar dos puntos en una línea recta, método llamado interpolación lineal que se puede representar mediante la siguiente expresión:
 
Donde:
a0 y a1 son constantes, evaluando a0 cuando x = x0
 
 
De igual manera para a1 cuando x =  x1
 
 
=
 
Se tiene la  primera diferencia dividida, por tanto, sustituyendo valores resulta el polinomio de primer grado en términos de diferencias divididas:
 
 
 
Cuando se utiliza el polinomio de segundo grado  se mejora la aproximación introduciendo cierta curvatura en la línea. Luego se dispone de 3 puntos para la función:
 
 
 
Para determinar las constantes a0 y a1 se procede de igual manera que para el polinomio de primer orden. Ahora  se obtiene a2 evaluando  x = x2:
 
 
Sustituyendo  valores de las constantes se tiene el polinomio de segundo orden en términos de diferencias divididas:
 
 
 
En general para un polinomio de grado n se tiene:
 
Donde:
 
 
 
Representan  las diferencias divididas finitas.
 
Sustituyendo estos coeficientes se tiene:
 
 
 
Expresión a la que se denomina polinomio de interpolación con diferencias divididas de Newton ó aproximación polinomial de Newton.
 
El método de Newton suele ser más eficaz que el de Lagrange para los casos en los que el orden del polinomio se desconoce, debido a que profundiza en el comportamiento de las diferentes fórmulas de orden superior.
 
EJEMPLO
 

3.         INTEGRACIÓN NUMÉRICA

 
Los métodos de integración numérica se usan cuando la función es difícil de integrar analíticamente o cuando está dada como un conjunto de valores tabulados. Las fórmulas cerradas de integración de Newton Cotes son las más  comunes dentro la integración numérica. Son los esquemas más comunes dentro la integración numérica; se basan en  reemplazar una función complicada o un conjunto de datos tabulares con alguna función que sea más fácil de integrar:
 
Donde fn(x) es un polinomio de la forma:
 
 
A continuación se describe brevemente los métodos de integración frecuentemente utilizados.
 

3.1       REGLA DEL TRAPECIO

 
La regla del trapecio o regla trapezoidal corresponde al caso en donde el polinomio es de primer orden:
 
I =
 
Si el intervalo de integración es [a,b] donde x0 = a, x1 = b y la aproximación polinomial de f(x) es una línea recta. Entonces, la aproximación a la integral es el área del trapezoide bajo esta línea recta, ver figura 3.1.a.  A este método de integración se le llama regla trapezoidal que es la primera de las fórmulas cerradas de Newton Cotes.
 
Para integrar  se aplica una de las fórmulas en diferencias finitas (hacia delante, hacia atrás o centrales). La función f1(x) en términos de diferencias finitas hacia delante es:
 
 
Reemplazando f1(x) en la integral se tiene:
 
 
Colocando la  integral en términos de la variable s:
 
Diferenciando x:
 
 
Colocando los límites de integración en términos de s en la ecuación:
De donde se despeja s:
 
Luego,  s = 0
 
Y, s = 1, luego se tiene:
 
 
Integrando:
 
como:
 
Resulta:
fórmula de la “REGLA TRAPEZOIDAL”
 
Fig.3.1.a
 
Recuérdese que  la fórmula para calcular el área de un trapecio es la altura por el promedio
de las bases.
 
EJEMPLO
 
3.2       REGLA DEL TRAPECIO USANDO SEGMENTOS MÚLTIPLES
 
Una manera de mejorar la exactitud de la regla trapezoidal es la de dividir el intervalo [a,b] en n subintervalos y aproximar cada uno por un polinomio de primer grado, aplicando la fórmula a cada subintervalo obteniéndose el área de cada trapezoide. Luego se suman las áreas de los segmentos individuales y se obtiene la integral sobre el intervalo completo.
En la Figura 3.2.a se muestra el formato  general de la nomenclatura para integrales de segmentos múltiples. Hay n+1 puntos base igualmente espaciados
Por lo tanto, hay n segmentos de igual anchura:
 
 
Así la integral, se representa como:
 
 
Sustituyendo la regla trapezoidal para cada una de las integrales, se obtiene:
 
 
 
Agrupando términos se tiene:
 
 
fórmula “TRAPEZOIDAL” usando segmentos múltiples
 
Fig. 3.2.a
EJEMPLO       
4.         REGLAS DE SIMPSON
 
 
Una forma evidente de obtener una estimación más exacta de una integral es usar polinomios de orden superior por ejemplo un intento de mejorar es usar una aproximación cuadrática en vez de una lineal. Las fórmulas resultantes de calcular la integral bajo polinomios de  segundo y tercer orden, reciben el nombre de  reglas de Simpson.
 
4.1      REGLA DE SIMPSON 1/3
 
 
 
La regla de Simpson 1/3 se obtiene cuando se sustituye un polinomio de segundo orden en la ecuación:
O sea:
Representando f2 (x) mediante un polinomio de Lagrange de segundo orden. Luego la integral es:
 
 
Integrando se obtiene la siguiente ecuación:
 
Donde:
Ecuación que se conoce como “REGLA DE  SIMPSON 1/3”
 
Fig.3
La regla de Simpson 1/3 es, en general, el método de preferencia ya que alcanza exactitud de tercer orden.
 
EJEMPLO       
 
4.2       REGLA DE SIMPSON 1/3  DE SEGMENTOS MÚLTIPLES
 
Así como en  la regla trapezoidal, la regla de Simpson se puede mejorar dividiendo el intervalo de integración en segmentos de igual anchura.
 
Así, la aproximación a la integral  está dada por:
Reemplazando la regla de Simpson en cada integral se tiene:
 
Donde :
En forma más general  la ecuación de Simpson 1/3 de segmentos múltiples se puede escribir en la forma siguiente:
O
EJEMPLO     
 
4.2              REGLA DE SIMPSON 3/8
 
Aplicando los polinomios de Lagrange de tercer orden  al intervalo [a,b] que se divide en  cuatro subintervalos, e integrando la siguiente función:
 
Para obtener:
Donde:
A esta ecuación se le llama REGLA DE SIMPSON 3/8porque es un  múltiplo de 3/8. La regla de Simpson 3/8 se puede expresar en  forma general:
 
 
La regla 3/8 tiene utilidad en las aplicaciones de segmentos múltiples cuando el número de segmentos es impar.
 

EJEMPLO

 

4.3              INTEGRACION DE ROMBERG . INTEGRACIÓN  DE RICHARDSON
 
 
El método de Romberg  consiste en mejorar los resultados de la integración numérica  en base a la estimación de la integral misma. Conocidos como integración de Richardson,  estos métodos usan dos cálculos de la integral para efectuar un tercer cálculo más exacto.
 
El cálculo y el error asociado con la regla trapezoidal de segmentos múltiples se representa como:
 
 
Donde:
  : Valor exacto de la integral
       : Valor integrado de la función usando regla trapezoidal con n segmentos
      : Error de truncamiento
Si se obtienen dos aproximaciones por separado h1 y h2 y  se obtiene el valor exacto del error, entonces:
 
 
 
Donde el promedio de los dos errores es:
 
 
Reordenando:
Sustituyendo :
 
De donde:
 
 
 
Esta ecuación calcula el error de truncamiento en términos del valor de la integral y el tamaño de paso. Luego, se sustituye esta ecuación en:                                   
 
 
 
Obteniéndose una integración mejorada de la integral:
 
 
 
Si en particular el intervalo se divide en dos partes la ecuación se simplifica:
 
Reordenando términos queda:
 
 
 
Este proceso es conocido como “integración numérica de Romberg”
 
EJEMPLO
 
 
Para sistematizar la integración de Romberg en la aproximación trapezoidal y obtener mejores aproximaciones de , se aplica el método de extrapolación de Richardson:
 
 
 
 
Donde: 
 : Integrales más y menos exactas respectivamente
 : Integral mejorada
*  : Nivel de integración
 : Usado para distinguir entre las estimaciones mejores J+1 y las estimaciones menores  (J)

Tabla 4.4

ESQUEMA DE INTEGRACIÓN DE ROMBERG

 

 

 

J

R(J,0)

regla del Trapecio

R(J,1)

Regla de Simpson

R(J,2)

Regla de Boole

R(J,3)

Tercera mejora

o 3era extrapolación

R(J,4)

Cuarta mejora

o 4ta extrapolación

0

R(0,0)

 

 

 

 

1

R(1,0)

R(1,1)

 

 

 

2

R(2,0)

R(2,1)

R(2,2)

 

 

3

R(3,0)

R(3,1)

R(3,2)

R(3,3)

 

4

R(4,0)

R(4,1)

R(4,2)

R(4,3)

R(4,4)

 
 
La integración de Romberg es más eficiente que la regla trapezoidal y que las reglas de Simpson debido a la   obtención de un resultado exacto basado en la combinación de la regla trapezoidal de dos, cuatro y ocho segmentos.
 
4.5       REGLA DE BOOLE
 
La regla de Boole tiene un grado de precisión de n = 5 y se representa como:
 
 
 
La aplicación de la regla de Boole  N  veces sobre 4N subintervalos de [a,b] que tienen todos el mismo tamaño  se llama regla compuesta de Boole.
 
 
 
 

4.6       REGLAS RECURSIVAS

 
Las reglas recursivas  son un método de sucesión de las aproximaciones  de la regla del trapecio, de la regla Simpson, la de Boole. Sucesión obtenida mediante combinaciones lineales  de una regla con otra. Por ejemplo se puede obtener  los cálculos de las aproximaciones por la regla de Simpson utilizando las aproximaciones de  la regla del trapecio,  la regla de Boole generada a partir de la regla de Simpson.
 
 

4.6.1    REGLA RECURSIVA DEL TRAPECIO

 
La regla del trapecio obtenida al aproximar el área del trapecio bajo la línea recta que une a  f(a) y f(b) es:
 
Donde:
 T (0) : Área de un trapecio representado por 2J = 0 (20) con un incremento de h = b-a.
 Para cada  se define , donde T(f,h) es la regla del trapecio con incremento  h = (b-a)/ 2J.
 
Por consiguiente la sucesión de aproximaciones dadas por la regla de Trapecio se obtiene por la fórmula recursiva siguiente:
 
para 
Donde:
;
 
 : Subíndices impares de la expresión que están con corchetes:
 
*  : Número de trapezoides
 
 

4.6.2    REGLA RECURSIVA DE SIMPSON

 
Si  es la sucesión de aproximaciones obtenidas con la regla del trapecio generada recursivamente. Entonces para ,  es la aproximación dada por la regla de Simpson con subintervalos de [a,b]. De modo que  generada por las aproximaciones obtenidas con la regla del trapecio  y se representa mediante  la relación:
 
para

 

 

4.6.3     REGLA RECURSIVA DE BOOLE

 
Como  es la sucesión recursiva de las aproximaciones dadas por el método de Simpson, y si y es la aproximación por la regla de Boole con   subintervalos  del intervalo [a,b], entonces, y las aproximaciones obtenidas con la regla de Simpson  verifican la relación:
 
  para 
 
Las reglas recursivas  reducen los cálculos de gran manera en la solución  de problemas.
 

EJEMPLO

 
 
 

5.   ECUACIONES DIFERENCIALES ORDINARIAS

 
Una ecuación diferencial es ordinaria  si sólo tiene una variable independiente, por lo que todas las derivadas que tiene son ordinarias o totales. En cambio, cuando la función depende de diversas variables independientes, la ecuación recibe el nombre de ecuación diferencial parcial.
 

5.1       ECUACIONES DIFERENCIALES ORDINARIAS DE PRIMER ORDEN

 
La ecuación diferencial  ordinaria general de primer orden es:
 
        en 
 
 
La ecuación diferencial consta de una solución dada  en un punto inicial , luego se busca la solución   cuando   varía desde su valor inicial hasta algún otro valor. En casos en que el miembro derecho es solo una función de , la solución se obtiene por integración analítica o por integración numérica.
 

5.2. MÉTODO DE EULER

 
El método de Euler es el más simple de los métodos numéricos. Este método consiste en
dividir  el segmento [x0,xn] en n partes de ancho h por los puntos [x0, x1, x2, .....xn].
 
La condición inicial dada  por el punto por donde pasa la curva denotada como .
 
Evaluando la primera derivada de en el punto :
 
 
Con este dato se  traza una recta por el punto p0 y de pendiente f (x0,y0 ) hasta el punto p1(x1,y1) de intersección con la rectas x = x1. Entonces la ordenada del punto p1 se determina por la fórmula:
 
 
 
De modo análogo se determina la sucesión de aproximaciones siguientes:
 
 
 
Este método trata de aproximar la curva por medio de una serie de segmentos de línea recta.
 
5.3       SERIE DE TAYLOR
 
Una serie de Taylor suma un número infinito de términos tomando el límite de sus sumas parciales.
Primer término de la serie:
 
Es decir:
 
 
 
Ecuación denominada aproximación de orden cero, que indica que el valor de en el punto nuevo es el mismo que el valor en el punto anterior; si  y  están muy próximas  una de la otra.
 
La aproximación a primer orden se obtiene sumando otro término al anterior:
 
 
 
Cambiando términos se tiene:
 
 
 
Cuyo término adicional de primer orden consisten el producto de la pendiente   por la distancia entre xi y xi+1. Expresión que representa una línea recta.
La aproximación a segundo orden   representa la curvatura de la función:
 
 
 
Entonces:
 
 
De manera que se pueden agregar términos para desarrollar la expansión completa de la serie de Taylor:
 
 
 
Serie infinita, donde el signo igual reemplaza al de aproximación. Se incluye un término residual para considerar todos los términos desde n+1 hasta el infinito:
 
     
                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                              
Donde n indica que el residuo es de la aproximación de n-ésimo orden y es un valor cualquiera de x que se encuentra en xi y xi+1.
 
Donde es la primera derivada:
 
 
Así es la segunda derivada:
 
 
 
Generalmente la serie de Taylor se utiliza hasta una aproximación de segundo orden debido a que una expansión de orden superior incluye diferenciaciones complicadas.
 
 

EJEMPLO

 
                                                                                                                                                                            

5.4       MÉTODOS DE RUNGE KUTTA

 
Los métodos de Runge - Kutta tienen la exactitud del esquema de la serie de Taylor sin necesitar del cálculo de derivadas superiores.
 
Forma general de la ecuación:
 
 
Donde:
 : Función de incremento y puede interpretarse como el promedio de la pendiente sobre el intervalo:
 
   
 
Donde:
 : Constante      
                                           y
                                        
                                       
                                        
 
                                           .
                                           .
                                           .
                                           .
 
 
Por ejemplo el método de Euler es un método de Runge -Kutta  de primer orden con n =1
 
5.4.1    MÉTODOS DE RUNGE-KUTTA DE SEGUNDO ORDEN
 
Ecuación de segundo orden:
 
Donde:
 
 
Los valores de a1 ,a2 , p1 , y q11 se evalúan igualando la ecuación a la expansión de la serie de Taylor hasta el segundo término; obteniéndose tres ecuaciones, y por tanto, se tiene un grado de libertad. Entonces para  evaluar estas constantes debe suponerse  el valor de una de las incógnitas para determinar las otras  tres.
 
Las tres ecuaciones son:
 
Demostración para obtener los parámetro a1 ,a2 , p1 y q11
 
 
5.4.2    MÉTODOS DE RUNGE KUTTA DE TERCER ORDEN
 
Para n = 3 se lleva a cabo una derivación análoga a la del método de segundo orden. El resultado de esta derivación es seis ecuaciones con ocho incógnitas. Por lo tanto, se debe suponer los valores de dos de las incógnitas para determinar los parámetros restantes:
 
 
Donde:
 
 
                                                  
                                                 
                                                  
 
 

5.4.3    MÉTODOS DE RUNGE KUTTA DE CUARTO ORDEN

 
El método de Runge-Kutta  más conocido es el método clásico de cuarto orden cuya forma se describe como sigue:
 
 
Donde:
 
                                                    
 
                                                   
                                                   
                                                    
 
 
 
EJEMPLO
 
 

6.         OPTIMIZACIÓN NUMÉRICA

 
Se entiende por optimización a  la búsqueda del mejor método para ejecutar una actividad, es decir, se quiere alcanzar el valor óptimo (mínimo o máximo ) de una variable dada mediante la búsqueda de valores de las variables independientes.
 
A continuación se presenta un método de optimización.
 
 

6.1       MÉTODO DE NELDER-MEAD

 
Nelder-Mead desarrollaron un método para hallar el mínimo local de una función de varias variables. Método que utiliza un tipo de cuerpo geométrico llamado simplex, que para el caso del plano es un triángulo y para el espacio tridimensional es un tetraedro.
 
En el caso de dos variables el método consiste en comparar los valores de la función en los vértices del triángulo y sustituir el peor vértice por un vértice nuevo . Por tanto, se forma un nuevo triángulo y la búsqueda continúa. De este modo, se genera una sucesión de triángulos que pueden tener formas diferentes y en los que los valores de la función van decreciendo.
 

6.1.1    TRIANGULO INICIAL

 
Sea la función que se desea minimizar. Se parte de un triangulo inicial cuyos vértices son: 

R

 

 
 

 
 
 
 
 

B

 

Donde:

 : Vértice óptimo

P

 

 : Vértice bueno

*  : Vértice peor
Luego se evalúa la función  en cada uno de los vértices.
 

6.1.2    PUNTO MEDIO DEL LADO BUENO

 
El siguiente paso es  calcular el punto medio del segmento que une O con B:
 
 
 

6.1.3    REFLEXIÓN USANDO EL PUNTO R

 
Al movernos de P hacia O o B la función decrece, por tanto, la  toma valores menores en puntos alejados del peor vértice P que están situados al otro lado del segmento que une O con B. Lo que se hace es tomar un punto de prueba R que se  obtiene reflejando el triángulo a través del lado OB.
 
El punto R se determina por la unión del punto M (del lado OB) con P, segmento denominado d, encontrando R de la extensión del segmento d hacia el otro lado de M la misma distancia d, originando el nuevo  triángulo OBR.
 
Cálculo de R:
 
 
 

6.1.4    EXTENSIÓN USANDO EL PUNTO E

 
Si el valor de la función en el punto R es menor que el valor en el punto P, entonces es la dirección correcta hacia el mínimo. Puede ser que el  mínimo se halle un poco mas allá del punto R, por tanto, se extiende una distancia adicional d, el segmento que une M y R hasta un punto E y de esa forma se obtiene un triángulo extendido OBE. Si el valor de la función en E es menor que en R , entonces se halla un vértice mejor que R. La fórmula para calcular E es:
 

 
 
 
 
 
 
 
 
 

 


6.1.5    CONTRACCIÓN USANDO EL PUNTO C

 
Si los valores de la función en R y P son iguales, o en P es menor que en R, entonces debe probarse otro punto. Considérese los puntos medios C1  y  C2 de los segmentos PM y MR, respectivamente, el punto en que la función tome un valor menor será C y el nuevo triángulo será OBC.
 
Nota : para dimensiones superiores, la elección de C1 y C2 es importante.
 
6.1.6    ENCOGIMIENTO HACIA
 
Si el valor de la función en C no es menor que en P, entonces se tiene que escoger el triángulo en la dirección O. El punto B se reemplaza por M y P se reemplaza por S que es el punto medio de OP.
 

6.1.7    DECISIONES LÓGICAS EN EL ALGORITMO DE NELDER-MEAD

Decisión: Si
f (R )<f (B)
 

 

                                               SI                                                   NO                            
 

 
 
 
 
 
 

               SI                                        NO                              SI                                          NO        

 

 
 
 

Decisión: Si
f (C) < f (P)
Decisión: Si
f (E) < f (O)

    Fin

 

                                    SI                                NO

                                                                                                                     SI                              NO

Reemplazar

P  por  S

B  por  M

 

Calcular

S  y  f (S)

 

   Fin 

 

Reemplazar

P  por  C

 

     Fin

 

      Fin 

 

Reemplazar

P  por  E

 

                                                                                                     

Reemplazar

P  por  R

 
 

 
 
 
 
 
 
 
 

EJEMPLO  
 
BIBLIOGRAFÍA