metodos final

Upload: namunaky

Post on 12-Oct-2015

28 views

Category:

Documents


0 download

TRANSCRIPT

  • 5/21/2018 Metodos Final

    1/29

    METODOS

    NUMERICOS EN

    OPTIMIZACION

    AO DE LA PROMOCION DE LA INDUSTRIA

    RESPONSABLE Y DEL COMPROMISO CLIMATICO

  • 5/21/2018 Metodos Final

    2/29

    AO DE LA PROMOCION DE LA INDUSTRIA RESPONSABLE Y

    DEL COMPROMISO CLIMATICO

    FACULTAD DE INGENIERIA INDUSTRIAL

    PROFESOR:

    ING. NELSON CASTILLO BURGOS.

    CURSO:

    METODOS NUMERICOS

    INTEGRANTES:

    CASTRO ARTEAGA WENDYHIDALGO DELGADO ALICE

    PEA CORDOVA ALEXIS

    RUESTA RIVERA JOSELIANA

    TEMA:METODOS NUMERICOS EN OPTIMIZACION

    PIURAPER

    2014

  • 5/21/2018 Metodos Final

    3/29

    Mtodos Numricos en Optimizacin y Resolucin de

    Ecuaciones

    1. INTRODUCCIN

    El presente trabajo tiene por objetivo brindar una exposicin clara y exhaustiva delos principales Mtodos Numricos en materia de resolucin de Ecuaciones yOptimizacin.

    La optimizacin o programacin matemtica intenta dar respuesta a un tipogeneral de problemas donde se desea elegir el mejor entre un conjunto deelementos.

    La localizacin de races y la optimizacin estn relacionadas, en el sentidode que ambas involucran valores iniciales y bsqueda de un punto sobre unafuncin.

    La diferencia fundamental entre ambos tipos de problemas se ilustra en la figura.

    La localizacin de races es la bsqueda de los ceros de una funcin o funciones. Encambio, la optimizacin es la bsqueda ya sea del mnimo o del mximo.

    El ptimo es el punto donde la curva es plana. En trminos matemticos, estocorresponde al valor de xdonde la derivada '(x) es igual a cero.

    Adems, la segunda derivada, (x), indica si el ptimo es un mnimo o un mximo:

    Si (x) < 0, el punto es un mximo; si (x) > 0, el punto es un mnimo.

    Si comprendemos ahora la relacin entre las races y el ptimo, es posible sugerir

    una estrategia para determinar este ltimo; es decir, se puede derivar a la funciny localizar la raz (el cero) de la nueva funcin.

  • 5/21/2018 Metodos Final

    4/29

    De hecho, algunos mtodos de optimizacin tratan de encontrar un ptimoresolviendo el problema de encontrar la raz: '(x)= 0.

    Deber observarse que tales bsquedas con frecuencia se complican porque '(x)no se puede obtener analticamente.

    Por lo tanto, es necesario usar aproximaciones por diferencia finita para estimar laderivada.

    Ms all de ver la optimizacin como un problema de races, deber observarse quela tarea de localizar el ptimo est reforzada por una estructura matemticaextra que no es parte del encontrar una raz simple. Esto tiende a hacer de laoptimizacin una tarea ms fcil de realizar, en particular con casosmultidimensionales.

    2. MARCO TEORICO

    Mtodos numricos: Una definicin de anlisis numrico podra ser elestudio de los errores en los clculos; error aqu no quiere decir undisparate, equivocacin u omisin, sino ms bien una discrepancia entre elvalor exacto y el calculado, que es consecuencia de la manera con que semanejan los nmeros o frmulas.Otra definicin de anlisis numrico podra ser el diseo, uso y anlisis de

    algoritmos, los cuales son conjuntos de instrucciones cuyo fin es calcular oaproximar alguna cantidad o funcin.Los mtodos numricos son tcnicas mediante las cuales es posible formularproblemas matemticos de tal forma que puedan resolverse usandooperaciones aritmticas. Dichos mtodos numricos son herramientas muypoderosas para a solucin de problemas. Pueden manejar sistemas deecuaciones grandes, no linealidades y geometras complicadas, comunes en laingeniera. Al mismo tiempo se aprende a conocer y controlar los errores deaproximacin que son inseparables de los clculos numricos a gran escala.

    Los mtodos numricos son un medio para reforzar la comprensin delas matemticas, porque profundizan en los temas que de otro modoresultaran obscuros, esto aumenta su capacidad de comprensin yentendimiento en la materia.

    OPTIMIZACIN: La localizacin de races involucra la bsqueda de racesde una funcin o funciones. En contraste, la optimizacin involucra labsqueda del mnimo o del mximo. Lo ptimo es el punto donde la curva esplana. En trminos matemticos, esto corresponde al valor de x donde la

    derivada f(x) es igual a cero. Adems, la segunda derivada, f (x), indicasi el ptimo es un mnimo o un mximo.

  • 5/21/2018 Metodos Final

    5/29

    La optimizacin o programacin matemtica intenta dar respuesta a un tipo

    general de problemas donde se desea elegir el mejor valor entre unconjunto de elementos. En el caso ms simple, unproblema de

    optimizacin consiste enmaximizar o minimizar unafuncin real eligiendosistemticamente valores deentrada (tomados de un conjunto permitido) ycomputando elvalor de la funcin. La generalizacin de la teora de laoptimizacin y tcnicas para otras formulaciones comprende un rea grande delasmatemticas aplicadas. De forma general, la optimizacin incluye eldescubrimiento de los "mejores valores" de alguna funcin objetivo dadoundominio definido, incluyendo una variedad de diferentes tipos de funcionesobjetivo y diferentes tipos de dominios.

    Algunos ejemplos comunes de la optimizacin en la ingeniera

    Diseo de aviones para un mnimo peso y mxima resistencia. Trayectorias ptimas de vehculos espaciales. Diseo de estructuras en la ingeniera civil a un mnimo costo Diseo de proyectos de abastecimiento de agua, como en presas, para

    mitigar el dao por inundacin mientras se obtiene la mxima potenciade generacin.

    Predecir el comportamiento estructural al minimizar la energapotencial.

    Estrategia de corte de materiales para un costo mnimo. Diseo de bombas y equipos de transferencia Redes de tubera ptimas. Maximizar la potencia de salida de redes elctricas y maquinaria

    mientras se minimiza el calor generado. Ruta ms corta de un vendedor que visita varias ciudades durante un

    viaje de ventas. Planeacin ptima y calendarizada. Anlisis estadstico y moderado con un mnimo error. Control de inventario Planeacin del mantenimiento para minimizar costos. Minimizar tiempos de espera y ociosos. Disear sistemas de tratamiento de aguas para cumplir con

    estndares de calidad del agua a bajo costo.

    http://es.wikipedia.org/wiki/Problema_de_optimizaci%C3%B3nhttp://es.wikipedia.org/wiki/Problema_de_optimizaci%C3%B3nhttp://es.wikipedia.org/wiki/Extremos_de_una_funci%C3%B3nhttp://es.wikipedia.org/wiki/Funci%C3%B3n_realhttp://es.wikipedia.org/wiki/Entradahttp://es.wikipedia.org/wiki/Valorhttp://es.wikipedia.org/wiki/Matem%C3%A1ticas_aplicadashttp://es.wikipedia.org/wiki/Dominio_(matem%C3%A1ticas)http://es.wikipedia.org/wiki/Dominio_(matem%C3%A1ticas)http://es.wikipedia.org/wiki/Matem%C3%A1ticas_aplicadashttp://es.wikipedia.org/wiki/Valorhttp://es.wikipedia.org/wiki/Entradahttp://es.wikipedia.org/wiki/Funci%C3%B3n_realhttp://es.wikipedia.org/wiki/Extremos_de_una_funci%C3%B3nhttp://es.wikipedia.org/wiki/Problema_de_optimizaci%C3%B3nhttp://es.wikipedia.org/wiki/Problema_de_optimizaci%C3%B3n
  • 5/21/2018 Metodos Final

    6/29

    3. ANTECEDENTES MATEMTICOS

    Existen bastantes conceptos matemticos que son la base de la

    optimizacin.

    Por ejemplo, se analizarn los importantes conceptos del gradiente y laHessiana, que trata sobre optimizacin sin restricciones multivariada.Mientras tanto, ahora nos limitaremos al tema ms general de cmo seclasifican los problemas de optimizacin.

    Un problema de programacin matemtica u optimizacin generalmente sepuede establecer como:

    Determinex

    , que minimiza o maximiza f(x

    )Sujeto a:

    i= 1, 2,..., m

    i= 1, 2,...,p

    Donde xes un vector de diseo n-dimensional; f(x) es la funcin objetivo; son las restricciones de desigualdad; son las restricciones de igualdad, y y son constantes.

    Los problemas de optimizacin se clasifican considerando la forma de f(x):

    Si f(x) y las restricciones son lineales, tenemos un problema deprogramacin lineal.

    Si f(x) es cuadrtica y las restricciones son lineales, tenemos unproblema deprogramacin cuadrtica.

    Si f(x) no es lineal ni cuadrtica y/o las restricciones no son lineales,tenemos un problema deprogramacin no lineal.

    Se dice tambin que, cuando las ecuaciones se incluyen, se tiene unproblema de optimizacin restringido; de otra forma, se trata de unproblema de optimizacinnorestringido.

  • 5/21/2018 Metodos Final

    7/29

    4. OPTIMIZACIN DE FUNCIONES SIN RESTRICCIONES

    4. 1.- BSQUEDA UNIDIRECCIONAL. CONCEPTOS GENERALES.

    Una buena tcnica de optimizacin de funciones de una nica variable esfundamental por al menos tres razones:

    1.- En muchos problemas las restricciones se pueden incluir dentro de lafuncin objetivo, por lo que la dimensionalidad del problema se reduce auna variable.

    2.- Algunos problemas sin restricciones, inherentemente incluyen unanica variable.

    3.- Las tcnicas de optimizacin con y sin restricciones, generalmenteincluyen pasos de bsqueda unidireccional en sus algoritmos.

    Muchos mtodos de optimizacin de problemas con restricciones (univariables ymultivariables) involucran la resolucin de un problema de optimizacin en unadimensin.

    Los mtodos analticos imponen demasiadas restricciones a las funciones objetivos.

    Adems, no siempre es posible resolver el sistema de ecuaciones analticamente.Por este motivo se desarrollaron los mtodos numricos.

    Existen dos tipos de mtodos numricos, a saber:

    Mtodos directos: slo utilizan los valores de las funcin objetivo.

    Mtodos indirectos: utilizan las condiciones necesarias, las derivadas(analticas o numricas) y la funcin objetivo.

    Los mtodos indirectos requieren el clculo de las derivadas primeras y segundas.

    Sin embargo, muchas veces obtener las derivadas es una tarea difcil, y hasta esposible que ni siquiera se conozca la forma analtica de la funcin objetivo. Estoplantea la necesidad de contar con mtodos capaces de trabajar nicamente conlos valores (experimentos) de la funcin objetivo. Estos son los mtodos debsqueda directa.

    La obtencin de un valor de la funcin objetivo significar en algunos casos evaluarun modelo matemtico, mientras que en otros significar realizar un experimento.Sea como sea, siempre ser conveniente llegar al ptimo realizando la menorcantidad de evaluaciones. Esa es la misin de los mtodos de bsqueda directa, apartir de los resultados de las evaluaciones realizadas, sugerirn el siguienteexperimento de forma tal de aumentar la velocidad de convergencia.

  • 5/21/2018 Metodos Final

    8/29

    Los mtodos indirectos tienen una ventaja inherente: la convergencia esnormalmente rpida, pero no son buenos para funciones no lineales multivariables,estos mtodos dan como resultado un punto que puede encontrarse muy cercano alvalor ptimo buscado. Los mtodos directos tienen la ventaja de que pueden ms

    fcilmente tratar problemas que involucran funciones con discontinuidades, puntosde inflexin y puntos finales, pero necesitan la definicin de un criterio deprecisin, estos mtodos dan como solucin al problema de optimizacin unintervalo donde puede encontrarse el valor ptimo.

    4.2MTODOS NUMRICOS PARA OPTIMIZACIN DE FUNCIONES DE

    UNA VARIABLE

    Es de suponer que si adems de unimodalidad y continuidad en las funciones quequeremos optimizar, se requiere tambin la derivabilidad de las mismas, podremosincrementar la eficiencia de los algoritmos de bsqueda.

    Nos referiremos en esta seccin a mtodos de bsqueda de ptimos en funcionesderivables. Recordemos en primer lugar que la condicin necesaria para que un

    punto x* sea ptimo local de una funcin derivable es que se anule su derivada enese punto, f(x*) = 0. Cuando f(x) es una funcin de tercer grado o superior, lasolucin analtica de la ecuacin f(x) = 0 se complica. Por tanto, requerimos unmtodo de bsqueda que se aproxime sucesivamente al punto estacionario de f(x).

    Han sido desarrollados, bsicamente tres mtodos para llevar a cabo la bsquedadirecta unidireccional, basados en las condiciones de optimalidad. Estos son:

    Mtodo de la seccin dorada Aproximacin polinmica (Interpolacin cuadrtica y cubica)

    Unimodal Multimodal

  • 5/21/2018 Metodos Final

    9/29

    Mtodo de Newton Aproximaciones finitas al mtodo de Newton (Mtodos cuasi-Newton) Mtodos de secante.

    a) Optimizacin unidimensional. Esta fi gura tambin ilustra cmo la minimizacinde f(x) es equivalente a la maximizacin de f(x). b) Optimizacin bidimensional.Esta figura puede tomarse para representar ya sea una maximizacin (loscontornos aumentan de elevacin hasta un mximo como en una montaa), o unaminimizacin (los contornos disminuyen de elevacin hasta un mnimo como un valle).

    Otra forma de clasificar los problemas de optimizacin es segn sudimensionalidad.

    En general se dividen en unidimensionalesy multidimensionales. Como su nombre loindica, los primeros involucran funciones que dependen de una sola variableindependiente.

    La bsqueda consiste, entonces, en ascender o descender picos y vallesunidimensionales.

    Losproblemas multidimensionales implican funciones que dependen de dos o msvariablesindependientes.

    En el mismo sentido, la optimizacin bidimensional, de nuevo, se visualiza como unabsqueda de picos y valles.

    Finalmente, el proceso de encontrar un mximo o de encontrar un mnimo es, enesencia, idntico, ya que un mismo valor, por ejemplo x*, minimiza f(x) y maximiza

    (x). Esta equivalencia se ilustra en forma grfica, para una funcin unidimensional,en la figura a.

  • 5/21/2018 Metodos Final

    10/29

    4.2.1 OPTIMIZACIN UNIDIMENSIONAL NO RESTRINGIDA

    Se pretende describir tcnicas para encontrar el mnimo o el mximo de unafuncin de una sola variable, f(x).

    En casi todos los ejemplos, estaremos interesados en encontrar el valor mximo omnimo absoluto de una funcin. As, debemos cuidar de no confundir un ptimolocal con un ptimo global.

    Distinguir un extremo global de un extremo local puede ser generalmente unproblema difcil.

    Existen tres formas comunes de resolver este problema.

    Primero, una idea del comportamiento de las funciones unidimensionales algunasveces llega a obtenerse en forma grfica.

    Segundo, determinar el valor ptimo con base en valores iniciales, los cuales varanampliamente y son generados quiz en forma aleatoria, para despus seleccionar elmayor de stos como el global.

    Por ltimo, cambiar el punto de inicio asociado con un ptimo local y observar si larutina empleada da un mejor punto, o siempre regresa al mismo punto.

    Aunque estos mtodos tienen su utilidad, el hecho es que en algunos problemas(usualmente los ms grandes) no existe una forma prctica de asegurarse de que

    se ha localizado un valor ptimo global.Una funcin que se aproxima asintticamente a cero en ms y menos 8 y que tienedos puntos mximos y dos puntos mnimos en la vecindad del origen. Los dos puntosa la derecha son los ptimos locales; mientras que los dos de la izquierda songlobales.

    Como en la localizacin de races, los problemas de optimizacin unidimensionales

    se pueden dividir en mtodos cerrados y mtodos abiertos. La bsqueda porseccin dorada es un ejemplo de un mtodo cerrado que depende de los valores

  • 5/21/2018 Metodos Final

    11/29

    iniciales que encierran un solo valor ptimo. ste es seguido por un procedimientocerrado algo ms sofisticado (la interpolacin cuadrtica).El mtodo final es un mtodo abierto que est basado en la idea del clculo paraencontrar el mnimo o mximo al resolver '(x) = 0. Esto reduce el problema de

    optimizacin al encontrar la raz de '(x) mediante las tcnicas que se describen enla parte dos. Se mostrar una versin del mtodo de Newton.

    4.2.2 BSQUEDA DE LA SECCIN DORADA

    En la bsqueda de la raz de una ecuacin no lineal, el objetivo era encontrar elvalor de xque diera ceroal sustituir en la funcin f(x). La optimizacin en una solavariable tiene como objetivo encontrar el valor de xque da un extremo, ya sea unmximo o un mnimo de f(x).

    La bsqueda de la seccin dorada es una tcnica, de bsqueda para una solavariable, sencilla y de propsito general.Es igual en esencia al mtodo de la biseccin para localizar races, la biseccindepende de la definicin de un intervalo, especificado por los valores inicialesinferior y superior , que encierran una sola raz. La raz se estima entoncescomo el punto medio de este intervalo.

    La clave para hacer eficiente este procedimiento es la adecuada eleccin de lospuntos intermedios.Como en la biseccin, la meta es minimizar las evaluaciones de la funcinreemplazando los valores anteriores con los nuevos. Esta meta se puede alcanzarespecificando que las siguientes dos condiciones se satisfagan:

    El paso inicial en el algoritmo de bsqueda de la seccin dorada consiste en elegirdos puntos interiores de acuerdo con la razn dorada.

  • 5/21/2018 Metodos Final

    12/29

    La primera condicin especfica que la suma de las dos sub-longitudes , debeser igual a la longitud original del intervalo. La segunda indica que el cociente orazn entre las longitudes debe ser igual.

    Si se toma el reciproco y R= se llega a

    o

    de la cual se obtiene la raz positiva

    Este valor se llama razn doradao razn urea

    Como permite encontrar el valor ptimo en forma eficiente, es el elemento clavedel mtodo de la seccin dorada.Como se mencion antes, el mtodo comienza con dos valores iniciales, quecontienen un extremo local de f(x). Despus, se eligen dos puntos interiores de acuerdo con la razn dorada.

  • 5/21/2018 Metodos Final

    13/29

    a) El paso inicial del algoritmo de bsqueda de la seccin dorada involucra escogerdos puntos interiores de acuerdo con la razn dorada. b) El segundo paso implicadefinir un nuevo intervalo que incluya el valor ptimo.

    Ahora, sta es la ventaja real del uso de la razn dorada. Debido a que los originales se han escogido mediante la razn dorada, no se tienen que recalculartodos los valores de la funcin en la siguiente iteracin.Para completar el algoritmo, ahora slo se necesita determinar el nuevo . Esto serealiza usando la misma proporcionalidad que antes,

  • 5/21/2018 Metodos Final

    14/29

    Observe que el mximo est resaltado en cada iteracin. Despus de ochoiteraciones, el mximo se encuentra en x = 1.4427 con un valor de la funcin1.7755.As, el resultado converge al valor verdadero, 1.7757, en x= 1.4276.

    4.2.3 BSQUEDA UNIDIRECCIONAL: MTODOS DE APROXIMACINPOLINMICA.

    Otra clase de mtodos de minimizacin unidimensional, localizan un punto xcercano al ptimo mediante interpolacin y extrapolacin utilizandopolinomios como modelos de la funcin.La idea bsica de los mtodos de aproximacin polinomial es que si la funcines suficientemente suave, entonces puede ser aproximada mediante un

    polinomio, y dicho polinomio puede entonces usarse para predecir la

    ubicacin del ptimo. Para que esta estrategia sea efectiva, es necesarioque la funcin a optimizar sea tanto unimodal como continua.

  • 5/21/2018 Metodos Final

    15/29

    4.2.3.1 INTERPOLACIN CUADRTICALa interpolacin cuadrtica aprovecha la ventaja de que un polinomio de segundogrado con frecuencia proporciona una buena aproximacin a la forma de f(x) en las

    cercanas de un valor ptimo.

    As como existe slo una lnea recta que pasa por dos puntos, hay nicamente unaecuacin cuadrtica o parbola que pasa por tres puntos. De esta forma, si se tienetres puntos que contienen un punto ptimo, se ajusta una parbola a los puntos.Despus se puede derivar e igualar el resultado a cero, y as obtener unaestimacin de la xptima.Es posible demostrar mediante algunas operaciones algebraicas que el resultado es

    Donde son los valores iniciales, yes el valor de xque corresponde alvalor mximo del ajuste cuadrtico para los valores iniciales.

  • 5/21/2018 Metodos Final

    16/29

    As, con cinco iteraciones, el resultado converge rpidamente al valor verdadero:1.7757en x= 1.4276.

  • 5/21/2018 Metodos Final

    17/29

    4.2.3.2 INTERPOLACIN CBICA.

    Este mtodo est basado en la aproximacin polinomial mediante un

    polinomio de tercer grado de la funcin que se quiere minimizar. El esquemaes similar al mtodo cuadrtico.Se necesitan cuatro puntos iniciales, o cuatro valores de f(x), o valores def(x) y sus derivadas cada dos puntos.Este mtodo es de convergencia rpida, pero puede presentar errores enfunciones no unimodales. Dados xk-1 y junto a esposible ajustar una ecuacin cbica en los puntos. El punto (mnimo)puede ser determinado como el punto mnimo relativo de esta ecuacincbica.

    EJEMPLO:Minimizar la siguiente funcin utilizando los mtodos de aproximacinpolinomial analizados:

    1. Resolucin utilizando el mtodo interpolacin cuadrtica

    Los puntos iniciales utilizados fueron , el mtodo convergeen cuatro iteraciones, el valor ptimo obtenido es x*= 1.60.

    Interpolacin cuadrtica

    Iteracin x0 x1 x2 x* f(x0) f(x1) f(x2) f(x*)

    0 1 2,5 5 1,66 18 18,9 53,2 15,151 1 1,66 2,5 1,70 18 15,149 18,9 15,190

    3 1 1,66 1,7 1,61 18 15,149 15,2 15,1224 1 1,61 1,7 1,60 18 15,122 15,1 15,120

  • 5/21/2018 Metodos Final

    18/29

    2. Resolucin utilizando el mtodo interpolacin cbica.

    Para ste mtodo se necesitan dos puntos iniciales, y los respectivos valores de laderivada dela funcin, dichos valores iniciales fueron . El mtodo converge en laterceraiteracin, el valor ptimo es x*=1.59.

    Interpolacin cbica

    Iteracin xk u1 u2 f(xk) f(xk)1 -12 182 -2.00 7.21 4.000 16

    1 1.57 -2.33 2.55 -0.264 15.1222 3.98 -10.94 11.1 14.926 35.7533 1.59 -

    10.9010.8 0.082 15.119

    4 9.21 -24.83 24.8 36.663 171.49

    4.2.4 MTODO DE NEWTON

    El mtodo de Newton es un mtodo abierto que permite encontrar la raz xde unafuncin de tal manera que f(x) = 0. El mtodo requiere que la funcin sea dosveces derivable. Se expresa como:

    como una tcnica para encontrar el mnimo o mximo de f(x). Se deberobservar que esta ecuacin tambin se obtiene escribiendo una serie deTaylor de segundo orden para f(x) e igualando la derivada de la serie a cero.El mtodo de Newton es abierto y similar al de Newton-Raphson, pues norequiere de valores iniciales que contengan al ptimo.Adems, tambin tiene la desventaja de que llega a ser divergente. Por

    ltimo, usualmente es una buena idea verificar que la segunda derivada

  • 5/21/2018 Metodos Final

    19/29

    tenga el signo correcto para confirmar que la tcnica converge al resultadodeseado.

    Asegurando que para cada pas k, () para la bsqueda de unmnimo.Realmente lo que hace el mtodo de Newton es aproximar la funcin por unafuncin cuadrtica en .

    () () ( )

    Este mtodo utiliza la condicin de que , diferenciando la ecuacinanterior

    () ()( )

    Que se puede reordenar para dar la primera ecuacin. El mtodo de Newtones equivalente a usar un modelo cuadrtico y aplicar las condicionesnecesarias de optimalidad.Las ventajas del mtodo de Newton son:

    1.- El procedimiento es cuadrticamente convergente (p=2), siempre que f''(x) 0

    2.- Para una funcin cuadrtica el mnimo se obtiene en una nica iteracin.

    Las desventajas son:

    1.- Se debe calcular tanto f(x) como f(x).2.- Si f(x)0 el mtodo converge muy lentamente.3.- Si existe ms de un extremo, el mtodo podra no converger al extremodeseado.Adems el mtodo podra oscilar.

    Aunque el mtodo de Newton funciona bien en algunos casos, no es prctico enotros donde las derivadas no se pueden calcular fcilmente. En tales casos, hayotros procedimientos que no implican la evaluacin de la derivada. Por ejemplo,usando una versin semejante al mtodo de la secante, se pueden desarrollaraproximaciones en diferencias finitas para las evaluaciones de la derivada.Una desventaja importante de este mtodo es que llega a divergir segn sea lanaturaleza de la funcin y la calidad del valor inicial.As, usualmente se emplea slo cuando se est cerca del valor ptimo.

  • 5/21/2018 Metodos Final

    20/29

    Desafortunadamente el mtodo depende de la eleccin del punto de partida y de lanaturaleza de la funcin. Es bastante posible que este mtodo no converja hacia elverdadero punto estacionario. La figura siguiente ilustra esta dificultad. Sicomenzamos en un punto a la derecha de , las aproximaciones sucesivas sealejarn del punto estacionario x*.

  • 5/21/2018 Metodos Final

    21/29

    4.2.5 MTODO DE QUASI-NEWTONEste mtodo es una solucin a las limitaciones del mtodo de Newton. En elcaso en que la funcin objetivo no sea conocida o no puedan evaluarse lasderivadas, estas pueden reemplazarse por aproximaciones de diferenciasfinitas:

  • 5/21/2018 Metodos Final

    22/29

    La desventaja adicional de este mtodo consiste en la necesidad de evaluarfunciones adicionales en cada iteracin, tambin es necesario conocer elvalor de h (paso de la diferencia finita).

    4.2.6 MTODOS DE SECANTE

    El mtodo de la secante combina el mtodo de Newton con un esquema dereduccin de intervalo para encontrar, si existe, la raz de la ecuacinf(x)=0, en el intervalo (a,b).En este mtodo la condicin necesaria se resuelve mediante la siguienteexpresin:

    Donde m es la pendiente de la recta que une los puntos y , dado por:

    Este metodo aproxima la derivada de la funcion a una linea recta, m aproxima lasegunda derivada de funcion.

    Donde x* es la aproximacin a x* en laiteracin n k.Este mtodo comienza utilizando dos

    puntos

    y

    , la eleccin de estos puntosdebe hacerse de tal manera que losvalores de las derivadas sean de signosopuestos. Este mtodo es de convergenciams lenta que el mtodo de Newton.

    EJEMPLO:

  • 5/21/2018 Metodos Final

    23/29

    Minimizar la siguiente funcin utilizando los mtodos indirectos vistosanteriormente:

    1. Resolucin utilizando el mtodo de Newton

    El punto de partida es =1, el mtodo converge en 3 iteraciones

    Mtodo de Newton

    Iteracin xk f(xk) f(xk) f(xk)0 1 -12 36 18

    1 1,333 -3,667

    17,500 15,556

    2 1,543 -0,550

    12,713 15,131

    3 1,586 -0,015 12,019 15,1194 1,587 0,000 12,000 15,119

    2. Resolucin utilizando el mtodo de Quasi-Newton

    El paso utilizado fue h=0.01, el mtodo converge en 3 iteraciones.

    Mtodo de Quasi-NewtonIteracin xk f(x+h) f(x-h) f(xk)

    0 1 17,8818 18,1218 181 1,333 15,5197 15,593 15,55552 1,543 15,1263 15,1373 15,13123 1,586 15,1195 15,1198 15,1191

    4 1,587 15,1197 15,1197 15,1191

    3. Resolucin utilizando el mtodo de la Secante

    Mtodo de la Secante

    Iteracin xp xq x* f(xq) f(xp) f(x*)0 1 5 2,531 19,36 -12 19,1311 1 2,531 1,936 7,62401 -12 15,7612 1 1,936 1,72579 3,47485 -12 15,2283 1 1,726 1,64367 1,5311 -12 15,138

  • 5/21/2018 Metodos Final

    24/29

    4 1 1,644 1,61048 0,65235 -12 15,1225 1 1,610 1,5969 0,273 -12 15,1206 1 1,597 1,59132 0,11332 -12 15,1197 1 1,591 1,58902 0,04687 -12 15,119

    El intervalo utilizado para optimizar la funcin fue (1,5), el valor ptimo seobtiene luego de 6 iteraciones.

    5. OPTIMIZACIN NUMRICA MULTIVARIABLE SIN RESTRICCIONES

    La optimizacin numrica de funciones no lineales requiere la utilizacin detcnicas de optimizacin, eficientes y robustas. La eficiencia es importante porque

    la solucin de estos problemas se lleva a cabo por un procedimiento iterativo. Larobustez (habilidad para encontrar la solucin) es una propiedad deseable dado queel comportamiento de las funciones no lineales puede ser impredecible: puedenpresentar mximos, mnimos y puntos de silla. En algunas regiones el avance haciael ptimo puede ser muy lento, necesitando mucho tiempo de clculo etc.Afortunadamente se posee mucha experiencia utilizando mtodos de optimizacinnumrica lo que permite contar con buenos algoritmos y conocer sus limitaciones yposibilidades.

    En esta parte hablaremos de la solucin del problema sin restricciones:

    Encontrar x* = [x1,x2,.......xn

    ]Tque minimice f (x1, x2,....x

    n

    )f (x)

    La mayor parte de los procedimientos iterativos que son efectivos, alternan laoptimizacin en dos fases:

    (a)Eleccin de una direccin sk

    (b)Movimiento en la direccin s, (en alguna extensin, o hasta encontrarun mnimo) para encontrar un nuevo punto xk+1=xk+xdonde xk se

    suele llamar el tamao del paso.

    Adems de (a) y (b) un algoritmo debe especificar:

    (c)Un vector de valores iniciales x0 =[x10,x20,....xn0] T(d)

    Un criterio de convergencia para la terminacin del algoritmo.

    La mayor parte de los algoritmos de clculo siguen una metodologa similar. Sedetermina un punto inicial, se evala la funcin en ese punto y se elige unadireccin de bsqueda. Se comienza entonces un movimiento en la direccin debsqueda, hasta encontrar un ptimo en esa direccin, o bien hasta que se

  • 5/21/2018 Metodos Final

    25/29

    produzca una mejora determinada. A continuacin se selecciona una nuevadireccin y as sucesivamente.

    Los mtodos NLP sin restricciones que discutiremos en este captulo difieren encomo se generan las direcciones de bsqueda. Algunos mtodos utilizaninformacin de las derivadas, mientras que otros se basan solamente enevaluaciones de la funcin objetivo. Comenzaremos con algunos mtodos que nousan derivadas y despus presentaremos los mtodos que usan informacin delas derivadas.

    5.1 MTODOS DIRECTOS

    Los mtodos directos no hacen uso de la informacin proporcionada por lasderivadas. Bajo estas circunstancias, estos mtodos se pueden usar con bastanteefectividad, pero son muy ineficientes comparados con los mtodos discutidos enlas siguientes secciones. Tienen la ventaja de que estos mtodos son muy simplesde entender y muy fciles de ejecutar.

    5.1.1 MTODOS DE BSQUEDA ALEATORIA

    Un mtodo aleatorio simplemente selecciona un vector inicial x0, evala lafuncin objetivo en ese punto y entonces aleatoriamente selecciona otro vectorx1. Tanto la direccin de bsqueda como la longitud de bsqueda son elegidassimultneamente. Despus de una o ms etapas, el valor de f(xk) se compara conel mejor valor previo de f(x) y se toma la decisin de continuar o terminar elprocedimiento. Existen diversas variaciones de este algoritmo, aunqueestrictamente hablando slo se alcanza la solucin cuando k , pero desde unpunto de vista prctico, si el objetivo tiene una forma muy plana se puedenencontrar soluciones subptimas bastante aceptables. Aunque el mtodo es

    bastante ineficiente por s mismo, puede dar valores aceptables de partida paraotros mtodos.

    5.1.2.- MTODOS DE BSQUEDA EN REJILLA

    Los mtodos bsicos de diseo de experimentos discutidos en muchos textos deestadstica, se pueden aplicar tambin a minimizacin de funciones. Se puedenseleccionar una serie de puntos alrededor de un punto base de referencia, deacuerdo a algunos de los diseos del tipo que se muestra en la siguiente figura.

    Despus se pasa al punto que ms mejora la funcin objetivo y se contina labsqueda. Sin embargo el sistema es muy ineficaz, por ejemplo con n=10 y una

  • 5/21/2018 Metodos Final

    26/29

    bsqueda factorial a tres niveles deberamos realizar 310-1=59048 evaluacionesde la funcin objetivo, lo cual es obviamente prohibitivo.

    5.1.3 BSQUEDA UNIVARIANTE

    Otro mtodo muy sencillo de optimizacin consiste en seleccionar n direccionesfijas de bsqueda, para n variables, (habitualmente los ejes coordenados) de talmanera que f(x) se minimiza de forma secuencial usando bsquedasunidimensionales en cada una de las direcciones previamente seleccionadas. Elmtodo suele ser bastante ineficaz incluso llegando a puntos muy alejados delptimo de los cuales no puede salir.

    5.2 MTODOS INDIRECTOS

    MTODOS DE PRIMER ORDEN.

    Los mtodos indirectos, en contraste con los mtodos descritos en las seccionesprevias hacen uso de las derivadas en la determinacin de la direccin de bsqueda.Sin embargo, nuestra clasificacin en mtodos directos e indirectos, podra noestar clara del todo debido a la aproximacin de las derivadas por diferenciasfinitas, lo que estrictamente hablando hace a estos mtodos libres de derivadas.

    Una buena direccin de bsqueda debera reducir (para minimizacin) la funcinobjetivo, de tal manera que si x0es el punto inicial y x1es un nuevo punto:

    f(x1)

  • 5/21/2018 Metodos Final

    27/29

    sk=f (x)

    En el mtodo de mximo descenso la transicin de un punto xk a otro xk+1 vienedada por la siguiente expresin:

    xk+1 =xk+xk=xk+ksk=xkkf (xk)Donde :

    xk= Vector desde xkhasta xk+1sk= Direccin de bsqueda de mximo descenso

    k= Escalar que determina la longitud de paso en la direccin sk

    El gradiente negativo da la direccin de movimiento, pero no la longitud de dicho

    movimiento.

    Si en cada paso se realiza una optimizacin total en la direccin contraria algradiente los pasos sucesivos del mtodo de mximo descenso son ortogonalesuno con respecto al anterior. Este resultado, que parece peculiar, ocurre parauna determinada f(x) debido a que la derivada de f(x) a lo largo de la lnea s()viene dado, utilizando la regla de la cadena por:

    Mientras que el mtodo del gradiente puede producir progresos muysatisfactorios en la reduccin de f(x) en la primeras iteraciones tiende ahacerse muy lento en las ltimas. Alargando excesivamente los clculos.

    El algoritmo prctico lo podemos resumir en los siguientes pasos:

    1.- Elegir un valor inicial x0. En pasos sucesivos ser xk.

    2.- Calcular, analtica o numricamente las derivadas parciales

    3.- Calcular el vector de bsqueda s =f (xk)

    4.- Usar la relacin xk+1 =xk+kskpara obtener el siguiente punto. Elvalor de kpuede ser de valor fijo o calculado en cada paso mediante

    una bsqueda unidireccional.

  • 5/21/2018 Metodos Final

    28/29

    5.- Comparar f (xk+1)con f (xk). Si el cambio es menor que unatolerancia pre-especificada terminar, en caso contrario volver al pasodos y continuar con las iteraciones.

    Un mtodo estricto de descenso mximo puede terminar en cualquier puntoestacionario, es decir, puede llegar a un mnimo local o a un punto de silla. Paraasegurarnos que tipo de resultado hemos obtenido debemos asegurarnos que lamatriz Hessiana es definida positiva. Por otra parte la dificultad bsica delmtodo de gradiente es que es muy sensible al escalado de f(x) por lo que laconvergencia puede ser muy lenta y producirse un nmero enorme deoscilaciones. Desde este punto de vista el mtodo del gradiente no es muyefectivo.

    5.2.2 MTODO DEL GRADIENTE CONJUGADO

    El mtodo del gradiente conjugado debido a Fletcher y Reeves (1964) combinalas caractersticas de la convergencia cuadrtica del mtodo de las direccionesconjugadas con las del mtodo del gradiente. El mtodo supone una importantemejora del mtodo del gradiente con slo un pequeo incremento en el esfuerzode clculo. El mtodo del gradiente conjugado, esencialmente, combina lainformacin obtenida del vector gradiente con la informacin acerca del vectorgradiente de iteraciones previas. Lo que hace el mtodo es calcular la nuevadireccin de bsqueda utilizando una combinacin lineal del gradiente en la etapaconsiderada y el de la etapa anterior. La principal ventaja del mtodo es que

    necesita almacenar muy poca cantidad de informacin con lo que puede serprogramado fcilmente incluso en calculadoras.

    Los pasos de clculo se comentan a continuacin:

    1.- En x0(punto inicial) calcular f(x0) y calcular s0 =f (x0)

    2.- Almacenar f (x0)y calcular x1=x0 +0s0minimizando mediante unabsqueda unidireccional en la direccin s0.

  • 5/21/2018 Metodos Final

    29/29

    3.- Calcular f(x1) f(x1) la nueva direccin de bsqueda es unacombinacin lineal de s0y f(x1):

    s

    1

    =f (x1

    ) +s0

    para la etapa k-sima la relacin es:

    sk+1=f

    Para una funcin cuadrtica se puede demostrar que dos direccionesde bsqueda son conjugadas. Despus de n iteraciones convienecomenzar otra vez desde el principio tomando el ltimo punto k=ncomo nuevo punto de partida.

    4.- Realizar el test de convergencia, (la funcin objetivo ha disminuido),y terminar el algoritmo cuando sk sea menor que alguna toleranciapreestablecida.

    6. BIBLIOGRAFA Beveridge G., Schechter (1970) Optimizacion teoria y practica Ed.

    McGraw-Hill. Chapra Steven, Canale Raymond (2006). metodos numericos para

    ingenieros, 5thedition. Ed. McGraw-Hill. Prof. Walter Mora F. Introduccin a los mtodos numricos. Zerpa L., Colmenares J., Optimizacin para ingenieros, optimizacin sin

    restricciones.

    http://rua.ua.es/dspace/bitstream/10045/19734/3/Optimizacion_Problem

    as_sin_restricciones.pdf