Descargar

Optimización sin restricciones

Enviado por Pablo Turmero


Partes: 1, 2

    edu.red

    Optimización sin restricciones Condiciones de primero y segundo orden para la existencia de extremos Búsqueda Lineal Métodos básicos de descenso para funciones de varias variables

    edu.red

    Derivada direccional La derivada direccional permite tener información del comportamiento de la función si sus variables se modifican siguiendo el sentido indicado por el vector gradiente

    La Derivada direccional de f en p según el vector unitario ? [ D? f(p) ] es el producto escalar del gradiente en p, por ? : D? f(p) = ?f(p)T ?

    ¿En qué sentido deberían desplazarse las variables de f, partiendo del punto p, para que los valores de f crezcan más rápidamente?

    edu.red

    Derivada direccional Como la rapidez está dada por : ?f(p)T ?

    En esta expresión se suponen ya conocidos f y p; faltando conocer “?” que haga máximo el producto escalar

    Siendo ?f(p)T ? = ??f(p)?. ??? Cos ? = ??f(p)?.(1). Cos ?

    Donde : ? , es el ángulo formado por los vectores ?f(p) y ?

    ?f(p)T ?, será máximo si y sólo si Cos ? es máximo, ósea cuando ? = 0 y ?f(p) con ? son colineales. Lo cual significa que el vector unitario ? debe tener el mismo sentido que el vector gradiente de f en p significa que el vector gradiente de una función f en un punto p, ?f(p), de su dominio se orienta en el sentido en el cual f crece mas rápidamente

    edu.red

    Gradiente El gradiente de una función escalar de n variables f(x1, x2,…, xn,), denotado por ?f, es el vector n-dimensional

    El gradiente de una función en un punto indica la dirección, a partir de ese punto, en la que dicha función crece más rápidamente y, además, la dirección ortogonal a las curvas de nivel de f (curvas en las que la función tiene un valor constante)

    edu.red

    Optimización Sin Restricciones Formulación del problema de optimización Cualquier problema de optimización, por complejo que sea, puede expresarse en los siguientes términos

    Encontrar un vector x tal que se minimice una función objetivo f(x) Sujeto a restricciones de la forma:

    donde x es un vector de variables independientes

    La función objetivo puede tener un solo mínimo, en cuyo caso se denomina unimodal, o varios mínimos locales o globales, en cuyo caso se denomina multimodal

    edu.red

    Clasificación de problemas de optimización De acuerdo a la forma de f(x) y las restricciones: Programación Lineal: f(x) y las restricciones son lineales Programación No-lineal: f(x) es no-lineal y las restricciones pueden ser no-lineales De acuerdo a la presencia o no de restricciones: Optimización no restringida: El problema de optimización no tiene restricciones Optimización restringida: El problema de optimización tiene restricciones Según su dimensionalidad: Optimización unidimensional: función objetivo de una variable Optimización multidimensional: función objetivo de varias variables Según el número de funciones objetivo: Optimización con un objetivo: Una sola función objetivo Optimización con múltiples objetivos: varias funciones objetivo

    edu.red

    Clasificación de problemas de optimización Existen varios métodos para resolver un problema de optimización Estos métodos pueden agruparse en dos grandes clases: Métodos de optimización basados en derivadas Métodos de optimización no basados en derivadas

    edu.red

    Métodos de optimización basados en derivadas Métodos básicos de descenso Son técnicas básicas utilizadas en la solución iterativa de problemas de minimización sin restricciones

    Ofrecen la forma más simple y directa de resolver estos problemas

    Ofrecen en términos prácticos una referencia con relación a la dificultad de implementación y velocidad de convergencia

    En general, las técnicas avanzadas se comparan con estas técnicas básicas

    edu.red

    Estructura básica de los métodos básicos de descenso Se inicia en un punto, x0 Se determina la dirección de descenso mediante una regla fija (Primera diferencia entre algoritmos) Luego, se busca el mínimo en esa dirección (Búsqueda lineal)

    La forma general de los métodos básicos de descenso se puede expresar como,

    edu.red

    Búsqueda Lineal Las técnicas de búsqueda lineal son realmente procedimientos de optimización para una sola variable, los cuales son realizados repetidamente en problemas de varias variables La elección de una dirección de búsqueda tiene un alto costo computacional, es por ello que los métodos de descenso basados en gradiente sufren modificaciones con el objeto de minimizar o reducir el número de cálculos de gradiente, Hessiano, e inversión de matrices La modificación fundamental consiste en reducir el problema a uno de optimización a lo largo de la dirección de descenso

    edu.red

    Búsqueda Lineal Específicamente se debe resolver el sub-problema de optimización: Encontrar ?, tal quedonde d es la dirección de descenso

    Hallado el ? óptimo se inicia una nueva iteración de descenso

    edu.red

    Búsqueda Lineal Este sub-problema es sensiblemente más sencillo que la optimización general ya que es un problema de una dimensión con una única variable, ? La elección de un método adecuado de búsqueda lineal es de gran importancia en un algoritmo de optimización La búsqueda lineal es responsable de un alto porcentaje del costo de la evaluación de la función objetivo

    Partes: 1, 2
    Página siguiente