Descargar

Optimización dinámica no lineal: el método del gradiente

Enviado por rogelio


  1. Resumen
  2. Introducción
  3. Algunas definiciones
  4. Planteamiento del problema
  5. Las técnicas variacionales y el principio máximo
  6. La maquina sincrónica y las ecuaciones de Mukhopadhyay
  7. Optimización
  8. El algoritmo
  9. Simulación
  10. Conclusiones
  11. Anexo
  12. Bibliografía

RESUMEN

La mayoría de problemas de control óptimo no pueden ser resueltos analíticamente; sin embargo la era digital y los modernos procesadores posibilitó el desarrollo de varios métodos numéricos como el que nos ocupa en este caso particular donde se hace la aplicación a un caso relativamente complejo como es el controlar la excitación de un generador sincrónico.

Palabras clave: Control Optimo, Optimización, Optimabilidad, Cálculo de variaciones, Cálculo Variacional.

INTRODUCCIÓN

El control óptimo es un conjunto de técnicas matemáticas empleadas para resolver problemas de optimización en sistemas que son función del tiempo. En la mayoría de los procesos que se pueden encontrar, es de suma importancia asegurar que un sistema de control trabaje con el mejor funcionamiento posible. Toda vez que mencionamos el empleo de técnicas matemáticas, ello implica que es necesario tener una representación matemática del sistema bajo consideración o del proceso.

Durante el desarrollo de la presente, se hace referencia a diversas ecuaciones las cuales no se las demuestran por no ser objetivo de la presente. El presente artículo fue motivado por la teoría descrita en la referencia /1/, donde es posible encontrar otros métodos los cuales se pretende mostrar a futuro. La referencia /1/ es un excelente texto, sobre todo para aquellos a quienes les interesa realizar trabajos relacionados con la optimización estática y dinámica.

ALGUNAS DEFINICIONES

Control: aquellas variables que permiten realizar la tarea requerida de modificar el comportamiento de las salidas.

Control admisible: los controles y salidas que satisfacen las restricciones.

Horizonte: el periodo de tiempo de interés para el análisis.

Restricciones: condiciones particulares del problema que limitan a los controles y salidas evolucionar arbitrariamente.

Salidas: variables cuya evolución interesa conocer y con las cuales se puede asociar una tarea.

Trayectorias de control: el modo como evolucionan los controles en el tiempo.

Trayectorias de estado: el modo como evolucionan los estados en el tiempo.

Trayectoria de control óptimo: una trayectoria de control que optimiza algún criterio de funcionamiento y satisface las restricciones.

PLANTEAMIENTO DEL PROBLEMA

Sea el sistema dinámico no lineal:

edu.red

donde edu.redes un vector de estados de dimensión n, edu.redes el vector de control de dimensión m, edu.redes una función vectorial analítica continua y doblemente diferenciable, edu.redes la condición inicial conocida. El problema de optimización consiste en elegir la trayectoria de control edu.redtal que el sistema descrito por la ecuación (1) tenga un comportamiento dinámico deseable. En éste tipo de problemas, el comportamiento deseable lo proporciona el vector edu.redel cual minimiza alguna función de los estados y controles durante toda su trayectoria. Esto en términos mas claros significa elegir edu.redde tal forma que se minimice la funcional (función de costo, índice de funcionamiento):

edu.red

donde h y g son funciones escalares no lineales. Esta funcional es muy importante y el termino correspondiente al primer sumando asegura que para el tiempo final tf los estados edu.redalcanzarán un estado determinado, mientras que el término correspondiente a la integral asegura que sobre el intervalo de optimización no se esté empleando excesivo esfuerzo de control que lo desvíe de la trayectoria de control deseada.

LAS TÉCNICAS VARIACIONALES Y EL PRINCIPIO MÁXIMO

El problema de optimización dinámica consiste en encontrar un control admisible edu.redel cual obligue al sistema dinámico dado por (1) seguir una trayectoria admisible edu.redque minimice el índice de funcionamiento J dado por la ecuación (2). Esta última ecuación puede escribirse como:

edu.red

Como edu.redy t0 son conocidos, no se afecta la minimización de esta funcional si solo se considera la minimización de:

edu.red

edu.red

Si a esta última ecuación se le incluye las restricciones dadas por las ecuaciones (1) ponderadas mediante los multiplicadores de Lagrange edu.redse tiene:

edu.red

Aplicando técnicas variacionales a la ecuación (4), es posible demostrar que el problema de minimizar la ecuación (2) sujeto a las restricciones dadas por (1), arroja las siguientes condiciones necesarias para optimabilidad:

edu.red

además:

edu.red

donde H se denomina Hamiltoniano y vale:

edu.red

La ecuación (6) proporciona las condiciones de contorno para un problema particular. Para el presente caso son mas importantes las situaciones en que el tiempo final es conocido, es decir tf es un dato. El estado final puede o no ser conocido.

Si el estado final es conocido edu.redy edu.redson datos, por lo tanto edu.rededu.redy las condiciones de contorno serán:

edu.red

Si el estado final no es conocido o bien es libre, solo se cumple que edu.redpor lo tanto, las condiciones de contorno son:

edu.red

Se pueden presentar otros casos, los cuales no son de importancia para el presente trabajo.

En muchos casos prácticos la función de costos tiene una forma cuadrática, como ser:

edu.red

donde Q y S son matrices reales simétricas y semi-definidas positivas, mientras que R es una matriz real simétrica y positiva definida.

EL METODO DEL GRADIENTE ()

Para tratar de explicar del modo mas fácil posible éste método, recordemos los siguientes conceptos del cálculo variacional. Sea J una funcional diferenciable que mapea algún conjunto del espacio de Hilbert () sobre los reales (), entonces a partir del concepto de derivada direccional podemos establecer:

edu.red

El método del gradiente se basa en la observación de que si tomamos edu.redcon 0<<<1, podremos escribir:

edu.red

el primer miembro de esta igualdad será negativa para edu.redsuficientemente pequeño, en esa última condición:

edu.red

lo cual quiere decir que si nos acercamos a un valor de edu.redsegún una sucesión de valores, generalmente se cumplirá que:

edu.red

la cual es una sucesión monótona decreciente. Para el caso de una funcional como en (3), una variación en J implica (forma reducida):

edu.red

Si se satisfacen las condiciones dadas por (5) y (7), podremos escribir esta ultima ecuación como:

edu.red

Escribiendo (11) en términos del vector de control y admitiendo proporcionalidad entre edu.redy edu.redes posible deducir que:

edu.red

LA MAQUINA SINCRONICA Y LAS ECUACIONES DE MUKHOPADHYAY

La referencia /1/ proporciona el ejemplo para el presente y se trata de las ecuaciones que gobiernan a una máquina sincrónica donde se despreciaron los bobinados de amortiguación, la resistencia de armadura, las derivadas de los eslabonamientos de flujo estatórico y las expresiones para el voltaje estatórico (Birk and Zeitz,1988; Seller, 1986; Mukhopadhyay y Malik, 1972). Se trata de un sistema de ecuaciones diferenciales no lineales y de tercer orden:

edu.red

donde x1 es la posición del rotor (rad), x2 es la velocidad del rotor (rad/s), x3 es el eslabonamiento de flujo del devanado de campo, u es la tensión aplicada a la máquina (variable de control) y se asume que se puede manipularlo a voluntad para optimización.

Las condiciones iniciales del sistema son:

edu.red

OPTIMIZACION

Se desea minimizar la funcional:

edu.red

sujeta a las condiciones (13) en un horizonte de análisis de [0 s, 2 s]. Para el presente caso asumiremos que las matrices Q y R son unitarias; x1p, x2p, x3p son los estados deseados a los cuales se pretende llegar y up es el control deseado, estos valen:

edu.red

El Hamiltoniano será entonces:

edu.red

Aplicando las condiciones de optimabilidad dadas por las ecuaciones (5):

edu.red

edu.red

edu.red

Las condiciones de contorno para la ecuación (18) las encontramos de la ecuación (9):

edu.red

EL ALGORITMO

La solución consiste básicamente en resolver las ecuaciones diferenciales dadas por (17) y (18), en las mismas se puede observar lo siguiente: el primer grupo de ecuaciones (17) no depende de los costos (multiplicadores de Lagrange), las condiciones iniciales para (17) se dan en t0 mientras que para (18) se las da en tf. Lo último implica que la integración en (17) se realice hacia delante mientras que en (18) es hacia atrás. El algoritmo planteado es el siguiente:

  • 1) Introducir el horizonte de análisis [t0, tf] y subdividir el mismo de acuerdo al paso de integración en N subintervalos. Introducir constantes edu.redy edu.red

  • 2) Definir una trayectoria de control nominal sobre el horizonte de análisis, almacenar dicho control en un vector de dimensión 1xN. Para el presente análisis se eligió u(I)=1, I=1, 2, 3,…, N.

  • 3) Con la trayectoria de control obtenida, integrar las ecuaciones de estado dadas por (17) y almacenar los resultados en los array x1(I), x2(I), x3(I) , I=1, 2, 3,…, N. Tener en cuenta que la condición inicial está dada por (14) y que la integración se realiza desde t0 hacia tf.

  • 4) Con la trayectoria de estados obtenida en 3) integrar las ecuaciones de costos dadas por (18) y almacenar los resultados en los array edu.redI=1, 2, 3,…, N. La integración debe realizarse desde tf hacia t0 y las condiciones a partir la cual debe integrarse, viene dada por (20).

  • 5) Obtener y almacenar edu.redmediante la ecuación (19). Hallar la norma edu.redy ver si es menor que algún valor edu.redpreviamente adoptado, esto para ver si el algoritmo está convergiendo. Calcular J con la ecuación (15).

  • 6) Si edu.reddetener el cálculo y mostrar gráficamente los estados y controles obtenidos. En caso de que no se cumpla hacer edu.redcon este vector volver al paso 3).

SIMULACIÓN

Para la simulación, se hará el análisis sobre un horizonte de 0 a 10 segundos, el paso de integración será de h=0.05 seg y adoptaremos un valor de edu.red0.1, de similar modo edu.red0.01. La figura 1 muestra la evolución de los diferentes estados cuando no se optimiza el control. Tomando como referencia los estados deseados dados en (16), el índice de funcionamiento dado por (15) resultó ser 3.7555.

edu.red

Figura 1. Simulación del sistema sin optimizar el control.

edu.red

Figura 2. Simulación del sistema aplicando control óptimo.

La figura 3 muestra el comportamiento del índice de funcionamiento, forzando al programa a efectuar los cálculos durante cuarenta ciclos. Como se puede ver el índice se aproxima al mínimo en menos de 10 iteraciones.

edu.red

Figura 3. Índice de funcionamiento

El método de integración elegido para la presente simulación es el de Runge Kutta de cuarto orden; sin embargo se debe tener cuidado al efectuar la integración hacia atrás (ver anexo).

CONCLUSIONES

Se presentó un método de optimización para sistemas dinámicos no lineales. El algoritmo es sencillo en su implementación y tal como muestran las figuras 1 y 2, el nuevo control reduce el tiempo de establecimiento de los estados deseados. El índice de funcionamiento muestra cuan ineficiente puede resultar un sistema de control no óptimo, en el sentido de que el mismo no podrá lograr un control con el mínimo de recursos posibles.

ANEXO

Método de Runge Kutta. El algoritmo emplea las ecuaciones de recurrencia (integración hacia adelante):

edu.red

Para la integración hacia atrás se empleó las ecuaciones:

edu.red

BIBLIOGRAFÍA

/1/ Systems: Decomposition, Optimisation and Control, M.G.Singh, A. Titli, 1978.

/2/ Iterative Dynamic Programing, Rein Luus, Chapman & Hall/CRC, 2000

/3/ Optimal Control Theory An Introduction, Donald E. Kirk, Dover Publications Inc. 2004.

/4/ Cálculo Variacional, M.L. Krasnov, G.I. Makarenko, A.I.Kiseliov, Editorial MIR 1992.

 

 

Autor:

Rogelio José Choque Castro

Nacido en La Paz Bolivia, es Ingeniero Electricista titulado en la Universidad Mayor de San Andrés (UMSA). Trabajó durante diez años en la Industria Textil (área de mantenimiento), Supervisor Proyecto de Electrificación Rural Illimani Sud, Residente de Obra Proyecto Porvenir Chive, docente de la Universidad de Aquino Bolivia (UDABOL) y Universidad Los Andes. Sus áreas de interés: Simulación de Transitorios en Sistemas de Potencia, Electrónica de Potencia, Procesamiento Digital de Señales, Sistemas de Control.