- Resumen
- Introducción
- Algunas definiciones
- Planteamiento del problema
- Las técnicas variacionales y el principio máximo
- La maquina sincrónica y las ecuaciones de Mukhopadhyay
- Optimización
- El algoritmo
- Simulación
- Conclusiones
- Anexo
- Bibliografía
RESUMEN
La mayoría de problemas de control óptimo no pueden ser resueltos analíticamente; sin embargo la era digital y los modernos procesadores posibilitó el desarrollo de varios métodos numéricos como el que nos ocupa en este caso particular donde se hace la aplicación a un caso relativamente complejo como es el controlar la excitación de un generador sincrónico.
Palabras clave: Control Optimo, Optimización, Optimabilidad, Cálculo de variaciones, Cálculo Variacional.
INTRODUCCIÓN
El control óptimo es un conjunto de técnicas matemáticas empleadas para resolver problemas de optimización en sistemas que son función del tiempo. En la mayoría de los procesos que se pueden encontrar, es de suma importancia asegurar que un sistema de control trabaje con el mejor funcionamiento posible. Toda vez que mencionamos el empleo de técnicas matemáticas, ello implica que es necesario tener una representación matemática del sistema bajo consideración o del proceso.
Durante el desarrollo de la presente, se hace referencia a diversas ecuaciones las cuales no se las demuestran por no ser objetivo de la presente. El presente artículo fue motivado por la teoría descrita en la referencia /1/, donde es posible encontrar otros métodos los cuales se pretende mostrar a futuro. La referencia /1/ es un excelente texto, sobre todo para aquellos a quienes les interesa realizar trabajos relacionados con la optimización estática y dinámica.
ALGUNAS DEFINICIONES
Control: aquellas variables que permiten realizar la tarea requerida de modificar el comportamiento de las salidas.
Control admisible: los controles y salidas que satisfacen las restricciones.
Horizonte: el periodo de tiempo de interés para el análisis.
Restricciones: condiciones particulares del problema que limitan a los controles y salidas evolucionar arbitrariamente.
Salidas: variables cuya evolución interesa conocer y con las cuales se puede asociar una tarea.
Trayectorias de control: el modo como evolucionan los controles en el tiempo.
Trayectorias de estado: el modo como evolucionan los estados en el tiempo.
Trayectoria de control óptimo: una trayectoria de control que optimiza algún criterio de funcionamiento y satisface las restricciones.
PLANTEAMIENTO DEL PROBLEMA
Sea el sistema dinámico no lineal:
donde es un vector de estados de dimensión n, es el vector de control de dimensión m, es una función vectorial analítica continua y doblemente diferenciable, es la condición inicial conocida. El problema de optimización consiste en elegir la trayectoria de control tal que el sistema descrito por la ecuación (1) tenga un comportamiento dinámico deseable. En éste tipo de problemas, el comportamiento deseable lo proporciona el vector el cual minimiza alguna función de los estados y controles durante toda su trayectoria. Esto en términos mas claros significa elegir de tal forma que se minimice la funcional (función de costo, índice de funcionamiento):
donde h y g son funciones escalares no lineales. Esta funcional es muy importante y el termino correspondiente al primer sumando asegura que para el tiempo final tf los estados alcanzarán un estado determinado, mientras que el término correspondiente a la integral asegura que sobre el intervalo de optimización no se esté empleando excesivo esfuerzo de control que lo desvíe de la trayectoria de control deseada.
LAS TÉCNICAS VARIACIONALES Y EL PRINCIPIO MÁXIMO
El problema de optimización dinámica consiste en encontrar un control admisible el cual obligue al sistema dinámico dado por (1) seguir una trayectoria admisible que minimice el índice de funcionamiento J dado por la ecuación (2). Esta última ecuación puede escribirse como:
Como y t0 son conocidos, no se afecta la minimización de esta funcional si solo se considera la minimización de:
Si a esta última ecuación se le incluye las restricciones dadas por las ecuaciones (1) ponderadas mediante los multiplicadores de Lagrange se tiene:
Aplicando técnicas variacionales a la ecuación (4), es posible demostrar que el problema de minimizar la ecuación (2) sujeto a las restricciones dadas por (1), arroja las siguientes condiciones necesarias para optimabilidad:
además:
donde H se denomina Hamiltoniano y vale:
La ecuación (6) proporciona las condiciones de contorno para un problema particular. Para el presente caso son mas importantes las situaciones en que el tiempo final es conocido, es decir tf es un dato. El estado final puede o no ser conocido.
Si el estado final es conocido y son datos, por lo tanto y las condiciones de contorno serán:
Si el estado final no es conocido o bien es libre, solo se cumple que por lo tanto, las condiciones de contorno son:
Se pueden presentar otros casos, los cuales no son de importancia para el presente trabajo.
En muchos casos prácticos la función de costos tiene una forma cuadrática, como ser:
donde Q y S son matrices reales simétricas y semi-definidas positivas, mientras que R es una matriz real simétrica y positiva definida.
EL METODO DEL GRADIENTE ()
Para tratar de explicar del modo mas fácil posible éste método, recordemos los siguientes conceptos del cálculo variacional. Sea J una funcional diferenciable que mapea algún conjunto del espacio de Hilbert () sobre los reales (), entonces a partir del concepto de derivada direccional podemos establecer:
El método del gradiente se basa en la observación de que si tomamos con 0<<<1, podremos escribir:
el primer miembro de esta igualdad será negativa para suficientemente pequeño, en esa última condición:
lo cual quiere decir que si nos acercamos a un valor de según una sucesión de valores, generalmente se cumplirá que:
la cual es una sucesión monótona decreciente. Para el caso de una funcional como en (3), una variación en J implica (forma reducida):
Si se satisfacen las condiciones dadas por (5) y (7), podremos escribir esta ultima ecuación como:
Escribiendo (11) en términos del vector de control y admitiendo proporcionalidad entre y es posible deducir que:
LA MAQUINA SINCRONICA Y LAS ECUACIONES DE MUKHOPADHYAY
La referencia /1/ proporciona el ejemplo para el presente y se trata de las ecuaciones que gobiernan a una máquina sincrónica donde se despreciaron los bobinados de amortiguación, la resistencia de armadura, las derivadas de los eslabonamientos de flujo estatórico y las expresiones para el voltaje estatórico (Birk and Zeitz,1988; Seller, 1986; Mukhopadhyay y Malik, 1972). Se trata de un sistema de ecuaciones diferenciales no lineales y de tercer orden:
donde x1 es la posición del rotor (rad), x2 es la velocidad del rotor (rad/s), x3 es el eslabonamiento de flujo del devanado de campo, u es la tensión aplicada a la máquina (variable de control) y se asume que se puede manipularlo a voluntad para optimización.
Las condiciones iniciales del sistema son:
OPTIMIZACION
Se desea minimizar la funcional:
sujeta a las condiciones (13) en un horizonte de análisis de [0 s, 2 s]. Para el presente caso asumiremos que las matrices Q y R son unitarias; x1p, x2p, x3p son los estados deseados a los cuales se pretende llegar y up es el control deseado, estos valen:
El Hamiltoniano será entonces:
Aplicando las condiciones de optimabilidad dadas por las ecuaciones (5):
Las condiciones de contorno para la ecuación (18) las encontramos de la ecuación (9):
EL ALGORITMO
La solución consiste básicamente en resolver las ecuaciones diferenciales dadas por (17) y (18), en las mismas se puede observar lo siguiente: el primer grupo de ecuaciones (17) no depende de los costos (multiplicadores de Lagrange), las condiciones iniciales para (17) se dan en t0 mientras que para (18) se las da en tf. Lo último implica que la integración en (17) se realice hacia delante mientras que en (18) es hacia atrás. El algoritmo planteado es el siguiente:
1) Introducir el horizonte de análisis [t0, tf] y subdividir el mismo de acuerdo al paso de integración en N subintervalos. Introducir constantes y
2) Definir una trayectoria de control nominal sobre el horizonte de análisis, almacenar dicho control en un vector de dimensión 1xN. Para el presente análisis se eligió u(I)=1, I=1, 2, 3,…, N.
3) Con la trayectoria de control obtenida, integrar las ecuaciones de estado dadas por (17) y almacenar los resultados en los array x1(I), x2(I), x3(I) , I=1, 2, 3,…, N. Tener en cuenta que la condición inicial está dada por (14) y que la integración se realiza desde t0 hacia tf.
4) Con la trayectoria de estados obtenida en 3) integrar las ecuaciones de costos dadas por (18) y almacenar los resultados en los array I=1, 2, 3,…, N. La integración debe realizarse desde tf hacia t0 y las condiciones a partir la cual debe integrarse, viene dada por (20).
5) Obtener y almacenar mediante la ecuación (19). Hallar la norma y ver si es menor que algún valor previamente adoptado, esto para ver si el algoritmo está convergiendo. Calcular J con la ecuación (15).
6) Si detener el cálculo y mostrar gráficamente los estados y controles obtenidos. En caso de que no se cumpla hacer con este vector volver al paso 3).
SIMULACIÓN
Para la simulación, se hará el análisis sobre un horizonte de 0 a 10 segundos, el paso de integración será de h=0.05 seg y adoptaremos un valor de 0.1, de similar modo 0.01. La figura 1 muestra la evolución de los diferentes estados cuando no se optimiza el control. Tomando como referencia los estados deseados dados en (16), el índice de funcionamiento dado por (15) resultó ser 3.7555.
Figura 1. Simulación del sistema sin optimizar el control.
Figura 2. Simulación del sistema aplicando control óptimo.
La figura 3 muestra el comportamiento del índice de funcionamiento, forzando al programa a efectuar los cálculos durante cuarenta ciclos. Como se puede ver el índice se aproxima al mínimo en menos de 10 iteraciones.
Figura 3. Índice de funcionamiento
El método de integración elegido para la presente simulación es el de Runge Kutta de cuarto orden; sin embargo se debe tener cuidado al efectuar la integración hacia atrás (ver anexo).
CONCLUSIONES
Se presentó un método de optimización para sistemas dinámicos no lineales. El algoritmo es sencillo en su implementación y tal como muestran las figuras 1 y 2, el nuevo control reduce el tiempo de establecimiento de los estados deseados. El índice de funcionamiento muestra cuan ineficiente puede resultar un sistema de control no óptimo, en el sentido de que el mismo no podrá lograr un control con el mínimo de recursos posibles.
ANEXO
Método de Runge Kutta. El algoritmo emplea las ecuaciones de recurrencia (integración hacia adelante):
Para la integración hacia atrás se empleó las ecuaciones:
BIBLIOGRAFÍA
/1/ Systems: Decomposition, Optimisation and Control, M.G.Singh, A. Titli, 1978.
/2/ Iterative Dynamic Programing, Rein Luus, Chapman & Hall/CRC, 2000
/3/ Optimal Control Theory An Introduction, Donald E. Kirk, Dover Publications Inc. 2004.
/4/ Cálculo Variacional, M.L. Krasnov, G.I. Makarenko, A.I.Kiseliov, Editorial MIR 1992.
Autor:
Rogelio José Choque Castro
Nacido en La Paz Bolivia, es Ingeniero Electricista titulado en la Universidad Mayor de San Andrés (UMSA). Trabajó durante diez años en la Industria Textil (área de mantenimiento), Supervisor Proyecto de Electrificación Rural Illimani Sud, Residente de Obra Proyecto Porvenir Chive, docente de la Universidad de Aquino Bolivia (UDABOL) y Universidad Los Andes. Sus áreas de interés: Simulación de Transitorios en Sistemas de Potencia, Electrónica de Potencia, Procesamiento Digital de Señales, Sistemas de Control.