- Resumen
- Introducción
- Algunas definiciones
- Planteamiento del problema
- Las
técnicas variacionales y el principio
máximo - La
maquina sincrónica y las ecuaciones de
Mukhopadhyay - Optimización
- El
algoritmo - Simulación
- Conclusiones
- Anexo
- Bibliografía
RESUMEN
La mayoría de problemas de control
óptimo no pueden ser resueltos analíticamente; sin
embargo la era digital y los modernos procesadores
posibilitó el desarrollo de varios métodos
numéricos como el que nos ocupa en este caso particular
donde se hace la aplicación a un caso relativamente
complejo como es el controlar la excitación de un
generador sincrónico.
Palabras clave: Control Optimo,
Optimización, Optimabilidad, Cálculo de
variaciones, Cálculo Variacional.
INTRODUCCIÓN
El control óptimo es un conjunto de
técnicas matemáticas empleadas para resolver
problemas de optimización en sistemas que son
función del tiempo. En la mayoría de los procesos
que se pueden encontrar, es de suma importancia asegurar que un
sistema de control trabaje con el mejor funcionamiento posible.
Toda vez que mencionamos el empleo de técnicas
matemáticas, ello implica que es necesario tener una
representación matemática del sistema bajo
consideración o del proceso.
Durante el desarrollo de la presente, se hace referencia
a diversas ecuaciones las cuales no se las demuestran por no ser
objetivo de la presente. El presente artículo fue motivado
por la teoría descrita en la referencia /1/, donde es
posible encontrar otros métodos los cuales se pretende
mostrar a futuro. La referencia /1/ es un excelente texto, sobre
todo para aquellos a quienes les interesa realizar trabajos
relacionados con la optimización estática y
dinámica.
ALGUNAS
DEFINICIONES
Control: aquellas variables que permiten realizar
la tarea requerida de modificar el comportamiento de las
salidas.
Control admisible: los controles y salidas que
satisfacen las restricciones.
Horizonte: el periodo de tiempo de interés
para el análisis.
Restricciones: condiciones particulares del
problema que limitan a los controles y salidas evolucionar
arbitrariamente.
Salidas: variables cuya evolución interesa
conocer y con las cuales se puede asociar una tarea.
Trayectorias de control: el modo como evolucionan
los controles en el tiempo.
Trayectorias de estado: el modo como evolucionan
los estados en el tiempo.
Trayectoria de control óptimo: una
trayectoria de control que optimiza algún criterio de
funcionamiento y satisface las restricciones.
PLANTEAMIENTO DEL
PROBLEMA
Sea el sistema dinámico no lineal:
donde es
un vector de estados de dimensión n, es el vector de control de
dimensión m, es una función vectorial
analítica continua y doblemente diferenciable, es la condición
inicial conocida. El problema de optimización consiste en
elegir la trayectoria de control tal que el sistema descrito por la
ecuación (1) tenga un comportamiento dinámico
deseable. En éste tipo de problemas, el comportamiento
deseable lo proporciona el vector el cual minimiza alguna función de los
estados y controles durante toda su trayectoria. Esto en
términos mas claros significa elegir de tal forma que se minimice
la funcional (función de costo, índice de
funcionamiento):
donde h y g son funciones escalares no lineales. Esta
funcional es muy importante y el termino correspondiente al
primer sumando asegura que para el tiempo final tf los estados
alcanzarán
un estado determinado, mientras que el término
correspondiente a la integral asegura que sobre el intervalo de
optimización no se esté empleando excesivo esfuerzo
de control que lo desvíe de la trayectoria de control
deseada.
LAS
TÉCNICAS VARIACIONALES Y EL PRINCIPIO
MÁXIMO
El problema de optimización dinámica
consiste en encontrar un control admisible el cual obligue al sistema
dinámico dado por (1) seguir una trayectoria admisible
que minimice el
índice de funcionamiento J dado por la ecuación
(2). Esta última ecuación puede escribirse
como:
Como y t0
son conocidos, no se afecta la minimización de esta
funcional si solo se considera la minimización
de:
Si a esta última ecuación se le incluye
las restricciones dadas por las ecuaciones (1) ponderadas
mediante los multiplicadores de Lagrange se tiene:
Aplicando técnicas variacionales a la
ecuación (4), es posible demostrar que el problema de
minimizar la ecuación (2) sujeto a las restricciones dadas
por (1), arroja las siguientes condiciones necesarias para
optimabilidad:
además:
donde H se denomina Hamiltoniano y vale:
La ecuación (6) proporciona las condiciones de
contorno para un problema particular. Para el presente caso son
mas importantes las situaciones en que el tiempo final es
conocido, es decir tf es un dato. El estado final puede o no ser
conocido.
Si el estado final es conocido y son datos, por lo tanto y las condiciones de contorno
serán:
Si el estado final no es conocido o bien es libre, solo
se cumple que por
lo tanto, las condiciones de contorno son:
Se pueden presentar otros casos, los cuales no son de
importancia para el presente trabajo.
En muchos casos prácticos la función de
costos tiene una forma cuadrática, como ser:
donde Q y S son matrices reales simétricas y
semi-definidas positivas, mientras que R es una matriz real
simétrica y positiva definida.
EL METODO DEL GRADIENTE ()
Para tratar de explicar del modo mas fácil
posible éste método, recordemos los siguientes
conceptos del cálculo variacional. Sea J una funcional
diferenciable que mapea algún conjunto del espacio de
Hilbert () sobre los reales (), entonces a partir del concepto de
derivada direccional podemos establecer:
El método del gradiente se basa en la
observación de que si tomamos con 0<<<1, podremos
escribir:
el primer miembro de esta igualdad será negativa
para suficientemente pequeño, en esa
última condición:
lo cual quiere decir que si nos acercamos a un valor de
según una
sucesión de valores, generalmente se cumplirá
que:
la cual es una sucesión monótona
decreciente. Para el caso de una funcional como en (3), una
variación en J implica (forma reducida):
Si se satisfacen las condiciones dadas por (5) y (7),
podremos escribir esta ultima ecuación como:
Escribiendo (11) en términos del vector de
control y admitiendo proporcionalidad entre y es posible deducir que:
LA MAQUINA
SINCRONICA Y LAS ECUACIONES DE MUKHOPADHYAY
La referencia /1/ proporciona el ejemplo para el
presente y se trata de las ecuaciones que gobiernan a una
máquina sincrónica donde se despreciaron los
bobinados de amortiguación, la resistencia de armadura,
las derivadas de los eslabonamientos de flujo estatórico y
las expresiones para el voltaje estatórico (Birk and
Zeitz,1988; Seller, 1986; Mukhopadhyay y Malik, 1972). Se trata
de un sistema de ecuaciones diferenciales no lineales y de tercer
orden:
donde x1 es la posición del rotor (rad), x2 es la
velocidad del rotor (rad/s), x3 es el eslabonamiento de flujo del
devanado de campo, u es la tensión aplicada a la
máquina (variable de control) y se asume que se puede
manipularlo a voluntad para optimización.
Las condiciones iniciales del sistema son:
OPTIMIZACION
Se desea minimizar la funcional:
sujeta a las condiciones (13) en un horizonte de
análisis de [0 s, 2 s]. Para el presente caso asumiremos
que las matrices Q y R son unitarias; x1p, x2p, x3p son los
estados deseados a los cuales se pretende llegar y up es el
control deseado, estos valen:
El Hamiltoniano será entonces:
Aplicando las condiciones de optimabilidad dadas por las
ecuaciones (5):
Las condiciones de contorno para la ecuación (18)
las encontramos de la ecuación (9):
EL
ALGORITMO
La solución consiste básicamente en
resolver las ecuaciones diferenciales dadas por (17) y (18), en
las mismas se puede observar lo siguiente: el primer grupo de
ecuaciones (17) no depende de los costos (multiplicadores de
Lagrange), las condiciones iniciales para (17) se dan en t0
mientras que para (18) se las da en tf. Lo último implica
que la integración en (17) se realice hacia delante
mientras que en (18) es hacia atrás. El algoritmo
planteado es el siguiente:
1) Introducir el horizonte de análisis
[t0, tf] y subdividir el mismo de acuerdo al paso de
integración en N subintervalos. Introducir constantes
y2) Definir una trayectoria de control nominal
sobre el horizonte de análisis, almacenar dicho
control en un vector de dimensión 1xN. Para el
presente análisis se eligió u(I)=1, I=1, 2,
3,…, N.3) Con la trayectoria de control obtenida,
integrar las ecuaciones de estado dadas por (17) y almacenar
los resultados en los array x1(I), x2(I), x3(I) , I=1, 2,
3,…, N. Tener en cuenta que la condición inicial
está dada por (14) y que la integración se
realiza desde t0 hacia tf.4) Con la trayectoria de estados obtenida en 3)
integrar las ecuaciones de costos dadas por (18) y almacenar
los resultados en los array I=1, 2, 3,…, N. La integración
debe realizarse desde tf hacia t0 y las condiciones a partir
la cual debe integrarse, viene dada por (20).5) Obtener y almacenar mediante la ecuación (19).
Hallar la norma y ver si es menor que algún valor
previamente
adoptado, esto para ver si el algoritmo está
convergiendo. Calcular J con la ecuación
(15).6) Si detener el cálculo y mostrar
gráficamente los estados y controles obtenidos. En
caso de que no se cumpla hacer con este vector volver al paso
3).
SIMULACIÓN
Para la simulación, se hará
el análisis sobre un horizonte de 0 a 10 segundos, el paso
de integración será de h=0.05 seg y adoptaremos un
valor de 0.1, de
similar modo 0.01.
La figura 1 muestra la evolución de los diferentes estados
cuando no se optimiza el control. Tomando como referencia los
estados deseados dados en (16), el índice de
funcionamiento dado por (15) resultó ser
3.7555.
Figura 1. Simulación del
sistema sin optimizar el control.
Figura 2. Simulación del
sistema aplicando control óptimo.
La figura 3 muestra el comportamiento del
índice de funcionamiento, forzando al programa a efectuar
los cálculos durante cuarenta ciclos. Como se puede ver el
índice se aproxima al mínimo en menos de 10
iteraciones.
Figura 3. Índice de
funcionamiento
El método de integración elegido para la
presente simulación es el de Runge Kutta de cuarto orden;
sin embargo se debe tener cuidado al efectuar la
integración hacia atrás (ver anexo).
CONCLUSIONES
Se presentó un método de
optimización para sistemas dinámicos no lineales.
El algoritmo es sencillo en su implementación y tal como
muestran las figuras 1 y 2, el nuevo control reduce el tiempo de
establecimiento de los estados deseados. El índice de
funcionamiento muestra cuan ineficiente puede resultar un sistema
de control no óptimo, en el sentido de que el mismo no
podrá lograr un control con el mínimo de recursos
posibles.
ANEXO
Método de Runge Kutta. El algoritmo emplea
las ecuaciones de recurrencia (integración hacia
adelante):
Para la integración hacia atrás se
empleó las ecuaciones:
BIBLIOGRAFÍA
/1/ Systems: Decomposition, Optimisation and Control,
M.G.Singh, A. Titli, 1978.
/2/ Iterative Dynamic Programing, Rein Luus, Chapman
& Hall/CRC, 2000
/3/ Optimal Control Theory An Introduction, Donald E.
Kirk, Dover Publications Inc. 2004.
/4/ Cálculo Variacional, M.L. Krasnov, G.I.
Makarenko, A.I.Kiseliov, Editorial MIR 1992.
Autor:
Rogelio José Choque Castro
Nacido en La Paz Bolivia, es Ingeniero
Electricista titulado en la Universidad Mayor de San
Andrés (UMSA). Trabajó durante diez años en
la Industria Textil (área de mantenimiento), Supervisor
Proyecto de Electrificación Rural Illimani Sud, Residente
de Obra Proyecto Porvenir Chive, docente de la Universidad de
Aquino Bolivia (UDABOL) y Universidad Los Andes. Sus áreas
de interés: Simulación de Transitorios en Sistemas
de Potencia, Electrónica de Potencia, Procesamiento
Digital de Señales, Sistemas de Control.