Monografias.com > Matemáticas
Descargar Imprimir Comentar Ver trabajos relacionados

Optimización dinámica no lineal: el método del gradiente




Enviado por rogelio



  1. Resumen
  2. Introducción
  3. Algunas definiciones
  4. Planteamiento del problema
  5. Las
    técnicas variacionales y el principio
    máximo
  6. La
    maquina sincrónica y las ecuaciones de
    Mukhopadhyay
  7. Optimización
  8. El
    algoritmo
  9. Simulación
  10. Conclusiones
  11. Anexo
  12. Bibliografía

RESUMEN

La mayoría de problemas de control
óptimo no pueden ser resueltos analíticamente; sin
embargo la era digital y los modernos procesadores
posibilitó el desarrollo de varios métodos
numéricos como el que nos ocupa en este caso particular
donde se hace la aplicación a un caso relativamente
complejo como es el controlar la excitación de un
generador sincrónico.

Palabras clave: Control Optimo,
Optimización, Optimabilidad, Cálculo de
variaciones, Cálculo Variacional.

INTRODUCCIÓN

El control óptimo es un conjunto de
técnicas matemáticas empleadas para resolver
problemas de optimización en sistemas que son
función del tiempo. En la mayoría de los procesos
que se pueden encontrar, es de suma importancia asegurar que un
sistema de control trabaje con el mejor funcionamiento posible.
Toda vez que mencionamos el empleo de técnicas
matemáticas, ello implica que es necesario tener una
representación matemática del sistema bajo
consideración o del proceso.

Durante el desarrollo de la presente, se hace referencia
a diversas ecuaciones las cuales no se las demuestran por no ser
objetivo de la presente. El presente artículo fue motivado
por la teoría descrita en la referencia /1/, donde es
posible encontrar otros métodos los cuales se pretende
mostrar a futuro. La referencia /1/ es un excelente texto, sobre
todo para aquellos a quienes les interesa realizar trabajos
relacionados con la optimización estática y
dinámica.

ALGUNAS
DEFINICIONES

Control: aquellas variables que permiten realizar
la tarea requerida de modificar el comportamiento de las
salidas.

Control admisible: los controles y salidas que
satisfacen las restricciones.

Horizonte: el periodo de tiempo de interés
para el análisis.

Restricciones: condiciones particulares del
problema que limitan a los controles y salidas evolucionar
arbitrariamente.

Salidas: variables cuya evolución interesa
conocer y con las cuales se puede asociar una tarea.

Trayectorias de control: el modo como evolucionan
los controles en el tiempo.

Trayectorias de estado: el modo como evolucionan
los estados en el tiempo.

Trayectoria de control óptimo: una
trayectoria de control que optimiza algún criterio de
funcionamiento y satisface las restricciones.

PLANTEAMIENTO DEL
PROBLEMA

Sea el sistema dinámico no lineal:

Monografias.com

donde Monografias.comes
un vector de estados de dimensión n, Monografias.comes el vector de control de
dimensión m, Monografias.comes una función vectorial
analítica continua y doblemente diferenciable, Monografias.comes la condición
inicial conocida. El problema de optimización consiste en
elegir la trayectoria de control Monografias.comtal que el sistema descrito por la
ecuación (1) tenga un comportamiento dinámico
deseable. En éste tipo de problemas, el comportamiento
deseable lo proporciona el vector Monografias.comel cual minimiza alguna función de los
estados y controles durante toda su trayectoria. Esto en
términos mas claros significa elegir Monografias.comde tal forma que se minimice
la funcional (función de costo, índice de
funcionamiento):

Monografias.com

donde h y g son funciones escalares no lineales. Esta
funcional es muy importante y el termino correspondiente al
primer sumando asegura que para el tiempo final tf los estados
Monografias.comalcanzarán
un estado determinado, mientras que el término
correspondiente a la integral asegura que sobre el intervalo de
optimización no se esté empleando excesivo esfuerzo
de control que lo desvíe de la trayectoria de control
deseada.

LAS
TÉCNICAS VARIACIONALES Y EL PRINCIPIO
MÁXIMO

El problema de optimización dinámica
consiste en encontrar un control admisible Monografias.comel cual obligue al sistema
dinámico dado por (1) seguir una trayectoria admisible
Monografias.comque minimice el
índice de funcionamiento J dado por la ecuación
(2). Esta última ecuación puede escribirse
como:

Monografias.com

Como Monografias.comy t0
son conocidos, no se afecta la minimización de esta
funcional si solo se considera la minimización
de:

Monografias.com

Monografias.com

Si a esta última ecuación se le incluye
las restricciones dadas por las ecuaciones (1) ponderadas
mediante los multiplicadores de Lagrange Monografias.comse tiene:

Monografias.com

Aplicando técnicas variacionales a la
ecuación (4), es posible demostrar que el problema de
minimizar la ecuación (2) sujeto a las restricciones dadas
por (1), arroja las siguientes condiciones necesarias para
optimabilidad:

Monografias.com

además:

Monografias.com

donde H se denomina Hamiltoniano y vale:

Monografias.com

La ecuación (6) proporciona las condiciones de
contorno para un problema particular. Para el presente caso son
mas importantes las situaciones en que el tiempo final es
conocido, es decir tf es un dato. El estado final puede o no ser
conocido.

Si el estado final es conocido Monografias.comy Monografias.comson datos, por lo tanto Monografias.comMonografias.comy las condiciones de contorno
serán:

Monografias.com

Si el estado final no es conocido o bien es libre, solo
se cumple que Monografias.compor
lo tanto, las condiciones de contorno son:

Monografias.com

Se pueden presentar otros casos, los cuales no son de
importancia para el presente trabajo.

En muchos casos prácticos la función de
costos tiene una forma cuadrática, como ser:

Monografias.com

donde Q y S son matrices reales simétricas y
semi-definidas positivas, mientras que R es una matriz real
simétrica y positiva definida.

EL METODO DEL GRADIENTE ()

Para tratar de explicar del modo mas fácil
posible éste método, recordemos los siguientes
conceptos del cálculo variacional. Sea J una funcional
diferenciable que mapea algún conjunto del espacio de
Hilbert () sobre los reales (), entonces a partir del concepto de
derivada direccional podemos establecer:

Monografias.com

El método del gradiente se basa en la
observación de que si tomamos Monografias.comcon 0<<<1, podremos
escribir:

Monografias.com

el primer miembro de esta igualdad será negativa
para Monografias.comsuficientemente pequeño, en esa
última condición:

Monografias.com

lo cual quiere decir que si nos acercamos a un valor de
Monografias.comsegún una
sucesión de valores, generalmente se cumplirá
que:

Monografias.com

la cual es una sucesión monótona
decreciente. Para el caso de una funcional como en (3), una
variación en J implica (forma reducida):

Monografias.com

Si se satisfacen las condiciones dadas por (5) y (7),
podremos escribir esta ultima ecuación como:

Monografias.com

Escribiendo (11) en términos del vector de
control y admitiendo proporcionalidad entre Monografias.comy Monografias.comes posible deducir que:

Monografias.com

LA MAQUINA
SINCRONICA Y LAS ECUACIONES DE MUKHOPADHYAY

La referencia /1/ proporciona el ejemplo para el
presente y se trata de las ecuaciones que gobiernan a una
máquina sincrónica donde se despreciaron los
bobinados de amortiguación, la resistencia de armadura,
las derivadas de los eslabonamientos de flujo estatórico y
las expresiones para el voltaje estatórico (Birk and
Zeitz,1988; Seller, 1986; Mukhopadhyay y Malik, 1972). Se trata
de un sistema de ecuaciones diferenciales no lineales y de tercer
orden:

Monografias.com

donde x1 es la posición del rotor (rad), x2 es la
velocidad del rotor (rad/s), x3 es el eslabonamiento de flujo del
devanado de campo, u es la tensión aplicada a la
máquina (variable de control) y se asume que se puede
manipularlo a voluntad para optimización.

Las condiciones iniciales del sistema son:

Monografias.com

OPTIMIZACION

Se desea minimizar la funcional:

Monografias.com

sujeta a las condiciones (13) en un horizonte de
análisis de [0 s, 2 s]. Para el presente caso asumiremos
que las matrices Q y R son unitarias; x1p, x2p, x3p son los
estados deseados a los cuales se pretende llegar y up es el
control deseado, estos valen:

Monografias.com

El Hamiltoniano será entonces:

Monografias.com

Aplicando las condiciones de optimabilidad dadas por las
ecuaciones (5):

Monografias.com

Monografias.com

Monografias.com

Las condiciones de contorno para la ecuación (18)
las encontramos de la ecuación (9):

Monografias.com

EL
ALGORITMO

La solución consiste básicamente en
resolver las ecuaciones diferenciales dadas por (17) y (18), en
las mismas se puede observar lo siguiente: el primer grupo de
ecuaciones (17) no depende de los costos (multiplicadores de
Lagrange), las condiciones iniciales para (17) se dan en t0
mientras que para (18) se las da en tf. Lo último implica
que la integración en (17) se realice hacia delante
mientras que en (18) es hacia atrás. El algoritmo
planteado es el siguiente:

  • 1) Introducir el horizonte de análisis
    [t0, tf] y subdividir el mismo de acuerdo al paso de
    integración en N subintervalos. Introducir constantes
    Monografias.comy Monografias.com

  • 2) Definir una trayectoria de control nominal
    sobre el horizonte de análisis, almacenar dicho
    control en un vector de dimensión 1xN. Para el
    presente análisis se eligió u(I)=1, I=1, 2,
    3,…, N.

  • 3) Con la trayectoria de control obtenida,
    integrar las ecuaciones de estado dadas por (17) y almacenar
    los resultados en los array x1(I), x2(I), x3(I) , I=1, 2,
    3,…, N. Tener en cuenta que la condición inicial
    está dada por (14) y que la integración se
    realiza desde t0 hacia tf.

  • 4) Con la trayectoria de estados obtenida en 3)
    integrar las ecuaciones de costos dadas por (18) y almacenar
    los resultados en los array Monografias.comI=1, 2, 3,…, N. La integración
    debe realizarse desde tf hacia t0 y las condiciones a partir
    la cual debe integrarse, viene dada por (20).

  • 5) Obtener y almacenar Monografias.commediante la ecuación (19).
    Hallar la norma Monografias.comy ver si es menor que algún valor
    Monografias.compreviamente
    adoptado, esto para ver si el algoritmo está
    convergiendo. Calcular J con la ecuación
    (15).

  • 6) Si Monografias.comdetener el cálculo y mostrar
    gráficamente los estados y controles obtenidos. En
    caso de que no se cumpla hacer Monografias.comcon este vector volver al paso
    3).

SIMULACIÓN

Para la simulación, se hará
el análisis sobre un horizonte de 0 a 10 segundos, el paso
de integración será de h=0.05 seg y adoptaremos un
valor de Monografias.com0.1, de
similar modo Monografias.com0.01.
La figura 1 muestra la evolución de los diferentes estados
cuando no se optimiza el control. Tomando como referencia los
estados deseados dados en (16), el índice de
funcionamiento dado por (15) resultó ser
3.7555.

Monografias.com

Figura 1. Simulación del
sistema sin optimizar el control.

Monografias.com

Figura 2. Simulación del
sistema aplicando control óptimo.

La figura 3 muestra el comportamiento del
índice de funcionamiento, forzando al programa a efectuar
los cálculos durante cuarenta ciclos. Como se puede ver el
índice se aproxima al mínimo en menos de 10
iteraciones.

Monografias.com

Figura 3. Índice de
funcionamiento

El método de integración elegido para la
presente simulación es el de Runge Kutta de cuarto orden;
sin embargo se debe tener cuidado al efectuar la
integración hacia atrás (ver anexo).

CONCLUSIONES

Se presentó un método de
optimización para sistemas dinámicos no lineales.
El algoritmo es sencillo en su implementación y tal como
muestran las figuras 1 y 2, el nuevo control reduce el tiempo de
establecimiento de los estados deseados. El índice de
funcionamiento muestra cuan ineficiente puede resultar un sistema
de control no óptimo, en el sentido de que el mismo no
podrá lograr un control con el mínimo de recursos
posibles.

ANEXO

Método de Runge Kutta. El algoritmo emplea
las ecuaciones de recurrencia (integración hacia
adelante):

Monografias.com

Para la integración hacia atrás se
empleó las ecuaciones:

Monografias.com

BIBLIOGRAFÍA

/1/ Systems: Decomposition, Optimisation and Control,
M.G.Singh, A. Titli, 1978.

/2/ Iterative Dynamic Programing, Rein Luus, Chapman
& Hall/CRC, 2000

/3/ Optimal Control Theory An Introduction, Donald E.
Kirk, Dover Publications Inc. 2004.

/4/ Cálculo Variacional, M.L. Krasnov, G.I.
Makarenko, A.I.Kiseliov, Editorial MIR 1992.

 

 

Autor:

Rogelio José Choque Castro

Nacido en La Paz Bolivia, es Ingeniero
Electricista titulado en la Universidad Mayor de San
Andrés (UMSA). Trabajó durante diez años en
la Industria Textil (área de mantenimiento), Supervisor
Proyecto de Electrificación Rural Illimani Sud, Residente
de Obra Proyecto Porvenir Chive, docente de la Universidad de
Aquino Bolivia (UDABOL) y Universidad Los Andes. Sus áreas
de interés: Simulación de Transitorios en Sistemas
de Potencia, Electrónica de Potencia, Procesamiento
Digital de Señales, Sistemas de Control.

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter