Ecuaciones diferenciales parciales - PowerPoint PPT Presentation

1 / 18
About This Presentation
Title:

Ecuaciones diferenciales parciales

Description:

En muchas situaciones de la vida cotidiana se busca una forma ... La optimizaci n es el acto de obtener el mejor resultado bajo condiciones dadas (fijas) ... – PowerPoint PPT presentation

Number of Views:1067
Avg rating:3.0/5.0
Slides: 19
Provided by: andres73
Category:

less

Transcript and Presenter's Notes

Title: Ecuaciones diferenciales parciales


1
Ecuaciones diferenciales parciales
  • Optimización, programación dinámica y la ecuación
    de Hamilton- Jacobi- Bellman.

2
Qué es la optimización?
  • En muchas situaciones de la vida cotidiana se
    busca una forma adecuada (según nuestras
    necesidades, restricciones y objetivos), de
    abordar un problema de forma que se alcance el
    objetivo deseado, de la mejor manera posible. Un
    ejemplo de esto es buscar el mejor camino para
    desplazarse de un punto A a un punto B dentro de
    una ciudad. Aquí hay muchas formas de interpretar
    la frase mejor camino para algunos, el mejor
    camino será en el que se recorra menos tiempo
    para otras personas será el de consumo de menos
    gasolina, etc.

3
  • Un problema clásico es el problema de la princesa
    fenicia Dido y la leyenda de la fundación
    de
  • Cartago
  • En este problema se requiere maximizar
  • el área que se pueda formar con una piel de toro.
  • La solución una circunferencia.

4
  • La optimización es el acto de obtener el mejor
    resultado bajo condiciones dadas (fijas).
  • El acto de optimizar presenta frecuentemente un
    problema matemático de tal forma que se intenta
    maximizar o minimizar una cierta función de
    varias variables con algunas restricciones
    impuestas en las variables mismas dicha función
    que representa el criterio de ejecución del
    sistema es llamada función objetivo.
  • El optimizador tiene bajo control algunas
    variables a las que llamaremos variables de
    decisión. Su problema es el de encontrar valores
    para las variables de decisión considerando las
    restricciones del problema en cuestión, y de esa
    forma poder maximizar o minimizar la función
    objetivo
  • La secuencia de decisiones que tome el
    optimizador la llamaremos política óptima.

5
  • Técnicas de Optimización.
  • Éstas son algunas técnicas de optimización
  • Método directo de cálculo.
  • Método del cálculo diferencial clásico.
  • Programación lineal y no lineal.
  • El Cálculo de las variaciones.
  • Teoría de Control Óptimo.
  • Programación Dinámica.

6
El cálculo de las variaciones.
El Cálculo del as variaciones es un método
analítico clásico de optimización en donde lo que
se desea minimizar o maximizar es una funcional
del tipo Dos aplicaciones del Calc. De las
Var. son el problema de la Braquistocrona el
teorema de Bonnet- Myers (Geom Riemmaniana).
7
Teoría de Control Óptimo.
  • Muchos fenómenos naturales con una evolución
    temporal son modelados con sistemas dinámicos.
    Las fuerzas que actúan sobre estos sistema pueden
    ser divididas en dos aquellas que dependen del
    estado y del sistema y aquellas que no.
  • El proceso de modificar aquellas fuerzas que
    pueden ser reguladas para obtener un objetivo
    deseado es conocido como proceso de control.
  • Problemas en los cuales se seleccionan controles
    para optimizar la ejecución del sistema dinámico
    son conocidos como problemas de control óptimo.

8
  • En este caso nuestro problema es el de encontrar
    un
  • (control) tal que

Sea máximo o mínimo. Lo que distingue a los
problemas de control óptimo de los del cálculo de
las variaciones es el hecho de que solo podemos
regular el estado del sistema por medio de los
controles y no directamente. El cálculo de las
variaciones estudia fenómenos donde la naturaleza
ya ha hecho el control y la optimización, y nos
deja a nosotros encontrar el estado óptimo. En
el control óptimo se busca manipular las
variables de tal forma que se pueda llegar al
estado óptimo.
9
Programación dinámica.
  • El origen del término programación dinámica tiene
    muy poco que ver con el de escribir un código.
    Richard Bellman fue el primero en dar esta
    definición en la década de 1950, cuando el uso de
    las computadoras era muy escaso. En aquella época
    el término programación significaba planeación, y
    la prog dinámica fue desarrollada para planear
    óptimamente procesos multi-etápicos.

10
Veamos un ejemplo Una persona desea desplazarse
del punto A al punto B de la mejor manera posible.
!
11
?
12
(No Transcript)
13
El Principio de Optimalidad. Una secuencia
óptima de decisiones (política óptima) de un
proceso de decisión multi-etápico, tiene la
propiedad de que cualquiera que haya sido el
estado y la decisión inicial, el resto de las
decisiones deben constituir una secuencia de
decisiones óptima para el resto del problema, es
decir cualquier subsecuencia debe ser también
óptima.
14
  • Deducción de la Ecuación de HJB.
  • Veremos que la ecuación de HJ se sigue de
    manera simple del principio de optimalidad, en
    conjunto con el principio de Hamilton de que una
    partícula se mueve de forma que miniimiza el
    lagrangiano
  • Sea x, un vector que describe el estado del
    sistema (x es un punto en el espacio de
    configuración) y sea x la variable de decisión
    que se quiere escoger de manera óptima. Lo que se
    busca es transforma el estado
    al de forma que minimice al
    lagrangiano en T.

15
  • Consideremos la función
  • con el valor mínimo de la
    integral del punto
  • a .
  • Luego si partimos el intervalo en
    y
  • la ecuación anterior podrá ser vista como

16
  • En el tiempo t
  • implica que si definimos a como el
    momentum P

  • .
  • En el tiempo general T,

17
  • Definiendo el hamiltoniano

  • como
  • la ecuación anterior se convierte en la EDP de
    Hamilton- Jacobi- Bellman

18
  • La ecuación de HJB es muy importante en la teoría
    de control óptimo puesto que es una condición
    suficiente para que un control sea óptimo.
  • Si podemos resolver HJB entonces podemos
    encontrar un control u que alcanza el mínimo.
  • Este método también puede ser generalizado al
    caso estocástico de gran importancia para las
    aplicaciones de teoría de control.
Write a Comment
User Comments (0)
About PowerShow.com