Controllo ottimo

Il controllo ottimo è, nell'ambito dei controlli automatici, l'insieme di algoritmi di controllo che stabilizzano un sistema dinamico minimizzando una cifra di merito che dipende dallo stato del sistema e dal vettore degli ingressi.

Controllo automatico

Formulazione del problema

Sia definito il seguente sistema non lineare:

x ˙ ( t ) = f ( x ( t ) , u ( t ) ) {\displaystyle {\dot {x}}(t)=f(x(t),u(t))} con x R n , u R m {\displaystyle x\in \mathbb {R} ^{n},u\in \mathbb {R} ^{m}}

dove n {\displaystyle n} è il numero degli stati del sistema e m {\displaystyle m} è il numero degli ingressi.

Sia definito il seguente funzionale di costo:

J = β ( x ( t f ) , t f ) + t 0 t f f 0 ( x ( τ ) , u ( τ ) ) d τ {\displaystyle J=\beta (x(t_{f}),t_{f})+\int _{t_{0}}^{t_{f}}f_{0}(x(\tau ),u(\tau ))\,d\tau }

L'obiettivo è trovare un controllo ottimo

u o t t ( t ) , t [ t 0 , t f ] {\displaystyle u_{ott}(t),t\in [t_{0},t_{f}]}

che, partendo dall'istante iniziale t 0 {\displaystyle t_{0}} e dallo stato iniziale x 0 {\displaystyle x_{0}} , minimizzi J {\displaystyle J} rispettando il vincolo:

x ˙ f ( x , u ) = 0 {\displaystyle {\dot {x}}-f(x,u)=0} ,

equivalente a

x X {\displaystyle x\in X}
u U {\displaystyle u\in U}

Si ha quindi un problema di minimo vincolato.

Equazioni di Eulero-Lagrange e condizioni di trasversalità

Questo problema di minimo vincolato può essere risolto mediante la tecnica dei moltiplicatori di Lagrange, grazie a cui si riconduce il problema a uno di minimo non vincolato, pagando il prezzo dell'aumento delle dimensioni dello stesso.

min J = β ( x f , t f ) + t 0 t f f 0 ( x , u ) + λ T [ f ( x , u ) x ˙ ] d τ {\displaystyle \min J=\beta (x_{f},t_{f})+\int _{t_{0}}^{t_{f}}f_{0}(x,u)+\lambda ^{T}\,[f(x,u)-{\dot {x}}]\;d\tau }

con λ {\displaystyle \lambda } vettore di funzioni λ ( t ) {\displaystyle \lambda (t)} moltiplicatori di Lagrange da determinare.

Si definisce la quantità

H ( x , u , λ ) = f 0 ( x , u ) + λ T f ( x , u ) {\displaystyle H(x,u,\lambda )=f_{0}(x,u)+\lambda ^{T}\,f(x,u)}

funzione Hamiltoniana, per cui il funzionale da minimizzare diviene:

J = β ( x f , t f ) + t 0 t f H ( x , u , λ ) λ T x ˙ d τ {\displaystyle J=\beta (x_{f},t_{f})+\int _{t_{0}}^{t_{f}}H(x,u,\lambda )-\lambda ^{T}{\dot {x}}\;d\tau } .

Esiste un estremale della funzione J {\displaystyle J} se la variazione prima Δ J = 0 {\displaystyle \Delta J=0} .

Δ J = ( β x f ) T Δ x f + β t f Δ t f + ( H f λ f T x ˙ f ) Δ t f + t 0 t f [ ( H x ) T δ x + ( H u ) T δ u + ( H λ ) T δ λ x ˙ T δ λ λ T δ x ˙ ] d τ {\displaystyle \Delta J=\left({\frac {\partial \beta }{\partial x_{f}}}\right)^{T}\Delta x_{f}\,+\,{\frac {\partial \beta }{\partial t_{f}}}\Delta t_{f}\,+\,(H_{f}-\lambda _{f}^{T}{\dot {x}}_{f})\Delta t_{f}\,+\,\int _{t_{0}}^{t_{f}}\left[\left({\frac {\partial H}{\partial x}}\right)^{T}\delta x+\left({\frac {\partial H}{\partial u}}\right)^{T}\delta u+\left({\frac {\partial H}{\partial \lambda }}\right)^{T}\delta \lambda -{\dot {x}}^{T}\delta \lambda -\lambda ^{T}\delta {\dot {x}}\right]\,d\tau }

Si consideri il termine t 0 t f λ T δ x ˙ d τ {\displaystyle \int _{t_{0}}^{t_{f}}-\lambda ^{T}\delta {\dot {x}}\,d\tau } ; integrando per parti e tenendo presente che Δ x f = δ x f + x ˙ f Δ t f {\displaystyle \Delta x_{f}=\delta x_{f}+{\dot {x}}_{f}\Delta t_{f}} e che δ x 0 = 0 {\displaystyle \delta x_{0}=0} , essendo lo stato iniziale fissato, si ottiene:

t 0 t f λ T δ x ˙ d τ = λ f T Δ x f + λ f T x ˙ f Δ t f + t 0 t f λ ˙ T δ x d τ {\displaystyle \int _{t_{0}}^{t_{f}}-\lambda ^{T}\delta {\dot {x}}\,d\tau =-\lambda _{f}^{T}\Delta x_{f}+\lambda _{f}^{T}{\dot {x}}_{f}\Delta t_{f}+\int _{t_{0}}^{t_{f}}{\dot {\lambda }}^{T}\delta x\,d\tau }

Sostituendo in Δ J {\displaystyle \Delta J} e raccogliendo opportunamente:

Δ J = [ β x f λ f ] T Δ x f + [ β t f + H f ] Δ t f + t 0 t f [ ( H u ) T δ u + ( H λ x ˙ ) T δ λ + ( H x + λ ˙ ) T δ x ] d τ {\displaystyle \Delta J=\left[{\frac {\partial \beta }{\partial x_{f}}}-\lambda _{f}\right]^{T}\Delta x_{f}\,+\,\left[{\frac {\partial \beta }{\partial t_{f}}}+H_{f}\right]\Delta t_{f}\,+\,\int _{t_{0}}^{t_{f}}\left[\left({\frac {\partial H}{\partial u}}\right)^{T}\delta u+\left({\frac {\partial H}{\partial \lambda }}-{\dot {x}}\right)^{T}\delta \lambda \,+\,\left({\frac {\partial H}{\partial x}}+{\dot {\lambda }}\right)^{T}\delta x\right]\;d\tau } .

Il differenziale primo Δ J {\displaystyle \Delta J} è nullo se sono pari a zero tutte le variazioni. Si trovano quindi le equazioni di Eulero Lagrange

H u = 0 {\displaystyle {\frac {\partial H}{\partial u}}=0}
x ˙ = H λ {\displaystyle {\dot {x}}={\frac {\partial H}{\partial \lambda }}}
λ ˙ = H x {\displaystyle {\dot {\lambda }}=-{\frac {\partial H}{\partial x}}}

e le condizioni di trasversalità

λ f = β x f {\displaystyle \lambda _{f}={\frac {\partial \beta }{\partial x_{f}}}}
H f = β t f {\displaystyle H_{f}=-{\frac {\partial \beta }{\partial t_{f}}}} .

Il problema di ottimo si risolve perciò imponendo le equazioni soprascritte con le cosiddette condizioni di trasversalità che fanno le veci di condizioni al contorno. A seconda dell'avere stato finale x f {\displaystyle x_{f}} e tempo finale t f {\displaystyle t_{f}} liberi o fissati si distinguono quattro diversi problemi di ottimo.

Controllo LQR

Il controllo LQR permette di ottenere un controllo in retroazione dallo stato ottimo rispetto ad un indice quadratico nello stato x(t) e nel controllo u(t). Il controllore sintetizzato dipende dalla soluzione di una opportuna equazione di Riccati.

Controllo ottimo a minima energia

Utilizzato nel controllo di robot, è una strategia di controllo che permette di ottenere un segnale stabilizzante il sistema, eventualmente capace di fare tracking asintotico, che minimizza il dispendio energetico e quindi i consumi. Poiché l'energia è funzione del segnale di controllo al sistema, in genere la u(t) sintetizzata è piccola in modulo.

Controllo ottimo a minimo tempo

Utilizzato nel controllo di robot, è una strategia di controllo che permette di ottenere un segnale stabilizzante il sistema, eventualmente capace di fare tracking asintotico, che minimizza il tempo necessario per eseguire l'operazione. Poiché il tempo di salita necessario per arrivare a regime è funzione inversa del segnale di controllo al sistema, in genere l'ingresso u(t) sintetizzato è grande in modulo. L'estremizzazione del controllo a minimo tempo è il controllo BANG-BANG in cui il controllo può assumere solo 3 valori: saturazione positiva, saturazione negativa e nullo.

Bibliografia

  • Colaneri P., Locatelli A., Controllo robusto in RH2/RH, Pitagora, Bologna, 1993.
  • Marro G., Controlli automatici - 5ª edizione, Zanichelli, 2004
  • K. Zhou, J. C. Doyle, K. Glover, Robust and optimal control, Prentice Hall, 1996.
  • P. Dorato, C. Abdallah, V. Cerone Linear quadratic control: an introduction, Prentice Hall, 1995.
  • ACADO Toolkit - Open Source Toolkit for Automatic Control and Dynamic Optimization (C++, MATLAB interface available), su acadotoolkit.org.

Voci correlate

Collegamenti esterni

  • (EN) control problem, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
Controllo di autoritàThesaurus BNCF 53407
  Portale Controlli automatici: accedi alle voci di Wikipedia che trattano di controlli automatici