DENOMINAZIONE Teoria del Controllo (Mathematical Control Theory)

SETTORE SCIENTIFICO-DISCIPLINARE. MAT/05 Analisi Matematica.

PERIODO DI SVOLGIMENTO. Primo semestre 2020/2021: 14 Settembre 2020 - 22 Dicembre 2020.

ORE TOTALI E CADENZA SETTIMANALE 42 ore, circa 3 alla settimana

VALENZA IN CREDITI 6.

UTENTI Studenti del corso di laurea magistrale in Matematica. Saranno ben accetti anche gli studenti del corso di laurea triennale in Matematica al terzo anno e chiunque altro sia interessato (studenti di altri corsi di laurea, dottorandi, ecc...)

LINGUA Ufficialmente Inglese (italiano a seconda delle circostanze).

PREREQUISITI (SUGGERITI). Buone nozioni di calcolo (continuita', derivabilita', differenziabilita' e integrazione in una e piu' variabili), di algebra lineare, di equazioni differenziali ordinarie, di convergenza uniforme per successioni di funzioni e un po' di misura e integrale di Lebesgue. Alcune cose saranno comunque richiamate

MODALITA' D'ESAME Prova orale, alla quale si aggiunge la soluzione di alcuni problemi e/o esercizi distribuiti durante il corso, da svolgere a casa e da consegnare un po' prima di sostenere l'esame orale.

BREVE DESCRIZIONE DELL'ARGOMENTO DEL CORSO Un problema di controllo, in generale, consiste in un sistema "input-output" che ad ogni ingresso (input) fornisce un'unica uscita (output). Gli ingressi ammissibili sono detti "controlli" e la loro scelta e' a disposizione di un "controllore esterno", il quale, esercitando tale scelta, cerca di ottenere un'opportuna uscita. Problemi di questo tipo nascono in modo naturale nelle scienze applicate, dall'ingegneria alla finanza, dalla biologia all'economia.
Tipicamente i sistemi di cui ci si occupa sono "evolutivi" cioe' il loro stato dipende dal tempo. Quindi anche i controlli devono dipendere dal tempo e possono essere pensati come "strategie" a disposizione del controllore per ottenere un'uscita desiderata.
Principalmente ci occuperemo di sistemi la cui evoluzione e' descritta da un sistema di equazioni differenziali ordinarie. Il controllo allora consiste nella scelta di eventuali parametri che entrano nell'equazioni. Ad ogni scelta diversa di questi parametri (i controlli), corrispondono soluzioni diverse che rappresentano diverse evoluzioni del sistema. Il controllore vuole quindi usare opportuni parametri per ottenere opportune evoluzioni.

Descriviamo con un esempio (che stimola la fantasia) un tipico problema di controllo. Questo problema e' noto come "Atterraggio Soffice sulla Luna". Supponiamo di essere ai comandi di una navicella spaziale che deve atterrare sulla luna. L'atterraggio deve essere ovviamente soffice ("soft" in inglese), cioe' dobbiamo raggiungere il suolo lunare con velocita' nulla, altrimenti ci schiantiamo al suolo. Lo stato della navicella e' descritto dalla coppia (h,v) dove h e' l'altezza dal suolo lunare e v e' la velocita' scalare verticale. Supponiamo di avere a nostra disposizione la forza propulsiva della navicella verso l'alto, e indichiamola con a. Se m e' la massa della navicella e g e' il modulo dell'accelerazione di gravita' lunare, l'evoluzione dello stato (h,v) e' descritta dal sistema
                                                                          h'(t)=v(t),                              v'(t)=-g+a(t)/m,
piu' il dato iniziale (h(0),v(0)). Il nostro controllo a(t) entra quindi nella seconda equazione del sistema. Il nostro scopo e' quindi quello di determinare, se esiste, una funzione del tempo a che rappresenta la nostra strategia propulsiva al fine di ottenere che ad un certo istante T lo stato del sistema verifichi (h(T),v(T))=(0,0), ovvero che l'atterraggio soffice sia avvenuto.
Le domande che sorgono sono molteplici. Esiste un tale controllo a che ci permette di atterrare in modo soffice? Questo e' un problema di "controllabilita'".
Supponiamo che un tale controllo esista (se non esiste e' meglio che neanche ci proviamo ad atterrare: ci schiantiamo di sicuro). Ovviamente non e' detto che tale controllo sia unico. Fra tutti i controlli "buoni" possiamo preferirne qualcuno agli altri? Ebbene si', nel nostro esempio potrebbero essere preferibili i controlli che ci fanno atterrare in modo soffice nel minor tempo possibile. Oppure quelli che lo fanno facendoci consumare meno carburante (il cui consumo puo' essere proporzionale alla forza propulsiva da noi esercitata, e quindi dovremmo introdurre una terza equazione nel sistema). Questi sono problemi di "controllo ottimo": si vuole raggiungere un obiettivo minimizzando un certo "costo" (il tempo impiegato o il consumo di carburante, nel nostro caso). Un controllo che realizza tale minimo si dice un "controllo ottimo". I problemi che sorgono sono, per esempio, quello dell'esistenza di un controllo ottimo, oppure quello di determinare un controllo ottimo usando opportune condizioni necessarie di ottimalita'.
E se invece volessimo che la navicella si "controllasse automaticamente"? Questo vorrebbe dire determinare un controllo a che non dipende solamente dal tempo, ma anche dallo stato del sistema (h,v). In questo modo, leggendo lo stato del sistema ad ogni istante t, il controllo potrebbe "correggersi automaticamente" al fine di guidare la navicella verso l'atterraggio soffice. Questo è un cosiddetto problema di "controllo feedback". Le domande sono: esistono dei controli feedback? e le rispettive traiettorie del sistema hanno senso o vanno interpretate in modo opportuno?

L'esempio sopra descritto è ovviamente un caso molto particolare. Durante il corso faremo sì numerosi esempi, ma il nostro scopo principale sarà quello di studiare da un punto di vista analitico (matematico) problemi di controllo formulati in maniera sufficientemente generale da abbracciare una vasta classe di casi concreti. 

Per avere un'idea di alcuni degli argomenti che saranno trattati durante il corso, si possono guardare le due dispense (1)(2) (ben piu' tecniche di quanto ci sia scritto qui sopra).

PROGRAMMA DEL CORSO (dal Syllabus) Richiami sui sistemi di equazioni differenziali ordinarie (esistenza, unicita', dipendenza continua dai dati, prolungabilita'). Equazioni differenziali ordinarie con dinamica solo misurabile nel tempo e soluzioni assolutamente continue. Sistema dinamico controllato. Esempi di problemi di controllo. Controllabilita' e condizioni di controllabilita'. Esempi di problemi di controllo ottimo (problema ad orizzonte infinito, problema ad orizzonte finito, problema con tempo d'uscita, problema di tempo minimo). Condizioni sufficienti per l'esistenza di un controllo ottimo. Condizioni necessarie di ottimalita' (Principio del Massimo di Pontryagin). Sintesi di un controllo ottimo. La funzione valore, il Principio della Programmazione Dinamica e l'equazione di Hamilton-Jacobi-Bellman. Soluzioni di viscosita' per un'equazione di Hamilton-Jacobi. Risultati di unicita'. La funzione valore di un problema di controllo ottimo e' l'unica soluzione di viscosita' dell'equazione di Hamilton-Jacobi-Bellman associata al problema. Esempi di problemi di controllo "feedback" ("in retroazione"). Sintesi del controllo feedback. Soluzioni di equazioni differenziali ordinarie con dinamica discontinua nello spazio. Eventualmente: giochi differenziali, cenni al problema di controllabilita' per equazioni alle derivate parziali, sistemi multi-agente e mean field games.

Esempio di bibliografia: parti dei seguenti due volumi saranno usate durante il corso (i volumi sono posseduti dalla biblioteca)

M. Bardi  & I. Capuzzo Dolcetta: Optimal Control and Viscosity Solutions of Hamilton-Jacobi-Bellman Equations, Birkhauser, Boston, 1997.

J. Macki & A. Strauss: Introduction to Optimal Control Theory, Springer-Verlag, New York 1982.   

CONTATTO Per ogni ulteriore delucidazione non si esiti a contattarmi: email:fabio.bagagiolo@unitn.it, tel: (0461/28)1638, ufficio: C1A133 Dipartimento di Matematica, primo piano.

UNA VECCHIA PRESENTAZIONE IN POWERPOINT powerpoint.


For the English Syllabus on Esse3 click here.