Approssimazione non lineare

La teoria dell'approssimazione di funzioni riveste una notevole importanza in molte applicazioni che richiedono di determinare soluzioni approssimate di problemi di ottimizzazione funzionale non risolubili analiticamente. Tra questi ci sono, ad esempio, i problemi di stima ottima, di controllo ottimo e di diagnosi di guasto. Tra le numerose classi di approssimatori non lineari proposte in letteratura, le reti neurali “ad un solo livello nascosto” con funzioni di attivazione di uscita lineari consentono di rappresentare “mapping” ingresso-uscita costituiti dalla combinazione lineare di opportune “funzioni di base parametrizzate” (dipendenti cioè da un certo numero di parametri che devono essere ottimizzati insieme ai coefficienti della combinazione lineare). Le reti neurali sopra accennate godono di proprietà estremamente utili nel campo dell'ottimizzazione funzionale. Recenti risultati dimostrano che gli approssimatori neurali consentono di approssimare ampie classi di funzioni con un errore integrale quadratico di ordine O(1/n) utilizzando un numero di parametri di ordine O(n d), dove n è il numero di funzioni di base d è la dimensione dell'argomento della funzione da approssimare. Tale proprietà può non risultare vera in certi spazi di funzioni per gli approssimatori con struttura lineare nei parametri (cioè costituiti da combinazioni lineari di funzioni di base fissate). In particolare, per tali approssimatori lineari può presentarsi il problema della “maledizione della dimensionalità”, cioè l'aumento esponenziale del numero di parametri (necessari per ottenere una data accuratezza di approssimazione) all'aumentare di d.

Pubblicazioni

A. Alessandri, M. Gaggero, R. Zoppoli, "Feedback optimal control of distributed parameter systems by using finite-dimensional approximation schemes," IEEE Trans. on Neural Networks and Learning Systems, vol. 23, pp. 984-996, 2012.