Reinforcement learning

Il nostro progetto di ricerca in ambito Reinforcement learning: Actor-critic Deep-Q recurrent networks per la previsione di sequenze temporali

Descrizione progetto:
Partendo dallo sviluppo di nuove tecniche di analisi delle serie temporali, attraverso l’utilizzo di ambienti virtuali per il training di agenti model-free, si vuole generare un agente actor/critic (Barto et al. 1988) che ottimizzi e sorpassi le performance dei modelli di previsione attualmente disponibili.

Obbiettivi:
  • Sviluppare modelli matematici che forniscano descrizioni plausibili partendo dai dati di esempio.
  • Comprendere o modellare i meccanismi stocastici che danno luogo a una serie osservata e prevederne i valori futuri.
  • Creazione di un modello che meglio si adatti a dati storici disponibili e li utilizzi per le osservazioni future.

Possibili applicazioni:
  • Previsione della resa del mais in tonnellate per stato ogni anno.
  • Prevedere se una traccia EEG in secondi indica che un paziente ha un attacco o meno.
  • Previsione del prezzo di chiusura di un titolo ogni giorno.
  • Previsione del tasso di natalità in tutti gli ospedali di una città ogni anno.
  • Previsione delle vendite di prodotti in unità vendute ogni giorno per un negozio.
  • Previsione del numero di passeggeri attraverso una stazione ferroviaria ogni giorno.
  • Previsione della disoccupazione per uno stato ogni trimestre.
  • Previsione della domanda di utilizzo su un server ogni ora.
  • Previsione delle dimensioni della popolazione di conigli in uno stato ogni stagione riproduttiva.
  • Previsione del prezzo medio della benzina in una città ogni giorno.

Infrastruttura:
Generazione del modello utilizzando i più recenti linguaggi e librerie di machine learning attualmente disponibili. (Tensorflow) Svluppo dell’algoritmo utilizzando ambienti virtuali esistenti (OpenAI Gym) o creati ad hoc. Creazione dell’infrastruttura hardware necessaria allo sviluppo, training e fruizione del modello.