b/view

Intelligenza artificiale. Guida autonoma, lo stato dell’arte

Alessandro Polli – Settembre 29, 2018

Gli attuali sistemi di assistenza alla guida (Advanced Driver Assistance Systems, o ADAS) integrano varie tecnologie di rilevazione delle condizioni stradali e ambientali (sensori a ultrasuoni, radar, scanner, telecamere, GPS) per coadiuvare il conducente in presenza di pericoli potenziali e diminuire la possibilità di incidenti.

A definire quindi le possibilità degli ADAS è il livello di avanzamento della tecnologia e gli algoritmi che ne determinano la «profondità» di intervento. Gli attuali sistemi di guida autonoma si basano su tecnologie ADAS e su algoritmi che sostituiscono, in parte, il conducente, in condizioni normali – e prevedibili – di guida del veicolo.

Le possibilità di guida autonoma di un veicolo sono classificate in sei livelli, dal livello 0 (guida manuale) fino al livello 5 (guida autonoma del veicolo senza necessità di presenza del conducente). Attualmente siamo lontani non solo dal livello 5, ma addirittura dal livello 4.

Infatti, nei più avanzati sistemi di guida autonoma oggi disponibili – quali quello della Tesla S e quello della Audi A8 – solo in certe condizioni ambientali (come la marcia nel traffico o in autostrada) il conducente non deve controllare costantemente la marcia longitudinale e trasversale del veicolo e può dedicarsi ad altre attività supportate dai sistemi di bordo. Il motivo è semplice: si tratta di condizioni di marcia in cui non sono richiesti bruschi cambi di traiettoria. Quando queste condizioni vengono a mancare, l’auto preavvisa il guidatore affinché riprenda il controllo del mezzo.

Ma le cose potrebbero cambiare in un futuro non troppo lontano e le novità potrebbero provenire dalle modalità di elaborazione del flusso di immagini acquisite dai dispositivi di bordo.

Già oggi gli autoveicoli a guida autonoma sono dotati di un numero variabile di telecamere. Per esempio, la Tesla è dotata di un GPS e tre telecamere, una per lato del veicolo e una centrale per controllare le condizioni stradali nella zona anteriore. Il sistema è «abbastanza» affidabile, anche se Tesla, a seguito di un incidente mortale, ha recentemente effettuato il downgrading del sistema stesso dal livello 3 al livello 2.

La differenza potrebbe essere data da un algoritmo in grado di «interpretare» il flusso di informazioni visive acquisite dalle telecamere e impostare le necessarie manovre per il controllo del veicolo, tra cui i cambi di traiettoria, una sequenza di operazioni attualmente effettuabili solo da un guidatore in carne e ossa.

La rivoluzione potrebbe provenire da una particolare architettura di rete neurale, la generative adversarial network (o semplicemente GAN), già oggi utilizzata con successo in numerosi ambiti, quali la sintesi di immagini e video, il text-to-image (cioè la traduzione di descrizioni testuali in immagini) e una serie di applicazioni correlate, quali il restauro di immagini e video.

Sul tema della guida autonoma tramite GAN negli ultimi due anni vi è una stata una notevole proliferazione di lavori scientifici. L’interesse dei ricercatori si concentra in prevalenza sulle modalità di training della rete neurale. Modalità «visuali», considerate le eccezionali caratteristiche di questa architettura.

L’addestramento della rete si avvale spesso di simulatori. Non sofisticati simulatori di guida, ma semplici videogiochi. Per esempio, un team di ricercatori del Indian Institute of Technology coordinato da Arna Ghosh ha addestrato con successo la rete giocando a Road Rash, pubblicando i principali risultati dello studio su arXiv. Cameron Fabbri e Jayant Sharma dell’Università del Minnesota svolgono un esperimento analogo, utilizzando Grand Theft Auto V.

Il simulatore con le caratteristiche più interessanti per addestrare una GAN è Torcs.

Torcs è un simulatore di corse automobilistiche e, al contempo, una piattaforma per la ricerca sulla guida autonoma. Il simulatore offre numerosissime possibilità di impostazione dei principali parametri riguardanti il mezzo e modelli di rappresentazione delle collisioni e dei relativi danneggiamenti dell’autoveicolo virtuale. Ovviamente, nella banca dati della piattaforma sono disponibili molti modelli di automobili e di percorsi stradali.

Torcs è stato utilizzato da un team di ricercatori della Carnegie Mellon University coordinato da Luona Yang. I principali risultati dello studio, come di consueto, sono stati pubblicati su arXiv.

In alternativa, è possibile addestrare la rete su immagini reali. Un gruppo di ricerca della Stanford University, per esempio, ha utilizzato un database di immagini video a bassa risoluzione (NGSIM) acquisite su due tratti stradali della la Highway 101 a Los Angeles e della Interstate 80 a San Francisco. I due tratti stradali non sono particolarmente estesi (rispettivamente 640 e 500 metri), ma la copertura temporale (45 minuti) consente di disporre di una grande varietà di condizioni ambientali per addestrare la GAN.

Lo studio dimostra che sebbene le GAN si dimostrino efficienti nell’imitazione del comportamento umano in condizioni normali di guida, ancora sono scarsamente reattive nelle manovre di emergenza (cioè quella che devono essere messe in atto in meno di due secondi), specialmente per quanto riguarda il controllo delle traiettorie.

Quindi, il percorso su come dotare gli autoveicoli di sistemi di guida autonoma affidabili e sicuri è ancora lungo e irto di ostacoli da oltrepassare. Uno su tutti: come modellizzare le traiettorie di più veicoli presenti in uno stesso tratto stradale. Un problema apparentemente semplice, ma in realtà complesso, come mostra un lavoro pubblicato su arXiv lo scorso 15 settembre da Ding, Wang e Zhao della Tsinghua University e, di nuovo, della Carnegie Mellon.

Nello studio la generazione di traiettorie tra due veicoli è simulata tramite varie classi di algoritmi generativi (GAN, VAE o Variational AutoEncoder) e ha fornito risultati incoraggianti.

Ma per stessa ammissione degli autori dello studio siamo solo all’inizio.