b/View

Machine learning. Elaborare alla velocità della luce? Oggi si può

Alessandro Polli – Settembre 1, 2017

Fin dalle prime formulazioni teoriche – risalenti agli anni Cinquanta e Sessanta ad opera di Hubel e Wiesel, che grazie a tali studi sui meccanismi fisiologici della visione conseguirono il Premio Nobel in Medicina nel 1991 − le reti neurali convoluzionali hanno assunto un ruolo di primo piano nei sistemi di machine learning. L’attributo «convoluzionale» si riferisce ad una particolare operazione matematica – la convoluzione, appunto – che regola la risposta ad un impulso fornito al sistema e che è abitualmente calcolata ricorrendo ad una trasformata di Fourier, tramite un particolare algoritmo ottimizzato, la Fast Fourier Transform (FFT).

Nelle architetture contemporanee, l’algoritmo risiede su un processore grafico (GPU) al fine di parallelizzare i calcoli, che rischierebbero di rallentare il funzionamento dell’unità di elaborazione centrale. Anche così, tuttavia, sussistono gravi limitazioni, determinate dalla velocità di elaborazione e dal consumo di energia.

Un team di ricercatori del Dipartimento di Ingegneria elettrica ed elettronica della George Washington University ha pubblicato su aRxiv un articolo in cui è descritta un’innovativa architettura per reti neurali convoluzionali basata sulla fotonica del silicio – l’insieme di proprietà fisiche che caratterizzano il funzionamento di appositi microprocessori – che velocizza enormemente il calcolo di FFT.

Il sistema, progettato per far dipendere il tempo di elaborazione della FFT solo dal ritardo legato alla propagazione del segnale ottico attraverso le strutture fotoniche del silicio, incrementa fino a 104 volte la velocità di elaborazione rispetto ai processori grafici più potenti, abbattendo al contempo di 510 volte il consumo di energia elettrica.

Fonte: aRxiv

Categorie