Il Chip MIT Ha Ridotto Il Consumo Energetico Della Rete Neurale Del 95% - Visualizzazione Alternativa

Il Chip MIT Ha Ridotto Il Consumo Energetico Della Rete Neurale Del 95% - Visualizzazione Alternativa
Il Chip MIT Ha Ridotto Il Consumo Energetico Della Rete Neurale Del 95% - Visualizzazione Alternativa

Video: Il Chip MIT Ha Ridotto Il Consumo Energetico Della Rete Neurale Del 95% - Visualizzazione Alternativa

Video: Il Chip MIT Ha Ridotto Il Consumo Energetico Della Rete Neurale Del 95% - Visualizzazione Alternativa
Video: A.I: Reti Neurali: Caratteristiche di una rete neurale. Grafo di rete 2024, Marzo
Anonim

Le reti neurali sono cose potenti, ma molto voraci. Gli ingegneri del Massachusetts Institute of Technology (MIT) sono riusciti a sviluppare un nuovo chip che riduce del 95% il consumo di energia della rete neurale, il che potrebbe in teoria consentire loro di lavorare anche su dispositivi mobili con batterie. Gli smartphone stanno diventando sempre più intelligenti in questi giorni, offrendo più servizi alimentati dall'IA come assistenti virtuali e traduzioni in tempo reale. Ma di solito le reti neurali elaborano i dati per questi servizi nel cloud e gli smartphone trasmettono solo dati avanti e indietro.

Questo non è l'ideale perché richiede un canale di comunicazione spesso e presuppone che i dati sensibili vengano trasmessi e archiviati al di fuori della portata dell'utente. Ma la colossale quantità di energia richiesta per alimentare le reti neurali alimentate da GPU non può essere fornita in un dispositivo alimentato da una piccola batteria.

Gli ingegneri del MIT hanno sviluppato un chip in grado di ridurre questo consumo energetico del 95%. Il chip riduce drasticamente la necessità di trasferire dati avanti e indietro tra la memoria del chip ei processori.

Le reti neurali sono costituite da migliaia di neuroni artificiali interconnessi disposti a strati. Ogni neurone riceve l'input da diversi neuroni nello strato sottostante e se l'input combinato supera una certa soglia, trasmette il risultato a diversi neuroni sopra. La forza della connessione tra i neuroni è determinata dal peso che viene stabilito durante il processo di allenamento.

Ciò significa che per ogni neurone, il chip deve estrarre l'input per una connessione specifica e il peso della connessione dalla memoria, moltiplicarli, memorizzare il risultato e quindi ripetere il processo per ogni input. Molti dati viaggiano qua e là e molta energia viene sprecata.

Il nuovo chip MIT elimina questo problema calcolando tutti gli ingressi in parallelo nella memoria utilizzando circuiti analogici. Ciò riduce significativamente la quantità di dati che deve essere superata e si traduce in un notevole risparmio energetico.

Questo approccio richiede che il peso delle connessioni sia binario, non un intervallo, ma precedenti lavori teorici hanno dimostrato che ciò non influenzerà notevolmente l'accuratezza e gli scienziati hanno scoperto che i risultati del chip differivano del 2-3% dalla versione usuale della rete neurale funzionante su un computer standard.

Non è la prima volta che gli scienziati creano chip che elaborano processi in memoria, riducendo il consumo di energia di una rete neurale, ma questa è la prima volta che questo approccio viene utilizzato per far funzionare una potente rete neurale nota per la sua elaborazione delle immagini.

Video promozionale:

"I risultati mostrano specifiche impressionanti per l'implementazione efficiente dal punto di vista energetico delle operazioni di laminazione all'interno dell'array di memoria", ha affermato Dario Gil, vicepresidente dell'intelligenza artificiale presso IBM.

"Questo apre definitivamente la possibilità di utilizzare reti neurali convoluzionali più sofisticate per classificare immagini e video sull'Internet of Things in futuro".

E questo è interessante non solo per i gruppi di ricerca e sviluppo. Il desiderio di mettere l'IA su dispositivi come smartphone, elettrodomestici e tutti i tipi di dispositivi IoT sta spingendo molti nella Silicon Valley verso chip a basso consumo.

Apple ha già integrato il suo Neural Engine nell'iPhone X per alimentare, ad esempio, la tecnologia di riconoscimento facciale e si dice che Amazon stia sviluppando i propri chip AI per la prossima generazione di assistenti digitali Echo.

Anche le grandi aziende e i produttori di chip fanno sempre più affidamento sull'apprendimento automatico, che li costringe a rendere i loro dispositivi ancora più efficienti dal punto di vista energetico. All'inizio di quest'anno, ARM ha introdotto due nuovi chip: il processore Arm Machine Learning, che gestisce attività generali di intelligenza artificiale dalla traduzione al riconoscimento facciale, e il processore Arm Object Detection, che, ad esempio, rileva i volti nelle immagini.

Il nuovo chip mobile di Qualcomm, lo Snapdragon 845, ha una GPU ed è fortemente basato sull'intelligenza artificiale. L'azienda ha anche svelato lo Snapdragon 820E, che dovrebbe funzionare su droni, robot e dispositivi industriali.

Guardando al futuro, IBM e Intel stanno sviluppando chip neuromorfici con un'architettura ispirata al cervello umano e un'incredibile efficienza energetica. Ciò potrebbe teoricamente consentire a TrueNorth (IBM) e Loihi (Intel) di eseguire un potente apprendimento automatico utilizzando solo una frazione della potenza dei chip convenzionali, ma questi progetti sono ancora altamente sperimentali.

Sarà molto difficile forzare i chip che danno vita alle reti neurali per risparmiare la carica della batteria. Ma al ritmo attuale dell'innovazione, questo "molto difficile" sembra abbastanza fattibile.

Ilya Khel

Raccomandato: