La Nuova Tecnologia Di IBM Ha Consentito Di Accelerare Di 4 Volte La Formazione Dell'IA - " Visualizzazione Alternativa

La Nuova Tecnologia Di IBM Ha Consentito Di Accelerare Di 4 Volte La Formazione Dell'IA - " Visualizzazione Alternativa
La Nuova Tecnologia Di IBM Ha Consentito Di Accelerare Di 4 Volte La Formazione Dell'IA - " Visualizzazione Alternativa

Video: La Nuova Tecnologia Di IBM Ha Consentito Di Accelerare Di 4 Volte La Formazione Dell'IA - " Visualizzazione Alternativa

Video: La Nuova Tecnologia Di IBM Ha Consentito Di Accelerare Di 4 Volte La Formazione Dell'IA -
Video: REFERENDUM PER CANCELLARE IL REDDITO DI CITTADINANZA 2024, Potrebbe
Anonim

L'efficienza computazionale dell'intelligenza artificiale è come un'arma a doppio taglio. Da un lato, deve imparare abbastanza velocemente, ma più la rete neurale "accelera", più consuma energia. Ciò significa che può diventare semplicemente non redditizio. Tuttavia, una via d'uscita può essere data da IBM, che ha dimostrato nuovi metodi di insegnamento dell'IA, che gli consentiranno di apprendere molte volte più velocemente con lo stesso livello di costi di risorse ed energia.

Per ottenere questi risultati, IBM ha dovuto abbandonare i metodi computazionali che utilizzavano tecniche a 32 bit e 16 bit, sviluppando una tecnica a 8 bit, nonché un nuovo chip con cui lavorare.

Tutti gli sviluppi IBM sono stati presentati al NeurIPS 2018 a Montreal. Gli ingegneri dell'azienda hanno parlato di due sviluppi. Il primo si chiama "apprendimento automatico profondo delle reti neurali utilizzando numeri in virgola mobile a 8 bit". In esso, descrivono come sono riusciti a ridurre la precisione aritmetica per le applicazioni da 32 bit a 16 bit in questo modo e salvarla su un modello a 8 bit. Gli esperti affermano che la loro tecnica accelera il tempo di addestramento delle reti neurali profonde di 2-4 volte rispetto ai sistemi a 16 bit. Il secondo sviluppo è "Moltiplicazione a 8 bit in memoria con memoria a transizione di fase proiettata". Qui, gli esperti svelano un metodo che compensa la bassa fedeltà dei chip AI analogici consentendo loro di consumare 33 volte meno energia rispetto ai sistemi AI digitali comparabili.

Vladimir Kuznetsov

Raccomandato: