Acceleratore IA

In questo articolo affronteremo il tema Acceleratore IA, che negli ultimi tempi ha acquisito grande rilevanza a causa del suo impatto su vari ambiti della vita quotidiana. Fin dalla sua nascita, Acceleratore IA ha suscitato grande interesse tra gli esperti e il grande pubblico, generando dibattiti, ricerche e creando nuove opportunità in diversi settori. Nel corso di questo scritto verranno analizzati diversi aspetti legati a Acceleratore IA, esplorandone le origini, l'evoluzione e la sua influenza sulla società attuale. Inoltre, verranno esaminate diverse prospettive e approcci per comprendere ulteriormente l’importanza e la portata di Acceleratore IA oggi.

Un acceleratore IA (o anche NPU, Neural Processing Unit) è una classe di microprocessori progettati per fornire accelerazione hardware a reti neurali artificiali, visione automatica e algoritmi di apprendimento automatico per la robotica, l'Internet delle cose e altre applicazioni basate sull'uso dei dati.

Le possibili applicazioni di tali dispositivi includono le auto a guida autonoma, gli aeromobili a pilotaggio remoto, la diagnostica medica, l'elaborazione del linguaggio naturale e la traduzione automatica.

Storia

Nei computer le CPU sono spesso affiancate da acceleratori hardware per svolgere meglio determinate funzioni, tra cui ad esempio le schede video e le schede audio. Con l'aumento delle attività legate all'apprendimento profondo e all'intelligenza artificiale, sono state sviluppate unità hardware specializzate per accelerare lo svolgimento di queste attività.

Primi sviluppi

Già nei primi anni novanta i processori di segnali digitali venivano impiegati come acceleratori di reti neurali per i software di riconoscimento ottico dei caratteri e sempre in quegli anni vi furono anche dei tentativi di utilizzo di acceleratori basati su FPGA.

Calcolo eterogeneo

Il calcolo eterogeneo ha dato il via all'inserimento di diversi processori in un singolo sistema, ciascuno dei quali specializzato per un'apposita funzione. Architetture come i processori Cell hanno introdotto alcune caratteristiche tipiche degli acceleratori IA, tra cui l'architettura dataflow. Gli stessi processori Cell sono stati in seguito utilizzati per l'IA.

Uso delle GPU

Le GPU sono dispositivi hardware specializzati nella manipolazione di immagini. Poiché le reti neurali e la manipolazione di immagini condividono le stesse basi matematiche, le GPU sono frequentemente utilizzate per applicazioni di apprendimento automatico. Per questo motivo, i produttori di GPU hanno cominciato a incorporare hardware specifico per le reti neurali, come ad esempio i tensor core.

Uso dei FPGA

I framework per l'apprendimento profondo sono in continua evoluzione e questo rende difficoltosa la progettazione di hardware specifico. Dispositivi riconfigurabili come i Field Programmable Gate Array (FPGA) semplificano la gestione di hardware e software in evoluzione.

Esempi

Chip specifici

Google ha sviluppato un acceleratore chiamato tensor processing unit specificamente progettato per il suo framework TensorFlow, estensivamente usato per le reti neurali convoluzionali.

Intel ha sviluppato il Nervana NNP, un chip progettato con un'architettura per l'apprendimento profondo.

GPU

La linea di GPU Tesla di NVIDIA dispongono di funzioni per l'intelligenza artificiale.

AMD produce la linea di GPU Radeon Instinct specificamente orientata all'apprendimento profondo.

Coprocessori

I SoC Apple A11 Bionic (e successori a questo) dispongono di un acceleratore IA chiamato Neural Engine.

Il microprocessore Snapdragon 845 di Qualcomm contiene un core per il processamento IA.

Un acceleratore basato su reti neurali è anche presente nei processori Kirin 970 e 980 di HiSilicon.

Nel gennaio 2018, CEVA ha lanciato una famiglia di quattro microprocessori per l'intelligenza artificiale chiamati NeuPro.

Note

  1. ^ Cosa sono e a cosa servono le Neural Processing Unit, su fastweb.it.
  2. ^ (EN) An in-depth look at Google’s first Tensor Processing Unit (TPU), su cloud.google.com. URL consultato l'8 luglio 2018 (archiviato dall'url originale il 19 luglio 2018).
  3. ^ (EN) Intel® Nervana™ Neural Network Processors (NNP) Redefine AI Silicon, su ai.intel.com.
  4. ^ NVIDIA Tesla, su nvidia.it.
  5. ^ (EN) AMD introduces Radeon Instinct: Accelerating Machine Intelligence, su amd.com.
  6. ^ Apple A12 Bionic, su apple.com.
  7. ^ (EN) Snapdragon 845, su qualcomm.com.
  8. ^ (EN) Key Information About the Huawei Kirin 970, su hisilicon.com.
  9. ^ Kirin 980 ufficiale: il primo SoC al mondo da 7 nanometri ha un cervello in più di voi!, su mobileworld.it.
  10. ^ (EN) CEVA NeuPro, su ceva-dsp.com.

Voci correlate

Altri progetti