CUDA (Compute Unified Device Architecture) Definizione significato

Cos’è il CUDA (Compute Unified Device Architecture)?

Sta per “Compute Unified Device Architecture”. CUDA è una piattaforma di calcolo parallelo sviluppata da NVIDIA e introdotta nel 2006. Permette al software programmi di eseguire calcoli usando sia la CPU che GPU. Condividendo il carico di elaborazione con la GPU (invece di usare solo la CPU), i programmi CUDA-enabled possono ottenere significativi aumenti di prestazioni.

CUDA è una delle piattaforme GPGPU (General-Purpose computation on Graphics Processing Units) più usate. A differenza di OpenCL, un’altra popolare piattaforma GPGPU, CUDA è proprietaria e funziona solo su hardware grafici NVIDIA. Tuttavia, la maggior parte delle schede video compatibili con CUDA supportano anche OpenCL, quindi i programmatori possono scegliere di scrivere codice per entrambe le piattaforme quando sviluppano applicazioni per l’hardware NVIDIA.

Mentre CUDA supporta solo l’hardware NVIDIA, può essere usato con diversi linguaggi di programmazione. Per esempio, NVIDIA fornisce APIs e compilatori per C e C++, Fortran e Python. Il CUDA Toolkit, un ambiente di sviluppo per C/C++ sviluppatori, è disponibile per Windows, OS X e Linux.

La descrizione di CUDA (Compute Unified Device Architecture) in questa pagina è la definizione originale di SharTec.eu. Se volete linkare questa pagina, non dimenticate di citare la fonte dell’articolo.

SharTec.eu mira a spiegare la terminologia informatica in un modo che sia facile da capire. Ci sforziamo di essere semplici e precisi in ogni definizione che pubblichiamo. Se hai commenti sulla descrizione di CUDA (Compute Unified Device Architecture) o vuoi suggerire un nuovo termine tecnico, contattaci.