CUDA (Compute Unified Device Architecture) Definition

Was ist CUDA (Compute Unified Device Architecture)?

Steht für „Compute Unified Device Architecture“. CUDA ist eine von NVIDIA entwickelte und 2006 eingeführte Plattform für parallele Berechnungen. Sie ermöglicht es Software-Programmen, Berechnungen sowohl mit der CPU als auch mit der GPU durchzuführen. Durch die gemeinsame Nutzung der Verarbeitungslast mit der GPU (statt nur mit der CPU) können CUDA-fähige Programme erhebliche Leistungssteigerungen erzielen.

CUDA ist eine der am weitesten verbreiteten GPGPU(General-Purpose computation on Graphics Processing Units) Plattformen. Im Gegensatz zu OpenCL, einer anderen beliebten GPGPU-Plattform, ist CUDA proprietär und läuft nur auf NVIDIA-Grafik-Hardware. Die meisten CUDA-fähigen Videokarten unterstützen jedoch auch OpenCL, so dass Programmierer bei der Entwicklung von Anwendungen für NVIDIA-Hardware wählen können, ob sie Code für eine der beiden Plattformen schreiben wollen.

Während CUDA nur NVIDIA-Hardware unterstützt, kann es mit mehreren verschiedenen Programmiersprachen verwendet werden. NVIDIA bietet zum Beispiel APIs und Compiler für C und C++, Fortran und Python. Das CUDA Toolkit, eine Entwicklungsumgebung für C/C++ Entwickler, ist für Windows, OS X und Linux verfügbar.

Die Definition von CUDA (Compute Unified Device Architecture) auf dieser Seite ist eine Originaldefinition von SharTec.eu.
Das Ziel von SharTec ist es, Computerterminologie so zu erklären, dass sie leicht zu verstehen ist. Wir bemühen uns bei jeder von uns veröffentlichten Definition um Einfachheit und Genauigkeit. Wenn Sie Feedback zur CUDA (Compute Unified Device Architecture)-Definition haben oder einen neuen Fachbegriff vorschlagen möchten, kontaktieren Sie uns bitte.