Kursüberblick
In diesem Kurs erfahren Sie, wie Sie Numba - den typspezialisierenden Just-in-Time-Python-Funktionscompiler - einsetzen, um Python-Programme für die Ausführung auf massiv parallelen NVIDIA-GPUs zu beschleunigen. Sie werden lernen, wie man: - Numba zum Kompilieren von CUDA-Kerneln aus NumPy-Universalfunktionen (ufuncs) verwenden. Mit Numba benutzerdefinierte CUDA-Kernel erstellen und starten - Wichtige GPU-Speicherverwaltungstechniken anwenden Nach Abschluss des Kurses werden Sie in der Lage sein, mit Numba CUDA-Kernel zu kompilieren und zu starten, um Ihre Python-Anwendungen auf NVIDIA-GPUs zu beschleunigen.
Bitte beachten Sie, dass eine einmal bestätigte Buchung nicht mehr rückerstattet werden kann. Das bedeutet, dass Sie Ihren Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren können und keine Rückerstattung erfolgt, unabhängig von der Teilnahme an der Veranstaltung.
Voraussetzungen
- Grundlegende Python-Kenntnisse, einschließlich Vertrautheit mit Variablentypen, Schleifen, bedingten Anweisungen, Funktionen und Array-Manipulationen
- NumPy-Kenntnisse, einschließlich der Verwendung von ndarrays und ufuncs
- Es sind keine Vorkenntnisse in der CUDA-Programmierung erforderlich.
Kursziele
Am Ende des Workshops werden Sie die grundlegenden Werkzeuge und Techniken für GPU-beschleunigte Python-Anwendungen mit CUDA und Numba kennenlernen:
- GPU-Beschleunigung von NumPy-ufuncs mit ein paar Zeilen Code.
- Konfigurieren Sie die Code-Parallelisierung mithilfe der CUDA-Thread-Hierarchie.
- Schreiben Sie benutzerdefinierte CUDA-Gerätekernel für maximale Leistung und Flexibilität.
- Verwenden Sie Memory Coalescing und On-Device Shared Memory, um die CUDA Kernel-Bandbreite zu erhöhen.
Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.