Cuda Handelssystem

Was ist CUDA Anmeldung heute Einführung in die Parallelprogrammierung Eine offene, Online-Kurs von Udacity Instruktoren: Dr. John Owens, UC Davis und Dr. David Luebke, NVIDIA CUDA Reg ist eine parallele Rechenplattform und Programmiermodell von NVIDIA erfunden. Es ermöglicht dramatischen Anstieg der Rechenleistung durch die Nutzung der Leistung der Grafik-Processing-Unit (GPU). Mit Millionen von CUDA-fähigen GPUs bisher verkauft, Software-Entwickler, Wissenschaftler und Forscher finden breite Einsatzmöglichkeiten für GPU-Computer mit CUDA. Hier sind ein paar Beispiele: Identifizieren versteckte Plaque in Arterien. Herzinfarkte sind weltweit die häufigste Todesursache. Harvard Engineering, Harvard Medical School und Brigham Womens Hospital haben sich zusammengetan, um GPUs zu verwenden, um den Blutfluss zu simulieren und versteckte arterielle Plaque ohne invasive bildgebende Verfahren oder explorative Chirurgie zu identifizieren. Analysieren Sie den Flugverkehr. Das Nationale Luftraumsystem verwaltet die bundesweite Koordination des Flugverkehrs. Computermodelle helfen, neue Wege zu finden, um Staus zu lindern und Flugzeugverkehr effizient zu halten. Unter Verwendung der Rechenleistung von GPUs erzielte ein Team der NASA einen großen Leistungsgewinn, wodurch die Analysezeit von zehn Minuten auf drei Sekunden reduziert wurde. Visualisieren Sie Moleküle. Eine molekulare Simulation namens NAMD (nanoskalige Molekulardynamik) erhält eine große Leistungssteigerung mit GPUs. Die Beschleunigung ist ein Ergebnis der parallelen Architektur von GPUs, die es NAMD-Entwicklern ermöglicht, rechenintensive Teile der Anwendung mit dem CUDA Toolkit auf die GPU zu portieren. Hintergrund GPU Computing: Die Revolution Youre konfrontiert mit Imperativen: Verbessern Sie Leistung. Lösen Sie ein Problem schneller. Parallele Verarbeitung wäre schneller, aber die Lernkurve steil ist es nicht mehr. Mit CUDA können Sie C, C und Fortran Code direkt in GPU, keine Assembler-Sprache erforderlich. Entwickler in Unternehmen wie Adobe, ANSYS, Autodesk, MathWorks und Wolfram Research wachen, dass schlafende Riese die GPU - universelle wissenschaftliche und technische Informatik über eine Reihe von Plattformen zu tun. Mithilfe von High-Level-Sprachen führen GPU-beschleunigte Anwendungen den sequentiellen Teil ihrer Arbeitsbelastung auf der CPU aus, die für die Leistung eines einzelnen Threads optimiert ist, während die parallele Verarbeitung auf der GPU beschleunigt wird. Dies nennt man GPU-Computing. GPU-Computing ist möglich, weil heute GPU viel mehr als Grafik zu tun macht: Es sizzles mit einem teraflop der Fließkomma-Leistung und knirscht Anwendungsaufgaben, die für alles von der Finanzierung zur Medizin entworfen sind. CUDA ist weit verbreitet durch Tausende von Anwendungen und veröffentlichte Forschungs-Papiere und unterstützt von einer installierten Basis von über 375 Millionen CUDA-fähigen GPUs in Notebooks, Workstations, Computer-Cluster und Supercomputer eingesetzt. Besuchen Sie CUDA Zone für Anwendungsbeispiele in verschiedenen vertikalen Märkten und erwecken Sie Ihren GPU Riesen. Geschichte der GPU-Berechnung Die ersten GPUs wurden als Grafikbeschleuniger entworfen, die nur bestimmte Festnetz-Pipelines unterstützen. In den späten 1990er Jahren wurde die Hardware zunehmend programmierbar und gipfelte in der ersten GPU von NVIDIA im Jahr 1999. Weniger als ein Jahr nachdem NVIDIA den Begriff GPU prägte, waren Künstler und Spieleentwickler die einzigen, die bahnbrechende Arbeit mit der Technologie machten: Forscher waren es Wodurch seine hervorragende Gleitkomma-Leistung erreicht wird. Die GPGPU-Bewegung (General Purpose GPU) war angebrochen. Aber GPGPU war noch lange nicht einfach, selbst für diejenigen, die Grafik-Programmiersprachen wie OpenGL kannten. Entwickler mussten wissenschaftliche Berechnungen auf Probleme aufbauen, die durch Dreiecke und Polygone repräsentiert werden konnten. GPGPU war praktisch unbegrenzt für diejenigen, die nicht die neuesten Grafik-APIs gespeichert hatte, bis eine Gruppe von Stanford University Forscher, um die GPU als Streaming-Prozessor neu zu definieren. Im Jahr 2003 enthüllte ein Forscherteam von Ian Buck Brook, das erste weit verbreitete Programmiermodell, um C mit Daten-Parallel-Konstrukten zu erweitern. Unter Verwendung von Konzepten wie Streams, Kerneln und Reduktionsoperatoren enthüllte das Brook-Compiler - und Runtime-System die GPU als Allzweckprozessor in einer hochrangigen Sprache. Am wichtigsten war, Brook-Programme waren nicht nur leichter zu schreiben als Hand-abgestimmt GPU-Code, sie waren sieben Mal schneller als vergleichbare bestehende Code. NVIDIA wusste, dass blitzschnelle Hardware mit intuitiven Software - und Hardware-Tools gekoppelt werden musste, und lud Ian Buck dazu ein, sich dem Unternehmen anzuschließen und eine Lösung für die nahtlose Ausführung von C auf der GPU zu entwickeln. NVIDIA stellte die Software und Hardware zusammen, enthüllte CUDA 2006, die weltweit erste Lösung für General-Computing auf GPUs. Tools und Training Das CUDA-Ökosystem wächst rasant, da immer mehr Unternehmen erstklassige Tools, Services und Lösungen anbieten. Wenn Sie Ihren eigenen Code schreiben möchten, ist der einfachste Weg, die Leistung von GPUs zu nutzen, mit dem CUDA Toolkit. Die eine umfassende Entwicklungsumgebung für C - und C-Entwickler bietet. Das CUDA Toolkit enthält einen Compiler, Mathematik-Bibliotheken und Tools zum Debuggen und Optimieren der Performance Ihrer Anwendungen. Youll finden Sie auch Code-Beispiele, Programmierhandbücher, Benutzerhandbücher, API-Referenzen und anderen Dokumentationen, um Ihnen den Einstieg zu erleichtern. NVIDIA bietet all dies kostenlos, einschließlich NVIDIA Parallel Nsight für Visual Studio, die branchenweit erste Entwicklungsumgebung für massiv parallele Anwendungen, die sowohl GPUs als auch CPUs verwenden. Lernen, CUDA ist bequem, mit umfassenden Online-Schulungen sowie andere Ressourcen, wie Webinare und Bücher. Über 400 Universitäten und Hochschulen lehren CUDA-Programmierung, darunter Dutzende von CUDA Centres of Excellence und CUDA Forschungs - und Ausbildungszentren. Für DevelopersCUDA Toolkit Das NVIDIAreg CUDAreg Toolkit bietet eine umfassende Entwicklungsumgebung für Entwickler von C - und C-Entwicklern, die GPU-beschleunigte Anwendungen erstellen. Das CUDA Toolkit enthält einen Compiler für NVIDIA GPUs, mathematische Bibliotheken und Tools zum Debuggen und Optimieren der Performance Ihrer Anwendungen. Yoursquoll enthält auch Programmierhandbücher, Benutzerhandbücher, API-Verweise und andere Dokumente, die Ihnen beim schnellen Beschleunigen Ihrer Anwendung mit GPUs helfen. Erfahren Sie mehr über CUDA Toolkit 8.0: Lesen Sie die CUDA 8 Features Revealed Parallel Forall Blog Post. Melden Sie sich für einen Live-Walkthrough an: Whats New in CUDA 8 Webinar am Donnerstag, 13. Oktober. Überprüfen Sie das CUDA 8 Performance Overview Webinar. Folien Überprüfen Sie die CUDA 8 Überblicksfolien, die auf der GPU Technology Conference (GTC) 2016 vorgestellt werden. Wenn Sie irgendwelche Probleme finden, bitte melden Sie einen Bug (erfordert die Mitgliedschaft im NVIDIA Developer Program). Pascal Architecture-Unterstützung Leistungssteigerung auf Pascal GPUs vereinfachen Programmierung mit Unified Memory inklusive Unterstützung für große Datensätze, gleichzeitiger Zugriff auf Daten und Atome Optimieren Sie die Unified Memory-Leistung mit neuen Datenmigrations-APIs Erhöhen Sie den Durchsatz bei extrem schnellen Geschwindigkeiten mit NVIDIA reg NVLINK Handel. Neue High-Speed-Interconnect-Entwicklertools Identifizieren Sie mit Hilfe der kritischen Pfadanalyse latente Engpässe auf Systemebene Verbesserte Produktivität um bis zu 2x mit schnelleren NVCC-Kompilierungszeiten Tune OpenACC-Anwendungen und Gesamt-Host-Code mit neuen Profilerweiterungen Bibliotheken Beschleunigen Sie die Graphenanalytik-Algorithmen mit nvGRAPH Speed-up Deep Learning-Anwendungen mit nativer Unterstützung für FP16 und INT8, Unterstützung für Batch-Betrieb in cuBLAS Erfahren Sie mehr über die GPU-beschleunigten Bibliotheken und Entwicklungswerkzeuge im CUDA Toolkit GPU-Accelerated LibrariesCUDA 8.0 Downloads Weitere Informationen zu CUDA Toolkit 8.0: Gelöst Parallel Forall Blog Post. Melden Sie sich für einen Live-Walkthrough an: Whats New in CUDA 8 Webinar am Donnerstag, 13. Oktober. Sehen Sie sich das Webinar CUDA 8 Performance Overview an. Folien Für Linux-Benutzer, die von früheren Versionen des CUDA Toolkits aktualisieren, klicken Sie auf die Anweisungen in diesem Abschnitt, bevor Sie fortfahren. Der Repository-Signierungsschlüssel, der für die CUDA RPM - und Deb-Pakete verwendet wird, wurde aktualisiert, um den modernen Standards zu entsprechen. Infolgedessen können Paketmanager Probleme mit dem Installieren oder dem Aktualisieren von CUDA 8-Paketen haben. Wenn Sie ein Linux-Benutzer sind, der von früheren Versionen des CUDA Toolkits mithilfe von Netzwerk-Installationsprogrammen aktualisiert wird, folgen Sie den beiden Optionen, bevor Sie fortfahren. Benutzer, die CUDA zum ersten Mal installieren, bleiben davon unberührt. Systeme mit Repositories, die mit CUDA 8.0 aktualisiert wurden, müssen das cuda-repo - 8.0.44-1 herunterladen und erneut installieren. Paket für Ihre Linux-Distribution. Neuinstallation dieses Pakets importiert den neuen Signierungsschlüssel mit ID 7fa2af80. Wählen Sie die Zielplattform mit den grünen Schaltflächen unten aus, um die Basisinstallationsanweisungen (mit dem Netzwerk-Repo) für diese Plattform abzurufen. Zum Beispiel für RHEL7, die Installation mit dem Netzwerk repo: a) sudo rpm - i cuda-repo-rhel7-8.0.44-1.x8664.rpm b) sudo yum reinigen alle c) sudo yum install cuda Manuell importieren Sie diesen Schlüssel Indem Sie die Datei 7fa2af80.pub aus dem entsprechenden Repository herunterladen (z. B. Ubuntu 14.04 x8664 wäre developer. download. nvidiacomputecudareposubuntu1404x86647fa2af80.pub) und läuft dann als root: a) Für Ubuntu-Distributionen: cat 7fa2af80.pub apt-key add - B) Für Fedora-, RHEL - und SUSE-Distributionen: rpm --import 7fa2af80.pub Zu einem späteren Zeitpunkt werden CUDA-Pakete den alten öffentlichen Schlüssel mit ID 5C37D3BE entfernen. Wenn Sie nur die neu signierten Repositories verwenden, ist es sicher, den alten Schlüssel manuell zu entfernen, indem er als root läuft: a) Für Ubuntu-Distributionen: apt-key del 5C37D3BE b) Für Fedora-, RHEL - und SUSE-Distributionen: rpm - e gpg - pubkey-5c37d3be Für Entwickler auf x86-64-Systemen mit Tesla P100 GPUs, klicken Sie auf Anweisungen vor der Installation zu sehen. Tesla P100 erfordert eine Treiberversion, die von NVIDIA Driver Downloads heruntergeladen werden muss. Befolgen Sie diese Anweisungen je nach Installatortyp. Runfile (lokal) Download der runfile nach der Auswahl der OS Verteilung Während der Installation von CUDA Toolkit, überspringen Sie die Installation des Treibers, wenn Sie dazu aufgefordert werden Laden Sie den Tesla P100 Linux x86-64 Treiber von nvidiadrivers Installieren Sie den R361.93 Treiber, um die Installation von CUDA 8 Package abzuschließen (Deb, rpm) Im Downloader Installer-Fenster Ihrer Plattform folgen Sie den Installationsschritten 1 und 2 Installieren Sie in Schritt 3 das Paket cuda-toolkit-8-0 Herunterladen des Tesla P100 Linux x86-64-Treibers von nvidiadrivers Installieren Sie das R361 .93 Treiber, um die Installation von CUDA 8 abzuschließen


Comments