In den letzten beiden Beiträgen haben wir die Geschichte der CPU-Architektur (x86, x64) und den Aufstieg von ARM im Detail untersucht. Heute möchten wir über das Unternehmen sprechen, das an der Spitze dieser gesamten CPU-Erzählung steht und kürzlich in aller Munde ist: NVIDIA.
NVIDIA hat lange Zeit die unangefochtene Führungsposition im Markt für GPUs (Grafikprozessoren) innegehabt. Kürzlich jedoch hat das Unternehmen seinen Einfluss über GPUs hinaus auf den CPU-Markt ausgedehnt und schreibt die Zukunft des Rechnens neu. Lassen Sie uns gemeinsam untersuchen, warum NVIDIA CPUs entwickelt und welche Bedeutung dies im AI-Zeitalter hat.
1. War NVIDIA nicht ursprünglich eine GPU-Firma? Was hat das mit CPUs zu tun?
Ja, das stimmt. NVIDIA ist hauptsächlich bekannt für GeForce (Gaming) und Quadro/RTX (für Profis), und in letzter Zeit auch für die A/H-Serie von GPUs für Rechenzentren. GPUs verarbeiten Berechnungen auf eine andere Art und Weise als CPUs.
-
CPU: Ist spezialisiert auf die schnelle und effiziente Verarbeitung komplexer sequentieller Einzelaufgaben. (z.B. Betriebssystembetrieb, Dokumentenbearbeitung, Web-Browsing)
-
GPU: Ist extrem leistungsfähig bei der Durchführung von einfachen, sich wiederholenden großangelegten Berechnungen, indem sie Tausende von kleinen Kernen parallel und gleichzeitig betreibt. (z.B. Grafikrendering, physikalische Simulation und Künstliche Intelligenz Lernen/Inference)
Über lange Zeit haben CPUs und GPUs sich gegenseitig ergänzt und Computer-Systeme gebildet. Die CPU agiert als das 'Gehirn' des gesamten Systems, während die GPU Aufgaben übernimmt, die grafik- oder berechnungsintensiv sind, wie ein 'Experte'.
Doch mit dem Aufkommen der Künstlichen Intelligenz (KI) hat sich ihre Beziehung zu verändern begonnen. Die AI-Arbeiten, die riesige Datenmengen lernen und komplexe neuronale Netze berechnen müssen, wären ohne die parallele Verarbeitungsfähigkeit der GPU nahezu unmöglich. NVIDIA erkannte früh das Potenzial der GPUs und entwickelte die parallele Computing-Plattform CUDA, die es GPUs ermöglichte, über die Funktion als Grafikkarte hinaus, als universelle Berechnungsgeräte genutzt zu werden.
2. Die Grenzen der GPU und der Bedarf an CPUs: Die Ineffizienz der 'Datenbewegung'
Es ist offensichtlich, dass GPUs eine Schlüsselrolle bei AI-Berechnungen spielen, doch die Datenbewegung zwischen CPUs und GPUs bleibt ein Flaschenhals.
- CPU ↔ GPU Datenübertragung: Während des Trainings oder der Inferenz eines AI-Modells bereitet die CPU die Daten vor, die dann von der GPU verarbeitet und die Ergebnisse wieder an die CPU gesendet werden. Dieser Prozess der Datenbewegung verbraucht viel mehr Zeit und Energie als gedacht. Da die CPU und die GPU physisch voneinander entfernt sind und die Schnittstellen wie PCIe (PCI Express) die enormen Verarbeitegeschwindigkeiten der GPU nicht immer erreichen können, ergibt sich oft ein Problem.
NVIDIA begann, die Notwendigkeit einer eigenen CPU zu erkennen, die neben der GPU platziert werden kann, um die bestehenden Einschränkungen zu überwinden und eine für das AI-Zeitalter optimierte Computing-Lösung zu bieten. Denn egal wie leistungsfähig die GPU ist, ohne eine CPU, die sie effektiv unterstützen und Daten schnell austauschen kann, wird die Gesamteffizienz des Systems in der Regel sinken.
3. Der Auftritt von NVIDIAs CPU: Der ARM-basierte 'Grace'-Prozessor
NVIDIA hat sich entschieden, nicht direkt x86-CPUs zu entwickeln, sondern sich auf die ARM-Architektur zu konzentrieren, die eine hervorragende Energieeffizienz bietet und leicht anpassbar ist. Im Jahr 2022 kündigte NVIDIA die offizielle Markteinführung seiner 'NVIDIA Grace' CPU für Rechenzentren an.
-
Basierend auf ARM Neoverse: Die Grace CPU ist auf der Server-Kern-Architektur 'Neoverse' von ARM aufgebaut. Dies deutet darauf hin, dass NVIDIA nicht direkt in das Design von CPU-Kernen einsteigt, sondern die bewährte Technologie von ARM nutzt, um schnell in den Markt einzutreten.
-
Der Kern der 'Superchip'-Strategie: Die wahre Stärke der Grace CPU zeigt sich, wenn sie nicht nur als eigenständige CPU agiert, sondern in Kombination mit NVIDIAs GPUs in Form eines 'Superchips'.
-
Grace Hopper Superchip: Ein Produkt, das die Grace CPU mit der leistungsstarken H100 Hopper GPU über eine hochgeschwindigkeits-NVLink-C2C-Verbindung verbindet. Diese Verbindung bietet eine weit höhere Bandbreite (über 900 GB pro Sekunde) als das herkömmliche PCIe und minimiert so die Datenengpässe zwischen CPU und GPU.
-
Grace Blackwell Superchip: Eine Kombination aus der neuesten Blackwell-GPU-Architektur und der Grace CPU, konzipiert für die nächste Generation von AI- und HPC (High-Performance-Computing)-Workloads.
-
Diese 'Superchip'-Strategie zeigt NVIDIAs Vision, ein integriertes System anzubieten, das benutzerdefinierte CPUs bereitstellt, die speziell für GPU-Berechnungen optimiert sind, was weit effizienter und leistungsfähiger ist als die getrennte Verwendung von herkömmlichen x86-CPUs und NVIDIA-GPUs.
4. Umwälzungen im CPU-Markt und Zukunftsausblick
Die Einführung der Grace CPU von NVIDIA schafft ein neues Wettbewerbsumfeld im CPU-Markt, der bisher zwischen x86 (Intel, AMD) und ARM (Qualcomm, Apple usw.) geteilt war.
-
Optimierung für das AI-Zeitalter: NVIDIA konzentriert sich nicht auf den allgemeinen CPU-Markt, sondern auf CPUs für Rechenzentren, die auf AI und HPC-Workloads spezialisiert sind. Dies ist eine Strategie zur Reaktion auf die weltweit explosionsartig steigende Nachfrage nach AI-Computing.
-
Wettbewerb und Zusammenarbeit: Intel und AMD befinden sich ebenfalls in einem komplexen Verhältnis, in dem sie mit NVIDIA auf dem AI-Beschleunigermarkt konkurrieren, gleichzeitig aber auch CPUs entwickeln müssen, die gut mit NVIDIA-GPUs zusammenarbeiten. Gerüchte besagen, dass NVIDIA gelegentlich auf die Foundry-Dienste von Intel zurückgreifen könnte, was zeigt, dass verschiedene Modelle der Zusammenarbeit und Konkurrenz für technologische Entwicklung und Marktführerschaft entstehen.
-
Bedeutung von integrierten Lösungen: In der Zukunft wird nicht nur die Leistung einzelner Bauteile wichtig sein, sondern auch, wie gut CPU, GPU, Speicher und Interconnect organisch integriert sind, um optimierte Leistungen für spezifische Workloads zu erzielen. NVIDIAs 'Superchip'-Strategie ist ein typisches Beispiel für solche integrierten Lösungen.
Fazit
Heute haben wir untersucht, warum der Gigant im GPU-Markt, NVIDIA, in den CPU-Markt eingestiegen ist und wie die 'Grace'-CPU und die 'Superchip'-Strategie die Rechenparadigmen im AI-Zeitalter verändern wollen. Wir können erkennen, dass CPUs und GPUs nicht nur die Rollen des jeweils anderen ergänzen, sondern nun auch in eine Richtung gehen, in der sie enger verbunden und integriert werden.
Die Frage bleibt, welche Ergebnisse und Veränderungen NVIDIAs CPU-Herausforderung mit sich bringt, wie die bestehenden x86-Riesen reagieren werden und wie die Zukunft des AI-Computings letztendlich aussehen wird. Im nächsten Beitrag werden wir mit einer weiteren spannenden Technologiegeschichte zurückkehren. Vielen Dank!
Es sind keine Kommentare vorhanden.