В последних двух постах мы углубленно исследовали историю архитектур CPU (x86, x64) и восхождение ARM. Сегодня мы поговорим о компании, стоящей на вершине всех этих разговоров о CPU, и которая недавно стала самой обсуждаемой в мире, речь пойдет о NVIDIA.

NVIDIA долгое время была абсолютным лидером на рынке GPU (графических процессоров). Однако в последнее время она не просто расширяет свои границы за пределы GPU, но и вторгается на рынок CPU, переписывая будущее вычислительных технологий. Давайте выясним, зачем NVIDIA разрабатывает CPU и какое значение это имеет в эпоху ИИ.


1. NVIDIA разве не была изначально компанией GPU? Какова её связь с CPU?

Да, вы правы. NVIDIA в первую очередь известна благодаря GeForce (игровым) и Quadro/RTX (профессиональным) графическим процессорам, а в последнее время также благодаря A/H серии графиков для дата-центров. GPU обрабатывает вычисления иначе, чем CPU.

  • CPU: Специализируется на быстром и эффективном выполнении последовательных и сложных задач. (например: выполнение операционной системы, работа с документами, веб-серфинг)

  • GPU: Имеет тысячи мелких ядер, которые работают параллельно и одновременно, что делает его очень мощным в обработке простых, но повторяющихся массовых вычислений. (например: рендеринг графики, симуляция физики и обучение/инференция искусственного интеллекта)

На протяжении длительного времени CPU и GPU дополняли друг друга, составляя компьютерные системы. CPU служила 'мозгом' всей системы, а GPU занималась задачами, требующими графики или специфических параллельных вычислений, подобно 'эксперту'.

Тем не менее, с наступлением эпохи искусственного интеллекта (ИИ) их взаимоотношения стали меняться. AI задачи, требующие обучения огромных объемов данных и вычисления сложных нейронных сетей, были почти невозможны без параллельной обработки GPU. NVIDIA рано осознала потенциал GPU и разработала платформу параллельных вычислений, CUDA, открыв путь для использования GPU как универсального вычислительного устройства, а не только графической карты.


2. Ограничения GPU и необходимость в CPU: неэффективность ‘перемещения данных’

Хотя GPU стала центром вычислений ИИ, передача данных между CPU и GPU продолжала вызывать узкое место.

  • Передача данных CPU ↔ GPU: В процессе обучения или инференции AI модели CPU готовит данные, GPU обрабатывает эти данные, а затем снова отправляет результаты обратно на CPU. Этот процесс передачи данных требует значительно большего времени и энергии, чем предполагали. Физическое разделение CPU и GPU и интерфейсы передачи, такие как PCIe (PCI Express), иногда не могут соответствовать невероятной скорости обработки GPU.

NVIDIA осознала необходимость собственного CPU, который будет находиться рядом с GPU, чтобы преодолеть эти ограничения и предложить вычислительные решения, оптимизированные для эпохи ИИ. Насколько бы хороша ни была GPU, без CPU, который будет эффективно поддерживать её и быстро передавать данные, общая эффективность системы неизбежно упадет.


3. Появление CPU NVIDIA: ARM-основной процессор 'Grace'

NVIDIA обратила внимание на архитектуру ARM, обладающую высокой энергоэффективностью и легкостью настройки, вместо того чтобы разрабатывать CPU x86 напрямую. И в 2022 году она официально объявила о выходе на рынок CPU с 발표ением процесса 'NVIDIA Grace' для дата-центров.

Сцена обмена данными между суперчипами NVIDIA GPU + CPU

  • На основе ARM Neoverse: Процессор Grace спроектирован на основе серверных ядер ARM 'Neoverse'. Это объясняется стратегией NVIDIA быстро выйти на рынок, используя уже проверенные технологии ARM, а не углубляться в проектирование ядер CPU.

  • Ключевой аспект стратегии 'суперчипов': Настоящее преимущество процессора Grace проявляется не только в производительности одного CPU, но и в сочетании с GPU NVIDIA в форме 'суперчипа'.

    • Суперчип Grace Hopper: Это продукт, который соединяет процессор Grace с мощным GPU H100 Hopper через сверхскоростной интерконнект, NVLink-C2C. Это соединение обеспечивает пропускную способность, значительно превышающую скорость PCIe (более 900 ГБ в секунду), минимизируя узкие места передачи данных между CPU и GPU.

    • Суперчип Grace Blackwell: Это форма комбинированного решения novo Blackwell GPU и процессора Grace, предназначенная для обработки рабочих нагрузок следующего поколения AI и HPC (высокопроизводительных вычислений).

Эта стратегия “суперчипов” демонстрирует видение NVIDIA создать более эффективную и мощную интегрированную систему, непосредственно предоставляя настраиваемый CPU, оптимизированный для GPU-вычислений, вместо раздельного использования существующих x86 CPU и GPU NVIDIA.


4. Изменения на рынке CPU и прогнозы на будущее

Появление CPU Grace от NVIDIA формирует новую конкурентную схему на рынке CPU, который ранее был разделен между x86 (Intel, AMD) и ARM (Qualcomm, Apple и др.).

  • Оптимизация для эпохи ИИ: NVIDIA сосредоточена на CPU для дата-центров, специализированных на AI и HPC рабочих нагрузках, а не на обширном CPU рынке. Это стратегия направлена на удовлетворение стремительно растущего мирового спроса на вычисления AI.

  • Конкуренция и сотрудничество: Intel и AMD тоже конкурируют с NVIDIA на рынке ускорителей AI, но одновременно им необходимо продолжать разработки x86 CPU, которые хорошо работают с GPU от NVIDIA. Слухи о том, что NVIDIA может время от времени использовать услуги интеллектуальной собственностью Intel, уже циркулируют, что показывает сложные модели сотрудничества и конкуренции в разработке технологий и захвате рынка.

  • Важность интегрированных решений: В будущем, помимо просто производительности отдельных компонентов, будет все более важно, как CPU, GPU, память и интерконнект органично интегрированы для достижения оптимизированной производительности для конкретных рабочих нагрузок. Стратегия 'суперчипов' от NVIDIA является ярким примером таких интегрированных решений.


В заключение

Сегодня мы рассмотрели, почему гигант GPU NVIDIA вошел в рынок CPU и как с помощью CPU 'Grace' и стратегии 'суперчипов' она стремится изменить парадигму вычислений в эпоху ИИ. Мы увидели, как CPU и GPU продолжают развиваться, дополняя друг друга и теперь движутся в направлении более близкой интеграции.

Остается наблюдать, какими будут результаты и изменения от вызова CPU от NVIDIA, как отреагируют существующие лидеры x86, и каков будет конечный вид будущего вычислений AI. В следующем посте мы снова встретимся с другой интересной технологической историей. Спасибо!