По всем вопросам звоните:

+7 495 274-22-22

УДК: 621.38

Микропроцессоры компьютеров и серверов дата-центров искусственного интеллекта

Шульга Р. Н. канд. техн. наук, ВЭИ — филиал ФГУП «РФЯЦ — ВНИИТФ им. акад. Е. И. Забабахина», г. Москва

Рассмотрена классификация микропроцессоров по их свойствам (производительность и латентность). Отмечены преимущества графических процессоров GPU c поточно-конвейерной обработкой данных. Показана специфика дата-центров (ЦОД) для систем генеративного искусственного интеллекта (ИИ). Приведены результаты фирмы Huawei (Китай) в части развития сети ИИ сравнительно с конкурирующими моделями.

Литература:

1. Шульга Р. Н. Нейроморфные и фотонные процессоры для оптического компьютера. — В редакции журнала «Электрооборудование: эксплуатация и ремонт».

2. Шульга Р. Н. Оптические компьютеры в части фотонной памяти. — В редакции журнала «Электрооборудование: эксплуатация и ремонт».

3. Шульга Р. Н. Опто- и нанофотоника в составе нанооптоэлектромеханических систем (НОЭМС). — В редакции журнала «Электрооборудование: эксплуатация и ремонт».

4. Некрасов К. А. и др. Параллельные вычисления общего назначения на графических процессорах: учеб. пособие. — Екатеринбург: Изд. Урал. ун-та, 2016. — 104 с.

5. Аппаратная архитектура графического процессора. — Режим доступа: http://www.e-ist.ru.

6. Введение в параллельные вычисления. — Режим доступа: http://www.ikt.muctr.ru.

7. Шалагинов А. Особенности дата-центров для систем генеративного искусственного интеллекта. — Режим доступа: http://www.shalaginov.com.

8. Искусственный интеллект в сети ЦОД: опыт Huawei. — Режим доступа: http://www.habr.com.

9. NVIDIA Corp. NVIDIA CUDA Compute Unified Device Architecture. Programming Guide Version 1.0 [Электронный ресурс] / NVIDIA Corp. 2701 San Tomas Expressway, Santa Clara, CA 95050. — Режим доступа: http://www.nvidia.com.

10. NVIDIA Corp. CUDA Technical Training [Электронный ресурс] / NVIDIA Corp. 2701 San Tomas Expressway, Santa Clara, CA 95050. — Режим доступа: http://www.nvidia.com.

11. CUDA. Programming Guide [Электронный ресурс]. — Режим доступа: http://docs.nvidia.com/cuda/ cudac-programming guide/#axzz3k3HvOyd7.

Вопросы специализации микропроцессоров резко обострились в последнее время в связи с развитием потребностей дата-центров (ЦОД) искусственного интеллекта (ИИ). В мире в 2023 г. эти ЦОД потребили 2% выработанной электроэнергии, а к 2030 г. ожидается потребление на уровне 7%. В США энергопотребление ЦОД растет до 20% ежегодно, а к 2030 г. достигнет 100–150 ГВт, что эквивалентно потреблению 2/3 домохозяйств. Такие затраты в значительной мере приходятся на обучение больших языковых моделей (LLM) с триллионами параметров для ЦОД ИИ.

В настоящее время мировым лидером рынка чипов для ИИ является фирма NVIDIA (США), которая поставляет линейку графических процессоров (GPU) с мощностями до 1000 Вт. Перевод воздушного на водяное охлаждение серверов снижает энергопотребление на 40%, а на иммерсионное жидкостное охлаждение — на 50%. Наиболее важными проблемами в части повышения производительности и быстродействия чипов является параллельно-потоковая структура GPU, а также децентрализация ЦОД с учетом их специализации. В работах автора [1–3] анализируются возможности конкурирующих с GPU фотонных процессоров [4–6], посвящены реализации параллельно-потоковой структуре GPU [7, 8], описывают специфику серверов ЦОД и опыт Huawei (Китай) в части сети ИИ [9–11] освещают архитектуру GPU.

Цель статьи состоит в анализе динамики подходов в части развития микропроцессоров для традиционных компьютеров и серверов ЦОД ИИ.

Традиционная структура классических компьютеров сложилась из сочетания следующих типов микропроцессоров:

• центральный процессор СРU с последовательным вычислением общих задач;

• графический процессор GPU в виде микросхем для параллельного вычисления специальных задач;

• цифровой сигнальный процессор DSP для решения специфических задач с высокой регулярностью обращения;

• программируемая пользователем вентильная матрица FPGA (ППВМ) или программируемая логическая интегральная схема (ПлИС) для ускорения специфических задач.

Именно в целях распараллеливания графических вычислений центральные процессоры (CPU) персональных компьютеров (ПК) стали суперскалярными, в результате чего получили возможность одновременного (векторного) исполнения некоторых операций сразу над несколькими числами в составе нескольких ядер. Однако самыми эффективными устройствами для распараллеливания вычислений на ПК стали специализированные графические процессоры (GPU). Эти процессоры, разработанные именно для обработки графики, практически полностью ориентированы на параллельную обработку данных.

Для Цитирования:
Шульга Р. Н., Микропроцессоры компьютеров и серверов дата-центров искусственного интеллекта. КИП и автоматика: обслуживание и ремонт. 2025;5.
Полная версия статьи доступна подписчикам журнала
Язык статьи:
Действия с выбранными: