Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11

GPU против CPU: что нужно знать для работы с ИИ в 2025

Почему обычные серверы больше не справляются — и что это значит для тех, кто выбирает хостинг

634 открытий4К показов
GPU против CPU: что нужно знать для работы с ИИ в 2025

Нейросети, видеоаналитика, генерация изображений, синтез речи — эти задачи всё чаще звучат не только в лабораториях и стартапах, но и в брифах компаний, которые вчера занимались логистикой, e-commerce или поддержкой клиентов. Всё это требует не просто мощностей, а особой инфраструктуры на базе GPU.

Екатерина Уфимцева из Cloud4Box рассказывает, почему GPU-серверы становятся новым стандартом, и что важно знать тем, кто выбирает хостинг под такие задачи.

Почему ИИ требует именно GPU, а не CPU

Главное преимущество GPU (графические процессоры) — это архитектура, ориентированная на параллельные вычисления. В то время как CPU обрабатывает задачи последовательно (пусть даже с несколькими потоками), GPU запускает десятки тысяч операций одновременно, что особенно важно в задачах машинного обучения, генерации изображений или работы с видео.

Сравните: обучение нейросети на CPU может занимать недели, тогда как на сервере с несколькими GPU — часы. Именно поэтому почти все крупные модели ИИ, от ChatGPT до Stable Diffusion, обучаются и запускаются на GPU-инфраструктуре.

По свежим данным (исследование, апрель 2025), обучение моделей машинного обучения на GPU оказалось в 159 раз быстрее, чем на CPU — при прочих равных. Использовались стандартные open-source библиотеки, такие как cuML от NVIDIA.

Как изменился рынок GPU — и почему всё так дорого

Сегодня спрос на GPU определяется не только играми или графикой. В 2017-2020 годах видеокарты массово закупались для майнинга Ethereum.

После перехода на Proof-of-Stake в 2022 году, рынок немного остыл, но ненадолго — пришёл бум генеративного ИИ. Начиная с конца 2022 года, спрос на GPU снова превысил предложение: крупные игроки, включая OpenAI, Google, Meta* и Microsoft, начали выкупать мощности оптом.

NVIDIA, на чьи чипы ориентированы почти все нейросетевые фреймворки, в 2024 году сообщала, что на поставку серверных моделей H100 в ряде стран нужно ждать до 6 месяцев. Отдельно отметим санкционную политику властей США, которые устанавливают ограничения на поставку чипов определённой мощности в отдельные страны.

Это подтверждает масштабную нехватку мощностей. Bloomberg сообщает, что именно из-за GPU-бума NVIDIA в июне 2024 года стала самой дорогой компанией в мире, обогнав Microsoft и Apple.

Как эволюционировала архитектура GPU и зачем это знать? Эволюция идёт без революций: больше ядер, больше памяти, выше пропускная способность. За последние 5 лет объём видеопамяти на серверных GPU вырос с 16-24 ГБ до 80-100 ГБ. Например:

  • NVIDIA A100 — 80 ГБ;
  • NVIDIA H100 — 80 ГБ (в базовой версии), 94 ГБ — у модификации H100 SXM5.

Кроме того, появилась новая компоновка — разъёмы SXM4/5, позволяющие размещать карты высокой плотности ближе друг к другу и повышать энергоэффективность.

Эти улучшения позволяют запускать более тяжёлые модели, ускорять инференс и снижать время обучения, но создают серьёзную нагрузку на инфраструктуру.

Какие ресурсы требуют современные GPU

Поставить видеокарту в обычный сервер уже не получится. GPU-сервер уже отдельный класс оборудования. Он требует:

  • более мощных блоков питания;
  • специализированных корпусов и систем охлаждения;
  • высокой пропускной способности сети (до 400 Гбит/с);
  • продуманной архитектуры стойки.

Для понимания: стандартная серверная стойка проектируется под нагрузку до 8 кВт. Один сервер с четырьмя A100 — это уже 20-30 кВт. А стойка с NVIDIA GB300 NVL72 потребляет до 132 кВт. Это недостижимо для большинства дата-центров без модернизации.

Даже продвинутые дата-центры редко проектируются на стойки с нагрузкой выше 50-80 кВт. Воздушного охлаждения уже недостаточно — требуется жидкостное. Нужно обновление стоечных коммутаторов и всей сетевой архитектуры. Иными словами, обычный дата-центр больше не подходит.

Если сеть не выдерживает 400 Гбит/с на сервер, возникает узкое место. А если в стойке нет места для жидкостного охлаждения, приходится выносить часть нагрузок.

Становится важно выбирать площадку, где уже есть запас по всем этим параметрам. Или использовать аренду у провайдера, который это заранее учёл.

Что это меняет для провайдеров и заказчиков

Если говорить про заказчиков, то компании, которым нужны GPU, делятся на два типа: те, кто знает свой стабильный спрос, и те, у кого нагрузка «прыгает». Первым иногда выгодно строить своё. Но это риск: может не хватить мощности, места, времени на заказ нового железа. Вторые переходят на гибкую аренду с поминутной или почасовой тарификацией.

Например, при обучении модели можно арендовать 4×A100 на 72 часа, а затем отключить. Провайдеры вроде CoreWeave или Lambda позволяют управлять этим через API. Это становится стандартом — и среди западных компаний, и в России.

Если раньше клиенты просили просто «мощный сервер», теперь они задают вопросы:

  • Какая у чипа модель? 
  • Есть ли доступ через API?
  • На каких услугах можно докинуть видеокарту на лету?
  • Поддерживает ли площадка >30 кВт на стойку?

Если говорить про провайдеров, то специалисты должны:

  • обеспечить стабильное электропитание на десятки кВт на стойку;
  • спроектировать охлаждение (желательно жидкостное);
  • поддерживать работу с топовыми картами (A100, H100, RTX 6000 и др.),
  • уметь гибко конфигурировать ресурсы: менять конфигурации «на лету», подключать хранилища, давать API-доступ.

Требования к поддержке тоже меняются: команда должна быть в курсе того, как ведёт себя та или иная модель в нагрузке, какие конфигурации подходят под задачи инференса, рендера, генерации видео или текста.

Покупка или аренда: что выгоднее

Если компания точно знает объёмы, имеет доступ к площадке и уверена в стабильной нагрузке — можно рассматривать собственную инфраструктуру. Но это редкий случай. В большинстве сценариев, особенно если задачи проектные или нестабильные, аренда оказывается в разы выгоднее:

  • не нужно покупать оборудование и ждать 2-3 месяца поставки;
  • можно работать по поминутной/почасовой модели;
  • можно масштабироваться по требованию, без апгрейдов и монтажей.

Аналитики Omdia прогнозируют, что к 2026 году до 65% всех GPU в инфраструктуре ИИ будут именно арендоваться.

Как не ошибиться при выборе GPU-сервера

Частая ошибка — взять слишком слабую карту. Например, для больших языковых моделей нужен объём видеопамяти от 40 до 100 ГБ на карту. RTX 3080 с 10 ГБ в таких случаях бесполезна. Также важно понимать: даже если «по характеристикам всё похоже», разные поколения GPU (Ampere, Hopper, Ada Lovelace) могут отличаться в разы по производительности.

Важно учитывать:

  • объём видеопамяти;
  • архитектуру (серверная или десктопная);
  • охлаждение и энергопотребление;
  • наличие API и возможности масштабирования.

Выбирая GPU-сервер у провайдера, лучше начать с тестовой аренды на 1-2 дня. Это помогает избежать переплат и понять реальную производительность под вашу задачу.

Как сократить расходы? Большинство задач ИИ и рендера носят периодический характер: вы обучаете модель — и мощность не нужна, запускаете инференс — и снова пауза. Поэтому имеет смысл:

  • арендовать серверы почасово или посуточно;
  • выключать их между сессиями (если провайдер это поддерживает);
  • автоматизировать запуск через API.

Некоторые хостинги, включая российские, уже позволяют делать это из панели управления или даже с триггерами по событиям.

Вывод

GPU про возможность работать с современными ИИ-инструментами, видеоаналитикой и автоматизацией. Но GPU-сервер — штука капризная: без правильной инфраструктуры он не работает на полную.

Хостинг-провайдер, у которого есть опыт, инфраструктура и гибкая тарификация, становится стратегическим партнёром. Он помогает не «где-то запустить модель», а масштабировать бизнес без лишних затрат и простоев.

Следите за новыми постами
Следите за новыми постами по любимым темам
634 открытий4К показов