
Цена прогресса: сколько энергии съедает искусственный интеллект
Об одном из главных технологических трендов последних лет — искусственном интеллекте (ИИ) — мы привыкли говорить в основном две вещи: либо это подручное средство на предприятии, либо они могут лишить работы людей. Однако недавно общественность начала обращать больше внимания на то, что стремительное развитие цифровой инфраструктуры связано с растущим потреблением энергии. Электричество стало «топливом» для ИИ — и спрос на него растёт экспоненциально.
В статье мы рассмотрим, как именно ИИ влияет на энергопотребление, какую роль в этом играют дата-центры и какие решения предлагает индустрия, чтобы справиться с возрастающей нагрузкой.
ЦОД и ИИ: как вычисления меняют энергобаланс
Основными потребителями оказались ИИ-системы из США, Китая и Европы. Аналитики прогнозируют, что уже к 2028 году центры обработки данных (ЦОД) в США будут потреблять до 12% всей электроэнергии страны. Основной драйвер роста — искусственный интеллект.
Модели становятся всё более сложными. Только обучение GPT-3 (175 млрд параметров) потребило свыше 1200 МВт·ч энергии. Генерация ответа пользователю теперь тоже затратна: даже один запрос к ИИ может потреблять в разы больше энергии, чем обычный интернет-поиск. На долю искусственного интеллекта уже приходится около 1% глобального энергопотребления.
В России рынок дата-центров также стремительно увеличивается за счёт растущего спроса на собственные вычислительные мощности и на арендные предложения.
Как отметил директор департамента развития новых продуктов компании ENERGON Александр Беспалов, энергопотребление ЦОД в России за последние пять лет выросло на 35%. Это связано с резким ростом числа ИИ-проектов: от генеративных моделей и чат-ботов до корпоративных решений в промышленности и госсекторе.
По словам генерального директора АО «Трансэнерком» Олега Шевцова, мощность одного дата-центра, ориентированного на ИИ, сопоставима с потреблением 100 000 домохозяйств.
Он добавил, что, если в 2020 году максимально разрешённая электрическая мощность коммерческого ЦОДа составляла 448,4 МВт, то в 2024 году она достигла 841,5 МВт. А с появлением новых центров растут и объёмы потребляемой ими энергии.
Уже на 2025 год потребление электроэнергии ИИ-системами в России достигло 8-12 ТВт·ч в год. Несмотря на то, что современные компании выставляют всё меньше данных о потреблении электроэнергии в общий доступ, ожидается, что к 2030 году энергопотребление мировых ЦОДов вырастет до 945 ТВт·ч. В России эта цифра поднимется до 30-50 ТВт·ч.
СЕО компании «Облакотека» Максим Захаренко отмечает, что увеличивается и плотность оборудования ЦОД. Современные стойки с GPU для ИИ могут потреблять 30–40 кВт, что сравнимо с потребностями небольшого производства.
Также эксперты подчёркивают, что новые ИИ-модели часто требуют не только обучения, но и постоянной поддержки и инференса. Например, если модель используется в службах поддержки, она должна отвечать мгновенно, что требует работы в режиме 24/7 и соответствующих энергозатрат. Внедрение голосовых помощников в массовый сервис, например, в колл-центры, также создаёт круглосуточную нагрузку на вычислительные мощности.
Кроме инфраструктуры, важную роль играет энергопрофиль самих алгоритмов. Некоторые модели требуют значительно больше операций с плавающей запятой (FLOPS), что приводит к увеличению числа активных процессоров. Умножьте это на количество пользователей — и получится внушительный суммарный след. Например, только ChatGPT в месяц обрабатывает миллиарды запросов, каждый из которых задействует значительные ресурсы.
Инфраструктура под давлением
ИИ-технологии не просто увеличивают вычислительную нагрузку — они меняют сам подход к проектированию и эксплуатации дата-центров. Современные стойки, укомплектованные GPU и специализированными ускорителями, могут потреблять до 30–40 кВт вместо привычных 10. Это повышает требования к электросетям, системам охлаждения и устойчивости всей инженерной инфраструктуры.
«В некоторых регионах России буквально заканчивается доступное электричество — свободных киловаттов под ИИ-проекты почти не осталось», — отметил Максим Захаренко.
Это вынуждает компании размещать ЦОД в удалённых регионах, рядом с источниками генерации и доступом к воде для охлаждения. В некоторых случаях — использовать модульные или распределённые центры, которые масштабируются по мере роста нагрузки.
Кроме электроэнергии, ключевым ресурсом становится вода, сообщил г-н Шевцов. Для поддержания температуры высокопроизводительных кластеров ИИ всё чаще применяются системы жидкостного охлаждения. Один крупный запрос к языковой модели может «стоить» до 500 мл воды. Это делает эксплуатацию дата-центров чувствительной к водному дефициту, особенно в регионах с засушливым климатом.
Также повышается значимость резервного питания и стабильной подачи электроэнергии. Современные ЦОД всё чаще требуют собственных генераторов или подключения напрямую к мощным подстанциям. И это уже вопрос не только эффективности, но и национальной технологической безопасности.
Важный аспект — это энергоэффективность проектирования: использование серверов с низким тепловыделением, строительство зданий с улучшенной теплоизоляцией, автоматизация управления климатом внутри серверных залов. Всё это помогает снизить общую нагрузку на энергосистему.
Экологическая цена развития
Рост энергопотребления ИИ — не только технологическая, но и экологическая проблема.
По данным 2025 года, которые привёл г-н Беспалов, обучение одной крупной модели ИИ может привести к выбросам 200–300 тонн CO₂ — как у автомобиля за 20–30 лет. А по словам Олега Шевцова, генерация одного изображения с помощью ИИ по уровню углеродного следа сопоставима с одной полной зарядкой среднего смартфона.
В масштабах всего рынка такие выбросы становятся значимыми. По оценке Минприроды РФ, к 2030 году до 4% глобальных выбросов может приходиться на ИИ и связанные вычисления.
Чтобы снизить воздействие, индустрия внедряет альтернативные источники энергии. К 2025 году 15% ЦОД уже обращались к ВИЭ, что позволило снизить углеродный след на 20%. Amazon использует солнечные и ветряные электростанции, Microsoft инвестирует в атомную энергетику, отмечает г-н Шевцов. Кроме того, применяется оптимизация инфраструктуры: энергоэффективные серверы, жидкостное охлаждение, интеллектуальное управление мощностями.
В долгосрочной перспективе ИИ может и сам стать частью решений по устойчивому развитию. Например, алгоритмы ИИ помогают прогнозировать энергопотребление, оптимизировать логистику, управлять выбросами и отслеживать ESG-показатели предприятий. Парадоксальным образом сам ИИ, будучи причиной энергозатрат, становится и инструментом их сокращения.
Как индустрия реагирует на вызовы
Конечно, проблема энергопотребления ИИ-систем не осталась без внимания. Крупнейшие игроки рынка активно ищут пути повышения энергоэффективности.
По словам Максима Захаренко, сейчас на повестке дня у всех крупных игроков сразу несколько мер.
- Оптимизация PUE (коэффициента эффективности использования энергии) — снижение доли электричества, которая уходит не на вычисления, а рассеивается впустую (например, на перегрев).
- Новые системы охлаждения — от модернизации классических кондиционеров до перехода на жидкостное охлаждение, особенно для «горячего» оборудования с большим количеством GPU.
- Собственные источники энергии — эксперименты с возобновляемыми источниками (солнечными, ветряными) или размещение дата-центров рядом с электростанциями для прямого доступа к мощности.
Так, совершенствуются сами архитектуры. Основатель аналитического агентства WhiteIndex Константин Гамарник привёл примеры: прореживание (pruning), квантование, дистилляция моделей, условные вычисления. Аккуратное удаление несущественных параметров (pruning) позволяет сохранить до 90% исходной точности при сокращении числа весов до 10%.
Квантование понижает разрядность весов (например, до INT8 или даже бинарных) без заметной потери качества, что снижает и вычислительные затраты. Эти технологии позволяют сокращать объёмы расчётов, снижая энергозатраты без потери качества.
Кроме того, в работу включаются компактные архитектуры уровня TinyML, оптимизированные для ресурсов устройств, или «легковесные» трансформеры с меньшим числом параметров. Изменения на уровне железа — выпуск более энергоэффективных GPU/TPU, использование FPGA или специализированных ASIC.
Также на рынок выходят новые аппаратные решения. Как отметил спикер, активно исследуются «нейроморфные» и фотоэлектронные вычисления, аналоговые нейросети, которые в перспективе могут обеспечить кратную экономию энергии. Например, новый нейроморфный процессор IBM NorthPole демонстрирует примерно в 25 раз лучшую энергоэффективность для задач нейросетей по сравнению с обычными чипами (пока на экспериментальном этапе).
Александр Беспалов к энергоэффективным альтернативам традиционным архитектурам ИИ относит и трёхмерную электронно-фотонную интегральную схему, разработанную учёными из США. Схема сочетает фотонику с КМОП-технологиями и обеспечивает передачу данных со скоростью до 800 Гбит/с при низком энергопотреблении — всего 120 фемтоджоулей на бит. Эта технология значительно снижает энергозатраты и задержки при обмене данными, что открывает путь к распределённым и масштабным системам ИИ следующего поколения.
Что дальше: тренды и прогнозы
По оценкам Международного энергетического агентства, если не будет прорывных технологий, энергопотребление ИИ-ЦОД удвоится к 2030 году. Спрос на вычисления продолжит расти: ИИ будет использоваться в производстве, науке, обороне, в системах умных городов и логистике.
Индустрии предстоит решать непростую задачу: сохранить темпы развития при снижении экологической и энергетической нагрузки. Это возможно только при активной работе в трёх направлениях — оптимизация алгоритмов, модернизация «железа» и переход на устойчивые источники энергии.
Отдельный интерес представляют исследования в области квантовых вычислений, фотонной логики и биоинспирированных систем. Хотя большинство этих решений остаются экспериментальными, они задают вектор развития на ближайшие 10–15 лет.