Быстрее, мощнее, эффективнее
Как при росте возможностей ИИ снизить его ресурсопотребление

Технологии искусственного интеллекта потребляют много ресурсов: электричество, воду, требуют дорогого оборудования. «РБК Тренды» изучили, как компании оптимизируют свои модели и как они внедряют энергоэффективные технологии и альтернативные источники энергии.
Сколько ресурсов тратит ИИ
Современные системы искусственного интеллекта требуют колоссальных вычислительных мощностей. Обучение и работа нейросетей сопровождаются значительным потреблением электроэнергии, использованием больших объемов данных и эксплуатацией мощного аппаратного обеспечения. Чем сложнее модель, тем выше ее ресурсозатраты, что становится ключевым вызовом для развития ИИ.
Электричество и CO2
Одним из самых ярких примеров ресурсоемкости ИИ является нейросеть GPT-4, разработанная компанией OpenAI. По разным оценкам, обучение GPT-3 потребовало около 1287 МВт·ч электроэнергии, что эквивалентно годовому потреблению 120 американских домов. Также известно, что ChatGPT в настоящее время может потреблять около 39,98 млн кВт·ч в день — нейросетью пользуются 400 млн активных юзеров еженедельно.
Исследование Университета Массачусетса показало, что создание одной модели нейросети может привести к выбросу более 280 тыс. кг CO2 — эквиваленту пятилетнего цикла эксплуатации автомобиля с двигателем внутреннего сгорания. Такие показатели вызывают обеспокоенность у экологов и подталкивают компании к поиску энергоэффективных решений.
Оборудование
Кроме электроэнергии, ИИ требует эксплуатации дорогостоящего оборудования: графических процессоров (GPU), тензорных процессоров (TPU) и серверных ферм — по оценкам Schneider Electric, в 2023 году 80% нагрузки ИИ-моделей в дата-центрах пришлось на генерацию результата, а 20% — на обучение.