Новый чип использует ИИ для сокращения энергопотребления LLM на 50%

Исследователи из инженерного колледжа Орегонского государственного университета представили новый микрочип, который может значительно сократить энергопотребление центров обработки данных, обслуживающих крупные языковые модели (LLM), например, Gemini или GPT-4.
Автор новостей
комплекс центра обработки данных
Центры обработки данных, обслуживающие крупные языковые модели, потребляют колоссальное количество энергииИсточник: Rack Solutions

Современные системы искусственного интеллекта требуют колоссальных вычислительных мощностей, а значит, и потребления огромного количества электроэнергии. Новая разработка позволяет снизить энергозатраты на передачу данных в два раза по сравнению с традиционными решениями, и это обещает стать настоящей революцией в сфере развития LLM.

Авторы новой технологии, докторант Рамин Джавади и профессор Теджасви Ананд, руководитель лаборатории аналогово-цифровых схем в университете Орегона считают основной проблемой развития крупных языковых моделей то, что, несмотря на общий прогресс в скорости передачи данных, сам процесс передачи требует все больше энергии. Объем информации, которая передается внутри и между дата-центрами, непрерывно растет, и этот рост уже опережает технологические возможности экономичной обработки и передачи сигналов.

Ключ к повышению энергоэффективности LLM лежит в них самих, то есть, в использовании принципов искусственного интеллекта. Вместо того чтобы полагаться на классические схемы коррекции ошибок, например энергетически затратные эквалайзеры, разработанный учеными чип использует встроенный классификатор, который способен самостоятельно обучаться и восстанавливать искаженные данные на более интеллектуальном и экономичном уровне. Это особенно важно в контексте языковых моделей, для работы которых требуется непрерывный и высокоскоростной обмен данными по медным проводным соединениям внутри центров обработки данных.

ИИ-чип художественное изображение
Снизить энергопотребление ИИ поможет... сам искусственный интеллект!Источник: Unsplash

Передача данных на высокой скорости неизбежно приводит к искажениям сигнала, и задача системы — вовремя распознать эти искажения и устранить их. В традиционных системах на это тратится большое количество энергии, но исследователи предложили альтернативный путь: использовать ИИ на аппаратном уровне. В результате система сама учится определять и исправлять ошибки, потребляя при этом меньше ресурсов.

Такой подход может стать важным шагом на пути к созданию более устойчивой цифровой инфраструктуры. По мере того как модели ИИ становятся все более сложными и объемными, экспоненциально растет и их энергопотребление. Учитывая рост числа приложений, использующих нейросети, от чат-ботов до аналитических систем, снижение затрат на передачу данных приобретает стратегическое значение. Если предложенное учеными и подобные ему решения получат широкое распространение, это поможет значительно сократить углеродный след дата-центров и сделать масштабирование ИИ более экологичным и эффективным.

Ранее ученые придумали, как внедрить ИИ в производство, чтобы повысить качество продукции и безопасность рабочих.