Алгоритм Google TurboQuant сокращает энергозатраты дата-центров в шесть раз

Google представила новый алгоритм TurboQuant, способный снизить объём памяти, необходимый для работы больших языковых моделей (LLM), в шесть раз. Это значительно уменьшит энергопотребление дата-центров и откроет путь к запуску мощных AI-моделей на смартфонах, где оперативной памяти всё ещё недостаточно.
Тенденция к компактным и энергоэффективным искусственным интеллектам набирает обороты после примера китайской модели DeepSeek в 2025 году, созданной на основе американской открытой LLM Meta* Llama. Однако TurboQuant идёт ещё дальше, оптимизируя память благодаря инновационной технике «случайного вращения векторов данных» и снижая узкие места в кэшах ключ-значение и в поиске по векторам — это основные узлы, замедляющие работу AI.
Как работает TurboQuant и почему это важно для инфраструктуры AI
Принцип TurboQuant напоминает классические алгоритмы сжатия данных, знакомые по ZIP-архивам и видео кодекам, но теперь применяется к высокоразмерным векторам, используемым в нейросетях. Особенность в том, что он уменьшает размер пары ключ-значение, облегчая обращение к часто запрашиваемой информации, ускоряя процесс и экономя энергию.
В условиях проблем с нехваткой электроэнергии и сопротивлением общества строительству новых дата-центров в США и других странах TurboQuant может стать ответом на эти вызовы. Вместо возведения новых объектов индустрия сможет эффективнее использовать существующую инфраструктуру, снижая нагрузку и затраты.
Одновременно это ставит под вопрос бизнес-модель компаний вроде NVIDIA, чей рост связывают с масштабным расширением дата-центров и спросом на графические процессоры. Если AI научится работать на меньшей мощности и с меньшим объёмом памяти, инвестиции в оборудование могут перестать расти так стремительно.
Перспективы применения TurboQuant в искусственном интеллекте
С TurboQuant у пользователей появится возможность запускать мощные LLM прямо на смартфонах без подключения к облаку. Это создаст новые сценарии использования и обеспечит более приватный опыт, свободный от задержек сети и зависимости от крупных дата-центров.
Однако эта технология также может кардинально изменить экономику AI, так как она призывает делать больше с меньшими ресурсами — что противоречит нынешней парадигме масштабных вычислений и строительства дата-центров.
В 2026 году мы наблюдаем, как история сжатия данных снова меняет правила игры: от файлов и видео к развертыванию искусственного интеллекта. Кто выиграет — пользователи, инфраструктура или крупные технологические корпорации? Ответ пока остаётся открытым.
* Принадлежит компании Meta, она признана экстремистской организацией в РФ и её деятельность запрещена.




