Железо

Qualcomm представила AI200 и AI250 — новые решения для центров обработки данных, оптимизированные под генеративный ИИ

Qualcomm представила AI200 и AI250 — новые решения для центров обработки данных, оптимизированные под генеративный ИИ

Компания Qualcomm Technologies, Inc. анонсировала новое поколение решений для центров обработки данных, оптимизированных под ИИ-инференс: ускорительные карты и стойки на базе чипов Qualcomm AI200 и AI250. Эти продукты, основанные на передовой NPU-технологии компании, обеспечивают масштабируемую производительность, высокую энергоэффективность и оптимальное соотношение мощности и стоимости, открывая путь к более эффективному развертыванию генеративного искусственного интеллекта в различных отраслях.

Решение Qualcomm AI200 представляет собой специально разработанную стойку для ИИ-инференса, ориентированную на низкую общую стоимость владения (TCO) и высокую производительность при работе с крупными языковыми и мультимодальными моделями (LLM, LMM), а также другими ИИ-задачами. Каждая карта поддерживает до 768 ГБ LPDDR-памяти, что обеспечивает большую емкость и гибкость при работе с масштабными моделями.

Qualcomm AI250 использует новую архитектуру памяти с вычислениями рядом с памятью (near-memory computing), что обеспечивает десятикратное увеличение эффективной пропускной способности и значительное снижение энергопотребления по сравнению с предыдущими поколениями. Такое решение позволяет эффективно распределять вычислительные ресурсы, обеспечивая баланс между производительностью и стоимостью для клиентов.

Обе стойки оснащены системой прямого жидкостного охлаждения для эффективного отвода тепла, поддерживают PCIe для масштабирования «вверх» и Ethernet для масштабирования «вширь». Кроме того, предусмотрена поддержка конфиденциальных вычислений, что гарантирует безопасность ИИ-нагрузок. Потребляемая мощность одной стойки составляет 160 кВт.

«С решениями Qualcomm AI200 и AI250 мы переопределяем возможности ИИ-инференса на уровне стоек. Эти инновационные инфраструктурные продукты позволяют компаниям внедрять генеративный ИИ с беспрецедентной эффективностью при минимальных затратах, сохраняя при этом гибкость и безопасность, необходимые современным дата-центрам», — отметил Дурга Маллади, старший вице-президент и генеральный директор подразделения Technology Planning, Edge Solutions & Data Center в Qualcomm Technologies.


Для новых решений разработан программный стек корпоративного уровня, оптимизированный для ИИ-инференса — от прикладного до системного уровня. Он поддерживает все ведущие фреймворки машинного обучения, движки для инференса и оптимизации LLM/LMM, включая технику раздельного обслуживания (disaggregated serving). Разработчики смогут легко интегрировать и запускать модели из библиотеки Hugging Face одним нажатием кнопки через Qualcomm Efficient Transformers Library и Qualcomm AI Inference Suite.

В программный пакет также входят готовые ИИ-приложения и агенты, библиотеки, API и инструменты для внедрения и масштабирования искусственного интеллекта в рабочих средах.

Коммерческий запуск Qualcomm AI200 ожидается в 2026 году, а AI250 — в 2027-м. Компания намерена придерживаться ежегодного цикла обновлений решений для дата-центров, сосредоточившись на повышении производительности ИИ-инференса, энергоэффективности и снижении TCO.

Опубликовано:
Никита Брытков