Alibaba выпустила Marco-o1: новая большая языковая модель (nuneybits futuristic brain shaped circuitry intricate network o 19542b20 90ea 40fe 945a 71f5da4d8fdc transformed)

Компания Alibaba продолжает задавать тренды в области искусственного интеллекта. Недавно исследователи представили новую языковую модель Marco-o1, которая способна решать сложные и открытые задачи, выходящие за пределы традиционных подходов к обучению. Эта разработка основывается на успехе OpenAI o1 и концепции больших моделей рассуждений (LRM), предлагая улучшенные механизмы обработки данных и принятия решений.


Что делает Marco-o1 уникальной?

Marco-o1 представляет собой усовершенствованную версию модели Qwen2-7B-Instruct, интегрирующую передовые технологии, такие как метод цепочек размышлений (Chain-of-Thought, CoT), алгоритм Монте-Карло (Monte Carlo Tree Search, MCTS) и инновационные стратегии анализа. Эти методы позволяют модели справляться с задачами, где отсутствуют четкие стандарты или метрики успеха.

Alibaba выпустила Marco-o1: новая большая языковая модель (marco o1.jpg)

Преимущества Monte Carlo Tree Search

MCTS активно применяется в Marco-o1 для моделирования и оценки множества вариантов решений. Этот алгоритм позволяет модели формировать дерево возможных ответов, учитывая уверенность в каждом из вариантов. Благодаря этому подходу Marco-o1 не просто отвечает на вопросы, но также обдумывает несколько возможных решений, выбирая наиболее подходящее.

Подпишись на канал ForGeeks! Гаджеты, технологии и космос


Исследователи из Alibaba также внедрили возможность настраивать детализацию MCTS. Пользователи могут задавать количество токенов, генерируемых на каждом этапе анализа, что позволяет найти баланс между точностью и затратами на вычисления.

Alibaba выпустила Marco-o1: новая большая языковая модель (marco o1 results.jpg)

Встроенный механизм самокоррекции

Одна из уникальных особенностей Marco-o1 — это система рефлексии. Во время анализа данных модель периодически напоминает себе о необходимости пересмотра решений с помощью фразы: «Подождите! Возможно, я ошибся. Надо подумать заново». Такой подход помогает исправлять ошибки на ранних стадиях, делая результаты более точными и надежными.

Результаты тестирования: от математики до перевода идиом

Для проверки возможностей модели исследователи протестировали Marco-o1 на задачах разной сложности. На тесте MGSM, включающем математические задачи для учеников начальной школы, модель показала значительное превосходство над базовой версией Qwen2-7B, особенно при использовании MCTS.


Alibaba выпустила Marco-o1: новая большая языковая модель (marco o1 translation.jpg)

Одной из наиболее впечатляющих функций Marco-o1 стал перевод сложных идиоматических выражений и сленга. Например, модель корректно интерпретировала китайскую фразу «эта обувь дает ощущение наступания на что-то мягкое» как «эта обувь имеет комфортную подошву» на английском языке. Для этого Marco-o1 использовала цепочку размышлений, оценивая культурный и языковой контекст.

Marco-o1 и будущее моделей рассуждений

Marco-o1 уже доступна для исследователей на платформе Hugging Face вместе с частично открытым набором данных. Этот шаг подчеркивает стремление Alibaba поддерживать инновации и развитие в сообществе разработчиков искусственного интеллекта.


Новая эра конкуренции в разработке LRM

Marco-o1 не единственная модель, появившаяся в результате вдохновения OpenAI o1. На прошлой неделе китайская лаборатория DeepSeek представила своего конкурента R1-Lite-Preview, а исследователи из университетов Китая выпустили LLaVA-o1 — модель для обработки изображений и текста с использованием подхода временного масштабирования вывода. Эти модели продолжают развивать идеи, заложенные OpenAI, и демонстрируют, как временное масштабирование может изменить подход к обучению ИИ.

Подпишись на ITZine в Дзен Новостях
Читай ITZine в Telegram
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии