Samsung научил крошечную модель мыслить глубже — и она обошла Gemini 2.5 Pro на задачах ARC-AGI
Новости
Samsung представил Tiny Recursive Model — 7M-параметровую модель с рекурсивным рассуждением, которая в ряде задач обходит гигантские LLM (включая Gemini 2.5 Pro). Работа подчёркивает потенциал алгоритмической эффективности для on-device AI.
170 открытий2К показов
Samsung опубликовал статью «Less is More: Recursive Reasoning with Tiny Networks», в которой описал новый подход к рассуждению в ИИ — Tiny Recursive Model (TRM).
Модель весом всего ~7 миллионов параметров демонстрирует рекурсивный цикл рассуждений: она последовательно использует собственный вывод как вход для следующего шага и таким образом имитирует глубокую архитектуру без её вычислительных и памятных затрат. На наборе задач типа ARC-AGI и связанных логических пазлах TRM показывает результаты, которые в ряде кейсов сопоставимы или лучше, чем у значительно более крупных LLM — включая DeepSeek R1, Google Gemini 2.5 Pro и OpenAI o3-mini.
В чём идея и почему это важно
TRM — не попытка «сделать ещё один маленький GPT». Ключ в рекурсивной петле: модель генерирует промежуточный вывод, оценивает его и затем на его основе формирует следующий шаг рассуждения. По сути это похоже на то, как человек перечитывает черновик, исправляет ошибки и уточняет мысли на каждом проходе.
Такой подход снижает хрупкость классических цепочек рассуждений (chain-of-thought), где одна ошибка шага может разрушить весь вывод, и уменьшает склонность к переобучению при росте числа слоёв. Исследователи отмечают: уменьшение числа слоёв в пользу большего числа рекурсий улучшило обобщение модели.
Что получилось на практике
TRM показал впечатляющие результаты на специализированных тестах. Среди наиболее заметных цифр — 87,4% точности на наборе Sudoku-Extreme (для сравнения: Hierarchical Reasoning Models — ~55%), 85% на Maze-Hard, 45% на ARC-AGI-1 и 8% на ARC-AGI-2. Неплохо для модели с 7 млн параметров, если учесть, что её «соперники» насчитывают миллиарды параметров. При этом TRM особенно эффективна на задачах, где критична итеративная корректировка решения и логическое обоснование.
Ограничения и реалистичные ожидания
Результаты не означают, что крупные LLM больше не нужны. ARC-AGI и родственные головоломки — специфичный бенчмарк, ориентированный на логическое рассуждение и пошаговый план задач. Низкий результат на ARC-AGI-2 (8%) показывает, что модель всё ещё далека от универсальности и требовательна к характеру задачи. К тому же многие практические применения ИИ требуют широкой языковой экспрессии, знания мира и генерации разнообразного контента — для этого по-прежнему важны масштабные модели и большие контексты.
Почему это меняет игру для инженеров и продуктовых команд
TRM подчёркивает важный вывод: масштаб — не единственный путь к прогрессу. Архитектурные трюки, рекурсивные схемы и алгоритмическая экономия могут дать существенный выигрыш в ресурсах и энергоэффективности. Это особенно актуально для задач на стыке edge-/on-device AI, где экономия памяти и мощности критична. Небольшие модели с рекурсивным контролем рассуждений могут упростить внедрение «умных» функций на устройствах с ограниченными ресурсами и снизить эксплуатационные затраты центров обработки.
Что дальше
Работа Samsung открывает направление для дальнейших исследований: как сочетать рекурсию с большим контекстом, какие механизмы контроля качества промежуточных шагов гарантируют стабильность вывода, и как интегрировать подобные подходы в гибридные системы, где крошечные рекурсивные модули работают совместно с крупными LLM. Для многих продуктов это шанс получить «разумные» локальные решения, не тратя гигафлопы и десятки гигабайт памяти.
170 открытий2К показов



